KR100702575B1 - System of measuring/testing interoperability among defense information systems based on computer aided interview - Google Patents

System of measuring/testing interoperability among defense information systems based on computer aided interview Download PDF

Info

Publication number
KR100702575B1
KR100702575B1 KR1020050080614A KR20050080614A KR100702575B1 KR 100702575 B1 KR100702575 B1 KR 100702575B1 KR 1020050080614 A KR1020050080614 A KR 1020050080614A KR 20050080614 A KR20050080614 A KR 20050080614A KR 100702575 B1 KR100702575 B1 KR 100702575B1
Authority
KR
South Korea
Prior art keywords
interoperability
test
evaluation
master
defense information
Prior art date
Application number
KR1020050080614A
Other languages
Korean (ko)
Other versions
KR20070024951A (en
Inventor
조병인
조완수
이상일
류동국
Original Assignee
국방과학연구소
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 국방과학연구소 filed Critical 국방과학연구소
Priority to KR1020050080614A priority Critical patent/KR100702575B1/en
Publication of KR20070024951A publication Critical patent/KR20070024951A/en
Application granted granted Critical
Publication of KR100702575B1 publication Critical patent/KR100702575B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/26Government or public services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0201Market modelling; Market analysis; Collecting market data
    • G06Q30/0203Market surveys; Market polls

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Strategic Management (AREA)
  • Development Economics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • General Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Finance (AREA)
  • Economics (AREA)
  • Physics & Mathematics (AREA)
  • Accounting & Taxation (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Educational Administration (AREA)
  • Primary Health Care (AREA)
  • Game Theory and Decision Science (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

본 발명은 평가 및 검증 방법에 관한 것으로, 더욱 상세하게는 전자설문 기반의 국방정보시스템 간 상호운용성 평가/검증 시스템에 관한 것이다.The present invention relates to an evaluation and verification method, and more particularly, to an interoperability evaluation / verification system among electronic questionnaire based defense information systems.

본 발명에 따른 전자설문 기반의 국방정보시스템 간 상호운용성 평가/검증 시스템은 상호운용성을 질의하는 평가 마스터와 평가 마스터의 평가에 대한 테스트 시나리오에 따라 테스트를 수행하는 테스트 마스터를 포함하는 마스터 서버와 상호운용 능력을 측정하기 위한 응용 프로그램이 설치되는 국방정보시스템의 슬레이브 서버 및 평가 마스터에서 생성된 국방정보시스템의 상호운용에 관한 질의서에 대한 응답을 수행하는 클라이언트를 포함하는 것을 특징으로 이루어진다.The interoperability evaluation / validation system between the electronic questionnaire-based defense information system according to the present invention is mutually associated with a master server including an evaluation master querying interoperability and a test master performing a test according to a test scenario for evaluation of the evaluation master. And a client performing a response to a questionnaire about the interoperability of the defense information system generated by the slave server of the defense information system in which the application program for measuring the operational capability is installed and the evaluation master.

상호운용성, 평가, 검증, 국방정보시스템, 전자설문 Interoperability, Evaluation, Verification, Defense Information System, Electronic Survey

Description

전자설문 기반의 국방정보시스템 간 상호운용성 평가/검증 시스템{SYSTEM OF MEASURING/TESTING INTEROPERABILITY AMONG DEFENSE INFORMATION SYSTEMS BASED ON COMPUTER AIDED INTERVIEW}Interoperability Evaluation / Verification System between Defense Information System based on Electronic Questionnaire {SYSTEM OF MEASURING / TESTING INTEROPERABILITY AMONG DEFENSE INFORMATION SYSTEMS BASED ON COMPUTER AIDED INTERVIEW}

도 1은 본 발명에 따른 전자설문 기반의 국방정보시스템 간 상호운용성 평가 및 검증 방법을 구현하기 위한 시스템을 설명하기 위하여 도시한 것이다.1 is a diagram illustrating a system for implementing an interoperability evaluation and verification method between electronic survey-based defense information systems according to the present invention.

도 2는 본 발명에 따른 전자설문 기반의 국방정보시스템 간 상호운용성 평가 및 검증 방법을 구현하기 위한 시스템에서 상호운용성을 검사하고, 테스트를 위한 모듈에 관한 설명을 위하여 도시한 것이다.2 is a diagram illustrating a module for checking interoperability in a system for implementing an interoperability evaluation and verification method among electronic questionnaire based defense information systems according to the present invention.

도 3은 본 발명에 따른 전자설문 기반의 국방정보시스템 간 상호운용성 평가 및 검증 시스템에 사용되는 구현옵션을 구조화한 트리를 도시한 것이다.Figure 3 shows a tree structured implementation options used in the interoperability evaluation and verification system between electronic survey-based defense information system according to the present invention.

도 4는 본 발명에 따른 전자설문 기반의 국방정보시스템 간 상호운용성 평가 및 검증 시스템에 사용되는 구현옵션을 구조화한 트리의 중복을 피하면서 트리를 확장하는 방법을 도시한 것이다.4 illustrates a method of expanding a tree while avoiding duplication of a structured tree of implementation options used in an interoperability evaluation and verification system among electronic questionnaire based defense information systems according to the present invention.

도 5는 도 3의 구현옵션 트리에서 도 4에 의한 중복을 피하면서 트리를 확장하는 방법을 이용하여, 도 3의 트리를 확장한 구형옵션 트리를 도시한 것이다.FIG. 5 illustrates a spherical option tree in which the tree of FIG. 3 is expanded using a method of expanding the tree while avoiding duplication of FIG. 4 in the implementation option tree of FIG.

도 6는 질의응답 결과에 따라서 특정한 하나의 구현옵션 트리가 결정되는 것을 설명하기 위하여 도 5의 구현옵션 트리에서 해당 질의를 도시한 것이다.FIG. 6 illustrates a corresponding query in the implementation option tree of FIG. 5 to explain that a specific implementation option tree is determined according to a query response result.

도 7a는 본발명에 따른 전자설문 기반의 국방정보시스템 간 상호운용성 평가/검증 시스템에서 상호운용 수준 2에 대한 테스팅 모델을 도시한 블록도이다.FIG. 7A is a block diagram illustrating a testing model for interoperability level 2 in an interoperability evaluation / verification system among electronic survey-based defense information systems according to the present invention.

도 7b는 본발명에 따른 전자설문 기반의 국방정보시스템 간 상호운용성 평가/검증 시스템에서 상호운용 수준 3에 대한 테스팅 모델을 도시한 블록도이다.7B is a block diagram illustrating a testing model for interoperability level 3 in an interoperability evaluation / validation system between electronic survey-based defense information systems according to the present invention.

도 7c는 본발명에 따른 전자설문 기반의 국방정보시스템 간 상호운용성 평가/검증 시스템에서 상호운용 수준 4에 대한 테스팅 모델을 도시한 블록도이다.7C is a block diagram illustrating a testing model for interoperability level 4 in an interoperability evaluation / verification system among defense information systems based on an electronic survey according to the present invention.

도 7d는 본발명에 따른 전자설문 기반의 국방정보시스템 간 상호운용성 평가/검증 시스템에서 상호운용 수준 5에 대한 테스팅 모델을 도시한 블록도이다.7d is a block diagram illustrating a testing model for interoperability level 5 in an interoperability evaluation / verification system among electronic survey-based defense information systems according to the present invention.

도 8은 본 발명에 따른 전자설문 기반의 국방정보시스템 간 상호운용성 평가 및 검증 방법을 도시한 순서도이다.8 is a flowchart illustrating a method for evaluating and verifying interoperability between electronic survey-based defense information systems according to the present invention.

본 발명은 평가 및 검증 방법에 관한 것으로, 더욱 상세하게는 전자설문 기반의 국방정보시스템 간 상호운용성 평가/검증 시스템에 관한 것이다.The present invention relates to an evaluation and verification method, and more particularly, to an interoperability evaluation / verification system among electronic questionnaire based defense information systems.

국방정보시스템 간의 상호운용성 평가는 네트워크로 연결된 서로 다른 다수의 시스템 간의 상호작용을 평가한다는 면에서 기존의 상호운용성 시험(interoperability testing)과 유사하지만 두 가지 측면에서 차이점을 가진다.The interoperability assessment between defense information systems is similar to the existing interoperability testing in that it evaluates the interaction between a number of different networked systems, but there are two differences.

1. 상호운용표준 부재1. Interoperability standard member

민간 분야의 상호운용성 시험은 특정 표준을 기준으로 이 표준을 구현한 다양한 회사의 다양한 제품들 간의 호환성 시험에 중점을 둔다. 따라서, 표준에 대한 적합성(standard conformance) 시험에 바탕을 둔다. 반면에 국방정보시스템은 특정 표준을 기준으로 상호운용하지 않는다. 일반적으로 각 국방정보시스템이 별도의 의미를 가진 별개의 데이터베이스를 구축하고 운용하며 구축된 데이터 중에서 다른 시스템에서 필요로 하는 데이터가 있는 경우에 그 데이터를 전달하는 방법으로 상호운용 한다.The interoperability test in the private sector focuses on compatibility testing between various products from different companies that implement this standard based on specific standards. Therefore, it is based on a standard conformance test. Defense Information Systems, on the other hand, do not interoperate based on specific standards. In general, each defense information system establishes and operates a separate database with a separate meaning, and interoperates by transferring the data when there is data needed by other systems among the constructed data.

2. 절차와 인프라의 중요성2. Importance of procedures and infrastructure

국방정보시스템은 보안 문제로 인하여 상호운용을 위한 절차와 통신 인프라에 제약이 가해지는 경우가 많다. 즉, 정보시스템이 보유하고 있는 데이터를 다른 시스템에 전송하는 경우에 해당 데이터 보안과 관련된 절차와 전송을 위한 인프라(혹은 미디어)가 중요한 이슈가 된다.Defense information systems often impose restrictions on interoperability procedures and communication infrastructure due to security issues. That is, in case of transferring data owned by the information system to another system, the procedure related to the data security and the infrastructure (or media) for the transmission are important issues.

이에 따라 한국군에서는 국방정보시스템 간의 상호운용성 평가를 위한 별도의 지침을 정의하고 이를 바탕으로 상호운용성을 측정한다.Accordingly, the ROK military defines a separate guideline for evaluating interoperability between defense information systems and measures interoperability.

즉, 미군과 한국군은 지금까지 국방정보시스템 간의 상호운용성 측정을 위해서 전자질의평가(computer-aided interview)를 주로 사용해 왔다.In other words, the US and ROK military have used computer-aided interviews mainly to measure interoperability between defense information systems.

질의평가 기법은 미리 준비된 질의문을 바탕으로 질의/응답 과정을 통해서 각각의 국방정보시스템이 채택하고 있는 상호운용 관련 기술, 표준, 제품을 파악한 후 이를 바탕으로 상호운용 수준을 측정하는 기법이다.The query evaluation technique is a technique to identify interoperability-related technologies, standards, and products adopted by each defense information system through a question / answer process based on previously prepared questions and then measure the level of interoperability.

질의응답에 기반을 둔 상호운용성 평가는 국방정보시스템이 갖추고 있는 상호운용 절차, 응용 프로그램, 인프라, 데이터를 쉽게 파악할 수 있어서 상호운용성 측정이 쉽기 때문에 많이 사용되지만 현실적으로 오답 취약성과 잠재능력과 실질능력의 괴리와 같은 문제점이 있다.Interoperability assessment based on Q & A is widely used because it is easy to measure interoperability because it can easily understand the interoperability procedures, applications, infrastructure, and data provided by the defense information system. There are problems such as gaps.

상술한 문제점을 해결하기 위한 본 발명의 목적은, 정보시스템 상호운용 수준 LISI에 의해서 국방정보시스템 간의 상호운용 능력을 전자설문 방식으로 측정하고 테스트를 통해서 확인을 할 수 있는 시스템을 제공하는 데 있다.SUMMARY OF THE INVENTION An object of the present invention for solving the above problems is to provide a system capable of measuring interoperability between defense information systems by means of an electronic questionnaire by means of an information system interoperability level LISI and confirming through testing.

상술한 과제를 해결하기 위한 본 발명에 따른 전자설문 기반의 국방정보시스템 간 상호운용성 평가 및 검증 시스템은 상호운용성을 질의하는 평가 마스터와 상기 평가 마스터의 평가에 대한 테스트 시나리오에 따라 테스트를 수행하는 테스트 마스터를 포함하는 마스터 서버; 상호운용 능력을 측정하기 위한 응용 프로그램이 설치되는 국방정보시스템의 슬레이브 서버; 및 상기 평가 마스터에서 생성된 국방정보시스템의 상호운용에 관한 질의서에 대한 응답을 수행하는 클라이언트;를 포함하는 것을 특징으로 한다.The interoperability evaluation and verification system between the electronic questionnaire-based defense information system according to the present invention for solving the above problems is a test for performing the test according to the evaluation master to query the interoperability and the evaluation scenario of the evaluation master A master server including a master; A slave server of the defense information system, in which an application program for measuring interoperability is installed; And a client performing a response to the questionnaire relating to the interoperability of the defense information system generated by the evaluation master.

여기서, 상술한 평가 마스터는 상기 클라이언트와 평가 마스터간 인터페이스를 위한 사용자 인터페이스; 및 상기 국방정보시스템 상호운용성을 평가하는 기능 을 제공하는 상호운용성 평가 엔진;를 포함하는 것이 바람직하다.Here, the above-described evaluation master may include a user interface for an interface between the client and the evaluation master; And an interoperability evaluation engine providing a function for evaluating the defense information system interoperability.

여기서, 상술한 상호운용성 평가 엔진은, 상호운용 질의서를 이용하여 질의문을 국방정보시스템 클라이언트에게 제출하고, 이에 대한 응답을 수집하는 상호운용 질의처리기; 상기 상호운용 질의처리기에서 수집된 응답을 기초로 프로파일을 생성하는 상호운용 프로파일 생성모듈; LISI 모델, 구현옵션, 임계규칙 테이블 등 고정데이터 관리하는 LISI 데이터 관리기; 상기 질의응답 결과를 바탕으로 상호운용 수준을 평가하는 상호운용 수준 평가기; 및 상기 평가 결과를 이용해서 오버레이, 매트릭스 등 다양한 부가 산출물 생성하는 LISI 평가 산출물 생성기;를 포함하는 것이 바람직하다.Here, the above-described interoperability evaluation engine may include an interoperable query processor for submitting a query to a defense information system client using an interoperable questionnaire and collecting a response thereto; An interoperability profile generation module that generates a profile based on the responses collected by the interoperable query processor; A LISI data manager for managing fixed data such as a LISI model, an implementation option, and a threshold rule table; An interoperability level evaluator evaluating an interoperability level based on the question and answer result; And a LISI evaluation output generator for generating various additional outputs such as an overlay and a matrix by using the evaluation result.

여기서, 상술한 테스트 마스터는 상기 클라이언트와 테스트 마스터간 인터페이스를 위한 사용자 인터페이스; 상기 슬레이브 서버를 통해서 추출된 상호운용 시험 정보 중에서 시스템 간 인터페이스 정보를 바탕으로 시험 시나리오를 조합하고, 수준별 테스트 케이스를 바탕으로 수준에 맞는 시나리오를 생성하는 테스트 시나리오 조합도구; 상기 테스트 시나리오 조합도구에 의해서 조합된 테스트 시나리오를 슬레이브 서버에 나누어 할당하는 병행성 제어기; 및 상기 슬레이브 서버에 의해서 수집된 시험 결과를 바탕으로 시스템 간 상호운용 능력을 판정하는 테스트 로그 분석기;를 포함하는 것이 바람직하다.Here, the above-described test master may include a user interface for an interface between the client and the test master; A test scenario combination tool for combining test scenarios based on interface information between systems among interoperability test information extracted through the slave server, and generating scenarios suitable for levels based on test cases for each level; A concurrency controller which allocates the test scenarios combined by the test scenario combination tool to slave servers; And a test log analyzer for determining interoperability between systems based on test results collected by the slave server.

여기서, 상술한 슬레이브 서버는, 상기 테스트 마스터와의 통신을 담당하고, 테스트 마스터로부터의 요청을 받아서 해당 모듈을 동작시키며, 동작 결과를 테스트 마스터에게 전송하는 테스트 에이전트; 시험 대상 정보시스템의 규격 혹은 코드 를 분석하여 상호운용 시험 정보를 추출하는 정보시스템 분석도구; 시험 대상 정보시스템을 테스트 하는 테스트 엔진;를 포함하는 것이 바람직하다.Here, the slave server may include: a test agent in charge of communication with the test master, receiving a request from the test master to operate the corresponding module, and transmitting an operation result to the test master; An information system analysis tool for extracting interoperable test information by analyzing a standard or a code of a test target information system; It is preferable to include a; test engine for testing the test target information system.

여기서, 상술한 테스트 엔진은, 상기 테스트 마스터에서 생성된 시험 시나리오와 시험 데이터를 이용해서 시스템 간의 상호운용 능력 시험을 수행하는 테스트 수행 엔진; 시험 시나리오에 따라 적용될 시험 데이터를 생성하고, 시험 데이터 생성시에 정보시스템 분석 결과 추출하는 데이터 생성 엔진; 시험 수행 중에 정보시스템 내부 상태를 모니터링 하여 상호운용 성공 여부를 판정할 수 있는 정보를 수집하고, 추출하는 모니터링 엔진;를 포함하는 것이 바람직하다.The test engine described above may include: a test execution engine configured to perform an interoperability test between systems using test scenarios and test data generated by the test master; A data generation engine which generates test data to be applied according to a test scenario and extracts an information system analysis result when generating test data; It is preferable to include a monitoring engine for collecting and extracting information that can determine the success of the interoperability by monitoring the internal state of the information system during the test execution.

여기서, 시스템 간 상호운용 시험 과정에서 발생하는 각종 정보 및 자료를 관리하기 위한 저장소를 더 포함하는 것이 바람직하다.Here, it is preferable to further include a repository for managing various information and data generated during the interoperability test process between systems.

여기서, 상술한 저장소는 XML(eXtensible Markup Language)로 추축할 수 있는 데이터베이스인 것이 바람직하다.Here, the storage described above is preferably a database that can be extracted in XML (eXtensible Markup Language).

여기서, 상술한 상호운용 질의서, LISI 모델, LISI 평가 산출물, 임계규칙 테이블, 구현옵션 집합, 또는 테스트 산출물 중 어느 하나 이상을 포함하는 것이 바람직하다.Here, it is preferable to include any one or more of the above-described interoperability query, LISI model, LISI evaluation output, threshold rule table, implementation option set, or test output.

여기서, 상술한 테스트 산출물은 상호운용성 시험 정보, 테스트 시나리오, 데스트 데이터, 데스트 오라클, 데스트 드라이버, 또는 테스트 수행 결과 중 어느 하나 이상을 포함하는 것이 바람직하다.In this case, the test output described above may include at least one of interoperability test information, test scenario, test data, test Oracle, test driver, or test performance result.

여기서, 상술한 상호운용에 관한 질의서는 구현옵션 집합을 기반으로 작성되는 것이 바람직하다.In this case, the above-described interoperability questionnaire is preferably written based on a set of implementation options.

여기서, 상술한 구현옵션은 요소 수준, 서비스 수준, 표준 수준 및 제품 수준의 계층을 포함하는 트리 구조인 것이 바람직하다.Here, the above-described implementation option is preferably a tree structure including a hierarchy of element level, service level, standard level and product level.

여기서, 상술한 트리는 균형 트리의 계층 구조인 것이 바람직하다.Here, the above-mentioned tree is preferably a hierarchical structure of the balance tree.

또한, 본 발명에 따른 전자설문 기반의 국방정보시스템 간 상호운용성 평가/검증 방법은 (a) 다양한 국방정보시스템들에서 사용되는 구현 옵션들을 포함하도록 마스터 서버에서 구현옵션 집합을 구축하는 단계; (b) 상기 구현옵션 집합을 기초로 상호운용 평가를 위한 질의서를 마스터 서버에서 구축하는 단계; (c) 상기 마스터 서버는 국방정보시스템 클라이언트에게 질의서를 이용하여 질의하는 단계; (d) 마스터 서버는 앞서 응답을 기초로 프로파일을 작성하는 단계; (e) 마스터 서버는 프로파일을 기초로 잠재수준을 측정하는 단계; (f) 마스터 서버는 잠재수준에 의한 테스트 시나리오를 이용하여 테스트를 수행하는 단계; (g) 마스터 서버는 앞서 수행한 결과를 종합하여 운용수준을 확정하는 단계;를 포함하는 것을 특징으로 한다.In addition, the interoperability evaluation / verification method between the electronic survey-based defense information system according to the present invention comprises the steps of: (a) building a set of implementation options in the master server to include implementation options used in various defense information systems; (b) constructing a query for interoperability evaluation on a master server based on the set of implementation options; (c) the master server querying the defense information system client using a query; (d) the master server creating a profile based on the previous response; (e) the master server measuring the potential level based on the profile; (f) the master server performing a test using a test scenario at a latent level; (g) determining the operation level by synthesizing the results of the previous step; and characterized in that it comprises a.

여기서, 상술한 구현옵션 집합은 완전성(completeness), 구조화(structuring) 및 유지보수성(maintainability)의 특징을 만족하는 것이 바람직하다.Here, it is preferable that the above-described set of implementation options satisfy the characteristics of completeness, structuring, and maintainability.

기타 실시예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Specific details of other embodiments are included in the detailed description and the drawings.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술 되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형 태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Advantages and features of the present invention, and methods for achieving them will be apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be embodied in various different forms, and the present embodiments merely make the disclosure of the present invention complete, and those of ordinary skill in the art to which the present invention belongs. It is provided to fully inform the person having the scope of the invention, which is defined only by the scope of the claims. Like reference numerals refer to like elements throughout.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명하기로 한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명에 따른 전자설문 기반의 국방정보시스템 간 상호운용성 평가 및 검증 방법을 구현하기 위한 시스템을 설명하기 위하여 도시한 것이다.1 is a diagram illustrating a system for implementing an interoperability evaluation and verification method between electronic survey-based defense information systems according to the present invention.

도시된 바와 같이, 본 발명에 따른 전자설문 기반의 국방정보시스템 간 상호운용성 평가 및 검증 방법을 구현하기 위한 시스템은 테스트 마스터 서버(110), 테스트 슬레이브 서버(120a, 120b), 상호운용성이 검증된 네트워크(130) 및 국방정보시스템 클라이언트 (140)를 포함한다.As shown, the system for implementing the interoperability evaluation and verification method between the electronic questionnaire based defense information system according to the present invention is the test master server 110, the test slave server (120a, 120b), the interoperability is verified Network 130 and defense information system client 140.

여기서, 테스트 슬레이브 서버(120a, 120b)는 테스트 슬레이브 서버(120a, 120b)간의 상호운용성을 측정하기 위하여 테스트 슬레이브 서버(120a, 120b)를 부가할 수 있으며, 본 발명에 대한 설명에서는 테스트 슬레이브 서버(120a, 120b)간의 상호운용성에 대해서 설명한다.Here, the test slave servers 120a and 120b may add test slave servers 120a and 120b to measure the interoperability between the test slave servers 120a and 120b. Interoperability between 120a and 120b will be described.

구현옵션 집합에 기반한 상호운용질의서에 대하여 국방정보시스템 클라이언트(140)가 응답을 하는 것을 평가하여 상호운용 프로파일이 작성되고, 작성된 프로파일에 의하여 테스트 슬레이브 서버(120a, 120b)간의 상호운용 수준을 측정하고, 상호운용성이 검증된 네트워크(130)를 이용하여 테스트 마스터 서버(110)의 테스트 시나리오를 바탕으로 테스트 슬레이브 서버(120a, 120b)간의 상호운용성을 테스트를 통하여 확인하는 것이다.The interoperability profile is created by evaluating the response of the defense information system client 140 to the interoperability questionnaire based on the set of implementation options, and the interoperability level between the test slave servers 120a and 120b is measured by the created profile. The interoperability between the test slave servers 120a and 120b based on the test scenario of the test master server 110 is verified by using the network 130 having the interoperability verified through the test.

여기서, 상호운용성을 측정하고, 테스트를 위한 모듈에 관한 설명은 도 2에서 자세히 설명한다.Here, the description of the module for measuring interoperability and testing will be described in detail with reference to FIG. 2.

도 2는 본 발명에 따른 전자설문 기반의 국방정보시스템 간 상호운용성 평가 및 검증 방법을 구현하기 위한 시스템에서 상호운용성을 검사하고, 테스트를 위한 모듈에 관한 설명을 위하여 도시한 것이다.2 is a diagram illustrating a module for checking interoperability in a system for implementing an interoperability evaluation and verification method among electronic questionnaire based defense information systems according to the present invention.

도시된 바와 같이, 본 발명에 따른 전자설문 기반의 국방정보시스템 간 상호운용성 평가 및 검증 방법을 구현하기 위한 시스템에서 상호운용성을 검사하고, 테스트를 위한 모듈은 평가 마스터(210), 테스트 마스터(220), 저장소(230), 제1 테스트 슬레이브(240), 제2 테스트 슬레이브(250) 및 상호운용성이 검증된 네트워크(260)를 포함한다.As shown, the interoperability in the system for implementing the interoperability evaluation and verification method between the electronic questionnaire based defense information system according to the present invention, the module for testing is the evaluation master 210, the test master 220 ), The storage 230, the first test slave 240, the second test slave 250, and the interoperable network 260.

<구성><Configuration>

평가 마스터(210)는 평가 마스터(210)용 사용자 인터페이스(211) 및 상호운용성 평가엔진(212)을 포함한다.The assessment master 210 includes a user interface 211 for the assessment master 210 and an interoperability assessment engine 212.

여기서, 상호운용성 평가엔진(212)은 상호운용 질의처리기(212a), 상호운용 프로파일 생성모듈(212b), LISI 데이터관리기(212c), 상호운용 수준평가기(212d) 및 LISI 평가산출물 생성기(212e)를 포함한다.Here, the interoperability evaluation engine 212 includes an interoperable query processor 212a, an interoperability profile generation module 212b, a LISI data manager 212c, an interoperability level evaluator 212d, and an LISI evaluation output generator 212e. It includes.

테스트 마스터(220)는 테스트 마스터(220)용 사용자 인터페이스(221), 테스트 시나리오 조합도구(222), 병행성 제어기(223), 테스트 로그 분석기(224) 및 테스트 산출물 저장소(225)를 포함한다.The test master 220 includes a user interface 221 for the test master 220, a test scenario combination tool 222, a concurrency controller 223, a test log analyzer 224, and a test output repository 225.

제1 테스트 슬레이브(240)는 테스트 에이전트(241), 정보시스템 분석도구(242), 테스트 엔진(243)을 포함한다.The first test slave 240 includes a test agent 241, an information system analysis tool 242, and a test engine 243.

여기서, 테스트 엔진(243)은 테스트 수행엔진(243a), 데이터 생성엔진(243b) 및 모니터링 엔진(243c)을 포함한다.Here, the test engine 243 includes a test execution engine 243a, a data generation engine 243b, and a monitoring engine 243c.

같은 구조로, 제2 테스트 슬레이브(250)는 테스트 에이전트(251), 정보시스템 분석도구(252), 테스트 엔진(253)을 포함한다.In the same structure, the second test slave 250 includes a test agent 251, an information system analysis tool 252, and a test engine 253.

여기서, 테스트 엔진(253)은 테스트 수행엔진(미도시), 데이터 생성엔진(미도시) 및 모니터링 엔진(미도시)을 포함한다.Here, the test engine 253 includes a test execution engine (not shown), a data generation engine (not shown), and a monitoring engine (not shown).

<기능><Function>

평가 마스터(210)용 사용자 인터페이스(211)는 평가 대상자가 웹 브라우저를 이용하여 전자설문 진행하도록 인터페이스를 제공한다.The user interface 211 for the evaluation master 210 provides an interface for an evaluation subject to proceed with an electronic survey using a web browser.

상호운용성 평가엔진(212)은 국방정보시스템 상호운용성 평가 기능을 제공한다.The interoperability evaluation engine 212 provides a defense information system interoperability evaluation function.

상호운용 질의처리기(212a)는 상호운용 질의서를 이용하여 질의문을 국방정보시스템 클라이언트에게 제출하고, 이에 대한 응답을 수집한다.The interoperable query processor 212a submits the query to the defense information system client using the interoperable questionnaire, and collects a response.

상호운용 프로파일 생성모듈(212b)은 상호운용 질의처리기(212a)에서 수집된 응답을 바탕으로 프로파일을 생성한다.The interoperability profile generation module 212b generates a profile based on the responses collected by the interoperable query processor 212a.

LISI 데이터관리기(212c)는 LISI 모델, 구현옵션, 임계규칙 테이블 등 고정데이터 관리한다.The LISI data manager 212c manages fixed data such as a LISI model, an implementation option, and a threshold rule table.

상호운용 수준평가기(212d)는 질의응답 결과를 바탕으로 상호운용 수준을 평가한다.The interoperability level evaluator 212d evaluates the level of interoperability based on the result of the question and answer.

LISI 평가산출물 생성기(212e)는 평가 결과를 이용해서 오버레이, 매트릭스 등 다양한 부가 산출물 생성한다.The LISI evaluation output generator 212e generates various additional outputs such as an overlay and a matrix by using the evaluation result.

테스트 마스타(220)용 사용자 인터페이스(221)는 상호운용 시험도구 운용자에게 그래픽 인터페이스를 제공한다.The user interface 221 for the test master 220 provides a graphical interface to the interoperability test tool operator.

테스트 시나리오 조합도구(222)는 제1 및 제2 테스트 슬레이브(240, 250)에 있는 정보시스템 분석도구(242, 252)를 통해서 추출된 상호운용 시험 정보 중에서 시스템 간 인터페이스 정보를 바탕으로 시험 시나리오를 조합하고, 수준별 테스트 케이스를 바탕으로 수준에 맞는 시나리오를 생성한다.The test scenario combination tool 222 performs a test scenario based on interface information between systems among interoperability test information extracted through the information system analysis tools 242 and 252 in the first and second test slaves 240 and 250. And create scenarios that match the level based on the level's test cases.

병행성 제어기(223)는 테스트 시나리오 조합도구(222)에 의해서 조합된 테스트 시나리오를 제1 및 제2 테스트 슬레이브(240, 250)에 나누어 할당한다.The concurrency controller 223 divides the test scenarios combined by the test scenario combination tool 222 into the first and second test slaves 240 and 250.

테스트 로그 분석기(224)는 제1 및 제2 테스트 슬레이브(240, 250)에 있는 모니터링 엔진(243c)에 의해서 수집된 시험 결과를 바탕으로 시스템 간 상호운용 능력을 판정한다.The test log analyzer 224 determines interoperability between systems based on test results collected by the monitoring engines 243c in the first and second test slaves 240, 250.

저장소(230)는 시스템 간 상호운용 시험 과정에서 발생하는 각종 정보 및 자료를 관리하기 위한 데이터베이스이지만, 향후 확장될 가능성이 크므로 확장성을 고려해서 XML(eXtensible Markup Language)로 구성된다.The repository 230 is a database for managing various information and data generated during the interoperability testing process between systems, but is configured in XML (eXtensible Markup Language) in consideration of scalability because it is likely to be expanded in the future.

테스트 에이전트(241)는 테스트 마스터(220)와의 통신을 담당하고, 테스트 마스터(220)로부터의 요청을 받아서 해당 모듈을 동작시키고 동작 결과를 다시 테스트 마스터(220)에게 전송한다.The test agent 241 is responsible for communication with the test master 220, receives a request from the test master 220, operates the corresponding module, and transmits the operation result to the test master 220 again.

정보시스템 분석도구(242)는 시험 대상 정보시스템의 규격 혹은 코드를 분석하여 상호운용 시험 정보를 추출하는 도구이다.The information system analysis tool 242 is a tool for extracting interoperability test information by analyzing a standard or a code of a test target information system.

여기서, 추출하는 정보는 국방정보시스템 간의 인터페이스, 시스템간 공유 데이터 구조, 상호운용 평가 정보 등이다.Here, the extracted information is an interface between defense information systems, a shared data structure between systems, interoperability evaluation information, and the like.

테스트 수행 엔진(243a)은 테스트 마스터(220)에서 생성된 시험 시나리오와 시험 데이터를 이용해서 시스템 간의 상호운용 능력 시험을 수행하는 엔진으로, 시험 수행을 위해서 시험 드라이버를 활용한다.The test execution engine 243a is an engine that performs an interoperability test between systems using test scenarios and test data generated by the test master 220, and uses a test driver to perform a test.

데이터 생성 엔진(243b)은 시험 시나리오에 따라 적용될 시험 데이터를 생성하고, 시험 데이터 생성시에 정보시스템 분석 결과 추출된 상호운용 시험 정보 중에서 시스템간 공유 데이터 구조 정보가 사용된다.The data generation engine 243b generates test data to be applied according to the test scenario, and the shared data structure information between systems is used among the interoperability test information extracted as a result of analyzing the information system when generating the test data.

모니터링 엔진(243c)은 시험 수행 중에 정보시스템 내부 상태를 모니터링 하여 상호운용 성공 여부를 판정할 수 있는 정보를 수집하고, 정보시스템 분석도구에서 추출된 상호운용 평가정보를 활용한다.The monitoring engine 243c collects information to determine whether the interoperability is successful by monitoring the internal state of the information system during the test, and utilizes the interoperability evaluation information extracted from the information system analysis tool.

<설명><Description>

현재 국방정보시스템 간의 상호운용성 평가 지침은 LISI(Level of Information System Interoperability)를 기반으로 한다.Currently, guidance for evaluating interoperability among defense information systems is based on the Level of Information System Interoperability (LISI).

LISI는 국방정보시스템 간의 상호운용성 수준을 여섯 단계로 세분하고 있으 며 각 단계별로 상호운용 절차(procedure; P), 응용프로그램(application; A), 인프라(infrastructure; I), 데이터(data; D)의 네 가지 측면의 요구사항을 정의한다.LISI breaks down the level of interoperability among defense information systems into six levels, each of which includes interoperability procedures (P), applications (A), infrastructure (I), and data (D). Define the requirements of the four aspects of

따라서 국방 정보시스템 간의 상호운용성 평가는 상호운용 절차, 응용 프로그램, 인프라, 데이터가 요구수준을 만족하는지를 측정함으로써 이루어진다.Thus, interoperability assessments among defense information systems are made by measuring whether interoperability procedures, applications, infrastructure, and data meet requirements.

여기서, LISI 97 능력 모델에 대한 것을 표 1에 나타내었다.Here, Table 1 shows the LISI 97 capability model.

Figure 112005048687361-pat00001
Figure 112005048687361-pat00001

LISI 모델을 근거로 국방 정보시스템 간의 상호운용성을 평가할 수 있는 질의평가를 수행하기 위하여 평가 마스터(210)가 먼저 수행된다.Evaluation master 210 is first performed to perform a query evaluation that can evaluate the interoperability between defense information systems based on the LISI model.

평가 마스터(210)에서는 정보시스템의 상호운용과 연관된 기술, 표준, 혹은 제품들을 조사해서 광범위한 집합을 구성하는 구현옵션 집합을 LISI 데이터 관리기(212c)에서 참조한다.The evaluation master 210 references the LISI data manager 212c to a set of implementation options that make up a broad set by examining the technologies, standards, or products associated with the interoperability of the information system.

여기서, LISI 데이터 관리기(212c)에서는 구현옵션을 구조화하여 추가, 삭제 및 변경이 용이하게 이루어지도록 관리하며, 구현옵션을 테이블 또는 트리 형태로 구조화한 것에 대한 설명은 도 3에서 설명하고, 도 4에서는 구현옵션 트리를 추가하는 방법에 대해서 설명하고, 실예로 3가지의 구현옵션을 추가한 예를 도 5에서 설명한다.Here, the LISI data manager 212c manages the implementation options by structuring them to be easily added, deleted, and changed, and the description of structuring the implementation options in a table or tree form will be described with reference to FIG. 3, and in FIG. 4. A method of adding an implementation option tree will be described, and an example of adding three implementation options will be described with reference to FIG. 5.

여기서, 구현옵션 집합을 테이블로 정리한 것을 표 2에 나타내었다.Here, Table 2 shows a table of implementation option sets.

Figure 112005048687361-pat00002
Figure 112005048687361-pat00002

상술한 구현옵션 집합을 바탕으로 평가대상 국방정보시스템이 어떤 기술, 표준, 제품을 채택하고 있는지 묻기 위한 질의서가 구축되며, 질의서에 대한 설명은 도 6에서 설명한다.Based on the above-described set of implementation options, a questionnaire is constructed to ask which technologies, standards, and products are adopted by the evaluation target defense information system, and a description of the questionnaire is described in FIG. 6.

상호운용 질의처리기(212a)에서는 앞서 생성된 구현옵션을 통하여 질의서를 생성하고, 정보시스템 개발자 혹은 운용자에게 상호운용 능력에 관한 질문을 묻고 그에 대한 응답을 받는다.The interoperable query processor 212a generates a query through the previously created implementation option, asks an information system developer or operator a question about interoperability, and receives a response.

앞서 상호운용 질의처리기(212a)에서 정보시스템 개발자 혹은 운용자로부터의 응답을 분석하여 상호운용 수준을 상호운용 수준 평가기(212d)에서 평가하고, 앞서 평가된 상호운용 수준에 대한 프로파일을 상호운용 프로파일 생성모듈(212b)에서 생성하게 된다.By analyzing the response from the information system developer or operator in the interoperable query processor 212a, the interoperability level is evaluated by the interoperability level evaluator 212d, and the profile of the previously evaluated interoperability profile is generated. Generated in module 212b.

또한, 앞서 생성된 프로파일에 관한 자료와 상호운용 질의서, LISI 모델, LISI 평가 산출물, 임계규칙 테이블, 구현옵션 집합 등을 저장소(230)에 저장한다.Also, the repository 230 stores data about the profile generated above, interoperability questionnaire, LISI model, LISI evaluation output, threshold rule table, implementation option set, and the like.

앞서 국방정보 시스템에 대한 상호운용성을 측정하기 위한 질의서가 평가된 후에는, 테스트를 통하여 확인하는 과정이 수행된다.After the questionnaire for evaluating interoperability with the defense information system is evaluated, a process of confirming through a test is performed.

즉, 제1 및 제2 테스트 슬레이브(240, 250)는 상호운용 시험 대상이 되는 두 정보시스템에 각각 설치되며 테스트 마스터(220)는 별도의 서버에 설치된다.That is, the first and second test slaves 240 and 250 are respectively installed in the two information systems that are the interoperability test targets, and the test master 220 is installed in a separate server.

테스트 마스터(220)는 제1 및 제2 테스트 슬레이브(240, 250)를 제어하여 전체 테스트 진행 과정을 주관하며 제1 및 제2 테스트 슬레이브(240, 250)는 테스트 마스터(220)의 제어를 통해서 상호운용 시험 대상 정보시스템을 분석하고, 테스트 케이스를 수행하며, 그 결과를 모니터링 한다.The test master 220 controls the first and second test slaves 240 and 250 to control the entire test process, and the first and second test slaves 240 and 250 control the test master 220. Analyze interoperable test information systems, conduct test cases, and monitor the results.

테스팅 과정에서 산출되는 모든 산출물은 저장소(230)에서 중앙집중식으로 관리한다.All outputs produced during the testing process are managed centrally in the storage 230.

여기서, 테스트 산출물들은 다음 표 3과 같다.Here, the test outputs are shown in Table 3 below.

Figure 112005048687361-pat00003
Figure 112005048687361-pat00003

여기서, 상호운용성에 관한 테스트는 도 7a 내지 도 7d에서 설명한다.Here, a test regarding interoperability is described with reference to FIGS. 7A to 7D.

도 3은 본 발명에 따른 전자설문 기반의 국방정보시스템 간 상호운용성 평가 및 검증 시스템에 사용되는 구현옵션을 구조화한 트리를 도시한 것이다.Figure 3 shows a tree structured implementation options used in the interoperability evaluation and verification system between electronic survey-based defense information system according to the present invention.

도시된 바와 같이, 본 발명에 따른 전자설문 기반의 국방정보시스템 간 상호운용성 평가 및 검증 시스템에 사용되는 구현옵션을 구조화한 트리는 요소 수준(Property level), 서비스 수준(Service level), 표준 수준(Standard level) 및 제품 수준(Product level)을 포함한다.As shown, the tree structured the implementation options used in the interoperability evaluation and verification system between the electronic questionnaire-based defense information system according to the present invention is a property level, service level, standard level (Standard) level) and product level.

트리는 방향성, 비순환성, 연결성, 단일부모 특성을 가진 그래프를 의미한다. 트리를 이용해서 구현옵션 집합을 구조화하는 경우에 다음과 같은 특징이 존재한다.A tree is a graph with directional, acyclic, connected, and single parental characteristics. The following characteristics exist when using a tree to structure a set of implementation options.

첫째, 구현옵션 집합에 포함된 항목들 간에는 포함 관계가 존재하고, 둘째, 양의 정보를 트리로 표현할 때는 주로 균형 트리(balanced tree)를 사용하며, 서째, 구현옵션이 중복되어 나타나면 일관된 관리가 어려워진다.First, there is a containment relationship among the items included in the implementation option set. Second, a balanced tree is used to express positive information as a tree. Third, if the implementation options are duplicated, it is difficult to manage them consistently. Lose.

즉, 많은 양의 정보를 트리를 이용해서 표현하는 경우에 효율성을 가지려면 트리의 균형화가 중요하기에 트리 구조의 포함관계를 이용해서 구현옵션 집합을 표현할 경우에 도시된 바와 같은 계층 구조(hierarchy)를 갖는 것이 바람직하다.In other words, in order to be efficient when expressing a large amount of information using a tree, the balance of the tree is important, so the hierarchy as shown in the case of expressing a set of implementation options using a tree structure inclusion relationship is shown. It is preferable to have.

즉, 구현옵션 트리의 계층구조를 요소, 서비스, 표준, 제품 순으로 분류한다면 구현옵션의 중복이 발생하지 않는다. In other words, if the hierarchical structure of the implementation option tree is divided into elements, services, standards, and products, duplication of implementation options does not occur.

그러나, 이런 분류는 구현 옵션 트리의 계층을 4수준으로 제한하는 것이어서 실제 모든 구현옵션을 분류하기에 부족하다.However, this classification limits the hierarchy of implementation option trees to four levels, which is not sufficient to classify all implementation options.

이러한 이유로, 플랫폼 계층과 같이 구현옵션 집합에 추가로 계층을 도입해야 하는 경우가 있으며, 이때 추가로 도입되는 계층은 중복을 유발하는 경우가 있고 유발하지 않는 경우가 있다.For this reason, there is a case where an additional layer needs to be introduced into the implementation option set like the platform layer, and the additional layer sometimes causes redundancy or not.

또한, 추가로 도입되는 계층이 요소 모두에 적용될지도 고려해야 한다.In addition, consideration should be given to whether additional layers are applied to all elements.

이러한 중복을 피하기 위하여 추가하고자 하는 계층의 구현옵션 중복 유발 여부와 모든 구현옵션 분류에 다 해당하는지 여부에 따른 해결책을 도 4에서 설명한다.In order to avoid such duplication, a solution according to whether or not to cause duplication of implementation options of the layer to be added and all implementation options is described in FIG. 4.

도 4는 본 발명에 따른 전자설문 기반의 국방정보시스템 간 상호운용성 평가 및 검증 시스템에 사용되는 구현옵션을 구조화한 트리의 중복을 피하면서 트리를 확장하는 방법을 도시한 것이다.4 illustrates a method of expanding a tree while avoiding duplication of a structured tree of implementation options used in an interoperability evaluation and verification system among electronic questionnaire based defense information systems according to the present invention.

도시된 바와 같이, 본 발명에 따른 전자설문 기반의 국방정보시스템 간 상호운용성 평가 및 검증 시스템에 사용되는 구현옵션을 구조화한 트리의 중복을 피하면서 트리를 확장하는 방법은 증복을 유발하게 될 것인지 검사한다(S410).As shown, the method of extending the tree while avoiding duplication of the tree structured implementation options used in the interoperability evaluation and verification system between the electronic questionnaire-based defense information system according to the present invention checks whether it will cause a repetition. (S410).

검사 결과에 따라 증복을 유발하지 않을 경우, 전체 트리에 적용이 되는지 검사한다(S420).If it does not cause the increase according to the test result, it is checked whether the application to the entire tree (S420).

여기서, 중복을 유발하지 않고, 전체 트리에 적용이 되지 않을 경우에는 구현옵션 트리의 균형을 깨뜨리면서 필요한 서브 트리에만 새로운 계층 추가하고(S440), 중복을 유발하지 않고, 전체 트리에 적용이 될 경우에는 구현옵션 트리의 균형을 깨뜨리지 않고 새로운 계층 추가 한다(S430).Here, if it does not cause duplication and does not apply to the entire tree, adds a new layer to only the necessary subtrees while breaking the balance of the implementation option tree (S440), and if it is applied to the entire tree without causing duplication. In step S430, a new layer is added without breaking the balance of the implementation option tree.

검사 결과에 따라 증복을 유발할 경우, 전체 트리에 적용이 되는지 검사한다(S450).According to the test result, if the increase is caused, it is checked whether it is applied to the entire tree (S450).

여기서, 중복을 유발하고, 전체 트리에 적용이 되지 않을 경우에는 해당 서브 트리의 최하위 구현옵션에 특성 필드 추가 하고(S470), 중복을 유발하고, 전체 트리에 적용이 될 경우에는 모든 최하위 구현옵션에 특성 필드 추가 한다(S460).Here, if it causes duplication and does not apply to the entire tree, add a property field to the lowest implementation option of the corresponding subtree (S470), and if it causes duplication and applies to the entire tree, to all the lowest implementation options. Add a characteristic field (S460).

여기서, 세 가지 계층을 추가하는 경우에는 첫째, 플랫폼 계층으로 각 제품들이 어떤 플랫폼에서 동작하는지를 분류하기 위한 계층과 둘째, 제품의 버전 계층으로 각 제품들에 대해서 어떤 버전들이 현재 출시되어 사용되고 있는지를 표현하기 위한 계층과, 셋째, FTP 분류 계층으로 FTP 제품들이 어떤 기능을 지원하는지에 따라서 분류하는 계층을 부가할 경우 도 5와 같이 된다.Here, in case of adding three layers, first, the platform layer is used to classify which platform each product operates on, and second, the product version layer is used to express which versions are currently released for each product. In the case of adding a hierarchical layer for classifying and a third classifying layer according to which functions of FTP products are supported as an FTP classification layer, as shown in FIG. 5.

즉, 상술한 세 가지 계층은 서로 다른 특징을 가진다. 플랫폼 계층은 구현옵션의 중복을 유발하며 전체 트리에 적용 가능하다. 반면에 제품의 버전 계층은 중복을 유발하지 않으며 전체 트리에 적용 가능하다. 또한, FTP 분류 계층은 중복을 유발하지 않지만 FTP 표준의 서브 트리에만 적용 가능하다. 따라서, 상술한 세 가지 계층은 도 4에 도시한 방법으로 구현옵션 트리에 반영된다. 이러한 결과를 도 5에 도시하였다.That is, the above three layers have different characteristics. The platform layer causes duplication of implementation options and can be applied to the entire tree. The version hierarchy of the product, on the other hand, does not cause duplication and can be applied to the entire tree. In addition, the FTP classification layer does not cause duplication but is applicable only to subtrees of the FTP standard. Therefore, the above three layers are reflected in the implementation option tree by the method shown in FIG. These results are shown in FIG.

도 5는 도 3의 구현옵션 트리에서 도 4에 의한 중복을 피하면서 트리를 확장하는 방법을 이용하여, 도 3의 트리를 확장한 구형옵션 트리를 도시한 것이다.FIG. 5 illustrates a spherical option tree in which the tree of FIG. 3 is expanded using a method of expanding the tree while avoiding duplication of FIG. 4 in the implementation option tree of FIG.

도시된 바와 같이, 구형옵션 트리를 살펴보면, 플랫폼 정보는 트리의 새로운 계층으로 추가되지 않고 트리의 각 제품 노드에 별도로 첨부되어 있다. As shown, when looking at the spherical options tree, the platform information is attached to each product node of the tree separately rather than being added to a new hierarchy of the tree.

이렇게 별도로 첨부된 정보를 특성 필드 (property field)라고 하며 이 특성 필드는 질의서에서 질의 항목으로 반영되어 검사되어야 한다. This separately attached information is called a property field, and this property field should be examined as a query item in the query.

즉, 사용자가 Voyager FTP 제품을 사용해서 정보시스템을 구축했다고 응답한 경우에 현재 플랫폼은 무엇인지를 질문해야 한다. In other words, if the user replied that they built an information system using the Voyager FTP product, they should ask what the current platform is.

이는 Voyager FTP를 표현하는 노드에 플랫폼 특성 필드가 첨부되어 있기 때문이다.This is because the platform property field is attached to the node that represents Voyager FTP.

또한, 특성 필드가 아닌 정식 계층으로 추가된 분류 기준이 있다. In addition, there are classification criteria added as formal hierarchies rather than attribute fields.

먼저 최하위 노드에 추가된 버전 계층의 경우에 모든 제품에 해당하며 구현 옵션의 중복을 유발하지도 않으므로 새로운 계층으로 추가되었고 이 계층은 트리의 모든 서브 트리에 해당하므로 균형을 깨뜨리지 않는다. First, the version layer added to the lowest node corresponds to all products and does not cause any duplication of implementation options, so it is added as a new layer, and this layer corresponds to all subtrees of the tree, so it does not break the balance.

반면에 표준 계층 다음에 추가된 계층의 경우에는 FTP 표준에만 해당되므로 FTP 표준을 나타내는 서브 트리에만 계층이 추가되었고 이는 균형을 깨뜨리는 결과를 초래하고 있다. On the other hand, the layer added after the standard layer is only applicable to the FTP standard, so the layer is added only to the subtree representing the FTP standard, which results in a balance.

도 6는 질의응답 결과에 따라서 특정한 하나의 구현옵션 트리가 결정되는 것을 설명하기 위하여 도 5의 구현옵션 트리에서 해당 질의를 도시한 것이다.FIG. 6 illustrates a corresponding query in the implementation option tree of FIG. 5 to explain that a specific implementation option tree is determined according to a query response result.

도시된 바와 같이, 구현옵션 트리에서 각 노드에 대한 질의가 작성되어 질의서가 작성될 수 있다.As shown, a query may be created for each node in the implementation options tree to create a query.

즉, 3가지의 질의가 작성된 것을 도시한 것으로 분류항 선택질의, 특성 필드질의, 및 구현옵션 선택질의를 도시한 것이다.That is, three queries are written, showing the classification term selection query, the characteristic field query, and the implementation option selection query.

분류항 선택질의에서는 응용프로그램(A)의 하부 노드로 data access, comm., print로 3가지의 노드가 있게 되어 결국, 분류항 선택질의로는 "Q)*** 체계는 어떤 서비스를 제공합니까?"란 질문에 선택할 수 있는 항목으로 (1)data access, (2)comm., (3)print중에 중복하여 선택할 수 있게 된다.In classification selection query, there are three nodes as data access, comm, and print as the lower nodes of application program A. In the end, what kind of service does "Q) *** system provide in classification selection query? ? "Is a question that can be selected from among (1) data access, (2) comm., And (3) print.

같은 방법으로, 특성 필드 질의와 구현옵션 선택질의가 자동으로 가공되어 질의서가 작성된다.In the same way, the feature field query and the implementation option selection query are automatically processed to create a query.

도 7a는 본발명에 따른 전자설문 기반의 국방정보시스템 간 상호운용성 평가/검증 시스템에서 상호운용 수준 2에 대한 테스팅 모델을 도시한 블록도이다.FIG. 7A is a block diagram illustrating a testing model for interoperability level 2 in an interoperability evaluation / verification system among electronic survey-based defense information systems according to the present invention.

도시된 바와 같이, 수준 2에 대한 테스팅 모델은 동형 (homogeneous) 데이터의 교환 능력을 만족해야 한다. As shown, the testing model for level 2 should satisfy the ability to exchange homogeneous data.

동형 데이터의 교환은 두 국방정보시스템이 미리 정해진 양식의 데이터를 파일 형태로 주고 받을 수 있음을 의미한다. The exchange of homogeneous data means that two defense information systems can send and receive data in a predetermined format.

따라서, 파일 전송을 위한 응용 프로그램인 FTP, e-mail 등이 사용된다.Therefore, FTP, e-mail, and the like, which are applications for file transfer, are used.

데이터는 파일 단위로 공유되며 각 정보시스템은 파일 전송을 위한 모듈을 갖추게 된다.Data is shared on a file-by-file basis and each information system has a module for file transfer.

여기서, 상호운용 수준 2 시험용 테스트 케이스는 다음과 같다.Here, the interoperability level 2 test test case is as follows.

Figure 112005048687361-pat00004
Figure 112005048687361-pat00004

즉, 표 4는 상호운용 수준 2에 대한 테스트 케이스로서 두 정보시스템 내의 파일 송수신 모듈에 대한 인터페이스 시험과 파일 형식 호환성 시험에 중점을 두고 있는 테스트 케이스이다.In other words, Table 4 is a test case for interoperability level 2. The test case focuses on the interface test and the file format compatibility test for the file transmission / reception module in the two information systems.

도 7b는 본발명에 따른 전자설문 기반의 국방정보시스템 간 상호운용성 평가/검증 시스템에서 상호운용 수준 3에 대한 테스팅 모델을 도시한 블록도이다.7B is a block diagram illustrating a testing model for interoperability level 3 in an interoperability evaluation / validation system between electronic survey-based defense information systems according to the present invention.

도시된 바와 같이, 수준 3에 대한 테스팅 모델은 이형 (heterogeneous) 데이터의 교환 능력을 요구한다. As shown, the testing model for level 3 requires the ability to exchange heterogeneous data.

이형 데이터는 데이터 내에 별도의 의미가 부여되는 경우를 뜻한다. The heterogeneous data refers to a case where a separate meaning is given in the data.

즉, 하이퍼텍스트, XML처럼 별도의 메타데이터를 이용해서 데이터에 의미를 부여할 수 있어야 한다. That is, it should be able to give meaning to data using separate metadata such as hypertext and XML.

이 경우에 상호운용이 이루어지려면 한 정보시스템에서 생성한 데이터의 의미를 다른 정보시스템에서 해석하거나 변환할 수 있어야 한다. In this case, interoperability requires that the meaning of the data generated by one information system be interpreted or translated by the other information system.

따라서, 메타데이터 해석모듈과 데이터 변환모듈이 필요하다. Therefore, a metadata interpretation module and a data conversion module are required.

일반적으로 데이터 변환 모듈은 두 정보시스템 중에 한군데에만 위치하면 된다. In general, the data conversion module only needs to be located in one of two information systems.

여기서, 상호운용 수준 3 시험용 테스트 케이스는 다음과 같다.Here, the interoperability level 3 test test case is as follows.

Figure 112005048687361-pat00005
Figure 112005048687361-pat00005

즉, 표 5는 상호운용 수준 3에 대한 테스트 케이스로서 두 정보시스템은 서로 다른 형식과 의미를 갖는 데이터를 공유할 수 있어야 한다. In other words, Table 5 is a test case for Interoperability Level 3. The two information systems should be able to share data with different formats and meanings.

이를 위해서 메타데이터를 활용하게 되며 필요 시 파일 형식을 변환하는 프로그램을 활용한다. For this purpose, metadata is used and a program for converting the file format when necessary is used.

수준 3에서는 데이터 해석 및 변환 기능에 중점을 두고 테스트를 진행한다.At level 3, the test focuses on data interpretation and transformation capabilities.

도 7c는 본발명에 따른 전자설문 기반의 국방정보시스템 간 상호운용성 평가/검증 시스템에서 상호운용 수준 4에 대한 테스팅 모델을 도시한 블록도이다.7C is a block diagram illustrating a testing model for interoperability level 4 in an interoperability evaluation / verification system among defense information systems based on an electronic survey according to the present invention.

도시된 바와 같이, 수준 3에 대한 테스팅 모델은 공통의 DB를 통해서 데이터를 공유할 수 있어야 한다.As shown, the testing model for level 3 should be able to share data through a common DB.

정보시스템이 타 정보시스템의 DB에 접속해서 데이터를 접근하고 해석하거나 변환할 수 있음을 의미한다. It means that the information system can access the DB of other information systems and access, interpret or transform the data.

이에 앞서 두 정보시스템 간에 DB 접속에 대한 요청 및 허가 등의 과정이 이루어져야 하지만, 이 과정은 PAID 요소 중에서 P 요소로 분류되기 때문에 여기서는 DB 접속 권한을 가지고 있는 것으로 가정한다. Prior to this, the process of requesting and granting a DB connection between two information systems should be performed. However, this process is classified as P element among PAID elements, so it is assumed that the user has DB access authority.

여기서, 상호운용 수준 4 시험용 테스트 케이스는 다음과 같다.Here, the interoperability level 4 test test case is as follows.

Figure 112005048687361-pat00006
Figure 112005048687361-pat00006

즉, 표 6은 상호운용 수준 4에 대한 테스트 케이스로서 원격 DB 접근에 중점을 두고 있다.In other words, Table 6 focuses on remote DB access as a test case for interoperability level 4.

기술된 상호운용 수준 4에 대한 테스트 케이스는 한 정보시스템에서 저장한 DB 데이터를 다른 정보시스템에서 접근해서 활용하려면 DB 스키마에 대해서 이해하고 있어야 하며 필요 시 데이터 형식을 변환할 수 있어야 한다.The test case for Interoperability Level 4 described requires an understanding of the DB schema and the ability to convert data types as needed to access and utilize DB data stored in one information system from another.

도 7d는 본발명에 따른 전자설문 기반의 국방정보시스템 간 상호운용성 평가/검증 시스템에서 상호운용 수준 5에 대한 테스팅 모델을 도시한 블록도이다.7d is a block diagram illustrating a testing model for interoperability level 5 in an interoperability evaluation / verification system among electronic survey-based defense information systems according to the present invention.

도시된 바와 같이, 수준 5에 대한 테스팅 모델은 이질적인 환경에서 데이터와 응용 프로그램이 동시에 공유될 수 있어야 한다. As shown, the testing model for level 5 requires that data and applications can be shared simultaneously in heterogeneous environments.

데이터는 통합 DB 형태로 관리되어 권한을 가진 모든 정보시스템에서 자유롭게 접근 가능해야 한다. Data should be managed in the form of integrated DB and freely accessible to all authorized information systems.

정보시스템에서 DB 내의 특정 데이터를 필요로 하는 경우에 해당 데이터를 해석하고 활용할 수 있는 응용 프로그램이 자동으로 추가 설치되어 플러그인 되어야 한다. If the information system needs specific data in the DB, an application program that can interpret and utilize the data should be automatically installed and plugged in.

각 정보시스템은 필요한 데이터에 대한 응용프로그램을 플러그인 형태로 가지게 된다.Each information system will have a plug-in application program for the required data.

여기서, 상호운용 수준 5 시험용 테스트 케이스는 다음과 같다.Here, the interoperability level 5 test test case is as follows.

Figure 112005048687361-pat00007
Figure 112005048687361-pat00007

즉, 표 7은 상호운용 수준 5에 대한 테스트 두 정보시스템은 공유 DB를 통해서 데이터를 자유롭게 교환할 수 있다.That is, Table 7 shows a test for interoperability level 5. The two information systems can exchange data freely through a shared DB.

상호운용 수준 5를 만족하는 경우에 두 정보시스템은 공유 DB를 통해서 데이터를 자유롭게 교환할 수 있다. If interoperability level 5 is met, both information systems can exchange data freely through a shared database.

이때 공유 DB 접근 모듈, 데이터 활용 모듈 등은 최초 사용시 자동으로 설치되어 플러그인 되어야 한다. At this time, shared DB access module and data utilization module should be automatically installed and plugged in for the first time.

수준 5에서는 설치된 플러그인이 데이터의 의미를 자체적으로 해석하므로 별도의 데이터 해석이나 변환 모듈은 필요치 않다.At level 5, the installed plug-in interprets the meaning of the data itself, so no separate data interpretation or conversion module is required.

도 8은 본 발명에 따른 전자설문 기반의 국방정보시스템 간 상호운용성 평가 및 검증 방법을 도시한 순서도이다.8 is a flowchart illustrating a method for evaluating and verifying interoperability between electronic survey-based defense information systems according to the present invention.

도시된 바와 같이, 본 발명에 따른 전자설문 기반의 국방정보시스템 간 상호운용성 평가 및 검증 방법은 국방정보시스템을 구축하는데 있어서 사용될 수 있는 기술, 표준들을 망라한 정보로서 다양한 국방정보시스템들에서 사용되는 구현 옵션들을 포함하도록 마스터 서버에서 구현옵션 집합을 구축한다(S810).As shown, the interoperability evaluation and verification method between the electronic questionnaire based defense information system according to the present invention is an implementation used in various defense information systems as information covering technologies and standards that can be used in constructing a defense information system. Build a set of implementation options in the master server to include the options (S810).

여기서, 구현옵션 집합은 완전성(completeness), 구조화(structuring) 및 유지보수성(maintainability)을 만족해야 한다.Here, the set of implementation options must satisfy completeness, structuring, and maintainability.

여기서, 구현옵션 집합은 국방정보시스템 구축에 사용되거나 가까운 미래에 사용 가능한 표준, 기술, 제품을 광범위하게 포함하고 있어야 한다는 것이 완전성이다.It is complete here that the set of implementation options should include a wide range of standards, technologies, and products used in building defense information systems or available in the near future.

여기서, 완전성을 고려해볼 때 구현옵션 집합의 규모는 매우 커질 수밖에 없다. 특히 최근 IT 기술의 다양성 및 국방정보시스템의 규모 및 복잡도를 고려할 때 구현옵션 항목의 수는 매우 많아질 것이 자명하다. 구현옵션을 구조화하지 않고 나열식으로 관리한다면 국방정보시스템을 구현옵션과 비교하기도 매우 어렵고 구현옵션 집합 자체를 관리하기도 어려워진다. 따라서 구현옵션 집합에 대한 구조화가 필요하다.Here, considering the completeness, the size of the implementation option set is very large. In particular, considering the variety of IT technologies and the size and complexity of defense information systems, it is obvious that the number of implementation option items will be very large. If the implementation options are not structured and managed enumerated, it is very difficult to compare the defense information system with the implementation options, and it becomes difficult to manage the implementation option set itself. Therefore, a structure for a set of implementation options is required.

여기서, 구현옵션 집합이 최신성을 유지하려면 꾸준한 유지보수가 필수적이다. 즉 향후 IT 기술의 발전에 따라서 국방정보시스템에서 채택 가능한 표준, 기술, 제품이 계속 추가되거나 변화할 때 이를 구현옵션 집합에 적절하게 반영할 수 있는 방법이 있어야 하기 때문이다.Here, constant maintenance is essential if the set of implementation options is up to date. In other words, there should be a way to properly reflect the standard, technology, and product that can be adopted in the defense information system according to the development of IT technology in the future.

앞서, 구현옵션 집합이 구조화되어 생성되면, 구현옵션 집합을 기초로 상호운용 평가를 위한 질의서를 마스터 서버에서 구축한다(S820).Previously, when the implementation option set is structured and generated, a query for interoperability evaluation is built on the master server based on the implementation option set (S820).

질의서가 작성되면, 마스터 서버는 국방정보시스템 클라이언트에게 질의서를 이용하여 질의를 하고, 응답을 기다린다(S830).When the questionnaire is written, the master server makes a query to the defense information system client using the questionnaire and waits for a response (S830).

마스터 서버는 앞서 응답을 기초로 프로파일을 작성한다(S540).The master server creates a profile based on the response (S540).

마스터 서버는 프로파일을 기초로 잠재수준을 측정한다(S850).The master server measures the potential level based on the profile (S850).

마스터 서버는 잠재수준에 의한 테스트 시나리오를 이용하여 테스트를 수행한다(S860).The master server performs the test using the test scenario by the potential level (S860).

마스터 서버는 앞서 수행한 결과를 종합하여 운용수준을 확정한다(S870).The master server determines the operation level by combining the results of the above (S870).

이상 첨부된 도면을 참조하여 본 발명의 실시예를 설명하였지만, 상술한 본 발명의 기술적 구성은 본 발명이 속하는 기술 분야의 당업자가 본 발명의 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해되어야 하고, 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.Although the embodiments of the present invention have been described above with reference to the accompanying drawings, the technical configuration of the present invention described above may be modified in other specific forms by those skilled in the art to which the present invention pertains without changing its technical spirit or essential features. It will be appreciated that it may be practiced. Therefore, the above-described embodiments are to be understood as illustrative and not restrictive in all respects, and the scope of the present invention is indicated by the appended claims rather than the detailed description, and the meaning and scope of the claims and All changes or modifications derived from the equivalent concept should be interpreted as being included in the scope of the present invention.

상술한 본 발명의 구성에 따르면, 정보시스템 상호운용 수준 LISI에 의해서 국방정보시스템 간의 상호운용 능력을 전자설문 방식으로 측정하고 테스트를 통해서 확인이 가능하게 된다.According to the configuration of the present invention described above, the interoperability between the defense information system by the information system interoperability level LISI can be measured in an electronic questionnaire and confirmed through testing.

Claims (15)

상호운용성을 질의하는 평가 마스터와 상기 평가 마스터의 평가에 대한 테스트 시나리오에 따라 테스트를 수행하는 테스트 마스터를 포함하는 마스터 서버;A master server including an evaluation master for querying interoperability and a test master for performing a test according to a test scenario for evaluation of the evaluation master; 상호운용 능력을 측정하기 위한 응용 프로그램이 설치되는 국방정보시스템의 슬레이브 서버; 및A slave server of the defense information system, in which an application program for measuring interoperability is installed; And 상기 평가 마스터에서 생성되고 구현옵션 집합을 기반으로 작성되는 국방정보시스템의 상호운용에 관한 질의서에 대한 응답을 수행하는 클라이언트;A client that responds to a questionnaire about the interoperability of the defense information system generated by the evaluation master and created based on a set of implementation options; 를 포함하는, 전자설문 기반의 국방정보시스템 간 상호운용성 평가/검증 시스템.Including, electronic survey-based defense information system interoperability evaluation / verification system. 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 제1항에 있어서,The method of claim 1, 상기 구현옵션은 요소 수준, 서비스 수준, 표준 수준 및 제품 수준의 계층을 포함하는 트리 구조인, 전자설문 기반의 국방정보시스템 간 상호운용성 평가/검증 시스템.The implementation option is an interoperability evaluation / validation system among electronic questionnaire based defense information systems, which is a tree structure including element level, service level, standard level and product level hierarchy. 제12항에 있어서,The method of claim 12, 상기 트리는 균형 트리의 계층 구조인, 전자설문 기반의 국방정보시스템 간 상호운용성 평가/검증 시스템.The tree is a hierarchical structure of a balance tree, the interoperability evaluation / verification system between electronic survey-based defense information system. (a) 다양한 국방정보시스템들에서 사용되는 구현 옵션들을 포함하고, 완전성(completeness), 구조화(structuring) 및 유지 보수성(maintainability)의 특징을 만족하도록 마스터 서버에서 구현옵션 집합을 구축하는 단계;(a) building a set of implementation options at the master server, including implementation options used in various defense information systems, to satisfy characteristics of completeness, structuring and maintainability; (b) 상기 구현옵션 집합을 기초로 상호운용 평가를 위한 질의서를 마스터 서버에서 구축하는 단계;(b) constructing a query for interoperability evaluation on a master server based on the set of implementation options; (c) 상기 마스터 서버는 국방정보시스템 클라이언트에게 질의서를 이용하여 질의하는 단계;(c) the master server querying the defense information system client using a query; (d) 마스터 서버는 앞서 응답을 기초로 프로파일을 작성하는 단계;(d) the master server creating a profile based on the previous response; (e) 마스터 서버는 프로파일을 기초로 잠재수준을 측정하는 단계;(e) the master server measuring the potential level based on the profile; (f) 마스터 서버는 잠재수준에 의한 테스트 시나리오를 이용하여 테스트를 수행하는 단계;(f) the master server performing a test using a test scenario at a latent level; (g) 마스터 서버는 앞서 수행한 결과를 종합하여 운용수준을 확정하는 단계;(g) determining, by the master server, the operation level by combining the results of the foregoing; 를 포함하는, 전자설문 기반의 국방정보시스템 간 상호운용성 평가/검증 방법.Including, electronic survey-based defense information system interoperability evaluation / verification method. 삭제delete
KR1020050080614A 2005-08-31 2005-08-31 System of measuring/testing interoperability among defense information systems based on computer aided interview KR100702575B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020050080614A KR100702575B1 (en) 2005-08-31 2005-08-31 System of measuring/testing interoperability among defense information systems based on computer aided interview

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020050080614A KR100702575B1 (en) 2005-08-31 2005-08-31 System of measuring/testing interoperability among defense information systems based on computer aided interview

Publications (2)

Publication Number Publication Date
KR20070024951A KR20070024951A (en) 2007-03-08
KR100702575B1 true KR100702575B1 (en) 2007-04-05

Family

ID=38099273

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020050080614A KR100702575B1 (en) 2005-08-31 2005-08-31 System of measuring/testing interoperability among defense information systems based on computer aided interview

Country Status (1)

Country Link
KR (1) KR100702575B1 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101139775B1 (en) * 2009-06-01 2012-04-26 국방과학연구소 Apparatus and method of operation control using extensible markup language
KR101243149B1 (en) * 2011-03-31 2013-03-13 국방과학연구소 System and method for measuring interoperability
KR101404164B1 (en) * 2012-06-22 2014-06-09 인텔렉추얼디스커버리 주식회사 Server for benchmarking using survey data and method thereof
KR101453988B1 (en) * 2013-05-10 2014-10-28 슈어소프트테크주식회사 The method for testing interoperability among DLNA devices
KR20230115761A (en) * 2022-01-27 2023-08-03 주식회사 지지56코리아 A multi-level survey system for in-depth analysis
CN115691228A (en) * 2022-10-12 2023-02-03 中国电子科技集团公司第二十八研究所 Multi-domain unmanned system interoperation level evaluation method

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR19990051281A (en) * 1997-12-19 1999-07-05 이계철 Distributed test method for interoperability verification

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR19990051281A (en) * 1997-12-19 1999-07-05 이계철 Distributed test method for interoperability verification

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
국방 자동화 정보체계 상호운용성 시험 및 평가 시스템(정보과학회지 제23권 제7호, 2005년07월)

Also Published As

Publication number Publication date
KR20070024951A (en) 2007-03-08

Similar Documents

Publication Publication Date Title
AU738882B2 (en) Distributed-object development system and computer-readable recording medium recorded with program for making computer execute distributed-object development
CN101454779B (en) Search-based application development framework
CN108270640B (en) Information interoperation consistency test method for intelligent marketing and distribution information integration system
KR100702575B1 (en) System of measuring/testing interoperability among defense information systems based on computer aided interview
CN104657903A (en) Compressive guarantee system for equipment based on IETM
Gazzarata et al. A SOA‐Based Platform to Support Clinical Data Sharing
CN113094385B (en) Data sharing fusion platform and method based on software defined open tool set
CN115439249B (en) Method, device and system for realizing business service of cross-region block chain
Ullberg et al. A language for interoperability modeling and prediction
CN111143391A (en) Data sharing exchange method and system
Neumann et al. OXDBS: extension of a native XML database system with validation by consistency checking of OWL-DL ontologies
TWI430107B (en) Computer implemented method, computer program product, and data processing system for managing a plurality of lightewight directory access protocol servers
Barnickel et al. Interoperability in egovernment through cross-ontology semantic web service composition
Townend et al. Personalised provenance reasoning models and risk assessment in business systems: A case study
Egyhazy et al. Interoperability architecture using RM-ODP
Agre et al. Science and technology issues relating to data quality in C2 systems
Tolk et al. Model-based data engineering for web services
WO2010119628A1 (en) System and method for environment information aggregation
Nordstrom et al. Model integrated computing-based software design and evolution
Yabe Multi-platform data search and access method to compose digital twins using metadata
Qing'an et al. Design and Implementation of a High-Level Security Evaluation of Blockchain System
Boje et al. Defining semantics for digital twins of façade component testing facilities
Tolk et al. Model-based data engineering: preparing a paradigm shift towards self-organizing information exchange
He et al. Research on Verification Tool for Software Requirements.
CN116324760A (en) System, computing platform, and method for integrating data from multiple data sources

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
N231 Notification of change of applicant
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130228

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20140304

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20150302

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20200303

Year of fee payment: 14