KR20140084698A - Automatic software test system for steel processing - Google Patents

Automatic software test system for steel processing Download PDF

Info

Publication number
KR20140084698A
KR20140084698A KR1020120154432A KR20120154432A KR20140084698A KR 20140084698 A KR20140084698 A KR 20140084698A KR 1020120154432 A KR1020120154432 A KR 1020120154432A KR 20120154432 A KR20120154432 A KR 20120154432A KR 20140084698 A KR20140084698 A KR 20140084698A
Authority
KR
South Korea
Prior art keywords
testing
scenario
diagram
task
model
Prior art date
Application number
KR1020120154432A
Other languages
Korean (ko)
Other versions
KR101449201B1 (en
Inventor
신기영
최자영
박영복
김도훈
Original Assignee
주식회사 포스코
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 포스코 filed Critical 주식회사 포스코
Priority to KR1020120154432A priority Critical patent/KR101449201B1/en
Publication of KR20140084698A publication Critical patent/KR20140084698A/en
Application granted granted Critical
Publication of KR101449201B1 publication Critical patent/KR101449201B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/36Preventing errors by testing or debugging software
    • G06F11/3668Software testing
    • G06F11/3672Test management
    • G06F11/3684Test management for test design, e.g. generating new test cases
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/14Error detection or correction of the data by redundancy in operation
    • G06F11/1479Generic software techniques for error detection or fault masking
    • G06F11/1482Generic software techniques for error detection or fault masking by means of middleware or OS functionality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/04Manufacturing

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Quality & Reliability (AREA)
  • Primary Health Care (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • Human Resources & Organizations (AREA)
  • General Business, Economics & Management (AREA)
  • General Health & Medical Sciences (AREA)
  • Economics (AREA)
  • Health & Medical Sciences (AREA)
  • Manufacturing & Machinery (AREA)
  • Computer Hardware Design (AREA)
  • Debugging And Monitoring (AREA)

Abstract

The present invention relates to an automatic software test system for steel processes. According to an embodiment of the present invention, the automatic software test system for steel processes includes a testing model diagram editor automatically writing a testing scenario for testing software based on a diagram, a testing scenario extensible markup language (XML) generator generating a test scenario XML document by referring to the structure and content of the written testing scenario, a testing task management part generating at least one testing task in the testing scenario based on the testing scenario XML document, and a testing task executing part automatically testing the software by executing the generated testing tasks on the software.

Description

철강 공정용 소프트웨어 자동 테스트 시스템{AUTOMATIC SOFTWARE TEST SYSTEM FOR STEEL PROCESSING}BACKGROUND OF THE INVENTION 1. Field of the Invention [0001] The present invention relates to an automatic test system for a steel process,

본 발명은 철강 공정용 소프트웨어 자동 테스트 시스템에 관한 것이다. The present invention relates to a software automated test system for steel processes.

종래 철강 공정 분야에서 소프트웨어 개발자는 소프트웨어를 개발한 후, 직접 테스팅을 위한 소스코드를 수동 작성하고 컴파일 및 실행하여, 소프트웨어를 정적으로 테스팅한다. 이는 테스팅을 위한 소스코드의 부가적인 개발과 이에 따른 추가적인 비용을 필요로 하는 문제점이 있다. 또한, 예외 및 폴트 상황에 대한 테스팅이 불가능한 문제점이 있다. In the field of steel processing, software developers develop software, manually compile and run the source code for direct testing, and then statically test the software. This requires additional development of the source code for testing and thus additional cost. Also, there is a problem that testing for exceptions and fault conditions is impossible.

당해 기술분야에서는, 철강 공정용 소프트웨어 자동 테스트 시스템이 요구되고 있다. There is a need in the art for a software automated test system for steel processes.

상기 과제를 해결하기 위해서, 본 발명의 제1 태양은 철강 공정용 소프트웨어 자동 테스트 시스템을 제공한다. 상기 철강 공정용 소프트웨어 자동 테스트 시스템은, 다이어그램 기반으로 소프트웨어 테스팅을 위한 테스팅 시나리오를 자동으로 작성하는 테스팅 모델 다이어그램 에디터, 상기 작성된 테스팅 시나리오의 내용 및 구조를 참조하여, 테스팅 시나리오 XML(eXtensible Markup Language) 문서를 발생시키는 테스팅 시나리오 XML 발생기, 상기 발생된 테스팅 시나리오 XML 문서를 기반으로, 테스팅 시나리오 내 적어도 하나의 테스팅 태스크들을 생성하는 테스팅 태스크 관리부, 상기 생성된 테스팅 태스크들을 소프트웨어 상에서 실행하여 상기 소프트웨어를 자동 테스트하는 테스팅 태스크 실행부를 포함한다.
In order to solve the above problems, a first aspect of the present invention provides a software automatic test system for a steel process. The automatic software testing system for the steel process includes a testing model diagram editor for automatically creating a testing scenario for software testing based on a diagram, and a testing scenario XML (eXtensible Markup Language) document A testing scenario XML generator for generating a testing scenario XML document, a testing task manager for generating at least one testing task in a testing scenario based on the generated testing scenario XML document, and automatically testing the software by executing the generated testing tasks on the software And a testing task execution unit.

덧붙여 상기한 과제의 해결 수단은, 본 발명의 특징을 모두 열거한 것은 아니다. 본 발명의 다양한 특징과 그에 따른 장점과 효과는 아래의 구체적인 실시 형태를 참조하여 보다 상세하게 이해될 수 있을 것이다. In addition, the solution of the above-mentioned problems does not list all the features of the present invention. The various features of the present invention and the advantages and effects thereof will be more fully understood by reference to the following specific embodiments.

철강 공정용 소프트웨어 자동 테스트 시스템이 제공될 수 있다. Software automated test systems for steel processes can be provided.

도 1은 본 발명의 일 실시 형태에 따른 철강 공정용 소프트웨어 자동 테스트 시스템의 장치 구성을 도시한 블럭도, 및
도 2는 본 발명의 일 실시 형태에 따른 철강 공정용 소프트웨어 자동 테스트 시스템의 소프트웨어 자동 테스트 방법을 도시한 흐름도.
1 is a block diagram showing an apparatus configuration of a software automatic test system for steel processing according to an embodiment of the present invention, and Fig.
2 is a flow chart illustrating a software automatic test method of a software automated test system for a steel process in accordance with an embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시 형태들을 설명한다. 그러나, 본 발명의 실시형태는 여러 가지 다른 형태로 변형될 수 있으며, 본 발명의 범위가 이하 설명하는 실시 형태로 한정되는 것은 아니다. 또한, 본 발명의 실시형태는 당해 기술분야에서 평균적인 지식을 가진 자에게 본 발명을 더욱 완전하게 설명하기 위해서 제공되는 것이다. 도면에서 요소들의 형상 및 크기 등은 보다 명확한 설명을 위해 과장될 수 있다.
Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings. However, the embodiments of the present invention can be modified into various other forms, and the scope of the present invention is not limited to the embodiments described below. Further, the embodiments of the present invention are provided to more fully explain the present invention to those skilled in the art. The shape and size of elements in the drawings may be exaggerated for clarity.

본 발명은 철강 공정용 소프트웨어 자동 테스트 시스템에 관한 것으로서, 특히, 철강 공정 미들웨어를 자동적으로 기능 및 성능 면에서 테스트하기 위한 자동 테스트 시스템에 대해 설명한다. 즉, 개발된 미들웨어를 테스팅할 수 있는 테스팅 시나리오를 직관적인 방법으로 작성하고, 작성된 테스팅 시나리오를 기반으로 테스팅을 수행하여, 실시간으로 기능 및 성능 결과를 개발자에게 보여줄 수 있는 자동 테스트 시스템에 대해 설명한다. 또한, 예외 및 폴트 상황 또한 테스팅 시나리오에 반영하여 그에 대한 사고 상황을 자동적으로 테스팅할 수 있는 시스템에 대해 설명한다. 이를 통해 본 발명은 소프트웨어 테스트를 위한 소스코드 개발 절차를 줄일 수 있으며, 소프트웨어 개발 과정 도중 또는 완료 후 언제든지 테스트를 수행하여, 철강 공정에서 요구하는 안정적인 소프트웨어를 개발 및 제공할 수 있는 이점이 있다.
The present invention relates to a software automatic test system for steel processes, and more particularly, to an automatic test system for automatically testing steel process middleware in terms of function and performance. In other words, it describes an automatic test system that can create a testing scenario that can test the developed middleware in an intuitive way, perform testing based on the created testing scenario, and show the function and performance results to the developer in real time . It also describes a system that allows exception and fault conditions to be automatically reflected in testing scenarios to test the incident situation thereon. Accordingly, the present invention can reduce the source code development procedure for software testing, and it is advantageous to develop and provide stable software required in the steel process by performing the test at any time during or after the software development process.

도 1은 본 발명의 일 실시 형태에 따른 철강 공정용 소프트웨어 자동 테스트 시스템의 장치 구성을 도시한 블럭도이다. 1 is a block diagram showing a configuration of an automatic software testing system for a steel manufacturing process according to an embodiment of the present invention.

도시된 바와 같이, 철강 공정용 소프트웨어 자동 테스트 시스템은, 테스팅 모델 다이어그램 에디터(100), 테스팅 모델 다이어그램 시나리오 매니저(102), 테스팅 모델 다이어그램 시나리오 평가 엔진(104), 테스팅 모델 시나리오 파일 관리부(106), 테스팅 모델 스크립트 에디터(108), 테스팅 모델 스크립트 시나리오 매니저(110), 테스팅 모델 스크립트 시나리오 평가 엔진(112), 테스팅 시나리오 XML(eXtensible Markup Language) 발생기(114), 소스코드 발생기(116), 폴트 시나리오 발생기(118), 테스팅 시나리오 XML 분석기(120), 테스팅 시뮬레이션 관리 커널 엔진(122), 테스팅 태스크 관리부(124), 테스팅 태스크 풀(126), 테스팅 태스크 핸들러 관리부(128), 테스팅 태스크 실행부(130), 테스팅 성능 결과 로거(132), 성능 결과 지표 관리부(134), 테스팅 성능 결과 뷰어(136), 테스팅 성능 결과 집적부(138), 테스팅 성능 결과 사후 분석기(140)를 포함한다. As shown, a software automatic test system for a steel manufacturing process includes a testing model diagram editor 100, a testing model diagram scenario manager 102, a testing model diagram scenario evaluation engine 104, a testing model scenario file managing unit 106, The testing model script script editor 108, the testing model script scenario manager 110, the testing model script scenario evaluation engine 112, the testing scenario XML (eXtensible Markup Language) generator 114, the source code generator 116, The testing task manager 124, the testing task pool 126, the testing task handler management unit 128, the testing task execution unit 130, and the testing task execution unit 130. The testing task execution unit 118, the testing scenario XML analyzer 120, the testing simulation management kernel engine 122, A testing performance result logger 132, a performance result indicator manager 134, a testing performance result viewer 136, And a stacking unit 138, a testing performance results post-analyzer 140. The

상기 도 1을 참조하면, 상기 테스팅 모델 다이어그램 에디터(100)는, 다이어그램을 기반으로 철강 공정 미들웨어 테스팅을 위한 시나리오를 자동으로 작성할 수 있는 툴이다. 상기 테스팅 모델 다이어그램 에디터(100)는, 테스팅 시나리오를 구성할 수 있는 다양한 모델을 툴 화면에 다이어그램으로 표시하고 드래그 앤 드롭을 이용한 다이어그램 모델들 간 연결 및 해당 다이어그램 모델에 대한 속성 입력을 지원함으로써, 개발자에 의해 선택 및 연결되는 하나 이상의 다이어그램 모델들로 테스팅 시나리오를 작성한다. 이에 따라 개발자는 상기 테스팅 모델 다이어그램 에디터(100)를 통해 드래그 앤 드롭을 이용하여 하나 이상의 다이어그램 모델을 선택 및 연결하고 해당 모델에 대한 속성을 입력함으로써, 직관적으로 편리하게 철강 공정 미들웨어 테스팅을 위한 시나리오를 작성할 수 있다. 여기서, 상기 테스팅 시나리오를 구성할 수 있는 다이어그램 모델은, 테스팅 태스크를 나타내는 테스팅 태스크 다이어그램 모델, 테스팅 태스크들 간 메시지 송수신을 담당하는 메시지 송수신 다이어그램 모델, 테스팅 태스크의 운영 주기 및 시간 설정을 담당하는 타이머 운용 다이어그램 모델, 테스팅 태스크와 결합하여 파일 생성, 저장, 관리, 삭제 등의 파일 관련 오퍼레이션 수행을 담당하는 파일 운용 다이어그램 모델, 태스크들 간 특정 데이터 공유를 담당하는 공유 메모리 운용 다이어그램 모델, 테스팅 테스크와 결합하여 데이터베이스에 데이터를 저장하고 관리하기 위한 오퍼레이션 및 통신을 담당하는 데이터베이스 운용 다이어그램 모델, 철강 공정에서 PLC(Programmable Logic Controller) 또는 DCS(Distributed Control System)와의 통신 및 데이터 송수신을 담당하는 PLC 및 DCS 운용 다이어그램 모델 등을 포함한다. Referring to FIG. 1, the testing model diagram editor 100 is a tool that can automatically create scenarios for testing steel process middleware based on a diagram. The testing model diagram editor 100 displays various models capable of configuring a testing scenario as a diagram on a tool screen and supports connection between diagram models using drag and drop and attribute input for the corresponding diagram model, Lt; RTI ID = 0.0 > and / or < / RTI > Accordingly, the developer can select and connect one or more diagram models through drag and drop through the above-described testing model diagram editor 100, and input attributes for the model, thereby intuitively and conveniently providing a scenario for steel process middleware testing Can be created. Here, the diagram model that can constitute the testing scenario may include a testing task diagram model indicating a testing task, a message transmission / reception diagram model responsible for sending / receiving messages between testing tasks, a timer operation A diagram of a file operation diagram that manages file related operations such as file creation, storage, management, and deletion combined with a diagram model and a testing task, a shared memory operation diagram model for sharing specific data between tasks, and a testing task A database operation diagram model for operation and communication for storing and managing data in a database, communication and data transmission / reception with PLC (programmable logic controller) or DCS (Distributed Control System) in a steel process Being should include PLC and DCS operation diagram model.

또한, 상기 테스팅 모델 다이어그램 에디터(100)는, 테스팅 시나리오의 랜덤 발생을 지원함으로써, 개발자에 의해 테스팅 시나리오의 랜덤 발생이 요구되는 경우, 하나 이상의 다이어그램 모델들을 랜덤으로 선택 및 연결하여 테스팅 시나리오를 작성할 수 있다. 이에 따라 개발자는 별도로 다이어그램 모델을 선택 및 연결할 필요 없이, 랜덤 발생 메뉴 선택 또는 명령어 입력을 통해 테스팅 시나리오를 랜덤 작성할 수 있다. In addition, the testing model diagram editor 100 supports the random generation of testing scenarios, so that when a random occurrence of a testing scenario is required by a developer, one or more diagram models can be randomly selected and linked to create a testing scenario have. As a result, the developer can randomly generate a testing scenario through a randomly generated menu selection or command input, without having to select and link diagram models separately.

상기 테스팅 모델 다이어그램 시나리오 매니저(102)는, 상기 테스팅 모델 다이어그램 에디터(100)에 의해 작성되는 테스팅 시나리오를 분석하고, 해당 내용 및 구조를 내부적으로 컴퓨터가 이해할 수 있는 데이터 구조로 실시간 유지 및 관리한다. 즉, 테스팅 시나리오에 적용된 다이어그램 모델들 간 연결, 해당 다이어그램 모델에 대한 속성을 컴퓨터가 이해할 수 있는 데이터 구조로 실시간 유지 및 관리한다. 상기 데이터 구조는 테스팅 시나리오에 적용된 다이어그램 모델들의 이름을 키 값으로 가지고 있으며, 다이어그램 모델들은 해당 키 값을 기준으로 자동 정렬된다. 상기 테스팅 모델 다이어그램 시나리오 매니저(102)는, 트리 구조, 링크드 리스트 구조를 통해 효율적으로 데이터를 관리할 수 있다. The testing model diagram scenario manager 102 analyzes a testing scenario created by the testing model diagram editor 100 and maintains and manages the contents and structure in real time in a data structure that the computer can understand internally. That is, the connection between the diagram models applied to the testing scenario and the attributes of the corresponding diagram model are maintained and managed in real time in a computer-understandable data structure. The data structure has a key value of the names of the diagram models applied to the testing scenario, and the diagram models are automatically aligned based on the key values. The testing model diagram scenario manager 102 can efficiently manage data through a tree structure and a linked list structure.

상기 테스팅 모델 다이어그램 시나리오 평가 엔진(104)은, 상기 테스팅 모델 다이어그램 에디터(100)에 의해 작성된 테스팅 시나리오에 대한 검증 및 평가를 수행한다. 즉, 테스팅 태스크 다이어그램 모델을 시작으로, 태스크 번호 및 태스크 이름 등이 적절한 내용으로 설정되었는지 평가하고, 테스팅 태스크 다이어그램 모델 및 이와 연결되는 타 다이어그램 모델들이 적절하게 연결되었는지 그리고 각 다이어그램 모델의 속성이 제대로 설정되었는지 검증 및 평가한다. 또한, 상기 테스팅 모델 다이어그램 시나리오 평가 엔진(104)은, 메시지 등을 통해 검증 및 평가 결과를 자동으로 개발자에게 알릴 수 있다. The testing model diagram scenario evaluation engine 104 performs verification and evaluation of a testing scenario created by the testing model diagram editor 100. [ That is, starting from the testing task diagram model, it is evaluated whether the task number and the task name are properly set, and whether the testing task diagram model and other diagrammatic models connected thereto are appropriately connected and whether the property of each diagrammodel is set properly . Also, the testing model diagram scenario evaluation engine 104 can automatically notify the developer of the verification and evaluation results through a message or the like.

상기 테스팅 모델 시나리오 파일 관리부(106)는, 상기 테스팅 모델 다이어그램 시나리오 매니저(102)에 의해 유지 및 관리되는 테스팅 시나리오의 내용 및 구조를 추출하여 파일 및 데이터베이스를 통해 저장 및 관리한다. 즉, 테스팅 시나리오에 적용된 다이어그램 모델들 간 연결에 대한 정보, 해당 다이어그램 모델에 대한 속성에 대한 정보를 파일 및 데이터베이스를 통해 저장 및 관리한다. 또한, 상기 테스팅 모델 시나리오 파일 관리부(106)는, 테스팅 모델 스크립트 시나리오 매니저(110)에 의해 유지 및 관리되는 테스팅 시나리오의 내용 및 구조를 추출하여 파일 및 데이터베이스를 통해 저장 및 관리한다. 이에 따라, 상기 테스팅 모델 다이어그램 에디터(100) 및 테스팅 모델 스크립트 에디터(108)는 파일 및 데이터베이스 검색을 통해 기 저장된 테스팅 시나리오를 재로딩하여 미들웨어 테스트에 이용할 수 있다. The testing model scenario file management unit 106 extracts the contents and structure of a testing scenario maintained and managed by the testing model diagram scenario manager 102, and stores and manages the contents and structure through a file and a database. That is, information about connection between diagram models applied to a testing scenario and information about attributes of the corresponding diagram model are stored and managed through a file and a database. Also, the testing model scenario file management unit 106 extracts the contents and structure of a testing scenario maintained and managed by the testing model script scenario manager 110, and stores and manages the contents and structure through a file and a database. Accordingly, the testing model diagram editor 100 and the testing model script editor 108 can reload the pre-stored testing scenarios through file and database searches and use them for middleware testing.

상기 테스팅 모델 스크립트 에디터(108)는, 스크립트를 기반으로 철강 공정 미들웨어 테스팅을 위한 시나리오를 작성할 수 있는 툴이다. 상기 테스팅 모델 스크립트 에디터(108)는, 개발자에 의해 툴 화면에 입력되는 스크립트로 테스팅 시나리오를 작성한다. The testing model script editor 108 is a tool capable of creating scenarios for testing steel process middleware based on a script. The testing model script editor 108 creates a testing scenario with a script input by the developer on the tool screen.

상기 테스팅 모델 스크립트 시나리오 매니저(110)는, 상기 테스팅 모델 스크립트 에디터(108)에 의해 작성되는 테스팅 시나리오를 분석하고, 해당 내용 및 구조를 내부적으로 컴퓨터가 이해할 수 있는 데이터 구조로 실시간 유지 및 관리한다. The testing model script scenario manager 110 analyzes a testing scenario created by the testing model script editor 108 and maintains and manages the contents and structure in real time in a data structure that the computer can understand internally.

상기 테스팅 모델 스크립트 시나리오 평가 엔진(112)은, 상기 테스팅 모델 스크립트 에디터(108)에 의해 작성된 테스팅 시나리오에 대한 검증 및 평가를 수행한다. 즉, 테스팅 시나리오의 문법이 적절한지 평가하고, 내부적으로 운용 시 문제가 없는지 검증 및 평가한다. 또한, 상기 테스팅 모델 스크립트 시나리오 평가 엔진(112)은, 메시지 등을 통해 검증 및 평가 결과를 자동으로 개발자에게 알릴 수 있다. The testing model script scenario evaluation engine 112 performs verification and evaluation of a testing scenario created by the testing model script editor 108. [ That is, it evaluates whether the grammar of the testing scenario is appropriate and verifies and evaluates whether there is no problem in operation internally. In addition, the testing model script scenario evaluation engine 112 can automatically notify the developer of the verification and evaluation results through a message or the like.

상기 테스팅 시나리오 XML 발생기(114)는, 상기 테스팅 모델 다이어그램 시나리오 매니저(102)에 의해 유지 및 관리되는 테스팅 시나리오의 내용 및 구조를 참조하여, 해당 테스팅 시나리오를 표현하는 XML 문서를 발생시킨다. 여기서, 상기 XML 문서는 테스팅 시나리오에 적용된 다이어그램 모델들 간 연결 정보, 해당 다이어그램 모델에 대한 속성 정보를 포함한다. 즉, 상기 XML 문서는 테스팅 태스크 다이어그램 모델에 대한 속성 정보(예를 들어, 태스크 이름 및 태스크 번호, 미들웨어가 운용되는 서버 정보 등), 테스팅 태스크 다이어그램 모델과 타 다이어그램 모델들 간 연결 정보, 타 다이어그램 모델들에 대한 속성 정보를 포함한다. 또한, 상기 테스팅 시나리오 XML 발생기(114)는, 상기 테스팅 모델 스크립트 시나리오 매니저(110)에 의해 유지 및 관리되는 테스팅 시나리오의 내용 및 구조를 참조하여, 해당 테스팅 시나리오를 표현하는 XML 문서를 발생시킨다. The testing scenario XML generator 114 refers to the contents and structure of a testing scenario maintained and managed by the testing model diagram scenario manager 102 to generate an XML document representing the testing scenario. Here, the XML document includes connection information between diagram models applied to a testing scenario and attribute information about the corresponding diagram model. That is, the XML document includes attribute information (e.g., task name and task number, server information on which middleware is operated, etc.) of the testing task diagram model, connection information between the testing task diagram model and other diagram models, As shown in FIG. The testing scenario XML generator 114 refers to the contents and structure of a testing scenario maintained and managed by the testing model script scenario manager 110 to generate an XML document representing the testing scenario.

상기 소스코드 발생기(116)는, 상기 테스팅 시나리오 XML 발생기(114)에 의해 발생된 XML 문서를 분석 및 파싱하여, 미들웨어에서 컴파일되어 실행될 수 있는 소스코드를 자동적으로 발생시킨다. 또한, 상기 소스코드 발생기(116)는, 자동으로 컴파일 스크립트를 실행하여 상기 발생된 소스코드를 컴파일 및 실행함으로써, 상기 발생된 소스코드를 기반으로 미들웨어를 자동으로 테스트할 수 있다.The source code generator 116 analyzes and parses the XML document generated by the testing scenario XML generator 114 to automatically generate source code that can be compiled and executed in the middleware. Also, the source code generator 116 can automatically test the middleware based on the generated source code by automatically executing a compilation script and compiling and executing the generated source code.

상기 폴트 시나리오 발생기(118)는, 상기 테스팅 모델 다이어그램 에디터(100)에 의해 제공되는 폴트 시나리오 작성기를 통하여 테스팅 태스크 다이어그램 모델 및 이와 연결되는 타 다이어그램 모델들에 대한 폴트 시나리오를 작성한다. 즉, 예외 및 폴트 상황에 대한 소프트웨어 테스팅을 위해 예외 및 폴트 상황을 나타내는 폴트 시나리오를 작성한다. 또한, 상기 폴트 시나리오 발생기(118)는, 상기 테스팅 모델 스크립트 에디터(108)를 통하여 폴트 시나리오를 작성할 수 있다. 이와 같이 작성된 폴트 시나리오의 내용 및 구조는, 상기 테스팅 모델 다이어그램 시나리오 매니저(102) 및 테스팅 모델 스크립트 시나리오 매니저(110)에 의해 컴퓨터가 이해할 수 있는 데이터 구조로 실시간 유지 및 관리되고, 상기 테스팅 모델 시나리오 파일 관리부(106)에 의해 파일 및 데이터베이스를 통해 저장 및 관리된다. 이에 따라 상기 테스팅 시나리오 XML 발생기(114)는, 상기 테스팅 모델 다이어그램 시나리오 매니저(102) 및 테스팅 모델 스크립트 시나리오 매니저(110)에 의해 유지 및 관리되는 폴트 시나리오의 내용 및 구조를 참조하여, 해당 폴트 시나리오를 표현하는 XML 문서를 발생시킬 수 있다. 상기 폴트 시나리오를 표현하는 XML 문서는, 테스팅 태스크 다이어그램 모델 및 이와 연결되는 타 다이어그램 모델들에 대한 폴트 오퍼레이션 정보를 포함한다. The fault scenario generator 118 creates a fault scenario for the testing task diagram model and the other diagram models associated therewith through the fault scenario creator provided by the testing model diagram editor 100. That is, create fault scenarios that indicate exception and fault conditions for software testing of exceptions and fault conditions. Also, the fault scenario generator 118 can create a fault scenario through the testing model script editor 108. [ The content and the structure of the fault scenario thus created are maintained and managed in real time with a data structure understandable by a computer by the testing model diagram scenario manager 102 and the testing model script scenario manager 110, And is stored and managed by the management unit 106 through a file and a database. Accordingly, the testing scenario XML generator 114 refers to the contents and structure of the fault scenario managed and maintained by the testing model diagram scenario manager 102 and the testing model script scenario manager 110 to determine the corresponding fault scenario You can generate an XML document to represent. The XML document representing the fault scenario includes fault operation information for the testing task diagram model and other diagram models connected thereto.

상기 테스팅 시나리오 XML 분석기(120)는, 상기 테스팅 시나리오 XML 발생기(114)에 의해 발생된 테스팅 시나리오 XML 문서 및 폴트 시나리오 XML 문서를 분석 및 파싱하고, 해당 정보들을 각 테스팅 태스크들을 기준으로 조합하여 테스팅 시뮬레이션 관리 커널 엔진(122)으로 전달한다. 또한, 상기 테스팅 시나리오 XML 분석기(120)는, 상기 테스팅 시나리오 XML 발생기(114)에 의해 발생된 테스팅 시나리오 XML 문서 및 폴트 시나리오 XML 문서에 대한 내용 변경 및 업데이트 상황을 체크하고, 내용 변경 또는 업데이트 상황이 감지되면, 변경 또는 업데이트된 내용이 반영될 수 있도록, 해당 테스팅 시나리오 XML 문서 및 폴트 시나리오 XML 문서를 다시 분석 및 파싱하고, 해당 정보들을 각 테스팅 태스크들을 기준으로 조합하여 테스팅 시뮬레이션 관리 커널 엔진(122)으로 전달한다. The testing scenario XML analyzer 120 analyzes and parses a testing scenario XML document and a fault scenario XML document generated by the testing scenario XML generator 114 and combines the information on the basis of each testing task to perform a testing simulation To the management kernel engine 122. In addition, the testing scenario XML analyzer 120 checks the content change and update status of the testing scenario XML document and the fault scenario XML document generated by the testing scenario XML generator 114, The test scenario XML document and the fault scenario XML document are analyzed and parsed again so that the changed or updated contents can be reflected and the test simulation management kernel engine 122 combines the information on the basis of each testing task, .

상기 테스팅 시뮬레이션 관리 커널 엔진(122)은, 상기 테스팅 시나리오 XML 분석기(120)로부터 전달받은 정보를 기반으로, 테스팅 태스크 관리부(124)를 제어하여 상기 테스팅 시나리오 내 적어도 하나의 테스팅 태스크들과 각 테스팅 태스크와 관련된 다수의 OFP(Operation, Fault and Performance) 정보들을 생성한다. 여기서, OFP 정보는 운용(Operation) 정보, 폴트(Fault) 정보, 성능(Performance) 정보를 포함한다. 즉, 상기 테스팅 태스크 관리부(124)는 테스팅 태스크 다이어그램 모델에 대한 속성 정보를 기반으로 해당 테스팅 태스크를 생성하고, 테스팅 태스크 다이어그램 모델과 타 다이어그램 모델들 간 연결 정보 및 타 다이어그램 모델들에 대한 속성 정보를 포함하여 운용 정보를 생성하며, 테스팅 태스크 다이어그램 모델 및 이와 연결되는 타 다이어그램 모델들에 대한 폴트 오퍼레이션 정보를 포함하여 폴트 정보를 생성한다. 성능 정보는, 성능 결과 지표 관리부(134)에 의해 동적으로 선택된 성능 결과 파라미터들에 대한 정보를 획득 및 포함하여 생성한다. 상기 테스팅 태스크 관리부(124)는, 이와 같이 생성된 테스팅 태스크들과 각 테스팅 태스크와 관련된 다수의 OFP 정보를 테스팅 태스크 풀(126)에 등록하고, 해당 내용이 변경되었을 경우, 상기 테스팅 태스크 풀(126)에 해당 변경된 내용을 반영하며, 더 이상 OFP 정보가 불필요할 경우, 해당 정보를 삭제할 수 있다. The testing simulation management kernel engine 122 controls the testing task manager 124 based on the information received from the testing scenario XML analyzer 120 so that at least one testing task in the testing scenario and each testing task And generates a plurality of OFP (Operation, Fault and Performance) information associated with the OFP. Here, the OFP information includes operation information, fault information, and performance information. That is, the testing task manager 124 generates a corresponding testing task based on the attribute information of the testing task diagram model, and stores connection information between the testing task diagram model and other diagram models, and attribute information on the other diagram models And generates fault information including fault operation information for the testing task diagram model and other diagrammatic models connected to the testing task diagram model. The performance information is generated by acquiring and including information on performance result parameters dynamically selected by the performance result indicator management unit 134. [ The testing task manager 124 registers the testing tasks and the plurality of OFP information related to each testing task in the testing task pool 126. If the contents are changed, the testing task pool 124 ), And if the OFP information is no longer needed, the corresponding information can be deleted.

상기 테스팅 태스크 핸들러 관리부(128)는, 상기 테스팅 태스크 풀(126)에 테스팅 태스크가 등록되면, 등록된 테스팅 태스크에 1:1 매핑되는 테스팅 태스크 핸들러를 할당한다. When the testing task is registered in the testing task pool 126, the testing task handler management unit 128 assigns a testing task handler mapped to the registered testing task 1: 1.

상기 테스팅 태스크 실행부(130)는, 각 테스팅 태스크에 매핑된 테스팅 태스크 핸들러를 통해 미들웨어 상에서 관련 OFP 정보 및 테스팅 태스크 함수 컬렉션을 참조하여 해당 테스팅 태스크들을 실행함으로써, 상기 미들웨어를 자동 테스트한다. 여기서, 상기 테스팅 태스크 실행부(130)는 미들웨어에서 제공하는 프로그래밍 개발 API(application programming interface)를 적절한 내부 구조로 랩핑하고 있는 테스팅 태스크 함수 컬렉션을 가지며, 테스팅 태스크 실행 시, 관련 API 함수를 호출할 수 있다. The testing task execution unit 130 automatically tests the middleware by executing the corresponding testing tasks by referring to the related OFP information and the testing task function collection on the middleware through the testing task handler mapped to each testing task. The testing task execution unit 130 has a testing task function collection that wraps a programming development API (application programming interface) provided by the middleware with an appropriate internal structure. The testing task execution unit 130 can call the related API function have.

상기 테스팅 성능 결과 로거(132)는, 성능 결과 지표 관리부(134)에 의해 동적으로 선택된 성능 결과 파라미터들에 대응하는 성능 결과를 획득하고, 이를 미들웨어에 대한 성능 테스팅 결과로서 테스팅 성능 결과 뷰어(136) 및 테스팅 성능 결과 집적부(138)로 전달한다. The testing performance result logger 132 obtains a performance result corresponding to the performance result parameters dynamically selected by the performance result indicator manager 134 and outputs it as a performance testing result for the middleware to the testing performance result viewer 136. [ And the testing performance result accumulating unit 138. [

상기 성능 결과 지표 관리부(134)는, 개발자로부터 원하는 성능 지표를 선택받고, 선택된 성능 지표에 따라 성능 결과 파라미터들을 동적으로 선택하여 테스팅 태스크 관리부(124)로 전달한다. 여기서, 성능 지표는 시스템 안정성(Reliability), 확장성(Scalability), 강건성(Robustness), 정보처리성(Processing Capabilty) 등을 포함하며, 각각의 성능 지표에 따라 모니터링 가능한 성능 결과 파라미터들 및 관련 파라미터들의 조합이 정해져 있다. 또는, 성능 지표에 대응하는 성능 결과 파라미터들이 개발자에 의해 동적으로 변경 설정될 수 있다. The performance result indicator manager 134 selects a desired performance indicator from the developer, dynamically selects performance result parameters according to the selected performance indicator, and transfers the selected performance result parameters to the testing task manager 124. Here, the performance index includes system stability (Reliability), scalability, robustness, processing capability, and the like. It is also possible to monitor performance performance parameters and related parameters The combination is fixed. Alternatively, the performance result parameters corresponding to the performance indicator may be dynamically changed by the developer.

상기 테스팅 성능 결과 뷰어(136)는, 상기 테스팅 성능 결과 로거(132)로부터 성능 결과를 전달받아 화면에 수치 또는 그래프로 표시함으로써, 개발자로 하여금 미들웨어에 대한 현재 성능 테스팅 결과를 확인할 수 있도록 한다. The testing performance result viewer 136 receives performance results from the testing performance result logger 132 and displays the results on the screen in numerical values or graphs so that the developer can check the current performance testing results of the middleware.

상기 테스팅 성능 결과 집적부(138)는, 상기 테스팅 성능 결과 로거(132)로부터 성능 결과를 전달받아 파일 또는 데이터베이스 또는 공유메모리를 통해 저장한다. The testing performance result accumulator 138 receives performance results from the testing performance result logger 132 and stores the results through a file or a database or a shared memory.

상기 테스팅 성능 결과 사후 분석기(140)는, 상기 테스팅 성능 결과 집적부(138)에 저장된 성능 결과를 참조하여, 일정 기간 동안 저장된 성능 결과를 기반으로 사후 분석을 수행한다.
The testing performance result post analyzer 140 refers to performance results stored in the testing performance result accumulating unit 138 and performs post-analysis based on the stored performance results for a predetermined period of time.

도 2는 본 발명의 일 실시 형태에 따른 철강 공정용 소프트웨어 자동 테스트 시스템의 소프트웨어 자동 테스트 방법을 도시한 흐름도이다. 2 is a flow chart illustrating a software automatic test method of a software automated test system for a steel process according to an embodiment of the present invention.

상기 도 2를 참조하면, 철강 공정용 소프트웨어 자동 테스트 시스템은 201단계에서, 다이어그램 또는 스크립트 기반으로 미들웨어 테스팅을 위한 테스팅 시나리오 및 폴트 시나리오를 자동으로 작성한다. Referring to FIG. 2, in step 201, a software automatic test system for a steel manufacturing process automatically creates a testing scenario and a fault scenario for middleware testing based on a diagram or a script.

이후, 상기 시스템은 203단계에서 상기 작성된 테스팅 시나리오 및 폴트 시나리오의 내용 및 구조를 컴퓨터가 이해할 수 있는 데이터 구조로 실시간 유지 및 관리한다.In step 203, the system maintains and manages the contents and structure of the test scenario and the fault scenario in real time in a data structure that can be understood by a computer.

이후, 상기 시스템은 205단계에서 상기 테스팅 시나리오 및 폴트 시나리오의 내용 및 구조를 참조하여, 테스팅 시나리오 XML 문서와 폴트 시나리오 XML 문서를 발생시킨다. In step 205, the system generates a testing scenario XML document and a fault scenario XML document by referring to the contents and structure of the testing scenario and the fault scenario.

이후, 상기 시스템은 207단계에서 상기 테스팅 시나리오 XML 문서 및 폴트 시나리오 XML 문서를 분석 및 파싱하고, 해당 정보들을 각 테스팅 태스크들을 기준으로 조합하여 상기 테스팅 시나리오 내 적어도 하나의 테스팅 태스크들과 각 테스팅 태스크와 관련된 다수의 OFP 정보들을 생성한다.Thereafter, the system analyzes and parses the testing scenario XML document and the fault scenario XML document in step 207, and combines the information on the basis of each testing task to generate at least one testing task and each testing task in the testing scenario And generates a plurality of related OFP information.

이후, 상기 시스템은 209단계에서 테스팅 태스크별 테스팅 태스크 핸들러를 할당한다. In step 209, the system assigns a testing task handler for each testing task.

이후, 상기 시스템은 211단계에서 각 테스팅 태스크에 매핑된 테스팅 태스크 핸들러를 통해 미들웨어 상에서 관련 OFP 정보 및 테스팅 태스크 함수 컬렉션을 참조하여 해당 테스팅 태스크들을 실행함으로써, 상기 미들웨어를 자동 테스트한다. Then, the system automatically tests the middleware by referring to the related OFP information and the testing task function collection on the middleware through the testing task handler mapped to each testing task in step 211 and executing the corresponding testing tasks.

이후, 상기 시스템은 213단계에서 미들웨어에 대한 성능 테스팅 결과를 화면에 수치 또는 그래프로서 표시한다. Then, in step 213, the system displays the performance test result of the middleware as a numerical value or a graph on the screen.

이후, 상기 시스템은 본 발명에 따른 알고리즘을 종료한다.
The system then terminates the algorithm according to the invention.

이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고, 청구범위에 기재된 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 다양한 수정 및 변형이 가능하다는 것은 당 기술분야의 통상의 지식을 가진 자에게는 자명할 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, It will be obvious to those of ordinary skill in the art.

100: 테스팅 모델 다이어그램 에디터
102: 테스팅 모델 다이어그램 시나리오 매니저
104: 테스팅 모델 다이어그램 시나리오 평가 엔진
106: 테스팅 모델 시나리오 파일 관리부
108: 테스팅 모델 스크립트 에디터
110: 테스팅 모델 스크립트 시나리오 매니저
112: 테스팅 모델 스크립트 시나리오 평가 엔진
114: 테스팅 시나리오 XML 발생기
116: 소스코드 발생기
118: 폴트 시나리오 발생기
120: 테스팅 시나리오 XML 분석기
122: 테스팅 시뮬레이션 관리 커널 엔진
124: 테스팅 태스크 관리부
126: 테스팅 태스크 풀
128: 테스팅 태스크 핸들러 관리부
130: 테스팅 태스크 실행부
132: 테스팅 성능 결과 로거
134: 성능 결과 지표 관리부
136: 테스팅 성능 결과 뷰어
138: 테스팅 성능 결과 집적부
140: 테스팅 성능 결과 사후 분석기
100: Testing Model Diagram Editor
102: Testing Model Diagram Scenario Manager
104: Testing model diagram scenario assessment engine
106: Testing Model Scenario File Manager
108: Testing Model Script Editor
110: Testing model script script manager
112: Testing model script script scenario evaluation engine
114: Testing scenario XML generator
116: Source Code Generator
118: Fault scenario generator
120: Testing scenario XML parser
122: Testing Simulation Management Kernel Engine
124: Testing task manager
126: Testing Task Pool
128: Testing task handler manager
130: Testing task execution unit
132: Testing Performance Results Logger
134: Performance result indicator management part
136: Testing Performance Results Viewer
138: Testing performance result integration section
140: Testing Performance Results Post-Analyzer

Claims (11)

다이어그램 기반으로 소프트웨어 테스팅을 위한 테스팅 시나리오를 자동으로 작성하는 테스팅 모델 다이어그램 에디터,
상기 작성된 테스팅 시나리오의 내용 및 구조를 참조하여, 테스팅 시나리오 XML(eXtensible Markup Language) 문서를 발생시키는 테스팅 시나리오 XML 발생기,
상기 발생된 테스팅 시나리오 XML 문서를 기반으로, 테스팅 시나리오 내 적어도 하나의 테스팅 태스크들을 생성하는 테스팅 태스크 관리부,
상기 생성된 테스팅 태스크들을 소프트웨어 상에서 실행하여 상기 소프트웨어를 자동 테스트하는 테스팅 태스크 실행부를 포함하는 철강 공정용 소프트웨어 자동 테스트 시스템.
A testing model that automatically creates testing scenarios for diagram-based software testing. Diagram editor,
A testing scenario XML generator for generating a testing scenario XML (eXtensible Markup Language) document by referring to the contents and structure of the created testing scenario,
A testing task manager for generating at least one testing task in the testing scenario based on the generated testing scenario XML document,
And a testing task execution unit for executing the generated testing tasks on software to automatically test the software.
제 1 항에 있어서,
상기 소프트웨어는 미들웨어인 것을 특징으로 하는 철강 공정용 소프트웨어 자동 테스트 시스템.
The method according to claim 1,
Wherein the software is middleware.
제 1 항에 있어서,
상기 테스팅 모델 다이어그램 에디터는, 테스팅 시나리오를 구성할 수 있는 다양한 모델을 화면에 다이어그램으로 표시하고 드래그 앤 드롭을 이용한 다이어그램 모델들 간 연결 및 해당 다이어그램 모델에 대한 속성 입력을 지원하여, 개발자에 의해 선택 및 연결되는 하나 이상의 다이어그램 모델들로 테스팅 시나리오를 작성하는 것을 특징으로 하는 철강 공정용 소프트웨어 자동 테스트 시스템.
The method according to claim 1,
The testing model diagram editor displays various models capable of configuring a testing scenario on a screen, supports connection between diagram models using drag and drop and input of attributes for the corresponding diagram model, And creating a testing scenario with one or more diagrammodels connected to the automated test system.
제 3 항에 있어서,
상기 테스팅 모델 다이어그램 에디터는, 개발자에 의해 테스팅 시나리오의 랜덤 발생이 요구되는 경우, 하나 이상의 다이어그램 모델들을 랜덤으로 선택 및 연결하여 테스팅 시나리오를 작성하는 것을 특징으로 하는 철강 공정용 소프트웨어 자동 테스트 시스템.
The method of claim 3,
Wherein the testing model diagram editor is configured to randomly select and connect one or more diagram models to generate a testing scenario when a random occurrence of a testing scenario is required by the developer.
제 3 항에 있어서,
상기 화면에 표시되는 다이어그램 모델은, 테스팅 태스크를 나타내는 다이어그램 모델, 테스팅 태스크들 간 메시지 송수신을 담당하는 다이어그램 모델, 테스팅 태스크의 운영 주기 및 시간 설정을 담당하는 다이어그램 모델, 테스팅 태스크와 결합하여 파일 관련 오퍼레이션 수행을 담당하는 다이어그램 모델, 태스크들 간 데이터 공유를 담당하는 다이어그램 모델, 테스팅 테스크와 결합하여 데이터베이스에 데이터를 저장 및 관리하기 위한 오퍼레이션 및 통신을 담당하는 다이어그램 모델, 철강 공정에서 PLC(Programmable Logic Controller) 또는 DCS(Distributed Control System)와의 통신 및 데이터 송수신을 담당하는 다이어그램 모델 중 적어도 하나를 포함하는 것을 특징으로 하는 철강 공정용 소프트웨어 자동 테스트 시스템.
The method of claim 3,
The diagrammodel displayed on the screen includes a diagram model representing a testing task, a diagrammodel responsible for sending and receiving messages between the testing tasks, a diagrammodel responsible for setting the operating cycle and time of the testing task, A diagrammodel responsible for data sharing between tasks, a diagrammodel responsible for operations and communication for storing and managing data in a database in combination with a testing task, a programmable logic controller (PLC) in a steel process, Or a diagram model that is responsible for communication with DCS (Distributed Control System) and data transmission / reception.
제 5 항에 있어서,
상기 테스팅 모델 다이어그램 에디터는, 다이어그램 기반으로 예외 및 폴트 상황을 나타내는 폴트 시나리오를 작성하고,
상기 테스팅 시나리오 XML 발생기는, 상기 작성된 폴트 시나리오의 내용 및 구조를 참조하여, 폴트 시나리오 XML 문서를 발생시키며,
여기서, 상기 테스팅 시나리오 XML 문서는, 테스팅 태스크 다이어그램 모델에 대한 속성 정보, 테스팅 태스크 다이어그램 모델과 타 다이어그램 모델들 간 연결 정보 및 타 다이어그램 모델들에 대한 속성 정보를 포함하며,
여기서, 상기 폴트 시나리오 XML 문서는, 테스팅 태스크 다이어그램 모델 및 이와 연결되는 타 다이어그램 모델들에 대한 폴트 오퍼레이션 정보를 포함하는 것을 특징으로 하는 철강 공정용 소프트웨어 자동 테스트 시스템.
6. The method of claim 5,
The testing model diagram editor creates a fault scenario that represents an exception and a fault situation based on a diagram,
The testing scenario XML generator generates a fault scenario XML document by referring to the contents and structure of the fault scenario created above,
Here, the testing scenario XML document includes attribute information for a testing task diagram model, connection information between a testing task diagram model and other diagram models, and attribute information about other diagram models,
Wherein the fault scenario XML document includes fault operation information for a testing task diagram model and other diagrammatic models connected thereto.
제 6 항에 있어서,
개발자로부터 원하는 성능 지표를 선택받고, 선택된 성능 지표에 따라 성능 결과 파라미터들을 동적으로 선택하는 성능 결과 지표 관리부를 더 포함하며,
여기서, 상기 테스팅 태스크 관리부는, 상기 발생된 테스팅 시나리오 XML 문서 및 폴트 시나리오 XML 문서, 성능 결과 파라미터를 기반으로, 테스팅 시나리오 내 적어도 하나의 테스팅 태스크들과 각 테스팅 태스크와 관련된 OFP(Operation, Fault and Performance) 정보들을 생성하며,
여기서, OFP 정보는, 운용 정보, 폴트 정보, 성능 정보를 포함하며,
여기서, 상기 테스팅 태스크 관리부는, 테스팅 태스크 다이어그램 모델에 대한 속성 정보를 기반으로 테스팅 태스크를 생성하고, 테스팅 태스크 다이어그램 모델과 타 다이어그램 모델들 간 연결 정보 및 타 다이어그램 모델들에 대한 속성 정보를 포함하여 운용 정보를 생성하며, 테스팅 태스크 다이어그램 모델 및 이와 연결되는 타 다이어그램 모델들에 대한 폴트 오퍼레이션 정보를 포함하여 폴트 정보를 생성하고, 성능 결과 파라미터들에 대한 정보를 포함하여 성능 정보를 생성하는 것을 특징으로 하는 철강 공정용 소프트웨어 자동 테스트 시스템.
The method according to claim 6,
A performance result indicator manager for selecting a desired performance indicator from the developer and dynamically selecting performance result parameters according to the selected performance indicator,
Here, the testing task manager may include at least one testing task in the testing scenario and an operation, fault, and performance (API) related to each testing task based on the generated testing scenario XML document, the fault scenario XML document, ) Information,
Here, the OFP information includes operation information, fault information, and performance information,
Here, the testing task manager may generate a testing task based on attribute information of the testing task diagram model, and may include attribute information about connection information between the testing task diagram model and other diagram models and other diagram models, Generates fault information including fault operation information for the testing task diagram model and other diagrammatic models connected thereto, and generates performance information including information on the performance result parameters Software automated test system for steel processes.
제 7 항에 있어서,
상기 성능 결과 파라미터들에 대응하는 성능 결과를 획득하는 테스팅 성능 결과 로거,
상기 획득된 성능 결과를 화면에 수치 또는 그래프로서 표시하는 테스팅 성능 결과 뷰어,
상기 획득된 성능 결과를 저장하는 테스팅 성능 결과 집적부,
상기 저장된 성능 결과를 참조하여, 일정 기간 동안 저장된 성능 결과를 기반으로 사후 분석을 수행하는 테스팅 성능 결과 사후 분석기를 더 포함하는 철강 공정용 소프트웨어 자동 테스트 시스템.
8. The method of claim 7,
A testing performance result logger to obtain a performance result corresponding to the performance result parameters,
A testing performance result viewer for displaying the obtained performance result as a numerical value or a graph on a screen,
A testing performance result accumulating unit for storing the obtained performance results,
Further comprising a testing performance result post-analyzer for performing post-analysis based on the stored performance results for a predetermined period of time with reference to the stored performance results.
제 1 항에 있어서,
테스팅 태스크별 테스팅 태스크 핸들러를 할당하는 테스팅 태스크 핸들러 관리부를 더 포함하며,
여기서, 상기 테스팅 태스크 실행부는, 각 테스팅 태스크에 매핑된 테스팅 태스크 핸들러를 통해 소프트웨어 상에서 관련 OFP 정보 및 테스팅 태스크 함수 컬렉션을 참조하여 해당 테스팅 태스크를 실행함으로써, 소프트웨어를 자동 테스트하는 것을 특징으로 하는 철강 공정용 소프트웨어 자동 테스트 시스템.
The method according to claim 1,
And a testing task handler management unit for assigning a testing task handler for each testing task,
Herein, the testing task execution unit refers to the OFP information and the testing task function collection in software through the testing task handler mapped to each testing task, and executes the corresponding testing task to automatically test the software. Software automatic test system for.
제 1 항에 있어서,
상기 테스팅 모델 다이어그램 에디터에 의해 작성된 테스팅 시나리오를 분석하고, 해당 내용 및 구조를 내부적으로 컴퓨터가 이해할 수 있는 데이터 구조로 실시간 유지 및 관리하는 테스팅 모델 다이어그램 시나리오 매니저,
스크립트를 기반으로 테스팅 시나리오를 자동으로 작성하는 테스팅 모델 스크립트 에디터,
상기 테스팅 모델 스크립트 에디터에 의해 작성된 테스팅 시나리오를 분석하고, 해당 내용 및 구조를 내부적으로 컴퓨터가 이해할 수 있는 데이터 구조로 실시간 유지 및 관리하는 테스팅 모델 스크립트 시나리오 매니저를 더 포함하는 철강 공정용 소프트웨어 자동 테스트 시스템.
The method according to claim 1,
A testing model diagram that analyzes the testing scenarios created by the testing model diagram editor and maintains and manages the contents and structure in real time in a data structure that can be understood by a computer. Scenario manager,
A testing model that automatically creates testing scenarios based on scripts Script editor,
And a test model script script manager for analyzing a test scenario created by the test model script editor and maintaining and managing the contents and structure in real time in a data structure that can be understood by a computer, .
제 1 항에 있어서,
상기 테스팅 시나리오 XML 발생기에 의해 발생된 테스팅 시나리오 XML 문서를 분석 및 파싱하여, 소프트웨어에서 컴파일되어 실행될 수 있는 소스코드를 자동적으로 발생시키고, 자동으로 컴파일 스크립트를 실행하여 상기 발생된 소스코드를 컴파일 및 실행함으로써, 소프트웨어를 테스트하는 소스코드 발생기를 더 포함하는 철강 공정용 소프트웨어 자동 테스트 시스템.
The method according to claim 1,
Analyzing and parsing a testing scenario XML document generated by the testing scenario XML generator to automatically generate source code that can be compiled and executed in software and automatically execute the compilation script to compile and execute the generated source code , And further comprising a source code generator for testing the software.
KR1020120154432A 2012-12-27 2012-12-27 Automatic software test system for steel processing KR101449201B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120154432A KR101449201B1 (en) 2012-12-27 2012-12-27 Automatic software test system for steel processing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120154432A KR101449201B1 (en) 2012-12-27 2012-12-27 Automatic software test system for steel processing

Publications (2)

Publication Number Publication Date
KR20140084698A true KR20140084698A (en) 2014-07-07
KR101449201B1 KR101449201B1 (en) 2014-10-08

Family

ID=51734539

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120154432A KR101449201B1 (en) 2012-12-27 2012-12-27 Automatic software test system for steel processing

Country Status (1)

Country Link
KR (1) KR101449201B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108763039A (en) * 2018-04-02 2018-11-06 阿里巴巴集团控股有限公司 A kind of traffic failure analogy method, device and equipment
EP3547143A1 (en) * 2018-03-27 2019-10-02 Siemens Aktiengesellschaft System and method for model-based and behaviour-driven testing
KR20200082839A (en) * 2018-12-31 2020-07-08 주식회사 포스코아이씨티 Process Editor Apparatus and Method for Robot Process Automation
CN112148616A (en) * 2020-09-30 2020-12-29 中国民航信息网络股份有限公司 Performance test management platform

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3547143A1 (en) * 2018-03-27 2019-10-02 Siemens Aktiengesellschaft System and method for model-based and behaviour-driven testing
CN110309046A (en) * 2018-03-27 2019-10-08 西门子公司 Modeling
US11099978B2 (en) 2018-03-27 2021-08-24 Siemens Aktiengesellschaft Modeling system for software-implemented testing using domain specific profiles to translate tests for a subset of paths included in a UML test model
CN108763039A (en) * 2018-04-02 2018-11-06 阿里巴巴集团控股有限公司 A kind of traffic failure analogy method, device and equipment
CN108763039B (en) * 2018-04-02 2021-09-21 创新先进技术有限公司 Service fault simulation method, device and equipment
KR20200082839A (en) * 2018-12-31 2020-07-08 주식회사 포스코아이씨티 Process Editor Apparatus and Method for Robot Process Automation
CN112148616A (en) * 2020-09-30 2020-12-29 中国民航信息网络股份有限公司 Performance test management platform
CN112148616B (en) * 2020-09-30 2024-04-26 中国民航信息网络股份有限公司 Performance test management platform

Also Published As

Publication number Publication date
KR101449201B1 (en) 2014-10-08

Similar Documents

Publication Publication Date Title
Mirzaei et al. Testing android apps through symbolic execution
US11200143B2 (en) Software development framework for a cloud computing platform
US6941546B2 (en) Method and apparatus for testing a software component using an abstraction matrix
US10671381B2 (en) Continuous integration with reusable context aware jobs
US8584079B2 (en) Quality on submit process
US10209968B2 (en) Application compiling
US20080320071A1 (en) Method, apparatus and program product for creating a test framework for testing operating system components in a cluster system
US20080276221A1 (en) Method and apparatus for relations planning and validation
EP2431869A1 (en) Dry-run design time environment
US10445225B2 (en) Command coverage analyzer
CN111695827B (en) Business process management method and device, electronic equipment and storage medium
KR101449201B1 (en) Automatic software test system for steel processing
US20140130014A1 (en) Generating test plans and test cases from service-oriented architecture and process models
US9026997B2 (en) Systems and methods for executing object-oriented programming code invoking pre-existing objects
CN103186463A (en) Method and system for determining testing range of software
US20170010951A1 (en) Application screen mapping for mobile analytics
Ali et al. Model transformations as a strategy to automate model-based testing-A tool and industrial case studies
CN108287720B (en) Software compiling method, device, equipment and storage medium
KR20090099977A (en) A reserved component container based software development method and apparatus
US20130111431A1 (en) Validation of a system model including an activity diagram
CN112717416B (en) Resource processing method and device in virtual scene and electronic equipment
US20090271770A1 (en) Method, system, and computer program product for generating unit testing scripts
JP2012048329A (en) Object oriented program generating device, method therefor and program
Das et al. State machine antipatterns for UML-RT
JP2010204840A (en) Customization method, terminal apparatus, computer program, and information recording medium for user interface operation integration system

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20191001

Year of fee payment: 6