KR20190135074A - Ui testing automation method using deep learning algorithem and tree and appratus for the same - Google Patents

Ui testing automation method using deep learning algorithem and tree and appratus for the same Download PDF

Info

Publication number
KR20190135074A
KR20190135074A KR1020180060053A KR20180060053A KR20190135074A KR 20190135074 A KR20190135074 A KR 20190135074A KR 1020180060053 A KR1020180060053 A KR 1020180060053A KR 20180060053 A KR20180060053 A KR 20180060053A KR 20190135074 A KR20190135074 A KR 20190135074A
Authority
KR
South Korea
Prior art keywords
tree
node
deep learning
learning algorithm
testing
Prior art date
Application number
KR1020180060053A
Other languages
Korean (ko)
Other versions
KR102132383B1 (en
Inventor
박상섭
조민근
염성연
Original Assignee
슈어소프트테크주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 슈어소프트테크주식회사 filed Critical 슈어소프트테크주식회사
Priority to KR1020180060053A priority Critical patent/KR102132383B1/en
Publication of KR20190135074A publication Critical patent/KR20190135074A/en
Application granted granted Critical
Publication of KR102132383B1 publication Critical patent/KR102132383B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/36Preventing errors by testing or debugging software
    • G06F11/3668Software testing
    • G06F11/3696Methods or tools to render software testable
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Abstract

According to an embodiment of the present invention, provided is a UI testing automation method using a deep learning algorithm and a tree. The method comprises: a first step of extracting an object from a captured image based on a predetermined deep learning algorithm and generating a tree composed of a node generated by utilizing the captured image and the extracted object; and a second step of performing automation for user interface testing using the generated tree. As a result, efficient UI testing with minimal time is possible.

Description

딥러닝 알고리즘 및 트리를 이용한 UI테스팅 자동화 방법 및 동일 방법으로 구현된 장치{UI TESTING AUTOMATION METHOD USING DEEP LEARNING ALGORITHEM AND TREE AND APPRATUS FOR THE SAME}UI TESTING AUTOMATION METHOD USING DEEP LEARNING ALGORITHEM AND TREE AND APPRATUS FOR THE SAME}

본 발명은 딥러닝 알고리즘 및 트리를 이용한 UI테스팅 자동화 방법 및 장치에 관한 것으로, 보다 구체적으로, 캡쳐이미지로부터 오브젝트를 추출하여 추출된 오브젝트와 관련된 트리를 생성함으로서, 생성된 트리를 이용하여 UI테스팅을 자동화하기 위한, 딥러닝 알고리즘 및 트리를 이용한 UI테스팅 자동화 방법 및 장치에 관한 것이다.The present invention relates to a method and apparatus for automating UI testing using a deep learning algorithm and a tree, and more particularly, to extract a object from a captured image and to generate a tree related to the extracted object. The present invention relates to a method and apparatus for automating UI testing using a deep learning algorithm and a tree for automation.

인포테인먼트(infotainment)는 정보(Information)와 오락 (Entertainment)의 합성어로 정보와 오디오 및 시각적인 엔터테인먼트를 제공하는 장치를 말한다. 최근 텔레메틱스(Telematics), 커넥티드 카(Connected Car), 자율 주행 자동차 기술의 발전으로 인해 차량용 인포테인먼트 시스템(In-Vehicle Infotainment, IVI)은 단순한 멀티미디어 장치를 뛰어넘어 사용자에게 차량의 정보를 알려주거나 직접 차량을 제어하는 등 역할과 중요도가 크게 높아졌다. IVI가 발전하면서 차량과 사용자의 상호작용을 담당하는 사용자 인터페이스(User Interface, UI)는 복잡성이 증가되었고, 높은 품질의 UI 개발을 위한 UI 테스팅 기술의 필요성 또한 증대 되었다. UI 테스팅이란 사용자가 인터페이스를 통해 시스템을 조작했을 때 원하는 반응과 화면 변화가 이루어지는지 확인하는 과정이다. 이러한 과정을 테스터가 수동으로 진행한다면 많은 인력과 비용이 발생된다. 특히 테스트 수행에 소모되는 자원의 양은 테스터에게 상당한 부담을 줄 수 있으므로, UI 테스팅 자동화는 필수적인 요소이다.Infotainment is a compound word of information and entertainment, and refers to a device that provides information, audio, and visual entertainment. Recent advances in telematics, connected cars, and autonomous vehicle technologies have made In-Vehicle Infotainment (IVI) more than simple multimedia devices to inform users of their vehicles or directly The role and importance have increased significantly. As the IVI evolved, the user interface (UI), which is responsible for the interaction between the vehicle and the user, has increased in complexity and the need for UI testing techniques for high quality UI development. UI testing is the process of verifying that the desired response and screen changes occur when the user operates the system through the interface. If this is done manually by the tester, a lot of manpower and costs are incurred. In particular, the amount of resources consumed to perform the test can be a significant burden on the tester, so automation of UI testing is essential.

본 발명은 최소한의 자원으로 효율적인 자동화된 UI 테스팅을 구현하는데에 그 목적이 있다.It is an object of the present invention to implement efficient automated UI testing with minimal resources.

본 발명의 실시예에 따른 딥러닝 알고리즘 및 트리를 이용한 UI테스팅 자동화 방법은, 소정의 딥러닝 알고리즘에 기반하여 캡쳐이미지로부터 오브젝트를 추출하고, 상기 캡쳐이미지 및 상기 추출된 오브젝트를 활용하여 생성된 노드로 구성된 트리를 생성하는 제1 단계 및 상기 생성된 트리를 이용하여 UI테스팅을 자동화하는 제2 단계를 포함할 수 있다.In the UI testing automation method using a deep learning algorithm and a tree according to an embodiment of the present invention, an object is extracted from a captured image based on a predetermined deep learning algorithm, and the node is generated by using the captured image and the extracted object. It may include a first step of generating a tree consisting of a second step of automating UI testing using the generated tree.

본 발명의 다른 실시예에 따른 딥러닝 알고리즘 및 트리를 이용한 UI테스팅 자동화 장치는, 소정의 딥러닝 알고리즘에 기반하여 캡쳐이미지로부터 오브젝트를 추출하는 오브젝트 추출부, 상기 캡쳐이미지 및 상기 추출된 오브젝트를 활용하여 생성된 노드로 구성된 트리를 생성하는 트리생성부; 및 상기 생성된 트리를 이용하여 사용자 인터페이스 테스팅을 자동화 수행하는 UI테스팅 자동화부;를 포함할 수 있다.UI testing automation apparatus using a deep learning algorithm and a tree according to another embodiment of the present invention, an object extracting unit for extracting an object from a captured image based on a predetermined deep learning algorithm, utilizing the captured image and the extracted object Tree generation unit for generating a tree consisting of the nodes generated by; And a UI testing automation unit for automating user interface testing using the generated tree.

본 발명의 다른 실시예에 따른 컴퓨터 판독 가능한 기록 매체는 본 발명의 실시예에 따른 딥러닝 알고리즘 및 트리를 이용한 UI테스팅 자동화 방법을 실행하기 위한 컴퓨터 프로그램을 기록할 수 있다.The computer-readable recording medium according to another embodiment of the present invention may record a computer program for executing the UI testing automation method using the deep learning algorithm and the tree according to the embodiment of the present invention.

본 발명의 실시예에 따르면, UI 테스팅을 자동화 할 수 있으며, 테스트 케이스에서 사용될 수 있는 리소스(정답 이미지, 클릭 포인트 좌표 등)생성 및 테스트가 필요한 화면까지의 이동과 같이 단순하고 반복적인 작업을 테스터 대신해줌으로써 테스터가 최소한의 시간으로 효율적인 UI 테스팅을 이루어 낼 수 있도록 한다.According to an embodiment of the present invention, UI testing can be automated, and simple and repetitive tasks such as generating resources (correct image, click point coordinates, etc.) that can be used in a test case and moving to a screen requiring testing are performed. Instead, it allows testers to perform efficient UI testing with minimal time.

본 발명의 실시예에 따르면, 노드에 추가하고자 하는 캡쳐이미지가 해당 경로 상에 이미 존재하는지 여부를 판단하여, 이미 존재하지 않는 경우에만 노드 추가를 수행함으로서 시스템 오류를 줄이고, 보다 빠른 테스트 수행이 가능해진다.According to an embodiment of the present invention, it is possible to determine whether the captured image to be added to the node already exists on the path, and to perform the test by reducing the system error by performing the node addition only if it does not already exist. Become.

본 발명의 실시예에 따르면, 노드 정보를 일일이 입력받지 않고, 사용자가 테스트하고자 하는 소정의 경로 정보만을 입력받아도, 해당 경로에 대응하는 기 저장된 경로와의 비교 수행이 가능해지므로, 효율적이고 빠른 테스트 수행이 가능해진다는 이점이 있다.According to an embodiment of the present invention, even if the user receives only the predetermined path information to be tested without receiving the node information, the comparison with the pre-stored path corresponding to the corresponding path can be performed, thereby efficiently and quickly performing the test. This has the advantage of being possible.

본 발명의 실시예에 따르면, 소스코드 스크립트가 간소화될 수 있으며, 테스팅 타겟 시스템의 UI가 변경되더라도, 메뉴트리 탐색을 재 수행한 결과를 반복적으로 이용할 수 있어, 스크립트 코드의 재사용성을 향상시킬 수 있게 된다.According to an embodiment of the present invention, the source code script can be simplified, and even if the UI of the testing target system is changed, the result of performing the menu tree search can be repeatedly used, thereby improving the reusability of the script code. Will be.

도 1은 본 발명의 실시예에 따른 딥러닝 알고리즘 및 트리를 이용한 UI테스팅 자동화 장치에 대한 블록도
도 2 내지 도 4는 본 발명의 실시예에 따른 딥러닝 알고리즘 및 트리를 이용한 UI테스팅 자동화 방법에 대한 순서도
도 5 내지 도 9는 본 발명의 실시예에 따른 딥러닝 알고리즘 및 트리를 이용한 UI테스팅 자동화 방법을 기술하기 위해 참조되는 도면
1 is a block diagram of a UI testing automation apparatus using a deep learning algorithm and a tree according to an embodiment of the present invention.
2 to 4 are flowcharts of a method for automating UI testing using a deep learning algorithm and a tree according to an embodiment of the present invention.
5 to 9 are views referenced to describe a method for automating UI testing using a deep learning algorithm and a tree according to an embodiment of the present invention.

후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예에 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 정신 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.DETAILED DESCRIPTION The following detailed description of the invention refers to the accompanying drawings that show, by way of illustration, specific embodiments in which the invention may be practiced. These embodiments are described in sufficient detail to enable those skilled in the art to practice the invention. It should be understood that the various embodiments of the present invention are different but need not be mutually exclusive. For example, certain shapes, structures, and characteristics described herein may be embodied in other embodiments without departing from the spirit and scope of the invention with respect to one embodiment. In addition, it is to be understood that the location or arrangement of individual components within each disclosed embodiment may be changed without departing from the spirit and scope of the invention. The following detailed description, therefore, is not to be taken in a limiting sense, and the scope of the present invention, if properly described, is defined only by the appended claims, along with the full range of equivalents to which such claims are entitled. Like reference numerals in the drawings refer to the same or similar functions throughout the several aspects.

이하, 첨부되는 도면을 참조하여 본 발명의 실시예에 따른 딥러닝 알고리즘 및 트리를 이용한 UI테스팅 자동화 방법 및 장치에 대해 기술하고자 한다.Hereinafter, a UI testing automation method and apparatus using a deep learning algorithm and a tree according to an embodiment of the present invention will be described with reference to the accompanying drawings.

도 1은 본 발명의 실시예에 따른 딥러닝 알고리즘 및 트리를 이용한 UI테스팅 자동화 장치에 대한 블록도이다.1 is a block diagram of a UI testing automation apparatus using a deep learning algorithm and a tree according to an embodiment of the present invention.

도 1에 도시한 바와 같이, 본 발명의 실시예에 따른 딥러닝 알고리즘 및 트리를 이용한 UI테스팅 자동화 장치는 입력부(100), 제어부(200), 메모리부(300), 및 출력부(400)를 포함할 수 있다. As shown in FIG. 1, the UI testing automation apparatus using the deep learning algorithm and the tree according to an embodiment of the present invention includes an input unit 100, a control unit 200, a memory unit 300, and an output unit 400. It may include.

입력부(100)는 사용자가 컴퓨팅 시스템을 조작할 수 있도록 하는 입력 경로가 되는 것으로, 키보드, 마우스, 포인팅 장치, 터치 스크린 등을 포함할 수 있다. The input unit 100 may be an input path for allowing a user to operate the computing system and may include a keyboard, a mouse, a pointing device, a touch screen, and the like.

제어부(200)는 입력부(100), 메모리부(300), 출력부(400)와 연동되어 딥러닝 알고리즘 및 트리를 이용한 UI테스팅 자동화 장치를 제어하는 것으로, 본 발명의 일 실시예에 따라 오브젝트 추출부(210), 트리생성부(220), 및 UI테스팅 자동화부(230)를 포함할 수 있다. 블록도 내의 각 구성요소에 대해서는 이하에서 자세하게 후술한다.The control unit 200 controls an UI testing automation device using a deep learning algorithm and a tree in cooperation with the input unit 100, the memory unit 300, and the output unit 400, and extracts an object according to an embodiment of the present invention. The unit 210, the tree generator 220, and the UI testing automation unit 230 may be included. Each component in the block diagram will be described later in detail.

메모리부(300)는 딥러닝 알고리즘 및 트리를 이용한 UI테스팅 자동화 장치의 다양한 정보를 저장한다. 메모리부(300)는 딥러닝 알고리즘 및 트리를 이용한 UI테스팅 자동화 장치에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 딥러닝 알고리즘 및 트리를 이용한 UI테스팅 자동화 방법 수행을 위한 관련 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 무선 통신을 통해 외부 서버로부터 다운로드 될 수도 있다. The memory unit 300 stores various information of the UI testing automation device using the deep learning algorithm and the tree. The memory unit 300 includes a plurality of application programs (applications or applications) driven by the UI testing automation device using the deep learning algorithm and the tree, and related data for performing the UI testing automation method using the deep learning algorithm and the tree. For example, you can store commands. At least some of these application programs may be downloaded from an external server via wireless communication.

출력부(400)는 터치스크린, 모니터 등을 포함하며, 제어부(200)를 통해 처리된 결과를 디스플레이할 수 있다.The output unit 400 may include a touch screen, a monitor, and the like, and display the result processed by the controller 200.

도 2 내지 도 4는 본 발명의 실시예에 따른 딥러닝 알고리즘 및 트리를 이용한 UI테스팅 자동화 방법에 대한 순서도이다. 2 to 4 are flowcharts of a method for automating UI testing using a deep learning algorithm and a tree according to an embodiment of the present invention.

도 2에 도시한 바와 같이, 오브젝트 추출부(210)는 소정의 딥러닝 알고리즘에 기반하여 캡쳐이미지로부터 오브젝트를 추출할 수 있고, 트리생성부(220)는 캡쳐이미지 및 상기 추출된 오브젝트를 활용하여 생성된 노드로 구성된 트리를 생성할 수 있다(S200). UI테스팅 자동화부(230)는 생성된 트리를 이용하여 UI테스팅을 자동화 수행할 수 있다(S300).As shown in FIG. 2, the object extractor 210 may extract an object from a captured image based on a predetermined deep learning algorithm, and the tree generator 220 may utilize the captured image and the extracted object. A tree composed of the generated nodes may be generated (S200). The UI testing automation unit 230 may automate UI testing using the generated tree (S300).

도 2의 S200 단계는 도 3에서 상술하며, 도 2의 S300 단계는 도 4에서 상술한다.Step S200 of FIG. 2 is described in detail with reference to FIG. 3, and step S300 of FIG. 2 is described with reference to FIG. 4.

참고로, 본 발명의 실시예에 따르면, 차량 자동화 테스팅 툴 중 하나인 자동차 인포테인먼트 시스템 테스팅 자동화 툴 (Vehicle Infotainment System Testing Automation, VISTA)에 본 발명의 알고리즘이 적용된 예를 기술하였으나, 본 발명의 권리범위가 이에 제한되지 않고 화면을 캡쳐할 수 있는 모든 시스템에 적용 가능하다. 차량 자동화 테스팅 툴은 C/C++ 기반의 스크립트로 작성될 수 있다.For reference, according to an embodiment of the present invention, an example in which the algorithm of the present invention is applied to a vehicle infotainment system testing automation tool (VISTA), which is one of the vehicle automation testing tools, has been described. Is not limited to this and is applicable to all systems capable of capturing screens. Vehicle automation testing tools can be written in C / C ++ based scripts.

도 3에 도시한 바와 같이, 트리생성부(220)는 제N캡쳐이미지에 대응하는 제N노드를 소정의 경로상에 추가할 수 있다(S210). 예를 들어, 도 5를 참조하면, 차량 자동화 테스팅 툴은 메뉴트리(C) 및 메뉴트리의 각 노드와 관련된 사용자 인터페이스 캡쳐이미지(A,B)를 함께 출력할 수 있다.As illustrated in FIG. 3, the tree generation unit 220 may add an Nth node corresponding to the Nth captured image on a predetermined path (S210). For example, referring to FIG. 5, the vehicle automation testing tool may output a menu tree C and user interface captured images A and B associated with each node of the menu tree.

도 5의 제1캡쳐이미지(A)에 대응하는 제1노드(1번노드, 루트노드)를 생성할 수 있다. 여기서, 제1캡쳐이미지(A)는 AVN(Audio Video Navigation) 시스템 기반의 사용자 인터페이스 테스팅 대상이 되는 초기 화면일 수 있다. (예, 네비게이션 홈 화면) 한편, 이는 일 실시예에 불과하고, 차량 내부의 AVN 시스템을 위한 사용자 인터페이스 화면 뿐 아니라, 다른 사용자 인터페이스 화면에도 본 기술이 동일/유사하게 적용될 수 있다. 도 5에 도시한 바와 같이, 생성된 제1노드를 기초로, 제1노드를 포함하여 소정의 제1경로(path)가 생성된다. 도 5에 도시된 바와 같이, 메뉴트리(C)는 노드와 간선(화살표)으로 구성된 경로(path)들의 집합체이다. 본 발명에서 노드는 캡쳐화면에 대한 정보를 포함할 수 있고, 간선은 캡쳐화면간 전이(transition)을 나타낸다. 그리고, 제1노드에서 제2노드로 전이된다는 것은, 제1캡쳐화면에서 제2캡쳐화면으로 변경된다는 것을 의미하고, 특히, 제2캡쳐화면은 사용자 인터페이스 테스팅 대상이 되는 제1캡쳐화면과 관련된 제1캡쳐화면의 다음 화면일 수 있다. 예를 들어, 제2캡쳐화면은, 제1캡쳐화면의 특정 오브젝트과 관련된 컨텐츠가 출력되는, 사용자 인터페이스 테스팅 대상이 되는 제1캡쳐화면의 순차적인 다음 화면일 수 있다. A first node (node 1, root node) corresponding to the first captured image A of FIG. 5 may be generated. Here, the first capture image A may be an initial screen to be subjected to user interface testing based on an AVN (Audio Video Navigation) system. On the other hand, this is merely an embodiment, and the present technology may be applied to the same / similarly to other user interface screens as well as a user interface screen for an AVN system in a vehicle. As shown in FIG. 5, a predetermined first path is generated including the first node based on the generated first node. As shown in FIG. 5, the menu tree C is a collection of paths composed of nodes and edges (arrows). In the present invention, the node may include information about the screenshot, and the edge represents a transition between the screenshots. The transition from the first node to the second node means changing from the first capture screen to the second capture screen, and in particular, the second capture screen is related to the first capture screen that is the user interface testing target. 1 may be the next screen of the capture screen. For example, the second capture screen may be a sequential next screen of the first capture screen to be tested for user interface, in which content related to a specific object of the first capture screen is output.

트리생성부(220)는 제N캡쳐이미지로부터 소정의 딥러닝 알고리즘에 기반하여 제N오브젝트를 추출할 수 있으며(S220), 추출된 제N오브젝트와 관련된 제N+1캡쳐이미지가 출력될 수 있다. 예를 들어, 도 5를 참조하면, 제1캡쳐이미지(A)로부터 제1오브젝트([o])를 추출할 수 있다. 그리고, 제1오브젝트([o])의 컨텐츠를 포함하는 제2캡쳐이미지(B)가 출력될 수 있다. 본 발명에서 이미지로부터 오브젝트 추출은 딥 러닝 뉴럴 네트워크(Deep Learning Neural Network) 기반의 알고리즘을 이용하여 자동 추출이 진행될 수 있다. 예를 들어, Fast R-CNN(Convolutional Neural Networks)알고리즘을 이용하여 이미지와 이미지 내부에서 추출하고자 하는 객체의 바운더리를 입력받고, 입력시킨 객체와 유사한 형태의 객체를 찾아내도록 학습하는 과정을 수행할 수 있다. 본 발명에서는 특히, 사용자 인터페이스 화면에 대해 선택 가능한 영역(버튼, 위젯 등)등을 학습시킴으로서, 특정 화면에서 선택 가능한 객체들을 찾아낼 수 있게 된다. 한편, 전술한 딥 러닝 뉴럴 네트워크 기반의 알고리즘은 일례에 불과하며, 다양한 다른 종류의 딥 러닝 뉴럴 네트워크 기반의 알고리즘을 본 발명에 적용하여 오브젝트 추출을 수행할 수도 있다.The tree generating unit 220 may extract the N-th object from the N-th capture image based on a predetermined deep learning algorithm (S220), and output the N + 1th capture image related to the extracted N-th object. . For example, referring to FIG. 5, the first object [o] may be extracted from the first captured image A. FIG. In addition, the second capture image B including the content of the first object [o] may be output. In the present invention, object extraction from an image may be automatically extracted using an algorithm based on a deep learning neural network. For example, Fast R-CNN (Convolutional Neural Networks) algorithm can be used to receive the image and the boundary of the object to be extracted from the image, and to learn to find the object similar to the input object. have. In the present invention, in particular, by learning a selectable area (button, widget, etc.) for the user interface screen, it is possible to find selectable objects on a specific screen. Meanwhile, the above-described deep learning neural network based algorithm is just an example, and various other types of deep learning neural network based algorithms may be applied to the present invention to perform object extraction.

트리생성부(220)는 추출된 제N오브젝트와 관련된 제N+1캡쳐이미지가 소정의 조건을 만족하는 지 여부를 판단할 수 있다(S230) 그리고, 트리생성부(220)는 추출된 제N오브젝트와 관련된 제N+1캡쳐이미지가 소정의 조건을 만족하는 경우, 제N+1캡쳐이미지에 대응하는 제N+1노드를 추가할 수 있다(S240). 반면, 추출된 제N오브젝트와 관련된 제N+1캡쳐이미지가 소정의 조건을 만족하지 않는 경우, 추가 노드 생성을 중지할 수 있다(S270). 예를 들어, 도 5의 추출된 제1오브젝트([o])와 관련된 제2캡쳐이미지(B)가 소정의 경로 상에 기 존재하지 않는 제1 조건 및 상기 제2캡쳐이미지(B)가 추출가능한 제2오브젝트([o'])를 포함하는 제2 조건을 만족하는 지 여부를 판단할 수 있다. The tree generator 220 may determine whether the N + 1th captured image related to the extracted N-th object satisfies a predetermined condition (S230), and the tree generator 220 may extract the N-th object. When the N + 1th capture image associated with the object satisfies a predetermined condition, an N + 1th node corresponding to the N + 1th capture image may be added (S240). On the other hand, if the N + 1th capture image associated with the extracted N-th object does not satisfy a predetermined condition, generation of an additional node may be stopped (S270). For example, a first condition in which the second capture image B related to the extracted first object [o] of FIG. 5 does not exist on a predetermined path and the second capture image B are extracted It may be determined whether a second condition including a possible second object [o '] is satisfied.

제1 조건을 판단하는 것은, 소정의 경로 상에 이미 존재하는 캡쳐이미지가 경로 상에 다시 포함되면 동일 화면이 연속하여 생성됨으로서 무한루프에 빠질 염려가 있기 때문에, 이를 방지하기 위해서 필요하다. 따라서, 본 발명에서는 제2캡쳐이미지(B)가 소정의 경로 상에 기 존재하지 않을 경우에만 제2캡쳐이미지(B)에 대응하는 제2노드를 추가할 수 있다. 도 5에서는 제2캡쳐이미지(B)가 소정의 경로 상에 기 존재하지 않으므로, 제1노드에 이어서 제2노드를 추가하게 된다. 그리고, 소정의 제1경로(path)는 제1노드 및 제2노드를 포함하게 되는 것이다. 다른 실시예에 따라서는, 캡쳐이미지가 소정의 경로 상에 기 존재하는 지 여부와 함께, 오브젝트 추출 과정에서 잘못된 오브젝트를 추출한다거나 비활성화된 오브젝트를 인식하였는지 여부도 함께 판단할 수도 있다. Determining the first condition is necessary in order to prevent this, because when the captured image already existing on the predetermined path is included again on the path, the same screen is continuously generated, thereby falling into an infinite loop. Therefore, in the present invention, a second node corresponding to the second captured image B may be added only when the second captured image B does not exist in the predetermined path. In FIG. 5, since the second capture image B does not exist on a predetermined path, a second node is added after the first node. In addition, the predetermined first path includes a first node and a second node. According to another embodiment, it may be determined whether a captured image is already present on a predetermined path, and whether or not a wrong object is extracted or an inactive object is recognized in the object extraction process.

제2 조건을 판단하는 것은, 제2캡쳐이미지(B)가 추출가능한 제2오브젝트([o'])를 포함하지 않는다면, 이는 테스팅을 위한 사용자 인터페이스 화면 상에서 더 이상 선택(또는 사용자 입력) 가능한 오브젝트를 포함하지 않는다는 것을 의미하므로, 이 경우에는 더 이상 추가 노드를 생성할 필요가 없다는 데서 의미가 있다. The judging of the second condition is that if the second capture image B does not include an extractable second object [o '], it is no longer selectable (or user input) on the user interface screen for testing. This means that it doesn't need to create an additional node anymore.

즉, 전술한 제1 조건 및 제2 조건을 모두 만족하는 경우에만, 노드 추가를 수행하고, 어느 하나의 조건이라도 만족하지 않는다면, 추가 노드 생성을 중지할 수 있다. 한편, 다른 실시예에 따라서, 두가지 조건 중 어느 하나만 만족하는 경우에도 노드 추가를 수행하는 방식으로 구현될 수도 있다.That is, the node addition may be performed only when both of the above-described first and second conditions are satisfied, and generation of the additional node may be stopped if any one of the conditions is not satisfied. Meanwhile, according to another exemplary embodiment, even when only one of two conditions is satisfied, the node addition may be performed in a manner of performing node addition.

이때, 제1노드 및 제2노드는 각각 클릭(click)입력이 가능하도록 구현될 수 있다. 즉, 제1노드 및 제2노드는 각각 클릭(click)의 좌표 정보를 포함할 수 있다. 그리고, 클릭입력으로 제1노드에 대응하는 제1캡쳐이미지(A)가 출력될 수 있고, 또 다른 클릭입력으로 제2노드에 대응하는 제2캡쳐이미지(B)가 출력될 수 있다.In this case, the first node and the second node may be implemented to enable a click input. That is, the first node and the second node may each include coordinate information of the click. The first capture image A corresponding to the first node may be output by a click input, and the second capture image B corresponding to the second node may be output by another click input.

본 발명에서, 제N+1노드는 상기 추출된 상기 제N오브젝트의 좌표 정보와 상기 제N오브젝트의 이미지 정보를 포함할 수 있다. 도 5를 참조하면, 제2노드(2번노드)는 제1오브젝트([o])의 좌표 정보와 제1오브젝트([o])의 이미지 정보를 포함할 수 있다. 즉, 자식노드는 부모노드의 캡쳐화면 상에 있는 특정 오브젝트의 2차원 좌표 정보와 이미지 정보를 포함하여, 현재노드가 이전노드와 관련된 정보를 참조할 수 있고, 현재노드가 이전노드와 연결될 수 있다. 제1오브젝트([o])의 좌표 정보는 화면상에 위치한 x,y 좌표(위치) 정보를 포함할 수 있고, 이미지 정보는 오브젝트([o])의 크기, 형태 등의 정보를 포함할 수 있다. 본 발명에서는 좌표 정보와 이미지 정보가 2차원 상에서 구현된 것을 기술하였으나, 다른 실시예에 따르면, 오브젝트가 3차원으로 구현되어, 3차원 기반의 좌표 정보와 이미지 정보를 포함할 수도 있다. In the present invention, the N + 1th node may include coordinate information of the extracted N-th object and image information of the N-th object. Referring to FIG. 5, the second node (node 2) may include coordinate information of the first object [o] and image information of the first object [o]. That is, the child node may include the 2D coordinate information and the image information of the specific object on the capture screen of the parent node, so that the current node may refer to information related to the previous node, and the current node may be connected to the previous node. . The coordinate information of the first object [o] may include x, y coordinate (position) information located on the screen, and the image information may include information such as the size and shape of the object [o]. have. In the present invention, the coordinate information and the image information are implemented in two dimensions, but according to another embodiment, the object may be implemented in three dimensions and may include three-dimensional coordinate information and image information.

그리고, N+1 인덱스를 다시 N으로 설정하여(S250), 전술한 S220 내지 S250 단계를 반복 수행할 수 있다. 즉, 도 5에 따르면, 제2 노드가 추가로 트리에 이어져서 제1경로에 포함된 이후에, 제2캡쳐이미지(B)로부터 제2오브젝트([o'])를 추출하고, 추출된 제2오브젝트([o'])와 관련된 제3캡쳐이미지(미도시)가 전술한 소정의 조건을 만족하였는지 여부를 판단하여 제3 노드 추가를 결정한다. 이러한 단계를 반복 수행하여 도 6 및 도 7과 같은 제1경로가 완성된다. 도 6 및 도 7는 상기 반복 수행으로 마지막 노드(12번노드)까지 생성하여 제1 경로를 완성한 것이며, 최종적으로, AUX 케이블 연결 상태를 테스트하고자 하는 사용자 인터페이스의 목적 화면 결과가 출력된 것을 확인할 수 있다. 도 5에 도시한 바와 같이 메뉴트리(C)는 제N노드 및 제N+1노드로 구성된 제1 경로 이외에도, 다른 노드 및 다른 경로를 더 포함하고, 상기 다른 노드에 대해서 전술한 S220 단계 내지 S250단계를 반복 수행하여 상기 다른 경로를 생성할 수 있다.In addition, by setting the N + 1 index to N again (S250), the above-described steps S220 to S250 may be repeated. That is, according to FIG. 5, after the second node is further included in the first path following the tree, the second object [o '] is extracted from the second captured image B, and the extracted second object is extracted. It is determined whether the third capture image (not shown) associated with the second object [o '] satisfies the above-described predetermined condition, thereby determining the addition of the third node. By repeating these steps, the first path as shown in FIGS. 6 and 7 is completed. 6 and 7 show the completion of the first path by generating the last node (node 12) through the above repetition, and finally, the result of the result screen of the user interface to test the AUX cable connection state is output. have. As shown in FIG. 5, the menu tree C further includes other nodes and other paths in addition to the first path including the Nth node and the N + 1th node, and the above-described steps S220 to S250 for the other node. The other route may be generated by repeating the steps.

트리생성부(220)는 도3의 방법으로 생성된 메뉴트리를 메모리(300)에 저장할 수 있다(S260). 메뉴트리가 저장될 때, 각 노드, 캡쳐이미지, 오브젝트 정보도 함께 저장될 수 있다. The tree generator 220 may store the menu tree generated by the method of FIG. 3 in the memory 300 (S260). When the menu tree is stored, each node, captured image, and object information may also be stored.

지금까지는, 도 2의 S200단계를 상술하여 캡쳐이미지로부터 오브젝트를 추출 및 노드로 구성된 메뉴트리를 생성하여 저장하는 과정에 대해 기술하였다. 이하 단계에서는, 생성된 트리를 이용해 UI테스팅을 자동화하는 S300단계에 대해 상술하고자 한다.Up to now, the process of extracting an object from the captured image and generating and storing a menu tree composed of nodes has been described in detail with reference to step S200 of FIG. 2. In the following steps, it will be described in detail for step S300 to automate UI testing using the generated tree.

도 4에 도시한 바와 같이, UI테스팅 자동화부(230)는 사용자에 의한 플레이(PLAY) 버튼 입력을 수신할 수 있다(S310). 플레이 버튼은 도 5에 도시한 바와 같이, 차량 자동화 테스팅 툴 상에 구현된 소정의 객체일 수 있다. 플레이 버튼 입력을 수신하면, UI테스팅 자동화부(230)는 메뉴트리를 생성할 수 있다(S320) 생성된 메뉴트리는 메모리(300)에 저장될 수 있다.As shown in FIG. 4, the UI testing automation unit 230 may receive a play button input by a user (S310). The play button may be any object implemented on the vehicle automation testing tool, as shown in FIG. When receiving the play button input, the UI testing automation unit 230 may generate a menu tree (S320). The generated menu tree may be stored in the memory 300.

UI테스팅 자동화부(230)는 사용자로부터 소정의 경로 정보를 입력 받을 수 있다(S330). 노드 정보를 일일이 입력받지 않고, 사용자가 테스트하고자 하는 소정의 경로 정보만을 입력받아도, 해당 경로에 대응하는 기 저장된 경로와의 비교 수행이 가능해지므로, 효율적이고 빠른 테스트 수행이 가능해진다는 이점이 있다. 본 발명에서는, 생성된 트리에 기 저장된 제1경로에 대응하는 경로 정보를 입력받을 수 있다.The UI testing automation unit 230 may receive predetermined path information from the user (S330). Even if the user receives only the predetermined path information to be tested without receiving the node information, the comparison with the previously stored path corresponding to the corresponding path can be performed, thereby making it possible to perform an efficient and fast test. In the present invention, path information corresponding to the first path previously stored in the generated tree may be input.

UI테스팅 자동화부(230)는 생성된 트리의 제N+1노드에 포함된 정보와 소정의 경로 정보에 포함된 노드 정보를 각각 일대일 대응하여 비교할 수 있다(S340) 도 5 및 도 6에 도시한, 생성된 트리에 기 저장된 제1 경로에 포함된 각 노드(2번, 10번, 11번, 12번)와 사용자로부터 입력된 경로 정보에 포함된 각 노드 정보를 각각 일대일 대응하여 비교할 수 있다. 전술한 바와 같이, 생성된 트리의 제N+1노드는 추출된 제N오브젝트의 좌표 정보와 제N오브젝트의 이미지 정보를 포함할 수 있고, 이들 좌표 정보와 이미지 정보를 사용자로부터 입력된 경로 정보에 포함된 각 노드에 포함된 오브젝트의 좌표 정보와 이미지 정보와 각각 비교하는 과정을 거치게 된다. 이때, UI테스팅 자동화부(230)는 사용자 인터페이스 각 화면의 전환에 대한 테스팅을 자동 수행하게 된다. The UI testing automation unit 230 may compare the information included in the N + 1th node of the generated tree with the node information included in the predetermined path information in a one-to-one correspondence (S340) as illustrated in FIGS. 5 and 6. Each node (2, 10, 11, 12) included in the first path pre-stored in the generated tree and each node information included in the path information input from the user may be compared in a one-to-one correspondence. As described above, the N + 1th node of the generated tree may include the coordinate information of the extracted N-th object and the image information of the N-th object, and the coordinate information and the image information may be included in the path information input from the user. A process of comparing the coordinate information and the image information of the object included in each included node is performed. In this case, the UI testing automation unit 230 automatically performs testing for switching of each screen of the user interface.

UI테스팅 자동화부(230)는 전술한 비교 결과를 출력할 수 있다(S350). 도 8에 도시한 바와 같이, 출력 결과 화면은 생성된 트리의 경로에 기 저장된 노드로부터 획득된 기준 데이터(reference data) 항목, 테스팅 대상이 되는 기기와 관련하여 사용자로부터 입력된 경로의 노드로부터 획득된 기기 데이터(device data) 항목, 기준 데이터(reference data)와 기기 데이터(device data)를 비교한 결과, 해당 차이점이 있을 경우, 차이점 부분을 기술한 차이점 데이터(difference data) 항목, 기준 데이터(reference data)와 기기 데이터(device data)를 비교한 결과 일치하면 테스트 통과를 기입하고, 불일치하면 테스트 실패를 기입(또는 알람) 하기 위한 결과(result) 항목을 포함할 수 있다. 본 발명의 실시예에 따라, 도 8에 도시한 각 항목은 하나 또는 복수개가 조합되어 결과 화면에 출력될 수 있다. 그밖에, 이벤트명칭, 이벤트시간, 경과시간, 로그 등의 정보도 함께 출력될 수 있다. 이에 따라, 테스트 결과가 통과하면, 해당 기기는 정확한 프로그램으로 구현되어 있음을 알 수 있고, 테스트 결과가 실패한다면, 해당 기기는 오류를 가진 프로그램으로 구현되어 있음을 알 수 있어, 사용자는 해당 결과를 바탕으로 테스트 수행을 용이하게 할 수 있다. The UI testing automation unit 230 may output the above-described comparison result (S350). As shown in FIG. 8, the output result screen is obtained from a node of a path input from a user in relation to a reference data item obtained from a node previously stored in a path of a generated tree and a device to be tested. As a result of comparing the device data item, reference data and device data, if there is a difference, the difference data item describing the difference part and the reference data ) And a result of comparing the device data (device data), and if the match, the test pass, and if there is a mismatch can include a result (result) for writing (or alarm) the test failure. According to an embodiment of the present invention, each item shown in FIG. 8 may be combined with one or more items and output on the result screen. In addition, information such as an event name, an event time, an elapsed time, and a log may also be output. Accordingly, if the test result passes, it can be seen that the device is implemented as the correct program. If the test result fails, the device can be known to be implemented as an error program. Based on this, the test can be easily performed.

도 9는, 테스트를 위한 화면까지의 이동을 위해 종래 기술에 따라 구현된 소스코드(B)와 본 발명에 따라 구현된 소스코드(A)이다. 종래에는, 소스코드(B)와 같이, 절차적으로 여러 줄에 걸쳐 대상 화면으로 이동할 수 밖에 없었으나, 본 발명에 따르면, 소스코드(A)와 같이, 메뉴트리 탐색을 통해 미리 파악된 구조를 가지고 사용자가 원하는 특정 화면을 선언적으로 지정(path입력)만 해도, 즉시 빠르게 대상 화면으로 이동할 수 있게 된다. 즉, 종래 소스코드(B)에 따르면 스크립트의 복잡성이 증가하고 재사용성이 낮지만, 본 발명의 소스코드(A)에 따르면, 소스코드 스크립트가 간소화될 수 있으며, UI가 변경되더라도, 메뉴트리 탐색을 재 수행한 결과를 반복적으로 이용할 수 있어, 스크립트 코드의 재사용성을 향상시킬 수 있게 된다. 9 is a source code (B) implemented according to the prior art and a source code (A) implemented according to the present invention for moving to a screen for testing. Conventionally, as in the source code (B), it was inevitable to move to the target screen over a plurality of lines, but according to the present invention, as in the source code (A), the structure previously identified through the menu tree search By simply declaring the specific screen you want (path input), you can move to the target screen quickly. That is, according to the conventional source code (B), the complexity of the script is increased and the reusability is low, but according to the source code (A) of the present invention, the source code script can be simplified, and even if the UI is changed, the menu tree is searched. The result of re-executing can be used repeatedly, thus improving the reusability of script code.

이상 설명된 실시 형태는 다양한 컴퓨터 구성요소를 통하여 실행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터로 판독가능한 기록매체에 기록될 수 있다. 상기 컴퓨터로 판독가능한 기록매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. The above-described embodiments may be implemented in the form of program instructions that can be executed by various computer components, and recorded on a computer-readable recording medium. The computer-readable recording medium may include program instructions, data files, data structures, etc. alone or in combination.

상기 컴퓨터로 판독가능한 기록매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수도 있다.Program instructions recorded on the computer-readable recording medium may be those specially designed and configured for the present invention, or may be known and available to those skilled in the computer software arts.

컴퓨터로 판독가능한 기록매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 실행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 상기 하드웨어 장치는 본 발명에 따른 처리를 실행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical recording media such as CD-ROMs, DVDs, and magneto-optical media such as floptical disks. optical media) and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like. The hardware device may be configured to operate as one or more software modules to carry out the process according to the invention, and vice versa.

이상에서 실시예들에 설명된 특징, 구조, 효과 등은 본 발명의 하나의 실시예에 포함되며, 반드시 하나의 실시예에만 한정되는 것은 아니다. 나아가, 각 실시예에서 예시된 특징, 구조, 효과 등은 실시예들이 속하는 분야의 통상의 지식을 가지는 자에 의해 다른 실시예들에 대해서도 조합 또는 변형되어 실시 가능하다. 따라서 이러한 조합과 변형에 관계된 내용들은 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다.Features, structures, effects, etc. described in the above embodiments are included in one embodiment of the present invention, and are not necessarily limited to one embodiment. Furthermore, the features, structures, effects, and the like illustrated in the embodiments may be combined or modified with respect to other embodiments by those skilled in the art to which the embodiments belong. Therefore, contents related to such combinations and modifications should be construed as being included in the scope of the present invention.

또한, 이상에서 실시예를 중심으로 설명하였으나 이는 단지 예시일 뿐 본 발명을 한정하는 것이 아니며, 본 발명이 속하는 분야의 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성을 벗어나지 않는 범위에서 이상에 예시되지 않은 여러 가지의 변형과 응용이 가능함을 알 수 있을 것이다. 예를 들어, 실시예에 구체적으로 나타난 각 구성 요소는 변형하여 실시할 수 있는 것이다. 그리고 이러한 변형과 응용에 관계된 차이점들은 첨부된 청구 범위에서 규정하는 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다.In addition, the above description has been made with reference to the embodiment, which is merely an example, and is not intended to limit the present invention. Those skilled in the art to which the present invention pertains will be illustrated as above without departing from the essential characteristics of the present embodiment. It will be appreciated that various modifications and applications are possible. For example, each component specifically shown in the embodiment can be modified. And differences relating to such modifications and applications will have to be construed as being included in the scope of the invention defined in the appended claims.

Claims (11)

소정의 딥러닝 알고리즘에 기반하여 캡쳐이미지로부터 오브젝트를 추출하고, 상기 캡쳐이미지 및 상기 추출된 오브젝트를 활용하여 생성된 노드로 구성된 트리를 생성하는 제1 단계; 및
상기 생성된 트리를 이용하여 사용자 인터페이스 테스팅을 자동화 수행하는 제2 단계를 포함하는,
딥러닝 알고리즘 및 트리를 이용한 UI테스팅 자동화 방법.
Extracting an object from a captured image based on a predetermined deep learning algorithm, and generating a tree composed of the captured image and the nodes generated by using the extracted object; And
A second step of automating user interface testing using the generated tree,
UI testing automation method using deep learning algorithm and tree.
제 1항에 있어서,
상기 트리는 제N노드 및 제N+1노드로 구성된 소정의 경로를 포함하고,
상기 제1 단계는,
제N캡쳐이미지에 대응하는 상기 제N노드를 상기 소정의 경로상에 추가하는 (A) 단계;
상기 제N캡쳐이미지로부터 상기 소정의 딥러닝 알고리즘에 기반하여 제N오브젝트를 추출하는 (B) 단계;
상기 추출된 제N오브젝트와 관련된 제N+1캡쳐이미지가 소정의 조건을 만족하는 경우, 상기 제N+1캡쳐이미지에 대응하는 제N+1노드를 추가하는 (C) 단계;
상기 N+1 인덱스를 N으로 설정하는 (D) 단계; 및
상기 (B) 내지 (D) 단계를 반복 수행하는 단계를
포함하는,
딥러닝 알고리즘 및 트리를 이용한 UI테스팅 자동화 방법.
The method of claim 1,
The tree includes a predetermined path consisting of an Nth node and an N + 1th node,
The first step,
(A) adding the Nth node corresponding to the Nth captured image on the predetermined path;
(B) extracting an N-th object from the N-th captured image based on the predetermined deep learning algorithm;
(C) adding an N + 1 node corresponding to the N + 1th captured image when the N + 1th captured image related to the extracted Nth object satisfies a predetermined condition;
(D) setting the N + 1 index to N; And
Repeating steps (B) to (D)
Included,
UI testing automation method using deep learning algorithm and tree.
제 2항에 있어서,
상기 소정의 조건은,
상기 제N+1캡쳐이미지가 상기 소정의 경로 상에 기 존재하지 않는 제1 조건 및 상기 제N+1캡쳐이미지가 추출가능한 제N+1오브젝트를 포함하는 제2 조건을 포함하는,
딥러닝 알고리즘 및 트리를 이용한 UI테스팅 자동화 방법.
The method of claim 2,
The predetermined condition is
A first condition in which the N + 1 capture image does not exist on the predetermined path and a second condition including an N + 1 object in which the N + 1 capture image is extractable;
UI testing automation method using deep learning algorithm and tree.
제 2항 또는 제 3항에 있어서,
상기 트리는 다른 노드 및 다른 경로를 더 포함하고,
상기 다른 노드에 대해서 상기 (B) 단계 내지 상기 (D) 단계를 반복 수행하여 상기 다른 경로를 생성하는,
딥러닝 알고리즘 및 트리를 이용한 UI테스팅 자동화 방법.
The method of claim 2 or 3,
The tree further includes other nodes and other paths,
Repeating the steps (B) to (D) for the other node to generate the other path,
UI testing automation method using deep learning algorithm and tree.
제 2항 또는 제 3항에 있어서,
상기 제N+1노드는 상기 추출된 상기 제N오브젝트의 좌표 정보와 상기 제N오브젝트의 이미지 정보를 포함하는,
딥러닝 알고리즘 및 트리를 이용한 UI테스팅 자동화 방법.
The method according to claim 2 or 3,
The N + 1th node includes coordinate information of the extracted Nth object and image information of the Nth object.
UI testing automation method using deep learning algorithm and tree.
제 2항 또는 제 3항에 있어서,
상기 캡쳐이미지는 AVN(Audio Video Navigation) 시스템 기반의 사용자 인터페이스 화면에 대한 정보를 포함하는,
딥러닝 알고리즘 및 트리를 이용한 UI테스팅 자동화 방법.
The method of claim 2 or 3,
The captured image includes information on a user interface screen based on an AVN (Audio Video Navigation) system.
UI testing automation method using deep learning algorithm and tree.
제 1항에 있어서,
상기 노드는 클릭(click)입력이 가능하도록 구현되고,
상기 클릭입력으로 상기 노드와 관련된 상기 캡쳐이미지를 출력하는,
딥러닝 알고리즘 및 트리를 이용한 UI테스팅 자동화 방법.
The method of claim 1,
The node is implemented to allow a click input,
Outputting the captured image associated with the node with the click input;
UI testing automation method using deep learning algorithm and tree.
제 2항에 있어서,
상기 제2 단계는,
상기 생성된 트리를 리딩하는 단계;
사용자로부터 소정의 경로 정보를 입력 받는 단계;
상기 생성된 트리의 상기 제N+1노드에 포함된 정보와 상기 소정의 경로 정보에 포함된 노드 정보를 각각 일대일 대응하여 비교하는 단계; 및
상기 비교 결과를 출력하는 단계;를 포함하는,
딥러닝 알고리즘 및 트리를 이용한 UI테스팅 자동화 방법 .
The method of claim 2,
The second step,
Reading the generated tree;
Receiving predetermined path information from a user;
Comparing the information included in the N + 1th node of the generated tree with the node information included in the predetermined path information in a one-to-one correspondence; And
And outputting the comparison result.
Automated UI Testing Using Deep Learning Algorithm and Tree.
제 8항에 있어서,
상기 생성된 트리의 상기 제N+1노드는 상기 추출된 상기 제N오브젝트의 좌표 정보와 상기 제N오브젝트의 이미지 정보를 포함하는,
딥러닝 알고리즘 및 트리를 이용한 UI테스팅 자동화 방법.
The method of claim 8,
The N + 1th node of the generated tree includes coordinate information of the extracted N-th object and image information of the N-th object.
UI testing automation method using deep learning algorithm and tree.
소정의 딥러닝 알고리즘에 기반하여 캡쳐이미지로부터 오브젝트를 추출하는 오브젝트 추출부;
상기 캡쳐이미지 및 상기 추출된 오브젝트를 활용하여 생성된 노드로 구성된 트리를 생성하는 트리생성부; 및
상기 생성된 트리를 이용하여 사용자 인터페이스 테스팅을 자동화 수행하는 UI테스팅 자동화부;를 포함하는,
딥러닝 알고리즘 및 트리를 이용한 UI테스팅 자동화 장치.
An object extracting unit extracting an object from a captured image based on a predetermined deep learning algorithm;
A tree generation unit generating a tree composed of nodes generated by using the captured image and the extracted object; And
It includes; UI testing automation unit for performing an automated user interface testing using the generated tree, including,
UI testing automation device using deep learning algorithm and tree.
제 1항 내지 제 9항 중 어느 한 항에 따른 방법을 실행하기 위한 컴퓨터 프로그램을 기록하기 위한 컴퓨터 판독 가능한 기록 매체.

A computer-readable recording medium for recording a computer program for executing the method according to any one of claims 1 to 9.

KR1020180060053A 2018-05-28 2018-05-28 Ui testing automation method using deep learning algorithem and tree and appratus for the same KR102132383B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180060053A KR102132383B1 (en) 2018-05-28 2018-05-28 Ui testing automation method using deep learning algorithem and tree and appratus for the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180060053A KR102132383B1 (en) 2018-05-28 2018-05-28 Ui testing automation method using deep learning algorithem and tree and appratus for the same

Publications (2)

Publication Number Publication Date
KR20190135074A true KR20190135074A (en) 2019-12-06
KR102132383B1 KR102132383B1 (en) 2020-07-09

Family

ID=68836980

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180060053A KR102132383B1 (en) 2018-05-28 2018-05-28 Ui testing automation method using deep learning algorithem and tree and appratus for the same

Country Status (1)

Country Link
KR (1) KR102132383B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113220511A (en) * 2020-02-06 2021-08-06 伊姆西Ip控股有限责任公司 Method, apparatus and computer-readable storage medium for testing BIOS
KR20210155896A (en) * 2020-06-17 2021-12-24 (주)커브 A system and method of searching optimal ui path map

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11385777B2 (en) 2020-09-14 2022-07-12 UiPath, Inc. User interface (UI) mapper for robotic process automation

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120121950A (en) * 2011-04-28 2012-11-07 (주)아이엔에스랩 Application Graphic User Interface Test Automation System and Method Thereof
KR20180028442A (en) * 2015-07-09 2018-03-16 퀄컴 인코포레이티드 Context-based fryers for object detection in images

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120121950A (en) * 2011-04-28 2012-11-07 (주)아이엔에스랩 Application Graphic User Interface Test Automation System and Method Thereof
KR20180028442A (en) * 2015-07-09 2018-03-16 퀄컴 인코포레이티드 Context-based fryers for object detection in images

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113220511A (en) * 2020-02-06 2021-08-06 伊姆西Ip控股有限责任公司 Method, apparatus and computer-readable storage medium for testing BIOS
KR20210155896A (en) * 2020-06-17 2021-12-24 (주)커브 A system and method of searching optimal ui path map

Also Published As

Publication number Publication date
KR102132383B1 (en) 2020-07-09

Similar Documents

Publication Publication Date Title
JP5102304B2 (en) Request-based test generation
US10176079B2 (en) Identification of elements of currently-executing component script
US10409564B2 (en) Recording and playback of development sessions
CN111159049B (en) Automatic interface testing method and system
CN111611711B (en) Automatic driving data processing method and device and electronic equipment
US20050223295A1 (en) Method for the creation of sequences for testing software
KR20190135074A (en) Ui testing automation method using deep learning algorithem and tree and appratus for the same
US20200265353A1 (en) Intelligent workflow advisor for part design, simulation and manufacture
EP3432228A1 (en) Expandability retention device
EP1548581A2 (en) Methods, apparatus and programs for system development
US9229846B1 (en) Testing application code changes using a state assertion framework
CN112882930A (en) Automatic testing method and device, storage medium and electronic equipment
Canny et al. Model-based testing of GUI applications featuring dynamic Instanciation of widgets
US20200327042A1 (en) Automatic generation of integration tests from unit tests
CN111371862B (en) Unmanned vehicle debugging method, device, server and medium
KR101460860B1 (en) GUI Test apparatus using test scenario model based on states and the method thereof
WO2023110478A1 (en) Method for automatically exploring states and transitions of a human machine interface (hmi) device
CN112860587B (en) UI automatic test method and device
CN115987821A (en) Gateway routing test method and device
EP3091453A1 (en) Designing a longevity test for a smart tv
Flemström et al. Saga toolbox: Interactive testing of guarded assertions
KR20220121175A (en) Automatic generation of integrated test procedures using system test procedures
Langner et al. Framework for using real driving data in automotive feature development and validation
KR20220022383A (en) Method and system for multimedia device
KR20220102490A (en) Apparatus and method for regerssion test

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right