KR20190135074A - Ui testing automation method using deep learning algorithem and tree and appratus for the same - Google Patents
Ui testing automation method using deep learning algorithem and tree and appratus for the same Download PDFInfo
- Publication number
- KR20190135074A KR20190135074A KR1020180060053A KR20180060053A KR20190135074A KR 20190135074 A KR20190135074 A KR 20190135074A KR 1020180060053 A KR1020180060053 A KR 1020180060053A KR 20180060053 A KR20180060053 A KR 20180060053A KR 20190135074 A KR20190135074 A KR 20190135074A
- Authority
- KR
- South Korea
- Prior art keywords
- tree
- node
- deep learning
- learning algorithm
- testing
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/36—Preventing errors by testing or debugging software
- G06F11/3668—Software testing
- G06F11/3696—Methods or tools to render software testable
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Abstract
Description
본 발명은 딥러닝 알고리즘 및 트리를 이용한 UI테스팅 자동화 방법 및 장치에 관한 것으로, 보다 구체적으로, 캡쳐이미지로부터 오브젝트를 추출하여 추출된 오브젝트와 관련된 트리를 생성함으로서, 생성된 트리를 이용하여 UI테스팅을 자동화하기 위한, 딥러닝 알고리즘 및 트리를 이용한 UI테스팅 자동화 방법 및 장치에 관한 것이다.The present invention relates to a method and apparatus for automating UI testing using a deep learning algorithm and a tree, and more particularly, to extract a object from a captured image and to generate a tree related to the extracted object. The present invention relates to a method and apparatus for automating UI testing using a deep learning algorithm and a tree for automation.
인포테인먼트(infotainment)는 정보(Information)와 오락 (Entertainment)의 합성어로 정보와 오디오 및 시각적인 엔터테인먼트를 제공하는 장치를 말한다. 최근 텔레메틱스(Telematics), 커넥티드 카(Connected Car), 자율 주행 자동차 기술의 발전으로 인해 차량용 인포테인먼트 시스템(In-Vehicle Infotainment, IVI)은 단순한 멀티미디어 장치를 뛰어넘어 사용자에게 차량의 정보를 알려주거나 직접 차량을 제어하는 등 역할과 중요도가 크게 높아졌다. IVI가 발전하면서 차량과 사용자의 상호작용을 담당하는 사용자 인터페이스(User Interface, UI)는 복잡성이 증가되었고, 높은 품질의 UI 개발을 위한 UI 테스팅 기술의 필요성 또한 증대 되었다. UI 테스팅이란 사용자가 인터페이스를 통해 시스템을 조작했을 때 원하는 반응과 화면 변화가 이루어지는지 확인하는 과정이다. 이러한 과정을 테스터가 수동으로 진행한다면 많은 인력과 비용이 발생된다. 특히 테스트 수행에 소모되는 자원의 양은 테스터에게 상당한 부담을 줄 수 있으므로, UI 테스팅 자동화는 필수적인 요소이다.Infotainment is a compound word of information and entertainment, and refers to a device that provides information, audio, and visual entertainment. Recent advances in telematics, connected cars, and autonomous vehicle technologies have made In-Vehicle Infotainment (IVI) more than simple multimedia devices to inform users of their vehicles or directly The role and importance have increased significantly. As the IVI evolved, the user interface (UI), which is responsible for the interaction between the vehicle and the user, has increased in complexity and the need for UI testing techniques for high quality UI development. UI testing is the process of verifying that the desired response and screen changes occur when the user operates the system through the interface. If this is done manually by the tester, a lot of manpower and costs are incurred. In particular, the amount of resources consumed to perform the test can be a significant burden on the tester, so automation of UI testing is essential.
본 발명은 최소한의 자원으로 효율적인 자동화된 UI 테스팅을 구현하는데에 그 목적이 있다.It is an object of the present invention to implement efficient automated UI testing with minimal resources.
본 발명의 실시예에 따른 딥러닝 알고리즘 및 트리를 이용한 UI테스팅 자동화 방법은, 소정의 딥러닝 알고리즘에 기반하여 캡쳐이미지로부터 오브젝트를 추출하고, 상기 캡쳐이미지 및 상기 추출된 오브젝트를 활용하여 생성된 노드로 구성된 트리를 생성하는 제1 단계 및 상기 생성된 트리를 이용하여 UI테스팅을 자동화하는 제2 단계를 포함할 수 있다.In the UI testing automation method using a deep learning algorithm and a tree according to an embodiment of the present invention, an object is extracted from a captured image based on a predetermined deep learning algorithm, and the node is generated by using the captured image and the extracted object. It may include a first step of generating a tree consisting of a second step of automating UI testing using the generated tree.
본 발명의 다른 실시예에 따른 딥러닝 알고리즘 및 트리를 이용한 UI테스팅 자동화 장치는, 소정의 딥러닝 알고리즘에 기반하여 캡쳐이미지로부터 오브젝트를 추출하는 오브젝트 추출부, 상기 캡쳐이미지 및 상기 추출된 오브젝트를 활용하여 생성된 노드로 구성된 트리를 생성하는 트리생성부; 및 상기 생성된 트리를 이용하여 사용자 인터페이스 테스팅을 자동화 수행하는 UI테스팅 자동화부;를 포함할 수 있다.UI testing automation apparatus using a deep learning algorithm and a tree according to another embodiment of the present invention, an object extracting unit for extracting an object from a captured image based on a predetermined deep learning algorithm, utilizing the captured image and the extracted object Tree generation unit for generating a tree consisting of the nodes generated by; And a UI testing automation unit for automating user interface testing using the generated tree.
본 발명의 다른 실시예에 따른 컴퓨터 판독 가능한 기록 매체는 본 발명의 실시예에 따른 딥러닝 알고리즘 및 트리를 이용한 UI테스팅 자동화 방법을 실행하기 위한 컴퓨터 프로그램을 기록할 수 있다.The computer-readable recording medium according to another embodiment of the present invention may record a computer program for executing the UI testing automation method using the deep learning algorithm and the tree according to the embodiment of the present invention.
본 발명의 실시예에 따르면, UI 테스팅을 자동화 할 수 있으며, 테스트 케이스에서 사용될 수 있는 리소스(정답 이미지, 클릭 포인트 좌표 등)생성 및 테스트가 필요한 화면까지의 이동과 같이 단순하고 반복적인 작업을 테스터 대신해줌으로써 테스터가 최소한의 시간으로 효율적인 UI 테스팅을 이루어 낼 수 있도록 한다.According to an embodiment of the present invention, UI testing can be automated, and simple and repetitive tasks such as generating resources (correct image, click point coordinates, etc.) that can be used in a test case and moving to a screen requiring testing are performed. Instead, it allows testers to perform efficient UI testing with minimal time.
본 발명의 실시예에 따르면, 노드에 추가하고자 하는 캡쳐이미지가 해당 경로 상에 이미 존재하는지 여부를 판단하여, 이미 존재하지 않는 경우에만 노드 추가를 수행함으로서 시스템 오류를 줄이고, 보다 빠른 테스트 수행이 가능해진다.According to an embodiment of the present invention, it is possible to determine whether the captured image to be added to the node already exists on the path, and to perform the test by reducing the system error by performing the node addition only if it does not already exist. Become.
본 발명의 실시예에 따르면, 노드 정보를 일일이 입력받지 않고, 사용자가 테스트하고자 하는 소정의 경로 정보만을 입력받아도, 해당 경로에 대응하는 기 저장된 경로와의 비교 수행이 가능해지므로, 효율적이고 빠른 테스트 수행이 가능해진다는 이점이 있다.According to an embodiment of the present invention, even if the user receives only the predetermined path information to be tested without receiving the node information, the comparison with the pre-stored path corresponding to the corresponding path can be performed, thereby efficiently and quickly performing the test. This has the advantage of being possible.
본 발명의 실시예에 따르면, 소스코드 스크립트가 간소화될 수 있으며, 테스팅 타겟 시스템의 UI가 변경되더라도, 메뉴트리 탐색을 재 수행한 결과를 반복적으로 이용할 수 있어, 스크립트 코드의 재사용성을 향상시킬 수 있게 된다.According to an embodiment of the present invention, the source code script can be simplified, and even if the UI of the testing target system is changed, the result of performing the menu tree search can be repeatedly used, thereby improving the reusability of the script code. Will be.
도 1은 본 발명의 실시예에 따른 딥러닝 알고리즘 및 트리를 이용한 UI테스팅 자동화 장치에 대한 블록도
도 2 내지 도 4는 본 발명의 실시예에 따른 딥러닝 알고리즘 및 트리를 이용한 UI테스팅 자동화 방법에 대한 순서도
도 5 내지 도 9는 본 발명의 실시예에 따른 딥러닝 알고리즘 및 트리를 이용한 UI테스팅 자동화 방법을 기술하기 위해 참조되는 도면1 is a block diagram of a UI testing automation apparatus using a deep learning algorithm and a tree according to an embodiment of the present invention.
2 to 4 are flowcharts of a method for automating UI testing using a deep learning algorithm and a tree according to an embodiment of the present invention.
5 to 9 are views referenced to describe a method for automating UI testing using a deep learning algorithm and a tree according to an embodiment of the present invention.
후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예에 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 정신 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.DETAILED DESCRIPTION The following detailed description of the invention refers to the accompanying drawings that show, by way of illustration, specific embodiments in which the invention may be practiced. These embodiments are described in sufficient detail to enable those skilled in the art to practice the invention. It should be understood that the various embodiments of the present invention are different but need not be mutually exclusive. For example, certain shapes, structures, and characteristics described herein may be embodied in other embodiments without departing from the spirit and scope of the invention with respect to one embodiment. In addition, it is to be understood that the location or arrangement of individual components within each disclosed embodiment may be changed without departing from the spirit and scope of the invention. The following detailed description, therefore, is not to be taken in a limiting sense, and the scope of the present invention, if properly described, is defined only by the appended claims, along with the full range of equivalents to which such claims are entitled. Like reference numerals in the drawings refer to the same or similar functions throughout the several aspects.
이하, 첨부되는 도면을 참조하여 본 발명의 실시예에 따른 딥러닝 알고리즘 및 트리를 이용한 UI테스팅 자동화 방법 및 장치에 대해 기술하고자 한다.Hereinafter, a UI testing automation method and apparatus using a deep learning algorithm and a tree according to an embodiment of the present invention will be described with reference to the accompanying drawings.
도 1은 본 발명의 실시예에 따른 딥러닝 알고리즘 및 트리를 이용한 UI테스팅 자동화 장치에 대한 블록도이다.1 is a block diagram of a UI testing automation apparatus using a deep learning algorithm and a tree according to an embodiment of the present invention.
도 1에 도시한 바와 같이, 본 발명의 실시예에 따른 딥러닝 알고리즘 및 트리를 이용한 UI테스팅 자동화 장치는 입력부(100), 제어부(200), 메모리부(300), 및 출력부(400)를 포함할 수 있다. As shown in FIG. 1, the UI testing automation apparatus using the deep learning algorithm and the tree according to an embodiment of the present invention includes an
입력부(100)는 사용자가 컴퓨팅 시스템을 조작할 수 있도록 하는 입력 경로가 되는 것으로, 키보드, 마우스, 포인팅 장치, 터치 스크린 등을 포함할 수 있다. The
제어부(200)는 입력부(100), 메모리부(300), 출력부(400)와 연동되어 딥러닝 알고리즘 및 트리를 이용한 UI테스팅 자동화 장치를 제어하는 것으로, 본 발명의 일 실시예에 따라 오브젝트 추출부(210), 트리생성부(220), 및 UI테스팅 자동화부(230)를 포함할 수 있다. 블록도 내의 각 구성요소에 대해서는 이하에서 자세하게 후술한다.The
메모리부(300)는 딥러닝 알고리즘 및 트리를 이용한 UI테스팅 자동화 장치의 다양한 정보를 저장한다. 메모리부(300)는 딥러닝 알고리즘 및 트리를 이용한 UI테스팅 자동화 장치에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 딥러닝 알고리즘 및 트리를 이용한 UI테스팅 자동화 방법 수행을 위한 관련 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 무선 통신을 통해 외부 서버로부터 다운로드 될 수도 있다. The
출력부(400)는 터치스크린, 모니터 등을 포함하며, 제어부(200)를 통해 처리된 결과를 디스플레이할 수 있다.The
도 2 내지 도 4는 본 발명의 실시예에 따른 딥러닝 알고리즘 및 트리를 이용한 UI테스팅 자동화 방법에 대한 순서도이다. 2 to 4 are flowcharts of a method for automating UI testing using a deep learning algorithm and a tree according to an embodiment of the present invention.
도 2에 도시한 바와 같이, 오브젝트 추출부(210)는 소정의 딥러닝 알고리즘에 기반하여 캡쳐이미지로부터 오브젝트를 추출할 수 있고, 트리생성부(220)는 캡쳐이미지 및 상기 추출된 오브젝트를 활용하여 생성된 노드로 구성된 트리를 생성할 수 있다(S200). UI테스팅 자동화부(230)는 생성된 트리를 이용하여 UI테스팅을 자동화 수행할 수 있다(S300).As shown in FIG. 2, the
도 2의 S200 단계는 도 3에서 상술하며, 도 2의 S300 단계는 도 4에서 상술한다.Step S200 of FIG. 2 is described in detail with reference to FIG. 3, and step S300 of FIG. 2 is described with reference to FIG. 4.
참고로, 본 발명의 실시예에 따르면, 차량 자동화 테스팅 툴 중 하나인 자동차 인포테인먼트 시스템 테스팅 자동화 툴 (Vehicle Infotainment System Testing Automation, VISTA)에 본 발명의 알고리즘이 적용된 예를 기술하였으나, 본 발명의 권리범위가 이에 제한되지 않고 화면을 캡쳐할 수 있는 모든 시스템에 적용 가능하다. 차량 자동화 테스팅 툴은 C/C++ 기반의 스크립트로 작성될 수 있다.For reference, according to an embodiment of the present invention, an example in which the algorithm of the present invention is applied to a vehicle infotainment system testing automation tool (VISTA), which is one of the vehicle automation testing tools, has been described. Is not limited to this and is applicable to all systems capable of capturing screens. Vehicle automation testing tools can be written in C / C ++ based scripts.
도 3에 도시한 바와 같이, 트리생성부(220)는 제N캡쳐이미지에 대응하는 제N노드를 소정의 경로상에 추가할 수 있다(S210). 예를 들어, 도 5를 참조하면, 차량 자동화 테스팅 툴은 메뉴트리(C) 및 메뉴트리의 각 노드와 관련된 사용자 인터페이스 캡쳐이미지(A,B)를 함께 출력할 수 있다.As illustrated in FIG. 3, the
도 5의 제1캡쳐이미지(A)에 대응하는 제1노드(1번노드, 루트노드)를 생성할 수 있다. 여기서, 제1캡쳐이미지(A)는 AVN(Audio Video Navigation) 시스템 기반의 사용자 인터페이스 테스팅 대상이 되는 초기 화면일 수 있다. (예, 네비게이션 홈 화면) 한편, 이는 일 실시예에 불과하고, 차량 내부의 AVN 시스템을 위한 사용자 인터페이스 화면 뿐 아니라, 다른 사용자 인터페이스 화면에도 본 기술이 동일/유사하게 적용될 수 있다. 도 5에 도시한 바와 같이, 생성된 제1노드를 기초로, 제1노드를 포함하여 소정의 제1경로(path)가 생성된다. 도 5에 도시된 바와 같이, 메뉴트리(C)는 노드와 간선(화살표)으로 구성된 경로(path)들의 집합체이다. 본 발명에서 노드는 캡쳐화면에 대한 정보를 포함할 수 있고, 간선은 캡쳐화면간 전이(transition)을 나타낸다. 그리고, 제1노드에서 제2노드로 전이된다는 것은, 제1캡쳐화면에서 제2캡쳐화면으로 변경된다는 것을 의미하고, 특히, 제2캡쳐화면은 사용자 인터페이스 테스팅 대상이 되는 제1캡쳐화면과 관련된 제1캡쳐화면의 다음 화면일 수 있다. 예를 들어, 제2캡쳐화면은, 제1캡쳐화면의 특정 오브젝트과 관련된 컨텐츠가 출력되는, 사용자 인터페이스 테스팅 대상이 되는 제1캡쳐화면의 순차적인 다음 화면일 수 있다. A first node (
트리생성부(220)는 제N캡쳐이미지로부터 소정의 딥러닝 알고리즘에 기반하여 제N오브젝트를 추출할 수 있으며(S220), 추출된 제N오브젝트와 관련된 제N+1캡쳐이미지가 출력될 수 있다. 예를 들어, 도 5를 참조하면, 제1캡쳐이미지(A)로부터 제1오브젝트([o])를 추출할 수 있다. 그리고, 제1오브젝트([o])의 컨텐츠를 포함하는 제2캡쳐이미지(B)가 출력될 수 있다. 본 발명에서 이미지로부터 오브젝트 추출은 딥 러닝 뉴럴 네트워크(Deep Learning Neural Network) 기반의 알고리즘을 이용하여 자동 추출이 진행될 수 있다. 예를 들어, Fast R-CNN(Convolutional Neural Networks)알고리즘을 이용하여 이미지와 이미지 내부에서 추출하고자 하는 객체의 바운더리를 입력받고, 입력시킨 객체와 유사한 형태의 객체를 찾아내도록 학습하는 과정을 수행할 수 있다. 본 발명에서는 특히, 사용자 인터페이스 화면에 대해 선택 가능한 영역(버튼, 위젯 등)등을 학습시킴으로서, 특정 화면에서 선택 가능한 객체들을 찾아낼 수 있게 된다. 한편, 전술한 딥 러닝 뉴럴 네트워크 기반의 알고리즘은 일례에 불과하며, 다양한 다른 종류의 딥 러닝 뉴럴 네트워크 기반의 알고리즘을 본 발명에 적용하여 오브젝트 추출을 수행할 수도 있다.The tree generating
트리생성부(220)는 추출된 제N오브젝트와 관련된 제N+1캡쳐이미지가 소정의 조건을 만족하는 지 여부를 판단할 수 있다(S230) 그리고, 트리생성부(220)는 추출된 제N오브젝트와 관련된 제N+1캡쳐이미지가 소정의 조건을 만족하는 경우, 제N+1캡쳐이미지에 대응하는 제N+1노드를 추가할 수 있다(S240). 반면, 추출된 제N오브젝트와 관련된 제N+1캡쳐이미지가 소정의 조건을 만족하지 않는 경우, 추가 노드 생성을 중지할 수 있다(S270). 예를 들어, 도 5의 추출된 제1오브젝트([o])와 관련된 제2캡쳐이미지(B)가 소정의 경로 상에 기 존재하지 않는 제1 조건 및 상기 제2캡쳐이미지(B)가 추출가능한 제2오브젝트([o'])를 포함하는 제2 조건을 만족하는 지 여부를 판단할 수 있다. The
제1 조건을 판단하는 것은, 소정의 경로 상에 이미 존재하는 캡쳐이미지가 경로 상에 다시 포함되면 동일 화면이 연속하여 생성됨으로서 무한루프에 빠질 염려가 있기 때문에, 이를 방지하기 위해서 필요하다. 따라서, 본 발명에서는 제2캡쳐이미지(B)가 소정의 경로 상에 기 존재하지 않을 경우에만 제2캡쳐이미지(B)에 대응하는 제2노드를 추가할 수 있다. 도 5에서는 제2캡쳐이미지(B)가 소정의 경로 상에 기 존재하지 않으므로, 제1노드에 이어서 제2노드를 추가하게 된다. 그리고, 소정의 제1경로(path)는 제1노드 및 제2노드를 포함하게 되는 것이다. 다른 실시예에 따라서는, 캡쳐이미지가 소정의 경로 상에 기 존재하는 지 여부와 함께, 오브젝트 추출 과정에서 잘못된 오브젝트를 추출한다거나 비활성화된 오브젝트를 인식하였는지 여부도 함께 판단할 수도 있다. Determining the first condition is necessary in order to prevent this, because when the captured image already existing on the predetermined path is included again on the path, the same screen is continuously generated, thereby falling into an infinite loop. Therefore, in the present invention, a second node corresponding to the second captured image B may be added only when the second captured image B does not exist in the predetermined path. In FIG. 5, since the second capture image B does not exist on a predetermined path, a second node is added after the first node. In addition, the predetermined first path includes a first node and a second node. According to another embodiment, it may be determined whether a captured image is already present on a predetermined path, and whether or not a wrong object is extracted or an inactive object is recognized in the object extraction process.
제2 조건을 판단하는 것은, 제2캡쳐이미지(B)가 추출가능한 제2오브젝트([o'])를 포함하지 않는다면, 이는 테스팅을 위한 사용자 인터페이스 화면 상에서 더 이상 선택(또는 사용자 입력) 가능한 오브젝트를 포함하지 않는다는 것을 의미하므로, 이 경우에는 더 이상 추가 노드를 생성할 필요가 없다는 데서 의미가 있다. The judging of the second condition is that if the second capture image B does not include an extractable second object [o '], it is no longer selectable (or user input) on the user interface screen for testing. This means that it doesn't need to create an additional node anymore.
즉, 전술한 제1 조건 및 제2 조건을 모두 만족하는 경우에만, 노드 추가를 수행하고, 어느 하나의 조건이라도 만족하지 않는다면, 추가 노드 생성을 중지할 수 있다. 한편, 다른 실시예에 따라서, 두가지 조건 중 어느 하나만 만족하는 경우에도 노드 추가를 수행하는 방식으로 구현될 수도 있다.That is, the node addition may be performed only when both of the above-described first and second conditions are satisfied, and generation of the additional node may be stopped if any one of the conditions is not satisfied. Meanwhile, according to another exemplary embodiment, even when only one of two conditions is satisfied, the node addition may be performed in a manner of performing node addition.
이때, 제1노드 및 제2노드는 각각 클릭(click)입력이 가능하도록 구현될 수 있다. 즉, 제1노드 및 제2노드는 각각 클릭(click)의 좌표 정보를 포함할 수 있다. 그리고, 클릭입력으로 제1노드에 대응하는 제1캡쳐이미지(A)가 출력될 수 있고, 또 다른 클릭입력으로 제2노드에 대응하는 제2캡쳐이미지(B)가 출력될 수 있다.In this case, the first node and the second node may be implemented to enable a click input. That is, the first node and the second node may each include coordinate information of the click. The first capture image A corresponding to the first node may be output by a click input, and the second capture image B corresponding to the second node may be output by another click input.
본 발명에서, 제N+1노드는 상기 추출된 상기 제N오브젝트의 좌표 정보와 상기 제N오브젝트의 이미지 정보를 포함할 수 있다. 도 5를 참조하면, 제2노드(2번노드)는 제1오브젝트([o])의 좌표 정보와 제1오브젝트([o])의 이미지 정보를 포함할 수 있다. 즉, 자식노드는 부모노드의 캡쳐화면 상에 있는 특정 오브젝트의 2차원 좌표 정보와 이미지 정보를 포함하여, 현재노드가 이전노드와 관련된 정보를 참조할 수 있고, 현재노드가 이전노드와 연결될 수 있다. 제1오브젝트([o])의 좌표 정보는 화면상에 위치한 x,y 좌표(위치) 정보를 포함할 수 있고, 이미지 정보는 오브젝트([o])의 크기, 형태 등의 정보를 포함할 수 있다. 본 발명에서는 좌표 정보와 이미지 정보가 2차원 상에서 구현된 것을 기술하였으나, 다른 실시예에 따르면, 오브젝트가 3차원으로 구현되어, 3차원 기반의 좌표 정보와 이미지 정보를 포함할 수도 있다. In the present invention, the N + 1th node may include coordinate information of the extracted N-th object and image information of the N-th object. Referring to FIG. 5, the second node (node 2) may include coordinate information of the first object [o] and image information of the first object [o]. That is, the child node may include the 2D coordinate information and the image information of the specific object on the capture screen of the parent node, so that the current node may refer to information related to the previous node, and the current node may be connected to the previous node. . The coordinate information of the first object [o] may include x, y coordinate (position) information located on the screen, and the image information may include information such as the size and shape of the object [o]. have. In the present invention, the coordinate information and the image information are implemented in two dimensions, but according to another embodiment, the object may be implemented in three dimensions and may include three-dimensional coordinate information and image information.
그리고, N+1 인덱스를 다시 N으로 설정하여(S250), 전술한 S220 내지 S250 단계를 반복 수행할 수 있다. 즉, 도 5에 따르면, 제2 노드가 추가로 트리에 이어져서 제1경로에 포함된 이후에, 제2캡쳐이미지(B)로부터 제2오브젝트([o'])를 추출하고, 추출된 제2오브젝트([o'])와 관련된 제3캡쳐이미지(미도시)가 전술한 소정의 조건을 만족하였는지 여부를 판단하여 제3 노드 추가를 결정한다. 이러한 단계를 반복 수행하여 도 6 및 도 7과 같은 제1경로가 완성된다. 도 6 및 도 7는 상기 반복 수행으로 마지막 노드(12번노드)까지 생성하여 제1 경로를 완성한 것이며, 최종적으로, AUX 케이블 연결 상태를 테스트하고자 하는 사용자 인터페이스의 목적 화면 결과가 출력된 것을 확인할 수 있다. 도 5에 도시한 바와 같이 메뉴트리(C)는 제N노드 및 제N+1노드로 구성된 제1 경로 이외에도, 다른 노드 및 다른 경로를 더 포함하고, 상기 다른 노드에 대해서 전술한 S220 단계 내지 S250단계를 반복 수행하여 상기 다른 경로를 생성할 수 있다.In addition, by setting the N + 1 index to N again (S250), the above-described steps S220 to S250 may be repeated. That is, according to FIG. 5, after the second node is further included in the first path following the tree, the second object [o '] is extracted from the second captured image B, and the extracted second object is extracted. It is determined whether the third capture image (not shown) associated with the second object [o '] satisfies the above-described predetermined condition, thereby determining the addition of the third node. By repeating these steps, the first path as shown in FIGS. 6 and 7 is completed. 6 and 7 show the completion of the first path by generating the last node (node 12) through the above repetition, and finally, the result of the result screen of the user interface to test the AUX cable connection state is output. have. As shown in FIG. 5, the menu tree C further includes other nodes and other paths in addition to the first path including the Nth node and the N + 1th node, and the above-described steps S220 to S250 for the other node. The other route may be generated by repeating the steps.
트리생성부(220)는 도3의 방법으로 생성된 메뉴트리를 메모리(300)에 저장할 수 있다(S260). 메뉴트리가 저장될 때, 각 노드, 캡쳐이미지, 오브젝트 정보도 함께 저장될 수 있다. The
지금까지는, 도 2의 S200단계를 상술하여 캡쳐이미지로부터 오브젝트를 추출 및 노드로 구성된 메뉴트리를 생성하여 저장하는 과정에 대해 기술하였다. 이하 단계에서는, 생성된 트리를 이용해 UI테스팅을 자동화하는 S300단계에 대해 상술하고자 한다.Up to now, the process of extracting an object from the captured image and generating and storing a menu tree composed of nodes has been described in detail with reference to step S200 of FIG. 2. In the following steps, it will be described in detail for step S300 to automate UI testing using the generated tree.
도 4에 도시한 바와 같이, UI테스팅 자동화부(230)는 사용자에 의한 플레이(PLAY) 버튼 입력을 수신할 수 있다(S310). 플레이 버튼은 도 5에 도시한 바와 같이, 차량 자동화 테스팅 툴 상에 구현된 소정의 객체일 수 있다. 플레이 버튼 입력을 수신하면, UI테스팅 자동화부(230)는 메뉴트리를 생성할 수 있다(S320) 생성된 메뉴트리는 메모리(300)에 저장될 수 있다.As shown in FIG. 4, the UI
UI테스팅 자동화부(230)는 사용자로부터 소정의 경로 정보를 입력 받을 수 있다(S330). 노드 정보를 일일이 입력받지 않고, 사용자가 테스트하고자 하는 소정의 경로 정보만을 입력받아도, 해당 경로에 대응하는 기 저장된 경로와의 비교 수행이 가능해지므로, 효율적이고 빠른 테스트 수행이 가능해진다는 이점이 있다. 본 발명에서는, 생성된 트리에 기 저장된 제1경로에 대응하는 경로 정보를 입력받을 수 있다.The UI
UI테스팅 자동화부(230)는 생성된 트리의 제N+1노드에 포함된 정보와 소정의 경로 정보에 포함된 노드 정보를 각각 일대일 대응하여 비교할 수 있다(S340) 도 5 및 도 6에 도시한, 생성된 트리에 기 저장된 제1 경로에 포함된 각 노드(2번, 10번, 11번, 12번)와 사용자로부터 입력된 경로 정보에 포함된 각 노드 정보를 각각 일대일 대응하여 비교할 수 있다. 전술한 바와 같이, 생성된 트리의 제N+1노드는 추출된 제N오브젝트의 좌표 정보와 제N오브젝트의 이미지 정보를 포함할 수 있고, 이들 좌표 정보와 이미지 정보를 사용자로부터 입력된 경로 정보에 포함된 각 노드에 포함된 오브젝트의 좌표 정보와 이미지 정보와 각각 비교하는 과정을 거치게 된다. 이때, UI테스팅 자동화부(230)는 사용자 인터페이스 각 화면의 전환에 대한 테스팅을 자동 수행하게 된다. The UI
UI테스팅 자동화부(230)는 전술한 비교 결과를 출력할 수 있다(S350). 도 8에 도시한 바와 같이, 출력 결과 화면은 생성된 트리의 경로에 기 저장된 노드로부터 획득된 기준 데이터(reference data) 항목, 테스팅 대상이 되는 기기와 관련하여 사용자로부터 입력된 경로의 노드로부터 획득된 기기 데이터(device data) 항목, 기준 데이터(reference data)와 기기 데이터(device data)를 비교한 결과, 해당 차이점이 있을 경우, 차이점 부분을 기술한 차이점 데이터(difference data) 항목, 기준 데이터(reference data)와 기기 데이터(device data)를 비교한 결과 일치하면 테스트 통과를 기입하고, 불일치하면 테스트 실패를 기입(또는 알람) 하기 위한 결과(result) 항목을 포함할 수 있다. 본 발명의 실시예에 따라, 도 8에 도시한 각 항목은 하나 또는 복수개가 조합되어 결과 화면에 출력될 수 있다. 그밖에, 이벤트명칭, 이벤트시간, 경과시간, 로그 등의 정보도 함께 출력될 수 있다. 이에 따라, 테스트 결과가 통과하면, 해당 기기는 정확한 프로그램으로 구현되어 있음을 알 수 있고, 테스트 결과가 실패한다면, 해당 기기는 오류를 가진 프로그램으로 구현되어 있음을 알 수 있어, 사용자는 해당 결과를 바탕으로 테스트 수행을 용이하게 할 수 있다. The UI
도 9는, 테스트를 위한 화면까지의 이동을 위해 종래 기술에 따라 구현된 소스코드(B)와 본 발명에 따라 구현된 소스코드(A)이다. 종래에는, 소스코드(B)와 같이, 절차적으로 여러 줄에 걸쳐 대상 화면으로 이동할 수 밖에 없었으나, 본 발명에 따르면, 소스코드(A)와 같이, 메뉴트리 탐색을 통해 미리 파악된 구조를 가지고 사용자가 원하는 특정 화면을 선언적으로 지정(path입력)만 해도, 즉시 빠르게 대상 화면으로 이동할 수 있게 된다. 즉, 종래 소스코드(B)에 따르면 스크립트의 복잡성이 증가하고 재사용성이 낮지만, 본 발명의 소스코드(A)에 따르면, 소스코드 스크립트가 간소화될 수 있으며, UI가 변경되더라도, 메뉴트리 탐색을 재 수행한 결과를 반복적으로 이용할 수 있어, 스크립트 코드의 재사용성을 향상시킬 수 있게 된다. 9 is a source code (B) implemented according to the prior art and a source code (A) implemented according to the present invention for moving to a screen for testing. Conventionally, as in the source code (B), it was inevitable to move to the target screen over a plurality of lines, but according to the present invention, as in the source code (A), the structure previously identified through the menu tree search By simply declaring the specific screen you want (path input), you can move to the target screen quickly. That is, according to the conventional source code (B), the complexity of the script is increased and the reusability is low, but according to the source code (A) of the present invention, the source code script can be simplified, and even if the UI is changed, the menu tree is searched. The result of re-executing can be used repeatedly, thus improving the reusability of script code.
이상 설명된 실시 형태는 다양한 컴퓨터 구성요소를 통하여 실행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터로 판독가능한 기록매체에 기록될 수 있다. 상기 컴퓨터로 판독가능한 기록매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. The above-described embodiments may be implemented in the form of program instructions that can be executed by various computer components, and recorded on a computer-readable recording medium. The computer-readable recording medium may include program instructions, data files, data structures, etc. alone or in combination.
상기 컴퓨터로 판독가능한 기록매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수도 있다.Program instructions recorded on the computer-readable recording medium may be those specially designed and configured for the present invention, or may be known and available to those skilled in the computer software arts.
컴퓨터로 판독가능한 기록매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 실행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 상기 하드웨어 장치는 본 발명에 따른 처리를 실행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical recording media such as CD-ROMs, DVDs, and magneto-optical media such as floptical disks. optical media) and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like. The hardware device may be configured to operate as one or more software modules to carry out the process according to the invention, and vice versa.
이상에서 실시예들에 설명된 특징, 구조, 효과 등은 본 발명의 하나의 실시예에 포함되며, 반드시 하나의 실시예에만 한정되는 것은 아니다. 나아가, 각 실시예에서 예시된 특징, 구조, 효과 등은 실시예들이 속하는 분야의 통상의 지식을 가지는 자에 의해 다른 실시예들에 대해서도 조합 또는 변형되어 실시 가능하다. 따라서 이러한 조합과 변형에 관계된 내용들은 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다.Features, structures, effects, etc. described in the above embodiments are included in one embodiment of the present invention, and are not necessarily limited to one embodiment. Furthermore, the features, structures, effects, and the like illustrated in the embodiments may be combined or modified with respect to other embodiments by those skilled in the art to which the embodiments belong. Therefore, contents related to such combinations and modifications should be construed as being included in the scope of the present invention.
또한, 이상에서 실시예를 중심으로 설명하였으나 이는 단지 예시일 뿐 본 발명을 한정하는 것이 아니며, 본 발명이 속하는 분야의 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성을 벗어나지 않는 범위에서 이상에 예시되지 않은 여러 가지의 변형과 응용이 가능함을 알 수 있을 것이다. 예를 들어, 실시예에 구체적으로 나타난 각 구성 요소는 변형하여 실시할 수 있는 것이다. 그리고 이러한 변형과 응용에 관계된 차이점들은 첨부된 청구 범위에서 규정하는 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다.In addition, the above description has been made with reference to the embodiment, which is merely an example, and is not intended to limit the present invention. Those skilled in the art to which the present invention pertains will be illustrated as above without departing from the essential characteristics of the present embodiment. It will be appreciated that various modifications and applications are possible. For example, each component specifically shown in the embodiment can be modified. And differences relating to such modifications and applications will have to be construed as being included in the scope of the invention defined in the appended claims.
Claims (11)
상기 생성된 트리를 이용하여 사용자 인터페이스 테스팅을 자동화 수행하는 제2 단계를 포함하는,
딥러닝 알고리즘 및 트리를 이용한 UI테스팅 자동화 방법.
Extracting an object from a captured image based on a predetermined deep learning algorithm, and generating a tree composed of the captured image and the nodes generated by using the extracted object; And
A second step of automating user interface testing using the generated tree,
UI testing automation method using deep learning algorithm and tree.
상기 트리는 제N노드 및 제N+1노드로 구성된 소정의 경로를 포함하고,
상기 제1 단계는,
제N캡쳐이미지에 대응하는 상기 제N노드를 상기 소정의 경로상에 추가하는 (A) 단계;
상기 제N캡쳐이미지로부터 상기 소정의 딥러닝 알고리즘에 기반하여 제N오브젝트를 추출하는 (B) 단계;
상기 추출된 제N오브젝트와 관련된 제N+1캡쳐이미지가 소정의 조건을 만족하는 경우, 상기 제N+1캡쳐이미지에 대응하는 제N+1노드를 추가하는 (C) 단계;
상기 N+1 인덱스를 N으로 설정하는 (D) 단계; 및
상기 (B) 내지 (D) 단계를 반복 수행하는 단계를
포함하는,
딥러닝 알고리즘 및 트리를 이용한 UI테스팅 자동화 방법.
The method of claim 1,
The tree includes a predetermined path consisting of an Nth node and an N + 1th node,
The first step,
(A) adding the Nth node corresponding to the Nth captured image on the predetermined path;
(B) extracting an N-th object from the N-th captured image based on the predetermined deep learning algorithm;
(C) adding an N + 1 node corresponding to the N + 1th captured image when the N + 1th captured image related to the extracted Nth object satisfies a predetermined condition;
(D) setting the N + 1 index to N; And
Repeating steps (B) to (D)
Included,
UI testing automation method using deep learning algorithm and tree.
상기 소정의 조건은,
상기 제N+1캡쳐이미지가 상기 소정의 경로 상에 기 존재하지 않는 제1 조건 및 상기 제N+1캡쳐이미지가 추출가능한 제N+1오브젝트를 포함하는 제2 조건을 포함하는,
딥러닝 알고리즘 및 트리를 이용한 UI테스팅 자동화 방법.
The method of claim 2,
The predetermined condition is
A first condition in which the N + 1 capture image does not exist on the predetermined path and a second condition including an N + 1 object in which the N + 1 capture image is extractable;
UI testing automation method using deep learning algorithm and tree.
상기 트리는 다른 노드 및 다른 경로를 더 포함하고,
상기 다른 노드에 대해서 상기 (B) 단계 내지 상기 (D) 단계를 반복 수행하여 상기 다른 경로를 생성하는,
딥러닝 알고리즘 및 트리를 이용한 UI테스팅 자동화 방법.
The method of claim 2 or 3,
The tree further includes other nodes and other paths,
Repeating the steps (B) to (D) for the other node to generate the other path,
UI testing automation method using deep learning algorithm and tree.
상기 제N+1노드는 상기 추출된 상기 제N오브젝트의 좌표 정보와 상기 제N오브젝트의 이미지 정보를 포함하는,
딥러닝 알고리즘 및 트리를 이용한 UI테스팅 자동화 방법.
The method according to claim 2 or 3,
The N + 1th node includes coordinate information of the extracted Nth object and image information of the Nth object.
UI testing automation method using deep learning algorithm and tree.
상기 캡쳐이미지는 AVN(Audio Video Navigation) 시스템 기반의 사용자 인터페이스 화면에 대한 정보를 포함하는,
딥러닝 알고리즘 및 트리를 이용한 UI테스팅 자동화 방법.
The method of claim 2 or 3,
The captured image includes information on a user interface screen based on an AVN (Audio Video Navigation) system.
UI testing automation method using deep learning algorithm and tree.
상기 노드는 클릭(click)입력이 가능하도록 구현되고,
상기 클릭입력으로 상기 노드와 관련된 상기 캡쳐이미지를 출력하는,
딥러닝 알고리즘 및 트리를 이용한 UI테스팅 자동화 방법.
The method of claim 1,
The node is implemented to allow a click input,
Outputting the captured image associated with the node with the click input;
UI testing automation method using deep learning algorithm and tree.
상기 제2 단계는,
상기 생성된 트리를 리딩하는 단계;
사용자로부터 소정의 경로 정보를 입력 받는 단계;
상기 생성된 트리의 상기 제N+1노드에 포함된 정보와 상기 소정의 경로 정보에 포함된 노드 정보를 각각 일대일 대응하여 비교하는 단계; 및
상기 비교 결과를 출력하는 단계;를 포함하는,
딥러닝 알고리즘 및 트리를 이용한 UI테스팅 자동화 방법 .
The method of claim 2,
The second step,
Reading the generated tree;
Receiving predetermined path information from a user;
Comparing the information included in the N + 1th node of the generated tree with the node information included in the predetermined path information in a one-to-one correspondence; And
And outputting the comparison result.
Automated UI Testing Using Deep Learning Algorithm and Tree.
상기 생성된 트리의 상기 제N+1노드는 상기 추출된 상기 제N오브젝트의 좌표 정보와 상기 제N오브젝트의 이미지 정보를 포함하는,
딥러닝 알고리즘 및 트리를 이용한 UI테스팅 자동화 방법.
The method of claim 8,
The N + 1th node of the generated tree includes coordinate information of the extracted N-th object and image information of the N-th object.
UI testing automation method using deep learning algorithm and tree.
상기 캡쳐이미지 및 상기 추출된 오브젝트를 활용하여 생성된 노드로 구성된 트리를 생성하는 트리생성부; 및
상기 생성된 트리를 이용하여 사용자 인터페이스 테스팅을 자동화 수행하는 UI테스팅 자동화부;를 포함하는,
딥러닝 알고리즘 및 트리를 이용한 UI테스팅 자동화 장치.
An object extracting unit extracting an object from a captured image based on a predetermined deep learning algorithm;
A tree generation unit generating a tree composed of nodes generated by using the captured image and the extracted object; And
It includes; UI testing automation unit for performing an automated user interface testing using the generated tree, including,
UI testing automation device using deep learning algorithm and tree.
A computer-readable recording medium for recording a computer program for executing the method according to any one of claims 1 to 9.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180060053A KR102132383B1 (en) | 2018-05-28 | 2018-05-28 | Ui testing automation method using deep learning algorithem and tree and appratus for the same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180060053A KR102132383B1 (en) | 2018-05-28 | 2018-05-28 | Ui testing automation method using deep learning algorithem and tree and appratus for the same |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20190135074A true KR20190135074A (en) | 2019-12-06 |
KR102132383B1 KR102132383B1 (en) | 2020-07-09 |
Family
ID=68836980
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180060053A KR102132383B1 (en) | 2018-05-28 | 2018-05-28 | Ui testing automation method using deep learning algorithem and tree and appratus for the same |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102132383B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113220511A (en) * | 2020-02-06 | 2021-08-06 | 伊姆西Ip控股有限责任公司 | Method, apparatus and computer-readable storage medium for testing BIOS |
KR20210155896A (en) * | 2020-06-17 | 2021-12-24 | (주)커브 | A system and method of searching optimal ui path map |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11385777B2 (en) | 2020-09-14 | 2022-07-12 | UiPath, Inc. | User interface (UI) mapper for robotic process automation |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20120121950A (en) * | 2011-04-28 | 2012-11-07 | (주)아이엔에스랩 | Application Graphic User Interface Test Automation System and Method Thereof |
KR20180028442A (en) * | 2015-07-09 | 2018-03-16 | 퀄컴 인코포레이티드 | Context-based fryers for object detection in images |
-
2018
- 2018-05-28 KR KR1020180060053A patent/KR102132383B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20120121950A (en) * | 2011-04-28 | 2012-11-07 | (주)아이엔에스랩 | Application Graphic User Interface Test Automation System and Method Thereof |
KR20180028442A (en) * | 2015-07-09 | 2018-03-16 | 퀄컴 인코포레이티드 | Context-based fryers for object detection in images |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113220511A (en) * | 2020-02-06 | 2021-08-06 | 伊姆西Ip控股有限责任公司 | Method, apparatus and computer-readable storage medium for testing BIOS |
KR20210155896A (en) * | 2020-06-17 | 2021-12-24 | (주)커브 | A system and method of searching optimal ui path map |
Also Published As
Publication number | Publication date |
---|---|
KR102132383B1 (en) | 2020-07-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5102304B2 (en) | Request-based test generation | |
US10176079B2 (en) | Identification of elements of currently-executing component script | |
US10409564B2 (en) | Recording and playback of development sessions | |
CN111159049B (en) | Automatic interface testing method and system | |
CN111611711B (en) | Automatic driving data processing method and device and electronic equipment | |
US20050223295A1 (en) | Method for the creation of sequences for testing software | |
KR20190135074A (en) | Ui testing automation method using deep learning algorithem and tree and appratus for the same | |
US20200265353A1 (en) | Intelligent workflow advisor for part design, simulation and manufacture | |
EP3432228A1 (en) | Expandability retention device | |
EP1548581A2 (en) | Methods, apparatus and programs for system development | |
US9229846B1 (en) | Testing application code changes using a state assertion framework | |
CN112882930A (en) | Automatic testing method and device, storage medium and electronic equipment | |
Canny et al. | Model-based testing of GUI applications featuring dynamic Instanciation of widgets | |
US20200327042A1 (en) | Automatic generation of integration tests from unit tests | |
CN111371862B (en) | Unmanned vehicle debugging method, device, server and medium | |
KR101460860B1 (en) | GUI Test apparatus using test scenario model based on states and the method thereof | |
WO2023110478A1 (en) | Method for automatically exploring states and transitions of a human machine interface (hmi) device | |
CN112860587B (en) | UI automatic test method and device | |
CN115987821A (en) | Gateway routing test method and device | |
EP3091453A1 (en) | Designing a longevity test for a smart tv | |
Flemström et al. | Saga toolbox: Interactive testing of guarded assertions | |
KR20220121175A (en) | Automatic generation of integrated test procedures using system test procedures | |
Langner et al. | Framework for using real driving data in automotive feature development and validation | |
KR20220022383A (en) | Method and system for multimedia device | |
KR20220102490A (en) | Apparatus and method for regerssion test |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right |