KR102108205B1 - Error detecting method based on scene for smart device application and apparatus thereof - Google Patents

Error detecting method based on scene for smart device application and apparatus thereof Download PDF

Info

Publication number
KR102108205B1
KR102108205B1 KR1020180027387A KR20180027387A KR102108205B1 KR 102108205 B1 KR102108205 B1 KR 102108205B1 KR 1020180027387 A KR1020180027387 A KR 1020180027387A KR 20180027387 A KR20180027387 A KR 20180027387A KR 102108205 B1 KR102108205 B1 KR 102108205B1
Authority
KR
South Korea
Prior art keywords
scene
application
error
error detection
normal
Prior art date
Application number
KR1020180027387A
Other languages
Korean (ko)
Other versions
KR20190106217A (en
Inventor
지영만
류정우
이준배
Original Assignee
어니컴 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 어니컴 주식회사 filed Critical 어니컴 주식회사
Priority to KR1020180027387A priority Critical patent/KR102108205B1/en
Publication of KR20190106217A publication Critical patent/KR20190106217A/en
Application granted granted Critical
Publication of KR102108205B1 publication Critical patent/KR102108205B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/36Preventing errors by testing or debugging software
    • G06F11/3604Software analysis for verifying properties of programs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Hardware Design (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)

Abstract

본 명세서에서 개시되는 실시예들은 스마트 디바이스 애플리케이션을 위한 장면 기반 오류 검출 방법 및 그를 수행하는 오류 검출 장치에 관한 것으로서 스마트 디바이스에서 수행되는 애플리케이션에 대하여 구동 장면 상에 오류가 포함되어 있는지 여부를 판단하는 장면 기반의 오류 검출 방법 및 장치에 관한 것이다. 기술적 과제를 달성하기 위한 기술적 수단으로서, 일 실시예에 따르면, 스마트 디바이스 애플리케이션의 오류 검출 장치가 수행하는 장면 기반 오류 검출 방법으로서, 상기 애플리케이션의 정상 장면을 학습하는 단계; 상기 애플리케이션의 구동 장면을 획득하는 단계; 및 획득한 상기 구동 장면의 오류 여부를 상기 학습에 기초하여 판단하는 단계를 포함하는 오류 검출 방법이 개시된다.Embodiments disclosed herein relates to a scene-based error detection method for a smart device application and an error detection apparatus for performing the same, and a scene for determining whether an error is included in a driving scene for an application performed on the smart device The present invention relates to an error detection method and apparatus. As a technical means for achieving a technical problem, according to an embodiment, a scene-based error detection method performed by an error detection apparatus of a smart device application, comprising: learning a normal scene of the application; Obtaining a driving scene of the application; And determining whether the obtained driving scene has an error based on the learning.

Description

스마트 디바이스 애플리케이션을 위한 장면 기반 오류 검출 방법 및 그를 수행하는 오류 검출 장치{ERROR DETECTING METHOD BASED ON SCENE FOR SMART DEVICE APPLICATION AND APPARATUS THEREOF}Scene-based error detection method for smart device applications and an error detection device that performs the same {ERROR DETECTING METHOD BASED ON SCENE FOR SMART DEVICE APPLICATION AND APPARATUS THEREOF}

본 명세서에서 개시되는 실시예들은 스마트 디바이스 애플리케이션을 위한 장면 기반 오류 검출 방법 및 그를 수행하는 오류 검출 장치에 관한 것으로서 스마트 디바이스에서 수행되는 애플리케이션에 대하여 구동 장면 상에 오류가 포함되어 있는지 여부를 판단하는 장면 기반의 오류 검출 방법 및 장치에 관한 것이다.Embodiments disclosed herein relates to a scene-based error detection method for a smart device application and an error detection apparatus for performing the same, and a scene for determining whether an error is included in a driving scene for an application performed on the smart device The present invention relates to an error detection method and apparatus.

스마트 디바이스의 보급이 보편화됨에 따라 방대한 양의 스마트 디바이스 애플리케이션이 제작되고 있으며, 스마트 디바이스 애플리케이션의 출시 이전에 애플리케이션의 정상 작동을 판단하는 과정이 반드시 수행되어야 한다.As the spread of smart devices becomes widespread, a large amount of smart device applications are being produced, and a process of determining the normal operation of the application must be performed before the launch of the smart device application.

이와 관련하여 선행기술 문헌인 한국공개특허 제 10-2017-0043198 호 '어플리케이션 소스 코드의 오류 검출 장치 및 그 방법'에 따르면, 애플리케이션의 소스 코드를 파싱하여 소스 코드 자체의 오류에 대하여 검사하는 장치 및 방법을 개시하고 있다.In this regard, according to Korean Patent Application Publication No. 10-2017-0043198, which is a prior art document, an apparatus for detecting an error in an application source code and a method therefor, an apparatus for parsing an application source code and checking for an error in the source code itself, and The method is disclosed.

그러나 상기와 같은 선행기술에 따르면, 오류 분석에 소모되는 리소스가 많을 뿐만 아니라 다양한 스마트 디바이스에 적용될 때의 오류 여부를 분석하기에 취약하다는 문제가 있다. 따라서 이와 같은 문제를 보완하기 위한 기술이 요구되는 실정이다.However, according to the prior art as described above, there is a problem that it is vulnerable to analyzing whether there is an error when applied to various smart devices as well as having many resources consumed for error analysis. Therefore, there is a need for a technique to compensate for this problem.

한편, 전술한 배경기술은 발명자가 본 발명의 도출을 위해 보유하고 있었거나, 본 발명의 도출 과정에서 습득한 기술 정보로서, 반드시 본 발명의 출원 전에 일반 공중에게 공개된 공지기술이라 할 수는 없다.On the other hand, the above-mentioned background technology is the technical information acquired by the inventor for the derivation of the present invention or acquired in the derivation process of the present invention, and is not necessarily a known technology disclosed to the general public before filing the present invention. .

본 명세서에서 개시되는 실시예들은, 스마트 디바이스 애플리케이션을 위한 장면 기반 오류 검출 방법 및 그를 수행하는 오류 검출 장치를 개시하는 데에 목적이 있다. The embodiments disclosed herein have an object to disclose a scene-based error detection method for a smart device application and an error detection apparatus performing the same.

또한 실시예들은, 스마트 디바이스 애플리케이션이 다양한 스마트 디바이스에 적용될 때의 오류를 분석할 수 있는 기술을 개시하는 데에 목적이 있다.In addition, embodiments are intended to disclose a technique capable of analyzing errors when a smart device application is applied to various smart devices.

또한 실시예들은, 기존의 품질검증 플랫폼에서는 오류로 판단되지 않았던 스마트 디바이스 애플리케이션의 수행에 영향을 미치지 않는 장면 오류를 포함하는 오류를 분석할 수 있는 기술을 개시하는 데에 목적이 있다.In addition, embodiments are intended to disclose a technique capable of analyzing errors including scene errors that do not affect performance of a smart device application that was not judged to be an error in the existing quality verification platform.

상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 일 실시예에 따르면, 스마트 디바이스 애플리케이션의 오류 검출 장치가 수행하는 장면 기반 오류 검출 방법으로서, 상기 애플리케이션의 정상 장면을 학습하는 단계; 상기 애플리케이션의 구동 장면을 획득하는 단계; 및 획득한 상기 구동 장면의 오류 여부를 상기 학습에 기초하여 판단하는 단계를 포함하는 오류 검출 방법이 개시된다.As a technical means for achieving the above-described technical problem, according to an embodiment, a scene-based error detection method performed by an error detection apparatus of a smart device application, comprising: learning a normal scene of the application; Obtaining a driving scene of the application; And determining whether the obtained driving scene has an error based on the learning.

또 다른 실시예에 따르면, 오류 검출 방법을 수행하는 프로그램이 기록된 컴퓨터 판독 가능한 기록매체가 개시된다. 이때 오류 검출 방법은 오류 검출 장치가 수행하는 것으로서, 상기 애플리케이션의 정상 장면을 학습하는 단계; 상기 애플리케이션의 구동 장면을 획득하는 단계; 및 획득한 상기 구동 장면의 오류 여부를 상기 학습에 기초하여 판단하는 단계를 포함할 수 있다.According to another embodiment, a computer-readable recording medium in which a program for performing an error detection method is recorded is disclosed. At this time, the error detection method is performed by the error detection device, comprising: learning a normal scene of the application; Obtaining a driving scene of the application; And determining whether the obtained driving scene is in error based on the learning.

또 다른 실시예에 따르면, 오류 검출 장치에 의해 수행되며, 오류 검출 방법을 수행하기 위해 매체에 저장된 컴퓨터 프로그램이 개시된다. 이때 오류 검출 방법은 애플리케이션의 정상 장면을 학습하는 단계; 상기 애플리케이션의 구동 장면을 획득하는 단계; 및 획득한 상기 구동 장면의 오류 여부를 상기 학습에 기초하여 판단하는 단계를 포함할 수 있다.According to another embodiment, a computer program is disclosed that is performed by an error detection device and stored in a medium to perform an error detection method. At this time, the error detection method includes learning a normal scene of the application; Obtaining a driving scene of the application; And determining whether the obtained driving scene is in error based on the learning.

다른 실시예에 따르면, 스마트 디바이스 애플리케이션의 정상 장면을 저장하는 저장부; 및 상기 정상 장면을 학습하고, 스마트 디바이스 애플리케이션의 구동 장면을 획득하여 획득한 상기 구동 장면의 오류 여부를 상기 학습에 기초하여 판단하는 제어부를 포함하는 오류 검출 장치가 개시된다.According to another embodiment, a storage unit for storing a normal scene of the smart device application; And a control unit for learning the normal scene and determining whether an error of the driving scene obtained by acquiring a driving scene of the smart device application is based on the learning.

전술한 과제 해결 수단 중 어느 하나에 의하면, 본 명세서에서 개시되는 실시예들은, 스마트 디바이스 애플리케이션을 위한 장면 기반 오류 검출 방법 및 그를 수행하는 오류 검출 장치를 개시할 수 있다.According to any one of the above-described problem solving means, the embodiments disclosed herein may disclose a scene-based error detection method for a smart device application and an error detection apparatus performing the same.

또한 실시예들은, 스마트 디바이스 애플리케이션이 다양한 스마트 디바이스에 적용될 때의 오류를 분석하는 기술을 개시할 수 있다.In addition, embodiments may disclose a technique for analyzing errors when a smart device application is applied to various smart devices.

또한 실시예들은, 기존의 품질검증 플랫폼에서는 오류로 판단되지 않았던 스마트 디바이스 애플리케이션의 수행에 영향을 미치지 않는 장면 오류를 포함하는 오류를 분석하는 기술을 개시할 수 있다.In addition, embodiments may disclose a technique for analyzing errors including scene errors that do not affect performance of a smart device application that was not judged to be an error in the existing quality verification platform.

개시되는 실시예들에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 개시되는 실시예들이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects obtained in the disclosed embodiments are not limited to the above-mentioned effects, and other effects not mentioned are obvious to those skilled in the art to which the embodiments disclosed from the following description belong. Can be understood.

도 1은 일 실시예에 따른 오류 검출 장치의 구성을 도시한 블록도이다.
도 2 내지 도 4는 일 실시예들에 따른 오류 검출 방법을 설명하기 위한 순서도이다.
1 is a block diagram showing the configuration of an error detection apparatus according to an embodiment.
2 to 4 are flowcharts for describing an error detection method according to one embodiment.

아래에서는 첨부한 도면을 참조하여 다양한 실시예들을 상세히 설명한다. 아래에서 설명되는 실시예들은 여러 가지 상이한 형태로 변형되어 실시될 수도 있다. 실시예들의 특징을 보다 명확히 설명하기 위하여, 이하의 실시예들이 속하는 기술분야에서 통상의 지식을 가진 자에게 널리 알려져 있는 사항들에 관해서 자세한 설명은 생략하였다. 그리고, 도면에서 실시예들의 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, various embodiments will be described in detail with reference to the accompanying drawings. The embodiments described below may be embodied in various different forms. In order to more clearly describe the features of the embodiments, detailed descriptions of the items well known to those of ordinary skill in the art to which the following embodiments pertain are omitted. In the drawings, parts irrelevant to the description of the embodiments are omitted, and like reference numerals are assigned to similar parts throughout the specification.

명세서 전체에서, 어떤 구성이 다른 구성과 "연결"되어 있다고 할 때, 이는 ‘직접적으로 연결’되어 있는 경우뿐 아니라, ‘그 중간에 다른 구성을 사이에 두고 연결’되어 있는 경우도 포함한다. 또한, 어떤 구성이 어떤 구성을 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한, 그 외 다른 구성을 제외하는 것이 아니라 다른 구성들을 더 포함할 수도 있음을 의미한다.Throughout the specification, when a component is "connected" to another component, this includes not only "directly connected" but also "connected with other components in between". In addition, when a configuration is said to "include" a configuration, this means that, unless specifically stated otherwise, it may mean that other configurations may be included as well.

이하 첨부된 도면을 참고하여 실시예들을 상세히 설명하기로 한다.Hereinafter, exemplary embodiments will be described in detail with reference to the accompanying drawings.

도 1은 일 실시예에 따른 오류 검출 장치(10)의 구성을 도시한 블록도이다.1 is a block diagram showing the configuration of an error detection apparatus 10 according to an embodiment.

본 명세서에서 개시되는 일 실시예에 따른 오류 검출 장치(10)는, 장면에 기반하여 스마트 디바이스 애플리케이션의 오류를 검출할 수 있다. 실시예에 따르면, 오류 검출 장치(10)는 기계 학습, 예를 들어, 심층 학습에 따라 스마트 디바이스 애플리케이션의 정상 장면을 학습함으로써 스마트 디바이스 애플리케이션의 구동 장면에 대한 오류를 검출할 수 있다.The error detection apparatus 10 according to an embodiment disclosed in the present specification may detect an error of a smart device application based on a scene. According to an embodiment, the error detecting apparatus 10 may detect an error in a driving scene of the smart device application by learning a normal scene of the smart device application according to machine learning, for example, deep learning.

이때, 정상 장면이란, 스마트 디바이스 애플리케이션이 스마트 디바이스에서 실행될 때 출력되는 구동 장면 중 오류가 없는 장면을 말한다. 가령, 구동 장면 중에 깨짐이 없고, 입력 버튼이 설정된 위치에 출력되며, 장면의 가로 잘림 또는 세로 잘림이 없는 경우 정상 장면으로 판단할 수 있다.In this case, the normal scene refers to a scene without errors among driving scenes output when the smart device application is executed on the smart device. For example, if there is no breakage in the driving scene, the input button is output at the set position, and if there is no horizontal or vertical clipping of the scene, it can be determined as a normal scene.

실시예에 따르면, 오류 검출 장치(10)는 오류 검출 방법을 수행하기 위한 애플리케이션이 설치된 전자단말기로 구현되거나 서버 또는 서버-클라이언트 시스템으로 구현될 수 있다. 오류 검출 장치(10)가 서버-클라이언트 시스템으로 구현될 때, 사용자와의 인터랙션을 위한 클라이언트가 설치된 사용자 단말을 포함할 수 있으며, 이때 사용자 단말은 전자단말기로 구현될 수 있다.According to an embodiment, the error detection device 10 may be implemented as an electronic terminal in which an application for performing an error detection method is installed, or may be implemented as a server or a server-client system. When the error detection device 10 is implemented as a server-client system, it may include a user terminal in which a client for interaction with a user is installed, wherein the user terminal may be implemented as an electronic terminal.

이때 전자단말기는, 사용자와의 인터랙션이 가능한 인터페이스를 포함할 수 있는 컴퓨터나 휴대용 단말기, 텔레비전, 웨어러블 디바이스(Wearable Device) 등으로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(desktop), 랩톱(laptop)등을 포함하고, 휴대용 단말기는 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, PCS(Personal Communication System), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), GSM(Global System for Mobile communications), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet), 스마트폰(Smart Phone), 모바일 WiMAX(Mobile Worldwide Interoperability for Microwave Access) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다. 또한, 텔레비전은 IPTV(Internet Protocol Television), 인터넷 TV(Internet Television), 지상파 TV, 케이블 TV 등을 포함할 수 있다. 나아가 웨어러블 디바이스는 예를 들어, 시계, 안경, 액세서리, 의복, 신발 등 인체에 직접 착용 가능한 타입의 정보처리장치로서, 직접 또는 다른 정보처리장치를 통해 네트워크를 경유하여 원격지의 서버에 접속하거나 타 단말과 연결될 수 있다. In this case, the electronic terminal may be implemented as a computer, a portable terminal, a television, a wearable device, or the like, which may include an interface capable of interacting with a user. Here, the computer includes, for example, a laptop equipped with a web browser (WEB Browser), a desktop (desktop), a laptop (laptop), and the like, and the portable terminal is, for example, a wireless communication device that guarantees portability and mobility. , PCS (Personal Communication System), PDC (Personal Digital Cellular), PHS (Personal Handyphone System), PDA (Personal Digital Assistant), GSM (Global System for Mobile communications), IMT (International Mobile Telecommunication) -2000, CDMA (Code All kinds of handhelds such as Division Multiple Access (2000), W-Code Division Multiple Access (W-CDMA), Wireless Broadband Internet (Wibro), Smart Phone, Mobile Worldwide Interoperability for Microwave Access (WiMAX), etc. (Handheld) -based wireless communication device. In addition, the television may include Internet Protocol Television (IPTV), Internet Television (TV), terrestrial TV, and cable TV. Furthermore, the wearable device is a type of information processing device that can be directly worn on the human body, for example, a watch, glasses, accessories, clothing, shoes, etc., to connect to a remote server or other terminal through a network directly or through another information processing device. And can be connected.

그리고 서버는 사용자와의 인터랙션을 위한 클라이언트가 설치된 전자단말기와 네트워크를 통해 통신이 가능한 컴퓨팅장치로 구현될 수 있으며, 데이터를 저장할 수 있는 저장장치를 포함할 수 있거나 또는 제 3 의 서버를 통해 데이터를 저장할 수도 있다.In addition, the server may be implemented as a computing device capable of communicating through a network with an electronic terminal on which a client is installed for interaction with a user, and may include a storage device capable of storing data, or transmit data through a third server. You can also save.

구체적인 구성은 도 1을 참고하여 설명한다. 도 1을 참고하면, 일 실시예에 따른 오류 검출 장치(10)는 입출력부(11), 저장부(12), 통신부(13) 및 제어부(14)를 포함할 수 있다.A specific configuration will be described with reference to FIG. 1. Referring to FIG. 1, the error detection device 10 according to an embodiment may include an input / output unit 11, a storage unit 12, a communication unit 13, and a control unit 14.

일 실시예에 따른 입출력부(11)는 사용자로부터 입력을 수신하기 위한 입력부와, 작업의 수행 결과 또는 오류 검출 장치(10)의 상태 등의 정보를 표시하기 위한 출력부를 포함할 수 있다. 예를 들어, 입출력부(11)는 사용자 입력을 수신하는 조작 패널(operation panel) 및 화면을 표시하는 디스플레이 패널(display panel) 등을 포함할 수 있다.The input / output unit 11 according to an embodiment may include an input unit for receiving input from a user, and an output unit for displaying information such as a result of performing a job or a state of the error detection device 10. For example, the input / output unit 11 may include an operation panel for receiving user input, a display panel for displaying the screen, and the like.

구체적으로, 입력부는 촬영 장치, 키보드, 물리 버튼, 터치 스크린, 카메라 또는 마이크 등과 같이 다양한 형태의 사용자 입력을 수신할 수 있는 장치들을 포함할 수 있다. 또한, 출력부는 디스플레이 패널, 스피커 또는 헤드셋 등을 포함할 수 있다. 다만, 이에 한정되지 않고 입출력부(11)는 다양한 입출력을 지원하는 구성을 포함할 수 있다.Specifically, the input unit may include devices capable of receiving various types of user input, such as a photographing device, a keyboard, a physical button, a touch screen, a camera, or a microphone. In addition, the output unit may include a display panel, a speaker or a headset. However, the present invention is not limited thereto, and the input / output unit 11 may include a configuration supporting various input / output.

한편, 저장부(12)는 실시예에 따른 오류 검출 방법을 수행하기 위한 데이터를 저장할 수 있다. 가령, 오류 검출 방법을 수행하기 위한 입력 데이터를 저장할 수 있고, 오류 검출 방법의 수행 결과로서 출력 데이터를 저장할 수 있다. 예를 들면, 스마트 디바이스 애플리케이션의 정상 장면을 학습하기 위하여 정상 장면을 저장한 데이터베이스를 포함할 수 있다.Meanwhile, the storage unit 12 may store data for performing an error detection method according to an embodiment. For example, input data for performing the error detection method may be stored, and output data may be stored as a result of performing the error detection method. For example, a database storing the normal scene may be included in order to learn the normal scene of the smart device application.

한편, 통신부(13)는 다른 전자단말기 또는 네트워크와 유무선 통신을 수행할 수 있다. 이를 위해, 통신부(13)는 다양한 유무선 통신 방법 중 적어도 하나를 지원하는 통신 모듈을 포함할 수 있다. 예를 들어, 통신 모듈은 칩셋(chipset)의 형태로 구현될 수 있다.Meanwhile, the communication unit 13 may perform wired / wireless communication with other electronic terminals or networks. To this end, the communication unit 13 may include a communication module supporting at least one of various wired and wireless communication methods. For example, the communication module may be implemented in the form of a chipset.

이때 통신부(13)가 지원하는 무선 통신은, 예를 들어 Wi-Fi(Wireless Fidelity), Wi-Fi Direct, 블루투스(Bluetooth), UWB(Ultra Wide Band) 또는 NFC(Near Field Communication) 등일 수 있다. 또한, 통신부(13)가 지원하는 유선 통신은, 예를 들어 USB 또는 HDMI(High Definition Multimedia Interface) 등일 수 있다.At this time, the wireless communication supported by the communication unit 13 may be, for example, Wi-Fi (Wireless Fidelity), Wi-Fi Direct, Bluetooth (Bluetooth), UWB (Ultra Wide Band), or NFC (Near Field Communication). In addition, the wired communication supported by the communication unit 13 may be, for example, USB or High Definition Multimedia Interface (HDMI).

한편, 제어부(14)는 오류 검출 장치(10)의 전체적인 동작을 제어하며, CPU 등과 같은 프로세서를 포함할 수 있다. 이때, 제어부(14)는 심층 학습 등 오류 검출 방법을 원활히 수행하기 위하여 가속기, 예를 들어 GPU를 포함할 수 있다.Meanwhile, the control unit 14 controls the overall operation of the error detection device 10 and may include a processor such as a CPU. At this time, the control unit 14 may include an accelerator, for example, a GPU, to smoothly perform an error detection method such as deep learning.

실시예에 따르면, 제어부(14)는 스마트 디바이스 애플리케이션(이하, 애플리케이션)의 오류를 검출하기 위하여 애플리케이션의 정상 장면을 학습할 수 있다. 실시예에 따라, 정상 장면은 저장부(12)의 데이터베이스에 저장될 수 있다.According to an embodiment, the controller 14 may learn a normal scene of the application in order to detect an error of the smart device application (hereinafter, an application). According to an embodiment, the normal scene may be stored in the database of the storage unit 12.

이때, 제어부(14)는 단일 클래스 분류기법(One-class classification)에 기초한 심층 학습으로 정상 장면을 학습할 수 있다. 예를 들면, 제어부(14)는 오토인코더(Autoencoder)에 기반하여 정상 장면을 심층 학습할 수 있다. 이를 통해, 제어부(14)는 장면의 오류를 판단하기 위한 정상 판단 모델을 구축할 수 있다.At this time, the control unit 14 may learn a normal scene by deep learning based on one-class classification. For example, the controller 14 may deeply learn a normal scene based on an autoencoder. Through this, the control unit 14 can build a normal judgment model for determining an error in the scene.

또한, 제어부(14)는 애플리케이션의 오류를 검출하기 위하여 애플리케이션의 구동 장면을 획득할 수 있다.In addition, the control unit 14 may acquire a driving scene of the application in order to detect an error of the application.

이를 위해, 제어부(14)는 애플리케이션을 설정에 따라 구동하고, 구동에 따라 생성되는 구동 장면을 획득할 수 있다. 이때, 제어부(14)는 애플리케이션을 실행하고, 진행시켜 출력되는 구동 장면을 순차적으로 획득할 수 있다. 또한, 실시예에 따라 하나 이상의 애플리케이션을 구동하여 하나 이상의 애플리케이션 각각에 대한 구동 장면을 획득할 수 있다.To this end, the controller 14 may drive the application according to the setting and obtain a driving scene generated according to driving. At this time, the control unit 14 may sequentially execute the application and sequentially acquire a driving scene that is output. Also, according to an embodiment, one or more applications may be driven to obtain a driving scene for each of the one or more applications.

여기서 설정은, 애플리케이션이 적용될 스마트 디바이스의 설정을 포함할 수 있다. 실시예에 따라 하나 이상의 스마트 디바이스의 설정이 서로 다를 때 스마트 디바이스 각각의 설정에 따라 애플리케이션을 구동하고, 획득된 애플리케이션의 구동 장면을 각 스마트 디바이스의 식별정보와 매칭하여 저장할 수 있다.Here, the setting may include a setting of a smart device to which the application is applied. According to an embodiment, when settings of one or more smart devices are different, an application may be driven according to each setting of the smart devices, and the driving scene of the obtained application may be matched and stored with identification information of each smart device.

이때, 설정은 스마트 디바이스의 해상도에 따른 설정을 포함할 수 있다. 이 경우, 제어부(14)는 하나 이상의 해상도에 따라 애플리케이션을 구동할 수 있다.At this time, the setting may include a setting according to the resolution of the smart device. In this case, the controller 14 may drive the application according to one or more resolutions.

또한, 제어부(14)는 획득한 구동 장면의 오류 여부를 판단하되, 정상 장면의 학습에 기초하여 구동 장면의 오류 여부를 판단할 수 있다. 가령, 제어부(14)는 심층 학습에 의해 구축된 정상 판단 모델에 기초하여 구동 장면의 오류 여부를 판단할 수 있다.In addition, the controller 14 may determine whether the obtained driving scene has an error, but may determine whether the driving scene has an error based on the learning of the normal scene. For example, the control unit 14 may determine whether the driving scene has an error based on the normal determination model constructed by deep learning.

즉, 제어부(14)는 정상 장면의 심층 학습에 기초하여 구동 장면의 오류 여부를 판단할 수 있다. 이때, 제어부(14)는 판단에 따라 정상 장면으로 분류된 구동 장면을, 저장부(12)의 데이터베이스에 저장하여 학습을 위한 정상 장면의 보유량을 늘릴 수 있다.That is, the control unit 14 may determine whether the driving scene has an error based on deep learning of the normal scene. At this time, the controller 14 may store the driving scene classified as the normal scene according to the judgment in the database of the storage unit 12 to increase the retention amount of the normal scene for learning.

또한, 제어부(14)는 정상 장면으로 판단되지 않는 구동 장면을 분류하여 정상 장면과 별도로 저장할 수 있다. 실시예에 따라 정상 장면으로 판단되지 않은 구동 장면을 사용자, 예를 들어, 애플리케이션의 오류를 검출하고자 하는 관리자에게 제공할 수 있다. 가령, 정상 장면으로 판단되지 않은 구동 장면에 대한 보고 메시지를 생성하거나 생성한 보고 메시지를 관리자 단말로 전송할 수 있다.In addition, the control unit 14 may classify a driving scene that is not determined to be a normal scene and store it separately from the normal scene. According to an embodiment, a driving scene not determined as a normal scene may be provided to a user, for example, an administrator who wants to detect an error in an application. For example, a report message for a driving scene that is not determined to be a normal scene may be generated or a generated report message may be transmitted to the manager terminal.

실시예에 따르면, 제어부(14)는 정상 장면으로 판단되지 않은 구동 장면을 관리자에게 제공하고, 제공된 구동 장면 중 정상 장면을 관리자로부터 선택 받아 정상 장면 학습을 위한 데이터베이스에 저장할 수 있다. 이와 같은 과정을 반복함으로써 정상 판단 모델의 신뢰도를 향상시킬 수 있다.According to an embodiment, the control unit 14 may provide a driving scene that is not determined to be a normal scene to the administrator, select a normal scene from among the provided driving scenes, and store it in a database for learning a normal scene. By repeating this process, it is possible to improve the reliability of the normal judgment model.

또한, 제어부(14)는 정상 장면으로 판단되지 않은 구동 장면을 오류의 정도에 따라 분류할 수 있다. 가령, 구동 장면이 오류를 포함할 확률, 즉, 오류 확률에 따라 정상 장면으로 판단되지 않은 구동 장면을 하나 이상의 카테고리로 분류하고, 분류된 카테고리를 선택적으로 관리자에게 제공할 수 있다. 예를 들면, 오류 확률을 소정 구간으로 나누어 구동 장면을 분류하고, 관리자의 선택에 따라 소정 구간의 오류 확률에 포함된 구동 장면을 제공할 수 있다. 또는, 소정 확률 미만의 구동 장면을 관리자에게 제공함으로써 관리자의 작업량을 줄일 수 있다.In addition, the control unit 14 may classify a driving scene not determined as a normal scene according to the degree of error. For example, a driving scene that is not determined to be a normal scene may be classified into one or more categories according to a probability that the driving scene includes an error, that is, an error probability, and the categorized category may be selectively provided to the manager. For example, a driving scene may be classified by dividing an error probability into a predetermined section, and a driving scene included in an error probability of a predetermined section may be provided according to the administrator's selection. Alternatively, the amount of work of the manager can be reduced by providing the manager with a driving scene having a predetermined probability.

실시예에 따르면, 제어부(14)는 구동 장면의 오류 여부를 판단함에 있어서, 복수의 GPU에 작업을 할당하는 스케줄을 생성하고, 생성된 스케줄에 따라 구동 장면의 오류 여부를 판단할 수 있다.According to an embodiment, in determining whether the driving scene has an error, the control unit 14 may generate a schedule for allocating tasks to a plurality of GPUs, and determine whether the driving scene has an error according to the generated schedule.

예를 들어, 제어부(14)는 획득한 구동 장면 각각에 대한 작업이 하나의 GPU에 할당되도록 스케줄링할 수 있다. 즉, 하나의 GPU에서 하나의 구동 장면에 대한 작업을 처리하도록 스케줄링할 수 있다.For example, the controller 14 may schedule a task for each of the acquired driving scenes to be allocated to one GPU. That is, it can be scheduled to process a task for one driving scene on one GPU.

이때, 제어부(14)는 구동 장면의 획득 순서에 따라 작업을 할당할 수 있다. 예를 들어, 획득된 순서대로 각 구동 장면에 대한 작업을 GPU에 할당하여 오류 여부 판단을 수행하되, 작업이 완료된 GPU가 발생하면, 작업이 완료된 GPU에 대하여 대기 중인 작업 중 구동 장면의 획득 순서가 빠른 순으로 작업을 할당하도록 스케줄링할 수 있다. 즉, 애플리케이션의 구동 장면(i-1)에 대한 작업이 할당되어 수행 중에 작업이 완료된 GPU가 발생하면, 작업이 완료된 GPU에 대하여 구동 장면(i)에 대한 작업을 할당하여 수행하도록 함으로써 연관성 있는 장면에 대한 작업을 순차적으로 진행하게 할 수 있다. 이를 통해 작업의 효율을 높일 수 있다.At this time, the control unit 14 may allocate tasks according to the order of acquiring the driving scene. For example, the task for each driving scene is assigned to the GPU in the obtained order to determine whether or not there is an error, but when a GPU has been completed, the order of acquisition of the driving scene among the tasks waiting for the GPU with the completed task is determined. You can schedule tasks to be allocated in quick order. In other words, if a task is performed on the driving scene (i-1) of the application and the GPU is completed while performing the task, the related scene is assigned by performing the task for the driving scene (i) on the completed GPU. You can make the work on. This can increase the efficiency of the work.

또한, 제어부(14)는 하나 이상의 애플리케이션에 대한 오류 여부를 순차적으로 판단할 수 있다. 가령, 하나의 애플리케이션의 구동 장면에 대한 판단이 완료되면, 작업이 완료된 GPU에 대하여 타애플리케이션의 구동 장면에 대한 작업을 할당할 수 있다. 즉, 하나의 애플리케이션에 대응되는 구동 장면(i-2, i-1, i, i+1, i+2) 모두에 대한 작업이 획득 순서에 따라 할당되어 진행 중에 작업이 완료된 GPU가 발생함을 감지하면, 다음 애플리케이션에 대응되는 구동 장면(j-2, j-1, j, j+1, j+2)에 대한 작업을 구동 장면의 획득 순서에 따라 순차적으로 할당하여 오류 판단을 수행할 수 있다.Also, the control unit 14 may sequentially determine whether or not an error has occurred for one or more applications. For example, when the determination of the driving scene of one application is completed, a job on the driving scene of another application may be allocated to the GPU on which the operation is completed. That is, tasks for all of the driving scenes (i-2, i-1, i, i + 1, i + 2) corresponding to one application are allocated according to the acquisition order, so that the GPU is completed during the operation. Upon detection, an error determination can be performed by sequentially assigning tasks for the driving scenes (j-2, j-1, j, j + 1, j + 2) corresponding to the next application according to the order of acquisition of the driving scenes have.

한편, 도 2 내지 도 4는 오류 검출 장치(10)가 수행하는 오류 검출 방법을 설명하기 위한 순서도들이다. 도 2 내지 도 4에 도시된 실시예에 따른 오류 검출 방법은 도 1과 관련한 실시예에 따른 오류 검출 장치(10)에서 시계열적으로 처리되는 단계들을 포함한다. 따라서, 이하에서 생략된 내용이라고 하더라도 도 1과 관련한 실시예에 따른 오류 검출 장치(10)에 관하여 이상에서 기술한 내용은 도 2 내지 도 4에 도시된 실시예들에 따른 오류 검출 방법에도 적용될 수 있다.Meanwhile, FIGS. 2 to 4 are flowcharts for describing an error detection method performed by the error detection device 10. The error detection method according to the embodiment illustrated in FIGS. 2 to 4 includes steps that are processed in time series in the error detection device 10 according to the embodiment related to FIG. 1. Therefore, even if it is omitted below, the contents described above with respect to the error detection apparatus 10 according to the embodiment of FIG. 1 may also be applied to the error detection method according to the embodiments illustrated in FIGS. 2 to 4. have.

도 2를 참고하면, 오류 검출 장치(10)는 애플리케이션의 정상 장면을 학습할 수 있다(S21). 이때, 오류 검출 장치(10)는 단일 클래스 분류기법에 기초하여 정상 장면을 심층 학습할 수 있다.Referring to FIG. 2, the error detection device 10 may learn a normal scene of the application (S21). At this time, the error detection device 10 may deeply learn a normal scene based on a single class classification technique.

또한, 오류 검출 장치(10)는 애플리케이션의 구동 장면을 획득할 수 있다(S22). 이때, 도 3을 참고하면, 오류 검출 장치(10)는 구동 장면을 획득함에 있어서, 애플리케이션을 설정에 따라 구동하고(S31), 구동에 따라 생성되는 구동 장면을 획득할 수 있다(S32). In addition, the error detection device 10 may acquire a driving scene of the application (S22). In this case, referring to FIG. 3, the error detection device 10 may acquire an operation scene generated by driving the application according to a setting (S31) and an application when acquiring a driving scene (S32).

실시예에 따르면, 설정은 애플리케이션이 적용될 스마트 디바이스의 설정을 포함할 수 있다. 예를 들어, 설정은 해상도를 포함할 수 있으며, 이때, 오류 검출 장치(10)는 하나 이상의 해상도에 따라 애플리케이션을 구동하고, 구동에 따라 생성되는 구동 장면을 획득할 수 있다.According to an embodiment, the setting may include the setting of the smart device to which the application is applied. For example, the setting may include a resolution, and in this case, the error detection device 10 may drive an application according to one or more resolutions, and obtain a driving scene generated according to driving.

또한, 오류 검출 장치(10)는 획득한 구동 장면의 오류 여부를 S21에서 수행한 학습에 기초하여 판단할 수 있다(S23).In addition, the error detection device 10 may determine whether the obtained driving scene is in error based on learning performed in S21 (S23).

실시예에 따르면, 오류 검출 장치(10)는 획득한 구동 장면 각각을 하나의 GPU에 할당하는 스케줄을 생성하고, 생성된 스케줄에 따라 구동 장면의 오류를 판단할 수 있다. 즉, 오류 검출 장치(10)는 하나의 GPU에 하나의 구동 장면에 대한 작업을 할당하는 스케줄을 생성할 수 있다.According to an embodiment, the error detection device 10 may generate a schedule for assigning each of the obtained driving scenes to one GPU, and determine an error of the driving scenes according to the generated schedule. That is, the error detection device 10 may generate a schedule for allocating tasks for one driving scene to one GPU.

또한, 오류 검출 장치(10)는 스케줄을 생성하되, 구동 장면의 획득 순서에 따라 작업을 할당하는 스케줄을 생성할 수 있다. 가령, 구동 장면을 획득한 순서대로 구동 장면에 대한 작업을 GPU 각각에 할당하되, 작업이 완료된 GPU가 발생하면, 작업이 완료된 GPU에 대하여 대기 중인 구동 장면에 대한 작업을 획득 순서대로 할당할 수 있다.In addition, the error detection device 10 may generate a schedule, but may generate a schedule for allocating tasks according to the order of acquisition of the driving scene. For example, in the order in which the driving scenes are acquired, tasks for the driving scenes are assigned to each GPU, but when a GPU is completed, tasks for the driving scenes waiting for the GPUs in which the tasks are completed may be assigned in the order of acquisition. .

그리고 오류 검출 장치(10)는 하나의 애플리케이션에 대한 판단이 완료되면, 작업이 완료된 GPU에 대하여 타애플리케이션의 구동 장면에 대한 작업을 할당할 수 있다.In addition, when the determination of one application is completed, the error detection device 10 may allocate a job for a driving scene of another application to the GPU on which the job is completed.

한편, 도 4를 참고하면, 오류 검출 장치(10)는 구동 장면의 오류 여부를 판단하고, 장상 장면으로 판단된 구동 장면을 정상 장면 학습을 위한 데이터베이스에 저장할 수 있다(S41).Meanwhile, referring to FIG. 4, the error detection device 10 may determine whether the driving scene is an error, and store the determined driving scene as a long-term scene in a database for learning a normal scene (S41).

이상의 실시예들에서 사용되는 '~부'라는 용어는 소프트웨어 또는 FPGA(field programmable gate array) 또는 ASIC 와 같은 하드웨어 구성요소를 의미하며, '~부'는 어떤 역할들을 수행한다. 그렇지만 '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '~부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램특허 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들, 및 변수들을 포함한다.The term '~ unit' used in the above embodiments means software or hardware components such as a field programmable gate array (FPGA) or an ASIC, and '~ unit' performs certain roles. However, '~ wealth' is not limited to software or hardware. The '~ unit' may be configured to be in an addressable storage medium or may be configured to reproduce one or more processors. Thus, as an example, '~ unit' refers to components such as software components, object-oriented software components, class components and task components, processes, functions, attributes, and procedures. , Subroutines, segments of program patent code, drivers, firmware, microcode, circuitry, data, database, data structures, tables, arrays, and variables.

구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로부터 분리될 수 있다.The functions provided within the components and '~ units' may be combined into a smaller number of components and '~ units', or separated from additional components and '~ units'.

뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU 들을 재생시키도록 구현될 수도 있다.In addition, the components and '~ unit' may be implemented to play one or more CPUs in the device or secure multimedia card.

도 2 내지 도 4를 통해 설명된 실시예들에 따른 오류 검출 방법은 컴퓨터에 의해 실행 가능한 명령어 및 데이터를 저장하는, 컴퓨터로 판독 가능한 매체의 형태로도 구현될 수 있다. 이때, 명령어 및 데이터는 프로그램 코드의 형태로 저장될 수 있으며, 프로세서에 의해 실행되었을 때, 소정의 프로그램 모듈을 생성하여 소정의 동작을 수행할 수 있다. 또한, 컴퓨터로 판독 가능한 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터로 판독 가능한 매체는 컴퓨터 기록 매체일 수 있는데, 컴퓨터 기록 매체는 컴퓨터 판독 가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함할 수 있다. 예를 들어, 컴퓨터 기록 매체는 HDD 및 SSD 등과 같은 마그네틱 저장 매체, CD, DVD 및 블루레이 디스크 등과 같은 광학적 기록 매체, 또는 네트워크를 통해 접근 가능한 서버에 포함되는 메모리일 수 있다.The error detection method according to the embodiments described with reference to FIGS. 2 to 4 may also be implemented in the form of a computer-readable medium storing instructions and data executable by a computer. At this time, instructions and data may be stored in the form of program code, and when executed by a processor, a predetermined program module may be generated to perform a predetermined operation. In addition, the computer-readable medium can be any available medium that can be accessed by a computer, and includes both volatile and nonvolatile media, removable and non-removable media. In addition, the computer-readable medium may be a computer recording medium, which is volatile and non-volatile implemented in any method or technology for storage of information such as computer-readable instructions, data structures, program modules or other data. Volatile, removable and non-removable media. For example, the computer recording medium may be a magnetic storage medium such as HDD and SSD, an optical recording medium such as CD, DVD and Blu-ray disk, or a memory included in a server accessible through a network.

또한 도 2 내지 도 4를 통해 설명된 실시예들에 따른 오류 검출 방법은 컴퓨터에 의해 실행 가능한 명령어를 포함하는 컴퓨터 프로그램(또는 컴퓨터 프로그램 제품)으로 구현될 수도 있다. 컴퓨터 프로그램은 프로세서에 의해 처리되는 프로그래밍 가능한 기계 명령어를 포함하고, 고레벨 프로그래밍 언어(High-level Programming Language), 객체 지향 프로그래밍 언어(Object-oriented Programming Language), 어셈블리 언어 또는 기계 언어 등으로 구현될 수 있다. 또한 컴퓨터 프로그램은 유형의 컴퓨터 판독가능 기록매체(예를 들어, 메모리, 하드디스크, 자기/광학 매체 또는 SSD(Solid-State Drive) 등)에 기록될 수 있다. Also, the error detection method according to the embodiments described with reference to FIGS. 2 to 4 may be implemented as a computer program (or computer program product) including instructions executable by a computer. The computer program includes programmable machine instructions processed by a processor and may be implemented in a high-level programming language, object-oriented programming language, assembly language, or machine language. . In addition, the computer program may be recorded on a tangible computer-readable recording medium (eg, memory, hard disk, magnetic / optical medium, or solid-state drive (SSD), etc.).

따라서 도 2 내지 도 4를 통해 설명된 실시예들에 따른 오류 검출 방법은 상술한 바와 같은 컴퓨터 프로그램이 컴퓨팅 장치에 의해 실행됨으로써 구현될 수 있다. 컴퓨팅 장치는 프로세서와, 메모리와, 저장 장치와, 메모리 및 고속 확장포트에 접속하고 있는 고속 인터페이스와, 저속 버스와 저장 장치에 접속하고 있는 저속 인터페이스 중 적어도 일부를 포함할 수 있다. 이러한 성분들 각각은 다양한 버스를 이용하여 서로 접속되어 있으며, 공통 머더보드에 탑재되거나 다른 적절한 방식으로 장착될 수 있다.Therefore, the error detection method according to the embodiments described with reference to FIGS. 2 to 4 may be implemented by executing the computer program as described above by the computing device. The computing device may include at least some of a processor, a memory, a storage device, a high-speed interface connected to the memory and a high-speed expansion port, and a low-speed interface connected to the low-speed bus and the storage device. Each of these components is connected to each other using various buses, and can be mounted on a common motherboard or mounted in other suitable ways.

여기서 프로세서는 컴퓨팅 장치 내에서 명령어를 처리할 수 있는데, 이런 명령어로는, 예컨대 고속 인터페이스에 접속된 디스플레이처럼 외부 입력, 출력 장치상에 GUI(Graphic User Interface)를 제공하기 위한 그래픽 정보를 표시하기 위해 메모리나 저장 장치에 저장된 명령어를 들 수 있다. 다른 실시예로서, 다수의 프로세서 및(또는) 다수의 버스가 적절히 다수의 메모리 및 메모리 형태와 함께 이용될 수 있다. 또한 프로세서는 독립적인 다수의 아날로그 및(또는) 디지털 프로세서를 포함하는 칩들이 이루는 칩셋으로 구현될 수 있다.Here, the processor is capable of processing instructions within the computing device, such as to display graphical information for providing a graphical user interface (GUI) on an external input or output device, such as a display connected to a high-speed interface. Examples are commands stored in memory or storage devices. In other embodiments, multiple processors and / or multiple buses may be used in conjunction with multiple memories and memory types as appropriate. Also, the processor may be implemented as a chipset formed by chips including a plurality of independent analog and / or digital processors.

또한 메모리는 컴퓨팅 장치 내에서 정보를 저장한다. 일례로, 메모리는 휘발성 메모리 유닛 또는 그들의 집합으로 구성될 수 있다. 다른 예로, 메모리는 비휘발성 메모리 유닛 또는 그들의 집합으로 구성될 수 있다. 또한 메모리는 예컨대, 자기 혹은 광 디스크와 같이 다른 형태의 컴퓨터 판독 가능한 매체일 수도 있다.Memory also stores information within computing devices. In one example, the memory may consist of volatile memory units or a collection thereof. As another example, the memory may consist of non-volatile memory units or a collection thereof. The memory may also be other forms of computer-readable media, such as magnetic or optical disks.

그리고 저장장치는 컴퓨팅 장치에게 대용량의 저장공간을 제공할 수 있다. 저장 장치는 컴퓨터 판독 가능한 매체이거나 이런 매체를 포함하는 구성일 수 있으며, 예를 들어 SAN(Storage Area Network) 내의 장치들이나 다른 구성도 포함할 수 있고, 플로피 디스크 장치, 하드 디스크 장치, 광 디스크 장치, 혹은 테이프 장치, 플래시 메모리, 그와 유사한 다른 반도체 메모리 장치 혹은 장치 어레이일 수 있다.And the storage device can provide a large storage space for the computing device. The storage device may be a computer-readable medium or a configuration including such a medium, and may include, for example, devices within a storage area network (SAN) or other configurations, and may include floppy disk devices, hard disk devices, optical disk devices, Or a tape device, flash memory, or other similar semiconductor memory device or device array.

상술된 실시예들은 예시를 위한 것이며, 상술된 실시예들이 속하는 기술분야의 통상의 지식을 가진 자는 상술된 실시예들이 갖는 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 상술된 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The above-described embodiments are for illustration only, and those having ordinary knowledge in the technical field to which the above-described embodiments belong can easily be modified into other specific forms without changing the technical idea or essential features of the above-described embodiments. You will understand. Therefore, it should be understood that the above-described embodiments are illustrative in all respects and not restrictive. For example, each component described as a single type may be implemented in a distributed manner, and similarly, components described as distributed may be implemented in a combined form.

본 명세서를 통해 보호 받고자 하는 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태를 포함하는 것으로 해석되어야 한다.The scope to be protected through the present specification is indicated by the claims, which will be described later, rather than the detailed description, and should be interpreted to include all modified or modified forms derived from the meaning and scope of the claims and equivalent concepts thereof. .

10: 오류 검출 장치 11: 입출력부
12: 저장부 13: 통신부
14: 제어부
10: error detection device 11: input and output unit
12: storage unit 13: communication unit
14: control

Claims (15)

스마트 디바이스 애플리케이션의 오류 검출 장치가 수행하는 장면 기반 오류 검출 방법에 있어서,
상기 애플리케이션의 정상 장면을 학습하여 정상 판단 모델을 구축하는 단계;
상기 애플리케이션이 적용될 스마트 디바이스 각각의 설정에 따라 상기 애플리케이션을 구동하여 상기 애플리케이션의 구동 장면을 획득하는 단계; 및
획득한 상기 구동 장면의 오류 여부를 상기 정상 판단 모델에 기초하여 판단하는 단계를 포함하는, 오류 검출 방법.
In the scene-based error detection method performed by the error detection device of the smart device application,
Building a normal judgment model by learning the normal scene of the application;
Obtaining a driving scene of the application by driving the application according to each setting of a smart device to which the application is applied; And
And determining whether the obtained driving scene is in error based on the normal determination model.
제1항에 있어서,
상기 학습하여 정상 판단 모델을 구축하는 단계는,
상기 정상 장면을 단일 클래스 분류기법에 따라 심층 학습하는 것을 특징으로 하는, 오류 검출 방법.
According to claim 1,
The step of building a normal judgment model by learning the above is
And deep learning the normal scene according to a single class classification technique.
삭제delete 제1항에 있어서,
상기 획득하는 단계는,
상기 애플리케이션을 하나 이상의 해상도에 따라 구동하는 것을 특징으로 하는, 오류 검출 방법.
According to claim 1,
The obtaining step,
The method for detecting an error, characterized in that the application is driven according to one or more resolutions.
제1항에 있어서,
상기 판단하는 단계는,
획득한 상기 구동 장면 각각을 하나의 GPU에 할당하는 스케줄을 생성하고, 생성된 스케줄에 따라 상기 구동 장면의 오류 여부를 판단하되, 상기 구동 장면의 획득 순서에 따라 작업이 완료된 GPU에 대하여 상기 구동 장면 중 어느 하나에 대한 작업을 할당하는 것을 특징으로 하는, 오류 검출 방법.
According to claim 1,
The determining step,
A schedule for assigning each of the obtained driving scenes to one GPU is generated, and whether the driving scene is an error is determined according to the generated schedule. Characterized in that, assigning a task for any one of the error detection method.
제1항에 있어서,
상기 판단하는 단계는,
상기 구동 장면에 대한 판단이 완료되면, 타애플리케이션의 구동 장면의 오류 여부를 판단하는 단계를 더 포함하는, 오류 검출 방법.
According to claim 1,
The determining step,
When the determination of the driving scene is completed, further comprising determining whether the driving scene of the other application is in error, the error detection method.
제1항에 있어서,
정상 장면으로 판단된 구동 장면을, 상기 학습을 위한 데이터베이스에 저장하는 단계를 더 포함하는, 오류 검출 방법.
According to claim 1,
And storing the driving scene determined as the normal scene in the database for learning.
제1항에 기재된 방법을 수행하는 프로그램이 기록된 컴퓨터 판독 가능한 기록 매체.A computer-readable recording medium on which a program for performing the method according to claim 1 is recorded. 오류 검출 장치에 의해 수행되며, 제1항에 기재된 방법을 수행하기 위해 매체에 저장된 컴퓨터 프로그램.A computer program carried out by an error detection device and stored in a medium to perform the method according to claim 1. 스마트 디바이스 애플리케이션의 정상 장면을 저장하는 저장부; 및
상기 정상 장면을 학습하여 정상 판단 모델을 구축하고, 상기 애플리케이션이 적용될 스마트 디바이스 각각의 설정에 따라 상기 애플리케이션의 구동 장면을 획득하여 획득한 상기 구동 장면의 오류 여부를 상기 정상 판단 모델에 기초하여 판단하는 제어부를 포함하는, 오류 검출 장치.
A storage unit that stores a normal scene of the smart device application; And
Building a normal judgment model by learning the normal scene, and determining whether an error of the driving scene obtained by acquiring the driving scene of the application is based on the normal judgment model according to each smart device to which the application is applied. An error detection device comprising a control unit.
제10항에 있어서,
상기 제어부는,
정상 장면을 학습하되, 상기 정상 장면을 단일 클래스 분류기법에 따라 심층 학습하는 것을 특징으로 하는, 오류 검출 장치.
The method of claim 10,
The control unit,
Learning the normal scene, characterized in that the deep learning according to a single class classification technique, the error detection device.
삭제delete 제10항에 있어서,
상기 제어부는,
상기 애플리케이션을 하나 이상의 해상도에 따라 구동하는 것을 특징으로 하는, 오류 검출 장치.
The method of claim 10,
The control unit,
The apparatus for detecting errors, characterized in that the application is driven according to one or more resolutions.
제10항에 있어서,
상기 제어부는,
획득한 상기 구동 장면 각각을 하나의 GPU에 할당하는 스케줄을 생성하고, 생성된 스케줄에 따라 상기 구동 장면의 오류 여부를 판단하되, 상기 구동 장면의 획득 순서에 따라 작업이 완료된 GPU에 대하여 상기 구동 장면 중 어느 하나에 대한 작업을 할당하는 것을 특징으로 하는, 오류 검출 장치.
The method of claim 10,
The control unit,
A schedule for assigning each of the obtained driving scenes to one GPU is generated, and whether the driving scene is an error is determined according to the generated schedule. Characterized in that it assigns a task to any one of, the error detection device.
제10항에 있어서,
상기 제어부는,
상기 구동 장면에 대한 판단이 완료되면, 타애플리케이션의 구동 장면의 오류 여부를 추가적으로 판단하는 것을 특징으로 하는, 오류 검출 장치.
The method of claim 10,
The control unit,
When the determination of the driving scene is completed, an error detection device characterized in that it further determines whether or not the driving scene of the other application is in error.
KR1020180027387A 2018-03-08 2018-03-08 Error detecting method based on scene for smart device application and apparatus thereof KR102108205B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180027387A KR102108205B1 (en) 2018-03-08 2018-03-08 Error detecting method based on scene for smart device application and apparatus thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180027387A KR102108205B1 (en) 2018-03-08 2018-03-08 Error detecting method based on scene for smart device application and apparatus thereof

Publications (2)

Publication Number Publication Date
KR20190106217A KR20190106217A (en) 2019-09-18
KR102108205B1 true KR102108205B1 (en) 2020-05-08

Family

ID=68070780

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180027387A KR102108205B1 (en) 2018-03-08 2018-03-08 Error detecting method based on scene for smart device application and apparatus thereof

Country Status (1)

Country Link
KR (1) KR102108205B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010113380A (en) * 2008-11-04 2010-05-20 Fujitsu Ltd Test base apparatus, test base program, test base method
JP2015203880A (en) * 2014-04-10 2015-11-16 凸版印刷株式会社 Application inspection system, application inspection device, and application inspection program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101460860B1 (en) * 2012-11-08 2014-11-17 경북대학교 산학협력단 GUI Test apparatus using test scenario model based on states and the method thereof

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010113380A (en) * 2008-11-04 2010-05-20 Fujitsu Ltd Test base apparatus, test base program, test base method
JP2015203880A (en) * 2014-04-10 2015-11-16 凸版印刷株式会社 Application inspection system, application inspection device, and application inspection program

Also Published As

Publication number Publication date
KR20190106217A (en) 2019-09-18

Similar Documents

Publication Publication Date Title
EP3308565B1 (en) Pairing of nearby devices using a synchronized cue signal
KR102277172B1 (en) Apparatus and method for selecting artificaial neural network
US20130024783A1 (en) Method and apparatus for providing data entry content to a remote environment
US9389706B2 (en) Method and system for mouse control over multiple screens
KR20200023207A (en) Method and apparatus for providing delivery information based on status of delivery man
US20170083280A1 (en) Display apparatus and method for controlling display apparatus thereof
KR102034661B1 (en) Method and apparatus for data quantization for neural network
US11887617B2 (en) Electronic device for speech recognition and control method thereof
KR102116395B1 (en) Apparatus and method for testing application
KR102038128B1 (en) Method and system for setting composition using object sensor
US20130322761A1 (en) System and Method to Determine Feature Candidate Pixels of an Image
KR102108205B1 (en) Error detecting method based on scene for smart device application and apparatus thereof
US11954569B2 (en) Techniques for parallel model training
US8949195B1 (en) Method and system for multi-dimensional logging for enterprise applications
US11621000B2 (en) Systems and methods for associating a voice command with a search image
KR20180120966A (en) Method and device for defect tracking
KR20230173343A (en) Device and method for testing application
KR102291385B1 (en) Apparatus and method for providing game update based on communication environment
KR102368193B1 (en) Method and apparatus for verifying voice recognition using voice synthesis
KR20230056498A (en) Apparatus and method for managing defects of apartment houses
KR20180120968A (en) Neural network execution apparatus for memory write reduction and method thereof
KR102086043B1 (en) Data analysis method and apparatus for sparse data
KR101996878B1 (en) Method for evaluating tool for analyzing program and apparatus thereof
US9917999B2 (en) System and method for capturing multi-media of an area of interest using multi-media capturing devices
KR101996879B1 (en) Method for symbolic execution and apparatus thereof

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant