WO2013077299A1 - 試験装置及び試験方法 - Google Patents

試験装置及び試験方法 Download PDF

Info

Publication number
WO2013077299A1
WO2013077299A1 PCT/JP2012/079997 JP2012079997W WO2013077299A1 WO 2013077299 A1 WO2013077299 A1 WO 2013077299A1 JP 2012079997 W JP2012079997 W JP 2012079997W WO 2013077299 A1 WO2013077299 A1 WO 2013077299A1
Authority
WO
WIPO (PCT)
Prior art keywords
scenario
mobile terminal
test apparatus
unit
device mounted
Prior art date
Application number
PCT/JP2012/079997
Other languages
English (en)
French (fr)
Inventor
矢崎 英俊
浅野 浩一
武寿 高橋
民 若林
Original Assignee
株式会社 エヌ・ティ・ティ・ドコモ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社 エヌ・ティ・ティ・ドコモ filed Critical 株式会社 エヌ・ティ・ティ・ドコモ
Priority to EP12851238.1A priority Critical patent/EP2784679A4/en
Priority to CN201280056947.3A priority patent/CN103946808B/zh
Priority to US14/240,756 priority patent/US9298594B2/en
Publication of WO2013077299A1 publication Critical patent/WO2013077299A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/36Preventing errors by testing or debugging software
    • G06F11/3668Software testing
    • G06F11/3672Test management
    • G06F11/3676Test management for coverage analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/36Preventing errors by testing or debugging software
    • G06F11/362Software debugging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/36Preventing errors by testing or debugging software
    • G06F11/3664Environments for testing or debugging software
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/36Preventing errors by testing or debugging software
    • G06F11/3668Software testing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/36Preventing errors by testing or debugging software
    • G06F11/3668Software testing
    • G06F11/3672Test management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/36Preventing errors by testing or debugging software
    • G06F11/3668Software testing
    • G06F11/3672Test management
    • G06F11/3688Test management for test execution, e.g. scheduling of test suites
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Definitions

  • the present invention relates to a mobile terminal test apparatus.
  • the operation procedure has become complicated due to the advanced functionality of mobile terminals.
  • the number of operations for executing a certain function is also increasing.
  • the capacity of software stored in mobile terminals is also increasing.
  • the number of defects is also increasing. It is virtually impossible to detect all of these defects in advance. For this reason, evaluation of software installed in a mobile terminal is performed.
  • an evaluation method using an automatic evaluation tool is known.
  • a predetermined operation procedure is incorporated in the software as one of the operation methods of the software installed in the mobile terminal to be evaluated. It is said.
  • a method for evaluating software using an automatic evaluation tool it is necessary that a user can use a desired function by performing an operation of pressing down a menu button or an operation of pressing down a numeric keypad or the like. It is.
  • the method of evaluating software with an automatic evaluation tool includes functional methods.
  • a specific function of the mobile terminal is evaluated by a predetermined operation procedure.
  • By evaluating the specific function it is possible to confirm whether the specific function is functioned by software installed in the mobile terminal according to the requested specification.
  • a process corresponding to pressing down a certain icon displayed on the touch panel may be executed according to a certain scenario.
  • a region of a certain icon to be selected is designated, and a process of pressing down a certain position included in the region is executed by the automatic evaluation tool.
  • Patent Document 1 For example, a method for performing nonlinear correction of a touch screen is known (for example, see Patent Document 1).
  • the function to be evaluated may not be executed with the same operation.
  • the size and resolution of the output screen may be different for each mobile terminal (for each device). That is, the mounted device may be different for each mobile terminal (each device). Depending on the device, the screen size and resolution differ for touch panel input.
  • an operation command including a command for designating a predetermined position on the display screen using coordinates is often created.
  • an operation command including a command for designating a predetermined position on the display screen using XY coordinates is created.
  • a scenario created for evaluating a certain function also includes an operation command including a command for designating a predetermined position on the display screen using coordinates.
  • a scenario created once depends on the device, it may not be used on another mobile terminal (device). This is because the location (XY coordinate) where the component is placed may differ depending on the size and resolution of the screen. This is because the scenario may include an operation command created based on the arrangement coordinates of each software component, such as a button for operating a specific function.
  • the scenario created by the automatic evaluation tool is less reusable on another device except for the device to be created.
  • the resolution of the touch panel of the mobile terminal is different, at least one of the horizontal coordinate and the vertical coordinate of the icon arranged on the touch panel may be different. Accordingly, when the process for starting the same application is executed and the area of the icon to be selected is designated, if the area is designated by coordinates, a different area may be designated.
  • the present invention has been made in view of the above-described problems, and an object thereof is to test a function by software installed in a mobile terminal regardless of a device included in the mobile terminal.
  • This test equipment A test apparatus for evaluating the operation of software installed in a mobile terminal, A scenario setting unit for setting a scenario including operation information for causing a mobile terminal to execute a function to be operated; An operation determination unit that determines whether an operation represented by operation information included in a scenario set by the scenario setting unit is affected by a device mounted on the mobile terminal; An operation target conversion unit that converts an operation determined by the operation determination unit to be affected by the device mounted on the mobile terminal according to the device mounted on the mobile terminal; A scenario execution unit that executes a scenario set by the scenario setting unit in accordance with the operation converted by the operation target conversion unit; And a scenario execution result determination unit that determines whether or not the execution result of the scenario executed by the scenario execution unit is the same as a result assumed in advance.
  • the operation determination unit is connected to the mobile terminal. It may be configured such that it is determined that the device is affected by the mounted device.
  • the operation target conversion unit includes at least one of an operation of pushing the screen to an operation determined to be affected by a device mounted on the mobile terminal by the operation determination unit, and an operation of pressing down the key.
  • a coordinate range for executing at least one of an operation of pressing the screen and an operation of pressing the key is calculated. You may comprise as follows.
  • the operation target conversion unit may be configured to analyze the screen information acquired by the function of acquiring the screen information mounted on the mobile terminal.
  • the operation determination unit is affected by a device mounted on the mobile terminal. You may comprise so that it may determine.
  • the operation target conversion unit when the operation determined to be affected by the device mounted on the mobile terminal by the operation determination unit includes an operation to execute the GPS positioning, a positioning command to execute the GPS positioning , And at least one of the parameters may be converted.
  • the scenario may be configured such that one or more functions to be operated by the mobile terminal are included.
  • test apparatus can be configured as a test method or program executed by the test apparatus.
  • the automatic evaluation tool according to the present embodiment is mounted on a PC (Personal Computer) or the like. Moreover, you may mount in the apparatus for testing the function by the software mounted in the mobile terminal.
  • PC Personal Computer
  • the PC functions as the test apparatus 100 of the mobile terminal.
  • the scenario related to the operation to execute the target function is created in advance by the mobile terminal automatic evaluation tool.
  • the test apparatus 100 determines a scenario to be used for evaluating the function of the mobile terminal from a scenario created in advance.
  • the test apparatus 100 determines whether or not the operation depends on the device when executing the operation for executing the target function according to the determined scenario. That is, the test apparatus 100 determines whether or not the operation is affected by different devices. In other words, it is determined whether or not the operation may be the same operation even if the devices are different. For example, when the operation is an input to the touch panel, it is determined that the operation is affected by different devices such as the size and resolution of the touch panel. This is because the input to the touch panel is assumed to be designated by the coordinates.
  • the operation is GPS positioning
  • GPS chips mounted on mobile terminals. This is because there are various GPS chips, and it is assumed that different GPS positioning commands and parameters may be described by the GPS chip.
  • test apparatus 100 determines that the operation is affected by a different device
  • the test apparatus 100 converts the operation content so as to be adapted to the device.
  • the test apparatus 100 executes an operation for executing the target function according to the determined scenario, and determines whether or not the result of executing the operation is correct.
  • FIG. 1 shows an embodiment of a test apparatus 100 in which an automatic evaluation tool is stored.
  • the test apparatus 100 includes a microprocessor (MPU: Micro-Processing Unit) 102, a storage unit 104, an input unit 106, and an output unit 108.
  • MPU Micro-Processing Unit
  • the MPU 102, the storage unit 104, the input unit 106, and the output unit 108 are connected by a bus 150.
  • the MPU 102 controls the storage unit 104, the input unit 106, and the output unit 108.
  • the MPU 102 functions according to a program stored in the storage unit 104 and performs predetermined processing.
  • the storage unit 104 stores an application, an operating system (OS: Operating System), and an automatic evaluation tool.
  • the storage unit 104 is an external storage device that stores data and programs in a computer.
  • a hard disk hard disk, fixed disk
  • a flexible disk flexible disk
  • MO Magnetic-Optical disk
  • CD-R Compact Disk Recordable
  • the application is software having a function of performing a work executed by the user on the test apparatus 100.
  • the application includes a word processor, spreadsheet software, a database management system (DBMS: Data Base Management System), a media player, and the like.
  • the operating system is software that provides the application software with an interface that abstracts hardware in the test apparatus 100.
  • the automatic evaluation tool is a tool for evaluating at least one of the quality and function of the software by operating the software installed in the mobile terminal by operating the mobile terminal on behalf of the user. It is.
  • the input unit 106 includes, for example, a keyboard and a mouse, and inputs instructions and data to the test apparatus 100.
  • the input unit 106 may be configured with a touch panel.
  • the instruction to the test apparatus 100 includes an instruction for an operating system, an application, and an automatic evaluation tool.
  • the output unit 108 is configured by a display, for example, and displays the processing state and processing result by the test apparatus 100.
  • the processing state and the processing result include an operating system, an application, and an automatic evaluation tool.
  • the display includes a liquid crystal display, a CRT (Cathode Ray Tube) display, a plasma (PDP: Plasma Display Panel) display, an organic EL (Electro-Luminescence) display, and the like.
  • the mobile terminal 200 has an input device such as a touch panel. When the user operates the touch panel, the mobile terminal 200 executes a predetermined function.
  • FIG. 2 shows an embodiment of the mobile terminal 200.
  • the mobile terminal 200 has a display screen 202. On the display screen 202, a plurality of icons 204 1 -204 6 are displayed. In the example shown in FIG. 2, six icons are shown, but it may be 1-5 or 7 or more. When the user depresses one of the plurality of icons 204 1 to 204 6 , a function corresponding to the depressed icon is executed.
  • the mobile terminal 200 has a “menu key 206”, a “home key 208”, and a “back key 210”.
  • a function corresponding to the pressed key is executed.
  • the mobile terminal 200 and the test apparatus 100 are connected.
  • it may be connected by a cable (not shown).
  • the mobile terminal 200 preferably has a user interface (UI) for receiving a user operation.
  • the UI includes a touch panel and the like.
  • the mobile terminal 200 does not necessarily require a UI, for example, as long as the internal operation can be changed by an electrical signal.
  • the mobile terminal 200 may be a card type or a module type.
  • a camera for photographing what is displayed on the display screen 202 of the mobile terminal 200 may be prepared in the test system.
  • the camera captures at least one of an image displayed on the display screen 202 of the mobile terminal 200 and a moving image.
  • At least one of an image displayed on the display screen 202 photographed by the camera and a moving image is input to the test apparatus 100.
  • the camera and the test apparatus 100 are connected by a cable (not shown), and at least one of an image and a moving image is transmitted and received between the camera and the test apparatus 100 via the cable. Also good.
  • FIG. 3 shows a configuration example of the automatic evaluation tool.
  • the automatic evaluation tool has a key operation driver.
  • the key operation driver is software for providing an interface with the mobile terminal 200 for the MPU 102 functioning as an operating system.
  • the automatic evaluation tool has an automatic evaluation engine.
  • the automatic evaluation engine is software for causing the MPU 102 functioning as an automatic evaluation tool to execute a function of evaluating software installed in the mobile terminal 200.
  • the automatic evaluation tool has OCR (Optical Character Reader).
  • OCR Optical Character Reader
  • the OCR specifies a character by optically reading the character from an image showing the whole or a part of what is displayed on the display screen 202 of the mobile terminal 200 and comparing it with a prestored pattern.
  • the OCR may identify the character by optically reading the character from a moving image showing the whole or a part of what is displayed on the touch panel of the mobile terminal 200 and comparing it with a previously stored pattern.
  • the automatic evaluation tool may be equipped with a function for recognizing images.
  • At least one of the image and the moving image may be acquired by a function of the mobile terminal 200.
  • the function of acquiring at least one of an image and a moving image that the mobile terminal 200 has may be a screen shot, a screen dump, or a screen capture. May be.
  • the screen shot is data in which the display on the display is recorded in a general-purpose format such as BMP (Bit MaP), PNG (Portable Network Graphics), JPEG (Joint Photographic Experts Group).
  • the screen dump is internal data temporarily acquired by XWD (X Window Dump) or the like.
  • Screen capture is data in which screen changes are recorded as moving images.
  • the automatic evaluation tool has a test scenario.
  • the test scenario represents an operation procedure to be executed by the mobile terminal 200 when the function is evaluated by the automatic evaluation tool.
  • the test scenario is created by executing an automatic evaluation tool.
  • FIG. 4 is a diagram showing an example of a test scenario.
  • two scenarios (scenario 1 and scenario 2) are shown as an example.
  • the scenario may be prepared for each application that is activated when the function of the mobile terminal 200 is evaluated. Specifically, it includes transmission of e-mail, telephone call, packet transmission, use of a paid service, connection to a web page, and the like.
  • a name for defining the scenario is created. For example, “scenario 1” and “scenario 2” are created as scenario names.
  • an “operation” representing a key to be operated for executing the scenario and an “instruction” representing the flow of the key are described.
  • operation 1 information indicating a key to be operated
  • operation order of the key to be operated are set.
  • Instructions for control (“instruction 1”... “Instruction m”) are included.
  • “Operation” is associated with the name of the part to be operated.
  • the parts to be operated include a touch panel and buttons.
  • the parts to be operated may include positioning instructions, parameters, and the like.
  • FIG. 5 shows an example of the scenario.
  • FIG. 5 shows the operation of scenario 1.
  • “Operation” included in scenario 1 includes “screen push”, and “button 1” is included as an operation target corresponding to the “screen push”.
  • “operation” includes “key depression”, and “menu key” is included as an operation target corresponding to the “key depression”.
  • “Operation” includes “screen push”, and “button 2” is included as an operation target corresponding to the “screen push”.
  • “operation” includes “GPS positioning”, and “positioning command” and “parameter” are included as operation targets corresponding to the “GPS positioning”.
  • FIG. 5 shows an example and can be changed as appropriate.
  • the function whose scenario name is represented by “scenario 2” includes information indicating the key to be operated (“operation 1”... “Operation x”) and the operation order of the key to be operated. Instructions for control (“instruction 1”... “Instruction y”) are included.
  • one scenario may be defined by grouping a plurality of scenarios. For example, a plurality of scenarios to be evaluated may be collectively defined as one new scenario.
  • FIG. 6 shows an example in which a new function is defined as one function by combining a plurality of functions.
  • a plurality of scenarios (“Scenario X”, “Scenario Y”... “Scenario Z”) are combined and a new scenario is defined as one scenario (“Scenario 1”).
  • a plurality of scenarios (“scenario X”, “scenario Y”... “Scenario Z”) are nested in “scenario 1”.
  • the automatic evaluation tool determines whether or not the operation for executing the function to be evaluated depends on the device.
  • FIG. 7 shows an embodiment of a device dependency definition used when determining whether or not an operation for causing a device to execute a function to be evaluated depends on an automatic evaluation tool.
  • information representing an operation and information representing presence / absence of device dependence are stored in association with each other.
  • the “screen push (Push)” operation has a device dependency of “Yes” because the push position differs depending on the device.
  • the “key pressing” operation has a device dependency of “present” because the position to be pressed differs depending on the device.
  • the “GPS positioning” operation has a device dependency of “Yes” because the positioning command and parameters of “GPS positioning” differ depending on the device.
  • the “e-mail arrival confirmation” operation is assumed to be unaffected even if the devices are different, so that the device dependency is “none”.
  • the “application update” operation is assumed to be unaffected even if the devices are different, so that the device dependency is “none”.
  • FIG. 7 shows an example and can be set as appropriate. Device dependency may be set for other operations.
  • the operation determined to be device-dependent is “screen push” or “key press”
  • the operation content is converted so as to be adapted to the device.
  • the screen information is acquired by the automatic evaluation tool. Specifically, the image of the display screen 202 of the mobile terminal 200 described with reference to FIG. 2 is acquired.
  • the image of the display screen may be acquired by a camera or may be acquired by a function that the mobile terminal 200 has.
  • Analyze screen information with automatic evaluation tool Specifically, the positions of a plurality of icons included in the display screen are recognized. For example, it may be recognized by a function for recognizing an image.
  • the coordinate of the recognized icon position is calculated by the automatic evaluation tool.
  • the automatic evaluation tool associates a function executed when the icon is depressed with the coordinates of the position of the icon.
  • the function executed by pressing the icon may be specified by recognizing the icon itself.
  • OCR may be used to recognize a character included in an icon when specifying a function to be executed by pressing the icon.
  • FIG. 8 shows an example of the analysis result of the screen information.
  • FIG. 8 shows the name of the icon acquired by analyzing the screen information, information indicating the hierarchy of functions executed when the icon is operated, the type of the icon, and the position of the icon. Information to be stored is stored.
  • the part that is the operation target associated with the “operation” included in the scenario is associated with the coordinates by the automatic evaluation tool.
  • the automatic evaluation tool calculates the information indicating the position of the icon according to the device, so that the position of the icon to be specified at the time of evaluation can be converted regardless of the device that the mobile terminal 200 has.
  • positioning commands and parameters for GPS positioning are converted by the automatic evaluation tool.
  • the positioning command and parameters can be converted so as to be suitable regardless of the device (GPS chip) of the mobile terminal 200.
  • FIG. 9 is a functional block diagram illustrating an example of the test apparatus 100.
  • FIG. 9 shows processing mainly executed by the MPU 102 in accordance with the automatic evaluation tool stored in the storage unit 104.
  • the test apparatus 100 includes a scenario selection unit 1022.
  • the scenario selection unit 1022 selects a scenario to be executed by the mobile terminal 200.
  • the scenario selection unit 1022 may select a scenario to be executed by the mobile terminal 200 from a plurality of preset scenarios.
  • the scenario selection unit 1022 inputs information representing the selected scenario to the device dependence determination unit 1024.
  • the test apparatus 100 includes a device dependence determination unit 1024.
  • the device dependence determination unit 1024 is connected to the scenario selection unit 1022.
  • the device dependence determination unit 1024 determines whether or not the operation included in the scenario from the scenario selection unit 1022 depends on the device. Specifically, the device dependence determination unit 1024 refers to the device dependence definition illustrated in FIG. 7 and determines whether or not an operation included in the scenario includes a device dependence.
  • the device dependence determination unit 1024 inputs information representing an operation dependent on the device to the operation target conversion unit 1026.
  • the device dependence determination unit 1024 inputs information representing an operation independent of the device to the scenario execution unit 1028.
  • the test apparatus 100 includes an operation target conversion unit 1026.
  • the operation target conversion unit 1026 is connected to the device dependence determination unit 1024.
  • the operation target conversion unit 1024 converts the operation target so as to be compatible with the device mounted on the mobile terminal 200 to be evaluated based on the information representing the device-dependent operation from the device dependence determination unit 1024.
  • the coordinates of the icon may be converted according to the size of the touch panel of the mobile terminal 200.
  • the positioning command and parameter in the case of GPS positioning may be converted.
  • the operation target conversion unit 1026 inputs information representing the operation in which the operation target is converted to the scenario execution unit 1028.
  • the test apparatus 100 includes a scenario execution unit 1028.
  • the scenario execution unit 1028 is connected to the device dependence determination unit 1024 and the operation target conversion unit 1026.
  • the scenario execution unit 1028 executes the scenario selected by the scenario selection unit 1022.
  • an operation determined to be device-independent by the device dependence determination unit 1024 and an operation whose operation target is converted according to the device by the operation target conversion unit 1026 Execute.
  • the scenario execution unit 1028 inputs the scenario execution result to the scenario execution result determination unit 1030.
  • the test apparatus 100 includes a scenario execution result determination unit 1030.
  • the scenario execution result determination unit 1030 is connected to the scenario execution unit 1028.
  • the scenario execution result determination unit 1030 determines whether or not the execution result of the scenario is the same as the expected result based on the execution result of the scenario to be input by the scenario execution unit 1028. When it is determined that the scenario execution result is the same as the expected result, it is determined that the scenario execution is successful. On the other hand, when it is determined that the scenario execution result is different from the expected result, it is determined that the scenario execution has failed.
  • the scenario execution result determination unit 1030 reflects the execution result of the scenario in the execution result information.
  • the execution result information stores the number of times that execution of the scenario has failed for each scenario.
  • FIG. 10 shows an example of the operation of the test apparatus 100.
  • the test apparatus 100 selects a scenario (step S1002).
  • a plurality of scenarios may be selected.
  • the scenario selection unit 1022 selects a scenario.
  • the test apparatus 100 determines whether the operation included in the scenario selected in step S1002 depends on the device. That is, the device dependence determining unit 1024 refers to the device dependence definition and determines whether or not the operation included in the scenario depends on the device. When a scenario includes a plurality of operations, it is determined whether or not each operation depends on a device.
  • step S1004 If it is determined that the operation depends on the device (step S1004: YES), the test apparatus 100 converts the operation target according to the device (step S1006). In other words, when it is determined that the operation included in the scenario depends on the device, the operation target conversion unit 1026 converts the operation target dependent on the device so as to match the device.
  • the test apparatus 100 determines whether or not all operations depend on the device. It is determined whether or not the determination is completed (step 1008).
  • step S1008 NO
  • the process returns to step S1004.
  • the test apparatus 100 executes the processing of Step S1004 to Step S1006 for an operation for which determination of whether or not it depends on a device has not been completed.
  • step S1010 the scenario execution unit 1028 executes the scenario.
  • the test apparatus 100 determines the scenario execution result (step S1012). For example, the scenario execution result determination unit 1030 determines whether or not the scenario execution result is successful by determining whether or not the scenario execution result is the same as a result assumed in advance.
  • step S1012 After the scenario execution result is determined in step S1012, the process returns to step S1002.
  • a program for causing the MPU 102 to function as the test apparatus 100 is provided in a state of being recorded on a recording medium such as a flexible disk, a CD-ROM, or a memory card. Moreover, you may make it download a program. When this recording medium is inserted into an auxiliary storage device of a computer, a program recorded on the recording medium is read. The MPU 102 writes the read program into the RAM or HDD and executes processing. The program causes the computer to execute the processes of steps S1002 to S1012 in FIG. Further, for example, the program may cause at least some steps to be executed.
  • FIG. 11 shows details of operations executed by the device dependence determination unit 1024.
  • the device dependency determination unit 1024 refers to the device dependency definition and determines whether or not the device dependency corresponding to the operation included in the scenario is “Yes” (step S1102).
  • step S1102 If the device dependency is “Yes” (step S1102: YES), the device dependency determination unit 1024 recognizes that the operation is device dependent (step S1104).
  • the device dependence determining unit 1024 records information indicating that the device dependence is “present” in association with the operation included in the scenario (step S1106).
  • step S1102 If the device dependency is not “present” (step S1102: NO), the device dependency determining unit 1024 recognizes that the operation is not dependent on the device (step S1108).
  • the program for causing the MPU 102 to function as the device dependence determination unit 1024 is provided in a state of being recorded on a recording medium such as a flexible disk, a CD-ROM, or a memory card. Moreover, you may make it download a program. When this recording medium is inserted into an auxiliary storage device of a computer, a program recorded on the recording medium is read. The MPU 102 writes the read program into the RAM or HDD and executes processing. The program causes the computer to execute the processes of steps S1102 to S1108 in FIG. Further, for example, the program may cause at least some steps to be executed.
  • FIG. 12 shows details of the operation executed by the operation target conversion unit 1026.
  • FIG. 12 shows an example in which the icon coordinates are converted according to the size of the touch panel of the mobile terminal 200.
  • the operation target conversion unit 1026 acquires information representing the operation target (step S1202). Information representing an operation target associated with an operation determined to be dependent on the device is acquired from the device dependency determination unit 1024.
  • the operation target conversion unit 1026 analyzes the output screen (step S1204).
  • the operation target conversion unit 1026 acquires and analyzes the image displayed on the display screen 202 of the mobile terminal 200. Specifically, the position information of the icons included in the image displayed on the display screen 202 is analyzed.
  • the operation target conversion unit 1026 calculates coordinates based on the screen analysis result (step S1206).
  • the operation target conversion unit 1026 converts the position information of the icons included in the image displayed on the display screen 202 into coordinates.
  • the operation target conversion unit 1026 outputs coordinate information (step S1208).
  • the operation target conversion unit 1026 inputs coordinate information to the scenario execution unit 1028.
  • a program for causing the MPU 102 to function as the operation target conversion unit 1026 is provided in a state of being recorded on a recording medium such as a flexible disk, a CD-ROM, or a memory card. Moreover, you may make it download a program. When this recording medium is inserted into an auxiliary storage device of a computer, a program recorded on the recording medium is read. The MPU 102 writes the read program into the RAM or HDD and executes processing. The program causes the computer to execute the processes of steps S1202 to S1208 in FIG. Further, for example, the program may cause at least some steps to be executed.
  • operation for pushing the screen and “operation for depressing the key” are shown as examples of the operation depending on the device, but the present invention can be applied particularly to an operation using coordinates.
  • the operation target may be changed according to the sensor mounted on the mobile terminal 200. Specifically, it may be changed according to the sensitivity of the sensor and the temperature.
  • Test apparatus 102 MPU DESCRIPTION OF SYMBOLS 104 Memory
  • storage part 106 Input part 150 Bus 200 Mobile terminal 202 Display screen 204 n (n is an integer of n> 0) Icon 206 Menu key 208 Home key 210 back key 1022 Scenario selection part 1024 Device dependence determination part 1026 Operation object conversion part 1028 Scenario execution unit 1030 Scenario execution result determination unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Quality & Reliability (AREA)
  • Human Computer Interaction (AREA)
  • Telephone Function (AREA)
  • Stored Programmes (AREA)
  • Debugging And Monitoring (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

 移動端末に搭載されたソフトウェアによる動作を評価する試験装置は、移動端末に動作させる機能を実行させるための操作情報を含むシナリオを設定するシナリオ設定部と、該シナリオに含まれる操作情報により表される操作が、該移動端末に実装されたデバイスによって影響を受けるか否かを判定する操作判定部と、移動端末に実装されたデバイスによって影響を受けると判定された操作を移動端末に実装されたデバイスに応じて変換する操作対象変換部と、変換された操作に従って、設定されたシナリオを実行するシナリオ実行部と、実行されたシナリオの実行結果が予め想定された結果と同じかどうかを判定するシナリオ実行結果判定部とを有する。

Description

試験装置及び試験方法
 本発明は、移動端末の試験装置に関する。
 移動端末の高機能化により操作手順が複雑になっている。また、高機能化に伴い、ある機能を実行させるための操作数も増加している。さらに、移動端末に格納されるソフトウェアの容量も増大傾向にある。ソフトウェアの容量の増大に伴い、不具合数も増加傾向にある。これらの不具合について、事前に、全不具合を検出することは事実上不可能である。このため、移動端末に搭載されたソフトウェアを評価することが行われている。
 例えば、自動評価ツールにより評価する方法が知られている。自動評価ツールによりソフトウェアを評価する方法を利用するには、評価対象の移動端末に搭載されたソフトウェアの動作方法の1つとして、該ソフトウェアに予め決められた操作手順が組み込まれていることが必要とされる。さらに、自動評価ツールによりソフトウェアを評価する方法を利用するには、利用者により、メニューボタンを押下げる操作や、テンキーボタン等を押下げる操作が行われることによって、所望する機能を利用できることが必要である。
 自動評価ツールによりソフトウェアを評価する方法には、機能方式が含まれる。機能方式では、予め決められた操作手順によって、移動端末の特定の機能が評価される。特定の機能を評価することにより、要求された仕様通りに移動端末に搭載されたソフトウェアにより特定の機能が機能するか否かを確認できる。
 例えば、タッチパネル等の入力装置を有する移動端末の特定の機能が評価される場合には、あるシナリオに従って、タッチパネルに表示されるあるアイコンを押下げることに相当する処理が実行されることがある。この場合、選択されるあるアイコンの領域が指定され、自動評価ツールにより、該領域に含まれるある位置が押下げられる処理が実行される。自動評価ツールによりあるアイコンが押下げられる処理が実行されることにより、該押下げられることにより実行される処理が要求された仕様通りであるか否かが判断される。
 例えば、タッチスクリーンの非線形の修正を行う方法が知られている(例えば、特許文献1参照)。
特表2005-539325号公報
 移動端末が有するデバイスが異なるために、同じ操作で評価対象となる機能を実行できない場合がある。
 例えば、移動端末毎(装置毎)に出力画面の大きさ、解像度が異なる場合がある。つまり、移動端末毎(装置毎)に、搭載されるデバイスが異なることがある。デバイスに依存して、タッチパネル方式による入力の場合、画面の大きさ・解像度が異なる。
 自動評価ツールでは、汎用的にするために、座標を利用して表示画面の所定の位置を指定する命令を含む操作命令が作成されることが多い。例えば、X-Y座標を利用して表示画面の所定の位置を指定する命令を含む操作命令が作成される。また、ある機能を評価するために作成されたシナリオにおいても、座標を利用して表示画面の所定の位置を指定する命令を含む操作命令を含んでいる。
 従って、一度作成されたシナリオは、デバイスに依存することから、別の移動端末(装置)上では、使用できない場合がある。画面の大きさ、解像度によって、部品が配置される場所(X-Y座標)が異なることがあるためである。シナリオには、特定の機能を動作させるためのボタン等、各ソフトウェア部品の配置座標に基づいて作成された操作命令が含まれることがあるためである。
 従って、自動評価ツールにより作成されたシナリオは、作成対象とした装置を除き、別の装置での再利用性が低くなる。
 具体的には、移動端末が有するタッチパネルのサイズや解像度は様々である。このため、移動端末が有するタッチパネルのサイズや解像度毎に、選択されるあるアイコンの領域を指定する必要がある。つまり、移動端末が有するタッチパネルのサイズや解像度に応じて、自動評価ツールを修正する必要がある。
 例えば、移動端末の有するタッチパネルの解像度が異なる場合には、該タッチパネルに配置されたアイコンの水平座標及び垂直座標の少なくとも一方が異なる可能性がある。従って、同一のアプリケーションが起動される処理が実行され、選択されるアイコンの領域を指定する際に、該領域が座標により指定される場合には、異なる領域が指定される場合がある。
 そこで、本発明は上述した問題点に鑑みてなされたものであり、移動端末の有するデバイスに拘わらず、該移動端末に搭載されたソフトウェアによる機能を試験することを目的とする。
 本試験装置は、
 移動端末に搭載されたソフトウェアによる動作を評価する試験装置であって、
 移動端末に動作させる機能を実行させるための操作情報を含むシナリオを設定するシナリオ設定部と、
 該シナリオ設定部により設定されるシナリオに含まれる操作情報により表される操作が、該移動端末に実装されたデバイスによって影響を受けるか否かを判定する操作判定部と、
 該操作判定部により前記移動端末に実装されたデバイスによって影響を受けると判定された操作を前記移動端末に実装されたデバイスに応じて変換する操作対象変換部と、
 前記操作対象変換部により変換された操作に従って、前記シナリオ設定部により設定されたシナリオを実行するシナリオ実行部と、
 該シナリオ実行部により実行されたシナリオの実行結果が予め想定された結果と同じかどうかを判定するシナリオ実行結果判定部と
 を有する、試験装置として達成される。
 前記シナリオ設定部により設定されるシナリオに含まれる操作情報により表される操作に画面をプッシュする操作、及びキーを押下げる操作の少なくとも1つが含まれる場合、前記操作判定部は、前記移動端末に実装されたデバイスによって影響を受けると判定する、ように構成してもよい。
 前記操作対象変換部は、前記操作判定部により前記移動端末に実装されたデバイスによって影響を受けると判定された操作に前記画面をプッシュする操作、及び前記キーを押下げる操作の少なくとも1つが含まれる場合、前記移動端末に表示された画面情報を解析することにより、前記画面を押す操作、及び前記キーを押下げる操作を実行させる操作の少なくとも1つを実行させるための座標の範囲を計算する、ように構成してもよい。
 前記操作対象変換部は、前記移動端末に搭載された前記画面情報を取得する機能により取得された画面情報を解析する、ように構成してもよい。
 前記シナリオ設定部により設定されるシナリオに含まれる操作情報により表される操作にGPS測位を実行させる操作が含まれる場合、前記操作判定部は、前記移動端末に実装されたデバイスによって影響を受けると判定する、ように構成してもよい。
 前記操作対象変換部は、前記操作判定部により前記移動端末に実装されたデバイスによって影響を受けると判定された操作に前記GPS測位を実行させる操作が含まれる場合、前記GPS測位を実行させる測位命令、及びパラメータの少なくとも一方を変換する、ように構成してもよい。
 前記シナリオには、移動端末に動作させるべき機能が1又は複数含まれる、ように構成してもよい。
 また、上記試験装置が実行する試験方法、プログラムとして構成することもできる。
 開示の実施例によれば、移動端末の有するデバイスに拘わらず、該移動端末に搭載されたソフトウェアによる機能を試験することができる。
試験装置の一実施例を示す図である。 移動端末の一実施例を示す図である。 自動評価ツールの一実施例を示す図である。 シナリオの一実施例を示す図である。 シナリオの一実施例を示す図である。 シナリオの一実施例を示す図である。 デバイス依存定義の一実施例を示す図である。 画面情報の解析結果の一実施例を示す図である。 試験装置の一実施例を示す機能ブロック図である。 試験装置の動作の一実施例を示すフロー図である。 試験装置の動作の一実施例を示すフロー図である。 試験装置の動作の一実施例を示すフロー図である。
 以下、図面に基づいて、実施例を説明する。
なお、実施例を説明するための全図において、同一機能を有するものは同一符号を用い、繰り返しの説明は省略する。
 <実施例>
 <試験装置100>
 本実施例に係る自動評価ツールは、PC(Personal Computer)等に搭載される。また、移動端末に搭載されたソフトウェアによる機能を試験するための装置に搭載されてもよい。
 本実施例では、一例として、PCに搭載される場合について説明する。自動評価ツールがPCに搭載されることにより、該PCは移動端末の試験装置100として機能する。
 移動端末の自動評価ツールにより、対象となる機能を実行させるための操作に関するシナリオが予め作成される。
 試験装置100は、予め作成されたシナリオから、移動端末の機能の評価に使用するシナリオを決定する。
 試験装置100は、決定したシナリオに従って、対象となる機能を実行させるための操作を実行する際に、該操作が、デバイスに依存するか否かを判定する。つまり、試験装置100は、該操作が、デバイスが異なることにより影響を受けるか否かを判定する。換言すれば、該操作が、デバイスが異なっても、同じ操作でよいか否かを判定する。例えば、該操作が、タッチパネルへの入力である場合には、タッチパネルのサイズや解像度等、デバイスが異なることにより影響を受けると判定される。タッチパネルへの入力は、座標により入力位置が指定されると想定されるためである。
 また、例えば、該操作が、GPS測位である場合には、GPSチップ等により影響を受けると判定される。移動端末に搭載されるGPSチップには様々なものが存在する。GPSチップには様々なものが存在するため、GPSチップにより、異なるGPS測位命令やパラメータ等が記述される場合があると想定されるためである。
 試験装置100は、該操作が、デバイスが異なることにより影響を受けると判定した場合、該デバイスに適合するように、操作内容を変換する。
 試験装置100は、決定したシナリオに従って、対象となる機能を実行させるための操作を実行し、該操作が実行された結果が正しいか否かを判定する。
 図1は、自動評価ツールが格納される試験装置100の一実施例を示す。
 試験装置100は、マイクロプロセッサ(MPU: Micro-Processing Unit)102と、記憶部104と、入力部106と、出力部108とを有する。MPU102、記憶部104、入力部106、出力部108は、バス150により接続される。
 MPU102は、記憶部104、入力部106、及び出力部108の制御を行う。MPU102は、記憶部104に記憶されたプログラムに従って機能し、所定の処理を行う。
 記憶部104には、アプリケーションと、オペレーティングシステム(OS: Operating System)と、自動評価ツールとが格納される。例えば、記憶部104は、コンピュータ内でデータやプログラムを記憶する外部記憶装置である。例えば、ハードディスク(hard disk、 fixed disk)やフレキシブルディスク(flexible disk)、MO(Magneto-Optical disk)、CD-R(Compact Disk Recordable)、磁気テープなどが含まれる。アプリケーションは、ユーザが試験装置100上で実行する作業を実施する機能を有するソフトウェアである。例えば、アプリケーションには、ワードプロセッサ、表計算ソフト、データベース管理システム(DBMS: Data Base Management System)、メディアプレーヤーなどが含まれる。オペレーティングシステムは、試験装置100において、ハードウエアを抽象化したインターフェースをアプリケーションソフトウェアに提供するソフトウェアである。自動評価ツールは、ユーザに代って、移動端末を操作することにより、該移動端末に搭載されたソフトウェアを動作させることにより、該ソフトウェアの品質、及び機能のうち、少なくとも一方の評価を行うツールである。
 入力部106は、例えば、キーボードやマウスにより構成され、試験装置100への指示や、データの入力を行う。また、入力部106は、タッチパネルにより構成されてもよい。試験装置100への指示は、オペレーティングシステムに対するものや、アプリケーションに対するものや、自動評価ツールに対するものが含まれる。
 出力部108は、例えば、ディスプレイにより構成され、試験装置100による処理状態や処理結果を表示する。該処理状態や処理結果には、オペレーティングシステムやアプリケーションや自動評価ツールによるものが含まれる。ディスプレイには、液晶ディスプレイ、CRT(Cathode Ray Tube)ディスプレイ、プラズマ(PDP: Plasma Display Panel)ディスプレイ、有機EL(Electro-Luminescence)ディスプレイなどが含まれる。
 <移動端末200>
 移動端末200は、タッチパネル等の入力装置を有する。ユーザがタッチパネルを操作することにより、移動端末200は所定の機能を実行する。
 図2は、移動端末200の一実施例を示す。
 移動端末200は、表示画面202を有する。表示画面202には、複数のアイコン204-204が表示される。図2に示される例では、6つのアイコンが示されるが、1-5でもよいし、7以上であってもよい。ユーザが複数のアイコン204-204のいずれかを押し下げることにより、押下げられたアイコンに対応する機能が実行される。
 さらに、移動端末200は、「menuキー206」、「homeキー208」、「backキー210」を有する。「menuキー206」、「homeキー208」、「backキー210」のいずれかが押下げられることにより、押下げられたキーに対応する機能が実行される。
 <試験システムの構成例>
 試験システムでは、移動端末200と試験装置100とが接続される。例えば、ケーブル(図示なし)により接続されてもよい。移動端末200は、ユーザの操作を受け付けるためのユーザインターフェース(UI: Uesr Interface)を有するものであることが好ましい。例えば、UIには、タッチパネル等が含まれる。また、移動端末200は、例えば、電気的な信号により内部の動作を変更することができるものであれば、必ずしもUIは必要ない。例えば、移動端末200は、カード型であってもよいし、モジュール型であってもよい。
 また、試験システムに、移動端末200の表示画面202に表示されたものを撮影するためのカメラが用意されてもよい。該カメラは、移動端末200の表示画面202に表示される画像、及び動画の少なくとも一方を撮影する。該カメラにより撮影された表示画面202に表示される画像、及び動画の少なくとも一方は、試験装置100に入力される。例えば、ケーブル(図示なし)により、カメラと試験装置100との間を接続し、該ケーブルを介してカメラと、試験装置100との間で、画像、及び動画の少なくとも一方の送受信が行われてもよい。
 <自動評価ツール>
 図3は、自動評価ツールの構成例を示す。
 自動評価ツールは、キー操作ドライバを有する。キー操作ドライバは、オペレーティングシステムとして機能するMPU102に対して、移動端末200との間のインターフェースを提供するためのソフトウェアである。
 自動評価ツールは、自動評価エンジンを有する。自動評価エンジンは、自動評価ツールとして機能するMPU102に対して、移動端末200に搭載されたソフトウェアを評価する機能を実行させるためのソフトウェアである。
 自動評価ツールは、OCR(Optical Character Reader)を有する。OCRは、移動端末200の表示画面202に表示されたものの全体または一部分を写した画像から、文字を光学的に読み取り、予め記憶されたパターンと照合することにより文字を特定する。OCRは、移動端末200のタッチパネルに表示されたものの全体または一部分を写した動画から、文字を光学的に読み取り、予め記憶されたパターンと照合することにより文字を特定するものであってもよい。
 また、自動評価ツールに、画像を認識する機能が搭載されてもよい。
 画像及び動画の少なくとも一方は、移動端末200の有する機能により取得されたものであってもよい。移動端末200の有する画像及び動画の少なくとも一方を取得する機能は、スクリーンショット(screenshot)であってもよいし、スクリーンダンプ(screen dump)であってもよいし、スクリーンキャプチャ(screen capture)であってもよい。スクリーンショットは、BMP(Bit MaP)、PNG(Portable Network Graphics)、JPEG(Joint Photographic Experts Group)等の汎用フォーマットでディスプレイ上の表示を記録したデータである。スクリーンダンプは、XWD(X Window Dump)等によって一時的に取得された内部的なデータである。スクリーンキャプチャは、画面の変化を動画として記録したデータである。
 <試験用シナリオ>
 自動評価ツールは、試験用シナリオを有する。試験用シナリオは、自動評価ツールにより機能を評価する際に、移動端末200に実行させるべき操作の手順を表したものである。例えば、試験用シナリオは、自動評価ツールが実行されることにより、作成される。
 図4は、試験用シナリオの一例を示す図である。図4には、一例として、2つのシナリオ(シナリオ1、シナリオ2)が示される。シナリオは、移動端末200の機能を評価する際に起動するアプリケーション毎に用意されてもよい。具体的には、電子メールの送信、電話発信、パケット発信、有料サービスの利用、ウェブページへの接続等が含まれる。
 試験用シナリオが作成される際には、シナリオを定義するための名称(シナリオ名)が作成される。例えば、シナリオ名として、「シナリオ1」、「シナリオ2」が作成される。
 さらに、各シナリオに対して、該シナリオを実行させるための操作の対象となるキーを表す「操作」、及び該キーの流れを表す「命令」が記述される。例えば、シナリオ名が「シナリオ1」により表されるシナリオには、操作されるべきキーを表す情報(「操作1」・・・「操作n」)と、該操作されるべきキーの操作順序を制御するための命令(「命令1」・・・「命令m」)とが含まれる。「操作」には、操作対象となる部品の名称が対応付けられる。具体的には、操作対象となる部品には、タッチパネルや、ボタンが含まれる。また、操作対象となる部品には、測位命令、パラメータ等が含まれてもよい。
 図5は、シナリオの一実施例を示す。図5には、シナリオ1の操作について示される。
 シナリオ1に含まれる「操作」には「画面Push」が含まれ、該「画面Push」に対応する操作対象として「ボタン1」が含まれる。同様に、「操作」には「キー押下げ」が含まれ、該「キー押下げ」に対応する操作対象として「menuキー」が含まれる。「操作」には「画面Push」が含まれ、該「画面Push」に対応する操作対象として「ボタン2」が含まれる。また、図示されていないが、「操作」には「GPS測位」が含まれ、該「GPS測位」に対応する操作対象として「測位命令」や、「パラメータ」が含まれる。
 図5に示されるのは一例であり、適宜変更可能である。
 また、シナリオ名が「シナリオ2」により表される機能には、操作されるべきキーを表す情報(「操作1」・・・「操作x」)と、該操作されるべきキーの操作順序を制御するための命令(「命令1」・・・「命令y」)とが含まれる。
 また、複数のシナリオをまとめて、1つのシナリオが定義されてもよい。例えば、評価の対象となる複数のシナリオをまとめて1つの新たなシナリオとして定義されてもよい。
 図6は、複数の機能をまとめて1つの機能として、新たな機能が定義される例を示す。
 図6に示される例では、複数のシナリオ(「シナリオX」、「シナリオY」・・・「シナリオZ」)がまとめられて1つのシナリオ(「シナリオ1」)として、新たなシナリオが定義される。換言すれば、「シナリオ1」には、複数のシナリオ(「シナリオX」、「シナリオY」・・・「シナリオZ」)が入れ子となっている。
 <デバイス依存性判定処理>
 自動評価ツールにより、評価の対象となる機能を実行させるための操作が、デバイスに依存するか否かが判定される。
 図7は、自動評価ツールにより、デバイスに評価の対象となる機能を実行させるための操作が依存するか否かを判定する際に利用されるデバイス依存定義の一実施例を示す。
 図7に示される例では、操作を表す情報と、デバイス依存性の有無を表す情報とが対応付けられて格納される。具体的には、「画面プッシュ(Push)」操作は、デバイスが異なることによりPushされる位置が異なるため、デバイス依存性は「有」とされる。「キー押下げ」操作は、デバイスが異なることにより押下げすべき位置が異なるため、デバイス依存性は「有」とされる。「GPS測位」操作は、デバイスが異なることにより「GPS測位」の測位命令やパラメータが異なるため、デバイス依存性は「有」とされる。「電子メール到達確認」操作は、デバイスが異なっても影響を受けることはないと想定されるため、デバイス依存性は「無」とされる。「アプリケーションアップデート」操作は、デバイスが異なっても影響を受けることはないと想定されるため、デバイス依存性は「無」とされる。
 図7に示されるのは一例であり、適宜設定可能である。他の操作についてデバイス依存性が設定されてもよい。
 <操作対象変換処理>
 自動評価ツールにより、評価の対象となる機能を実行させるための操作がデバイスに依存するか否かが判定された結果、デバイスに依存すると判定された場合に、操作対象変換処理が実行される。
 ここでは、デバイスに依存すると判定された操作が、「画面Push」や「キー押下げ」である場合について説明する。他の場合についても、デバイスに適合するように、操作内容が変換される。
 自動評価ツールにより、画面情報が取得される。具体的には、図2を参照して説明した移動端末200の表示画面202の画像が取得される。表示画面の画像は、カメラにより取得されてもよいし、移動端末200の有する機能により取得されてもよい。
 自動評価ツールにより、画面情報を解析する。具体的には、表示画面に含まれる複数のアイコンの位置が認識される。例えば、画像を認識する機能により認識されてもよい。
 自動評価ツールにより、認識されたアイコンの位置の座標が計算される。自動評価ツールは、アイコンが押下げられることにより実行される機能と、該アイコンの位置の座標とを対応付ける。具体的には、アイコンが押下げられることにより実行される機能は、アイコン自体を画像認識することにより特定されてもよい。アイコンが押下げられることにより実行される機能を特定する際に、アイコンに含まれる文字を認識するためにOCRが利用されてもよい。
 図8は、画面情報の解析結果の一例を示す。
 図8には、画面情報を解析することにより取得されたアイコンの名称と、該アイコンが操作されることにより実行される機能の階層を表す情報と、該アイコンの種別と、該アイコンの位置を表す情報とが格納される。
 自動評価ツールにより、シナリオに含まれる「操作」に対応付けられた操作対象となる部品と、座標とが関連づけられる。
 自動評価ツールにより、デバイスに応じて、アイコンの位置を表す情報が計算されることにより、移動端末200の有するデバイスに拘わらず、評価の際に指定されるべきアイコンの位置を変換できる。
 また、自動評価ツールにより、GPS測位の際の測位命令やパラメータが変換される。測位命令やパラメータが変換されることにより、移動端末200の有するデバイス(GPSチップ)に拘わらず、測位命令やパラメータを適合するように変換できる。
 <自動評価ツールの機能>
 図9は、試験装置100の一実施例を示す機能ブロック図である。図9には、記憶部104に格納された自動評価ツールに従って、主にMPU102により実行される処理が示される。
 試験装置100は、シナリオ選択部1022を有する。シナリオ選択部1022は、移動端末200に実行させるべきシナリオを選択する。例えば、シナリオ選択部1022は、予め設定された複数のシナリオから、移動端末200に実行させるべきシナリオを選択するようにしてもよい。シナリオ選択部1022は、デバイス依存判定部1024に、選択したシナリオを表す情報を入力する。
 試験装置100は、デバイス依存判定部1024を有する。デバイス依存判定部1024は、シナリオ選択部1022と接続される。デバイス依存判定部1024は、シナリオ選択部1022からのシナリオに含まれる操作がデバイスに依存するか否かを判定する。具体的には、デバイス依存判定部1024は、図7に示されるデバイス依存定義を参照し、シナリオに含まれる操作にデバイスに依存するものが含まれるか否かを判定する。デバイス依存判定部1024は、操作対象変換部1026に、デバイスに依存する操作を表す情報を入力する。デバイス依存判定部1024は、シナリオ実行部1028に、デバイスに依存しない操作を表す情報を入力する。
 試験装置100は、操作対象変換部1026を有する。操作対象変換部1026は、デバイス依存判定部1024と接続される。操作対象変換部1024は、デバイス依存判定部1024からのデバイスに依存する操作を表す情報に基づいて、評価対象の移動端末200に搭載されたデバイスに適合するように操作対象を変換する。具体的には、移動端末200のタッチパネルの大きさに応じて、アイコンの座標が変換されてもよい。また、GPS測位の際の測位命令やパラメータが変換されてもよい。操作対象変換部1026は、シナリオ実行部1028へ、操作対象が変換された操作を表す情報を入力する。
 試験装置100は、シナリオ実行部1028を有する。シナリオ実行部1028は、デバイス依存判定部1024、操作対象変換部1026と接続される。シナリオ実行部1028は、シナリオ選択部1022により選択されたシナリオを実行する。シナリオ選択部1022により選択されたシナリオを実行する際に、デバイス依存判定部1024によりデバイスに依存しないと判定された操作と、操作対象変換部1026により、デバイスに応じて操作対象が変換された操作を実行する。シナリオ実行部1028は、シナリオの実行結果をシナリオ実行結果判定部1030に入力する。
 試験装置100は、シナリオ実行結果判定部1030を有する。シナリオ実行結果判定部1030は、シナリオ実行部1028と接続される。シナリオ実行結果判定部1030は、シナリオ実行部1028により入力されるべきシナリオの実行結果に基づいて、該シナリオの実行結果が予め想定される結果と同じかどうかを判定する。シナリオの実行結果が予め想定される結果と同じであると判定される場合、シナリオの実行が成功したと判定する。一方、シナリオの実行結果が予め想定される結果と異なると判定される場合、シナリオの実行が失敗したと判定する。シナリオ実行結果判定部1030は、実行結果情報に、シナリオの実行結果を反映する。実行結果情報には、シナリオ毎に、該シナリオの実行が失敗した回数が格納される。
 <試験装置の動作>
 図10は、試験装置100の動作の一実施例を示す。
 試験装置100は、シナリオを選択する(ステップS1002)。選択されるシナリオは複数であってもよい。例えば、シナリオ選択部1022は、シナリオを選択する。
 試験装置100は、ステップS1002により選択されたシナリオに含まれる操作がデバイスに依存するか否かを判定する。つまり、デバイス依存判定部1024は、デバイス依存定義を参照し、シナリオに含まれる操作がデバイスに依存するか否かを判定する。シナリオに複数の操作が含まれる場合には、各操作についてデバイスに依存するか否かが判定される。
 操作がデバイスに依存すると判定された場合(ステップS1004:YES)、試験装置100は、デバイスに応じて、操作対象を変換する(ステップS1006)。つまり、操作対象変換部1026は、シナリオに含まれる操作がデバイスに依存すると判定された場合、該デバイスに依存する操作の対象をデバイスに適合するように変換する。
 デバイスに適合するように操作対象の変換が行われた後又は操作がデバイスに依存すると判定されない場合(ステップS1004:NO)、試験装置100は、全ての操作について、デバイスに依存するか否かの判定が終了したか否かを判定する(ステップ1008)。
 全ての操作について判定が終了していない場合(ステップS1008:NO)、ステップS1004に戻る。試験装置100は、デバイスに依存するか否かの判定が終了していない操作について、ステップS1004-ステップS1006の処理を実行する。
 全ての操作について判定が終了した場合(ステップS1008:YES)、本試験装置100は、シナリオを実行する(ステップS1010)。つまり、シナリオ実行部1028は、シナリオを実行する。
 本試験装置100は、シナリオの実行結果を判定する(ステップS1012)。例えば、シナリオ実行結果判定部1030は、シナリオの実行結果が、予め想定される結果と同じであるかどうかを判定することにより、シナリオの実行結果が成功であるかどうかを判定する。
 ステップS1012によるシナリオの実行結果の判定後、ステップS1002に戻る。
 MPU102を試験装置100として機能させるためのプログラムは、例えば、フレキシブルディスク、CD-ROM、メモリカード等の記録媒体に記録された状態で提供される。また、プログラムをダウンロードするようにしてもよい。この記録媒体をコンピュータの補助記憶装置に挿入すると、記録媒体に記録されたプログラムが読み取られる。MPU102は、読み込んだプログラムをRAMあるいはHDDに書き込み、処理を実行する。プログラムは、コンピュータに、図10の各ステップS1002-S1012の処理を実行させる。また、例えば、プログラムは、少なくとも一部のステップを実行させるようにしてもよい。
 <デバイス依存性確認処理の詳細>
 図11は、デバイス依存判定部1024により実行される動作の詳細を示す。
 デバイス依存判定部1024は、デバイス依存定義を参照し、シナリオに含まれる操作に対応するデバイス依存性が「有」であるか否かを判定する(ステップS1102)。
 デバイス依存性が「有」である場合(ステップS1102:YES)、デバイス依存判定部1024は、デバイスに依存する操作であると認識する(ステップS1104)。
 デバイス依存判定部1024は、シナリオに含まれる対象となる操作に、デバイス依存性が「有」であることを表す情報を対応付けて記録する(ステップS1106)。
 デバイス依存性が「有」でない場合(ステップS1102:NO)、デバイス依存判定部1024は、デバイスに依存しない操作であると認識する(ステップS1108)。
 MPU102をデバイス依存判定部1024として機能させるためのプログラムは、例えば、フレキシブルディスク、CD-ROM、メモリカード等の記録媒体に記録された状態で提供される。また、プログラムをダウンロードするようにしてもよい。この記録媒体をコンピュータの補助記憶装置に挿入すると、記録媒体に記録されたプログラムが読み取られる。MPU102は、読み込んだプログラムをRAMあるいはHDDに書き込み、処理を実行する。プログラムは、コンピュータに、図11の各ステップS1102-S1108の処理を実行させる。また、例えば、プログラムは、少なくとも一部のステップを実行させるようにしてもよい。
 <操作対象変換処理の詳細>
 図12は、操作対象変換部1026により実行される動作の詳細を示す。図12には、移動端末200のタッチパネルの大きさに応じて、アイコンの座標が変換される例を示す。
 操作対象変換部1026は、操作対象を表す情報を取得する(ステップS1202)。デバイス依存判定部1024から、デバイスに依存すると判定された操作に対応付けられた操作対象を表す情報を取得する。
 操作対象変換部1026は、出力画面を解析する(ステップS1204)。操作対象変換部1026は、移動端末200の表示画面202に表示された画像を取得し、解析する。具体的には、表示画面202に表示された画像に含まれるアイコンの位置情報を解析する。
 操作対象変換部1026は、画面解析結果に基づいて、座標を計算する(ステップS1206)。操作対象変換部1026は、表示画面202に表示された画像に含まれるアイコンの位置情報を座標に変換する。
 操作対象変換部1026は、座標情報を出力する(ステップS1208)。操作対象変換部1026は、シナリオ実行部1028に、座標情報を入力する。
 MPU102を操作対象変換部1026として機能させるためのプログラムは、例えば、フレキシブルディスク、CD-ROM、メモリカード等の記録媒体に記録された状態で提供される。また、プログラムをダウンロードするようにしてもよい。この記録媒体をコンピュータの補助記憶装置に挿入すると、記録媒体に記録されたプログラムが読み取られる。MPU102は、読み込んだプログラムをRAMあるいはHDDに書き込み、処理を実行する。プログラムは、コンピュータに、図12の各ステップS1202-S1208の処理を実行させる。また、例えば、プログラムは、少なくとも一部のステップを実行させるようにしてもよい。
 上述した実施例では、デバイスに依存する操作の例として、「画面をプッシュする操作」、及び「キーを押下げる操作」が示されるが、特に座標を利用する操作に適用できる。
 また、移動端末200に搭載されたセンサに応じて、操作対象が変更されてもよい。具体的には、センサの感度や、温度に応じて、変更するようにしてもよい。
 本実施例によれば、移動端末に実装されているデバイスに拘わらず、該移動端末に搭載されている機能を評価することができる。
 以上、試験装置及び試験方法を実施例により説明したが、本発明は上記実施例に限定されるものではなく、本発明の範囲内で種々の変形及び改良が可能である。
 説明の便宜上、発明の理解を促すため具体的な数値例を用いて説明されたが、特に断りのない限り、それらの数値は単なる一例に過ぎず適切な如何なる値が使用されてよい。説明の便宜上、本発明の実施例に係る装置は機能的なブロック図を用いて説明されたが、そのような装置はハードウエアで、ソフトウエアで又はそれらの組み合わせで実現されてもよい。
 本願は2011年11月24日に出願した日本国特許出願第2011-256422号に基づきその優先権を主張するものであり、同日本国出願の全内容を本願に援用する。
 100 試験装置
 102 MPU
 104 記憶部
 106 入力部
 150 バス
 200 移動端末
 202 表示画面
 204(nは、n>0の整数) アイコン
 206 menuキー
 208 homeキー
 210 backキー
 1022 シナリオ選択部
 1024 デバイス依存判定部
 1026 操作対象変換部
 1028 シナリオ実行部
 1030 シナリオ実行結果判定部

Claims (8)

  1.  移動端末に搭載されたソフトウェアによる動作を評価する試験装置であって、
     移動端末に動作させる機能を実行させるための操作情報を含むシナリオを設定するシナリオ設定部と、
     該シナリオ設定部により設定されるシナリオに含まれる操作情報により表される操作が、該移動端末に実装されたデバイスによって影響を受けるか否かを判定する操作判定部と、
     該操作判定部により前記移動端末に実装されたデバイスによって影響を受けると判定された操作を前記移動端末に実装されたデバイスに応じて変換する操作対象変換部と、
     前記操作対象変換部により変換された操作に従って、前記シナリオ設定部により設定されたシナリオを実行するシナリオ実行部と、
     該シナリオ実行部により実行されたシナリオの実行結果が予め想定された結果と同じかどうかを判定するシナリオ実行結果判定部と
     を有する、試験装置。
  2.  請求項1に記載の試験装置において、
     前記シナリオ設定部により設定されるシナリオに含まれる操作情報により表される操作に画面をプッシュする操作、及びキーを押下げる操作の少なくとも1つが含まれる場合、前記操作判定部は、前記移動端末に実装されたデバイスによって影響を受けると判定する、試験装置。
  3.  請求項2に記載の試験装置において、
     前記操作対象変換部は、前記操作判定部により前記移動端末に実装されたデバイスによって影響を受けると判定された操作に前記画面をプッシュする操作、及び前記キーを押下げる操作の少なくとも1つが含まれる場合、前記移動端末に表示された画面情報を解析することにより、前記画面を押す操作、及び前記キーを押下げる操作を実行させる操作の少なくとも1つを実行させるための座標の範囲を計算する、試験装置。
  4.  請求項3に記載の試験装置において、
     前記操作対象変換部は、前記移動端末に搭載された画面情報を取得する機能により取得された画面情報を解析する、試験装置。
  5.  請求項1に記載の試験装置において、
     前記シナリオ設定部により設定されるシナリオに含まれる操作情報により表される操作にGPS測位を実行させる操作が含まれる場合、前記操作判定部は、前記移動端末に実装されたデバイスによって影響を受けると判定する、試験装置。
  6.  請求項5に記載の試験装置において、
     前記操作対象変換部は、前記操作判定部により前記移動端末に実装されたデバイスによって影響を受けると判定された操作に前記GPS測位を実行させる操作が含まれる場合、前記GPS測位を実行させる測位命令、及びパラメータの少なくとも一方を変換する、試験装置。
  7.  請求項1に記載の試験装置において、
     前記シナリオには、移動端末に動作させるべき機能が1又は複数含まれる、試験装置。
  8.  移動端末に搭載されたソフトウェアによる動作を評価する試験装置における試験方法であって、
     移動端末に動作させる機能を実行させるための操作情報を含むシナリオを設定するシナリオ設定ステップと、
     該シナリオ設定ステップにより設定されるシナリオに含まれる操作情報により表される操作が、該移動端末に実装されたデバイスによって影響を受けるか否かを判定する操作判定ステップと、
     該操作判定ステップにより前記移動端末に実装されたデバイスによって影響を受けると判定された操作を前記移動端末に実装されたデバイスに応じて変換する操作対象変換ステップと、
     前記操作対象変換ステップにより変換された操作に従って、前記シナリオ設定ステップにより設定されたシナリオを実行するシナリオ実行ステップと、
     該シナリオ実行ステップにより実行されたシナリオの実行結果が予め想定された結果と同じかどうかを判定するシナリオ実行結果判定ステップと
     を有する、試験方法。
PCT/JP2012/079997 2011-11-24 2012-11-19 試験装置及び試験方法 WO2013077299A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP12851238.1A EP2784679A4 (en) 2011-11-24 2012-11-19 TEST APPARATUS AND TEST METHOD
CN201280056947.3A CN103946808B (zh) 2011-11-24 2012-11-19 测试装置及测试方法
US14/240,756 US9298594B2 (en) 2011-11-24 2012-11-19 Testing apparatus and testing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011-256422 2011-11-24
JP2011256422A JP5324638B2 (ja) 2011-11-24 2011-11-24 試験装置及び試験方法

Publications (1)

Publication Number Publication Date
WO2013077299A1 true WO2013077299A1 (ja) 2013-05-30

Family

ID=48469743

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/079997 WO2013077299A1 (ja) 2011-11-24 2012-11-19 試験装置及び試験方法

Country Status (5)

Country Link
US (1) US9298594B2 (ja)
EP (1) EP2784679A4 (ja)
JP (1) JP5324638B2 (ja)
CN (1) CN103946808B (ja)
WO (1) WO2013077299A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104679400B (zh) * 2013-12-03 2018-02-06 华为终端(东莞)有限公司 一种非接触式输入信息的方法及终端
KR102249827B1 (ko) * 2014-04-21 2021-05-10 삼성전자주식회사 심볼(symbol) 생성을 위한 디스플레이 장치 및 그 제어방법
KR101590518B1 (ko) 2014-09-16 2016-02-02 원투씨엠 주식회사 터치모듈을 이용한 위치 기반 서비스 제공 방법
US10678681B2 (en) * 2015-03-10 2020-06-09 Siemens Aktiengesellshaft Method and device for automatic testing
JP2017219978A (ja) * 2016-06-06 2017-12-14 グレープシティ株式会社 プログラム自動テストのための方法およびプログラム
CN106294123B (zh) * 2016-07-22 2018-12-18 厦门美图移动科技有限公司 一种遍历测试中路径匹配的方法、装置及移动终端
JP7104947B2 (ja) * 2018-12-20 2022-07-22 株式会社ドヴァ 情報処理装置、制御方法及びプログラム
JP6910494B1 (ja) * 2020-03-31 2021-07-28 株式会社 ディー・エヌ・エー 情報処理プログラム、情報処理装置及び情報処理方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0628209A (ja) * 1992-07-06 1994-02-04 Hitachi Ltd プログラム検査装置
JPH06324121A (ja) * 1993-05-10 1994-11-25 Pfu Ltd 画像処理を用いた試験方法および試験装置
JPH0793185A (ja) * 1993-09-22 1995-04-07 Nippon Telegr & Teleph Corp <Ntt> ソフトウェア自動試験システム
JPH07250016A (ja) * 1994-03-11 1995-09-26 Anritsu Corp 無線端末試験装置
JP2003099288A (ja) * 2001-09-26 2003-04-04 Mitsubishi Electric Corp 携帯電話ソフトウエア自動試験方法および携帯電話ソフトウエア自動試験装置
JP2005539325A (ja) 2002-09-17 2005-12-22 エロ・タッチシステムズ・インコーポレイテッド 非線形タッチスクリーンのための流動的な修正

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5600789A (en) * 1992-11-19 1997-02-04 Segue Software, Inc. Automated GUI interface testing
WO2005009064A1 (en) * 2003-07-22 2005-01-27 Nokia Corporation Testing a data transfer functionality of a mobile device
US20050223360A1 (en) * 2004-03-31 2005-10-06 Bea Systems, Inc. System and method for providing a generic user interface testing framework
US7272753B2 (en) * 2004-06-30 2007-09-18 International Business Machines Corporation Methods and apparatus for translating application tests for execution with simulation software tools
JP2006119848A (ja) * 2004-10-20 2006-05-11 Fujitsu Ltd ソフトウェア更新プログラム、ソフトウェア更新装置およびソフトウェア更新方法
US7600220B2 (en) * 2005-01-11 2009-10-06 Worksoft, Inc. Extensible execution language
US7437275B2 (en) * 2005-08-03 2008-10-14 Agilent Technologies, Inc. System for and method of multi-location test execution
JPWO2007097014A1 (ja) * 2006-02-27 2009-07-09 則彦 竹林 情報システムの動作確認方法、その動作確認プログラム、記録媒体及び動作確認システム
KR20100041447A (ko) * 2008-10-14 2010-04-22 삼성전자주식회사 테스트 자동화 장치 및 테스트 자동화 방법
US8566648B2 (en) * 2011-02-02 2013-10-22 Salesforce, Inc. Automated testing on devices

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0628209A (ja) * 1992-07-06 1994-02-04 Hitachi Ltd プログラム検査装置
JPH06324121A (ja) * 1993-05-10 1994-11-25 Pfu Ltd 画像処理を用いた試験方法および試験装置
JPH0793185A (ja) * 1993-09-22 1995-04-07 Nippon Telegr & Teleph Corp <Ntt> ソフトウェア自動試験システム
JPH07250016A (ja) * 1994-03-11 1995-09-26 Anritsu Corp 無線端末試験装置
JP2003099288A (ja) * 2001-09-26 2003-04-04 Mitsubishi Electric Corp 携帯電話ソフトウエア自動試験方法および携帯電話ソフトウエア自動試験装置
JP2005539325A (ja) 2002-09-17 2005-12-22 エロ・タッチシステムズ・インコーポレイテッド 非線形タッチスクリーンのための流動的な修正

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2784679A4

Also Published As

Publication number Publication date
EP2784679A1 (en) 2014-10-01
CN103946808A (zh) 2014-07-23
US9298594B2 (en) 2016-03-29
US20140325281A1 (en) 2014-10-30
EP2784679A4 (en) 2016-07-06
CN103946808B (zh) 2016-08-17
JP2013109719A (ja) 2013-06-06
JP5324638B2 (ja) 2013-10-23

Similar Documents

Publication Publication Date Title
JP5324638B2 (ja) 試験装置及び試験方法
US9280451B2 (en) Testing device
CN107038112B (zh) 应用界面的调试方法及装置
JP2012103786A (ja) テスト支援装置、制御方法、及びプログラム
KR101684405B1 (ko) 휴대용 단말기에서 에러 발생을 분석하기 위한 장치 및 방법
JP2001268202A (ja) 携帯電話の検査装置
CN111381992B (zh) 一种崩溃日志处理方法、装置、电子设备及存储介质
JP2005128279A (ja) 遠隔操作システム
JP4489710B2 (ja) 機器の検査装置
CN109104608B (zh) 电视性能测试方法、设备及计算机可读存储介质
CN104991857B (zh) 跟踪调试方法及装置
CN112099892B (zh) 一种通信终端及快速扫描二维码的方法
KR101796009B1 (ko) 프로그램 자동 분석 시스템 및 이를 이용한 자동분석 방법
JP4896909B2 (ja) シナリオ生成装置及びプログラム
CN116175558A (zh) 一种智能机械手测试系统和测试方法
JP2010231594A (ja) 試験プログラム及び試験装置
JP2011103609A (ja) 機器、装置の機能チェック装置
US11538475B2 (en) Information processing apparatus and information processing method
CN115543831A (zh) 一种测试脚本生成方法、装置、设备和存储介质
CN113900932A (zh) 测试脚本生成方法、装置、介质及电子设备
CN109684525B (zh) 文档显示方法、装置、存储介质及测试设备
JPH10301809A (ja) Gui操作手順の自動生成方法
JP4568150B2 (ja) 処理装置及び処理装置システム
JP2006155333A (ja) 情報閲覧システム、情報転送サーバ、携帯端末及びそのプログラム
US20060136426A1 (en) Method for automated control of an internet site, as well as a use

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12851238

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14240756

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2012851238

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE