JP2000267888A - Method and instrument for measuring software test execution covering rate and recording medium - Google Patents

Method and instrument for measuring software test execution covering rate and recording medium

Info

Publication number
JP2000267888A
JP2000267888A JP11076706A JP7670699A JP2000267888A JP 2000267888 A JP2000267888 A JP 2000267888A JP 11076706 A JP11076706 A JP 11076706A JP 7670699 A JP7670699 A JP 7670699A JP 2000267888 A JP2000267888 A JP 2000267888A
Authority
JP
Japan
Prior art keywords
test
program module
data
processing
test point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP11076706A
Other languages
Japanese (ja)
Inventor
Akira Nagashima
彰 長島
Tadayuki Matsutani
忠行 松谷
Nobutaka Hattori
信隆 服部
Kingo Ando
金吾 安藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Comware Corp
Original Assignee
NTT Communicationware Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Communicationware Corp filed Critical NTT Communicationware Corp
Priority to JP11076706A priority Critical patent/JP2000267888A/en
Publication of JP2000267888A publication Critical patent/JP2000267888A/en
Pending legal-status Critical Current

Links

Landscapes

  • Debugging And Monitoring (AREA)

Abstract

PROBLEM TO BE SOLVED: To quantitatively measure what degree a test is covered to a program module to be an object and to notify a person in charge of the test of it when a software test is performed. SOLUTION: Test point list data and test log data are inputted, and a log data label test point list collation processing part 12 decides whether or not a test point recorded in the test log data is registered with the test point list data. When it is registered, a test to the test point concerned is considered as executed and the contents of the test point list data are updated. The updated test point list data is finally referred to, a covering rate calculating part 16 calculates the rate of executed tests in test object points, and calculated results are outputted from a covering rate outputting part 17.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、ソフトウェア試験
を実施する過程でその実施状況を的確に把握するために
用いて好適なソフトウェア試験実施網羅率測定方法、ソ
フトウェア試験実施網羅率測定装置および記録媒体に関
する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a software test execution coverage measuring method, a software test execution coverage measuring apparatus, and a recording medium which are preferably used for accurately grasping the state of execution of a software test in the course of executing the software test. About.

【0002】[0002]

【従来の技術】ソフトウェアの開発工程では、設計、製
造工程の後に単体、結合、総合の各試験が行われ、これ
らの試験を通じてソフトウェアの品質特性が機能単位に
確認される。特に、単体試験は製造直後の試験であるこ
とから、その担う役割は大きい。この単体試験では、個
々のプログラムモジュール(サブルーチン、手続き、関
数など)単位に試験を実施する必要があるため、試験項
目数が多く、それに伴い試験工数も多くを要する。
2. Description of the Related Art In a software development process, after a design and a manufacturing process, individual tests, combination tests, and comprehensive tests are performed, and the quality characteristics of software are confirmed in functional units through these tests. In particular, since the unit test is a test immediately after manufacturing, it plays a large role. In this unit test, since it is necessary to perform a test for each program module (subroutine, procedure, function, etc.), the number of test items is large, and accordingly, the number of test steps is also large.

【0003】従来、単体試験の対象となるプログラムモ
ジュールに対する種々の入力条件を考慮した試験項目の
抽出は、人手により行われていた。また、各試験項目に
対して実際に試験が実施されたか否かの判断は試験担当
者が行っていた。そして、各試験担当者から申告された
各試験項目に対する実施状況を試験実施管理者が取りま
とめて、全体の試験実施状況を把握することとしてい
た。
Conventionally, extraction of test items in consideration of various input conditions for a program module to be subjected to a unit test has been performed manually. In addition, the person in charge of the test determined whether or not the test was actually performed for each test item. Then, the test execution manager collects the execution status of each test item reported by each test staff, and grasps the overall test execution status.

【0004】[0004]

【発明が解決しようとする課題】このように、実施され
た試験項目を特定し、全体の実施状況を把握するには、
人が介在して試験実施状況を取りまとめる必要があっ
た。このため、迅速に試験実施状況を把握することがで
きなかった。また、人手により試験ポイントを抽出して
いたため、試験実施結果から実際に試験が行われた処理
ルートを特定して当該処理ルートに関し試験済みとする
作業も人が行う必要があった。このため、試験実施結果
から直ちに全体の試験項目に対してどの程度試験が実施
されたかを示す定量的な値を得ることができなかった。
その結果、誤って試験の実施状況が認識され、円滑に試
験が遂行できなかったり、十分な試験が行われないま
ま、後工程で不具合が発見される等の事態を招来してい
た。
As described above, in order to identify the test items performed and to grasp the overall implementation status,
It was necessary to coordinate the test implementation status with human intervention. For this reason, it was not possible to quickly ascertain the state of test execution. In addition, since the test points were manually extracted, it was necessary for a person to specify the processing route on which the test was actually performed based on the test execution result, and to perform the work of making the test on the processing route. For this reason, it was not possible to immediately obtain a quantitative value indicating how much the test was performed for all the test items from the test execution results.
As a result, the state of execution of the test is erroneously recognized, and a situation in which the test cannot be performed smoothly or a defect is found in a later process without sufficient testing has been caused.

【0005】そこで、この発明は、このような課題に着
目してなされたもので、ソフトウェア試験を実施する過
程において、試験実施結果から直ちに試験実施状況を把
握することができ、かつ、試験実施状況を定量化して試
験担当者に通知することができる試験実施網羅率測定方
法、試験実施網羅率測定装置および記録媒体を提供する
ことを目的とするものである。
Accordingly, the present invention has been made in view of such a problem, and in the process of performing a software test, the test execution status can be immediately grasped from the test execution result. It is an object of the present invention to provide a test execution coverage ratio measuring method, a test execution coverage ratio measuring apparatus, and a recording medium which can quantify and notify a test person.

【0006】[0006]

【課題を解決するための手段】上記目的を達成するため
に、第1発明のソフトウェア試験実施網羅率測定方法
は、ソフトウェアの試験を実施した結果、当該試験の対
象であるプログラムモジュールに対してどの程度試験が
網羅されたかを測定する方法であって、プログラムモジ
ュールにおける処理の分岐点から派生する処理ルート毎
に該処理ルートを特定する情報を記録した第1のデータ
を入力する過程と、前記プログラムモジュールに対する
試験において通過した前記処理ルートを特定する情報を
記録した第2のデータを入力する過程と、前記第2のデ
ータに記録された情報によって特定される処理ルート
が、前記第1のデータに記録された情報によって特定さ
れる処理ルートのいずれかと一致するか否かを判定し、
一致した処理ルートに関して試験は実施済みである旨の
情報を記憶する記憶過程と、前記記憶過程で記憶された
情報を参照し、前記第1のデータに記録された情報によ
って特定される複数の処理ルートに対してどの程度前記
試験が網羅されたかを示す指標となる値を算出する過程
とを有することを特徴とするものである。
In order to achieve the above object, a software test execution coverage measuring method according to a first aspect of the present invention provides a method for measuring a program module as a result of a software test. A method for measuring whether or not the degree test has been covered, comprising: for each processing route derived from a processing branch point in a program module, inputting first data recording information for specifying the processing route; A step of inputting second data recording information specifying the processing route passed in the test for the module; and a processing route specified by the information recorded in the second data, Determine whether it matches any of the processing routes specified by the recorded information,
A storing step of storing information indicating that the test has been performed with respect to the matched processing route, and a plurality of processes specified by the information recorded in the first data with reference to the information stored in the storing step Calculating a value as an index indicating how much the test has been covered for the route.

【0007】第2発明のソフトウェア試験実施網羅率測
定方法は、上記第1発明のソフトウェア試験実施網羅率
測定方法において、前記各プログラムモジュールは階層
化されて構成されており、前記指標となる値は、同一階
層のプログラムモジュールを単位として算出されること
を特徴とするものである。
A software test execution coverage measuring method according to a second invention is the software test execution coverage measurement method according to the first invention, wherein each of the program modules is configured in a hierarchical manner, and the value serving as the index is , Which are calculated in units of program modules of the same hierarchy.

【0008】第3発明のソフトウェア試験実施網羅率測
定装置は、上記第1または第2発明のソフトウェア試験
実施網羅率測定方法を実行することを特徴とするもので
ある。第4発明の記録媒体は、上記第1または第2発明
のソフトウェア試験実施網羅率測定方法を実行するプロ
グラムを記録したものである。
According to a third aspect of the present invention, there is provided a software test execution coverage measuring apparatus which executes the software test execution coverage measuring method according to the first or second invention. A recording medium according to a fourth aspect of the present invention stores a program for executing the software test execution coverage measuring method according to the first or second aspect of the present invention.

【0009】なお、このプログラムをFD、CD−RO
M、テープメディア、DVD−RAM等の記録媒体に格
納して頒布する(ネットワーク経由でこのプログラムを
配信したり、ダウンロードする行為も含む)ことによっ
ても本発明を実施することができる。
[0009] This program is called FD or CD-RO.
The present invention can also be implemented by storing and distributing the program in a recording medium such as M, tape media, DVD-RAM, etc. (including the act of distributing and downloading this program via a network).

【0010】[0010]

【発明の実施の形態】この発明の好ましい実施の形態に
ついて、以下、添付図面を参照しつつ詳細に説明する。 1.実施形態の構成 1.1.機能構成 図1は、ソフトウェア単体試験に用いられる本実施形態
に係る試験実施網羅率測定装置1を示している。この試
験実施網羅率測定装置1は、プログラムモジュールに対
する試験の結果出力されたログデータを入力する試験ロ
グデータ入力部10と、この試験ログデータの解析を行
う試験ログデータ解析部11と、入力された試験ログデ
ータに記述されたラベルと試験ポイント一覧(ともに後
述する)との比較照合を行うログデータラベル・試験ポ
イント一覧照合処理部12と、試験ポイント一覧データ
を入力する試験ポイント一覧データ入力部13と、この
試試験ポイント一覧データを記憶する試験ポイント一覧
データ記憶部14と、試験ポイント一覧データを更新す
る試験ポイント一覧データ更新処理部15と、プログラ
ムモジュールに対する試験の実施網羅率を算出する網羅
率算出部16と、算出された試験実施網羅率データを出
力する網羅率出力部17とを備えて構成される。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Preferred embodiments of the present invention will be described below in detail with reference to the accompanying drawings. 1. Configuration of embodiment 1.1. Functional Configuration FIG. 1 shows a test coverage percentage measuring apparatus 1 according to the present embodiment used for a software unit test. The test execution coverage measuring device 1 includes a test log data input unit 10 for inputting log data output as a result of a test on a program module, and a test log data analysis unit 11 for analyzing the test log data. A log data label / test point list comparison processing unit 12 for comparing and comparing a label described in the test log data with a test point list (both will be described later), and a test point list data input unit for inputting test point list data 13, a test point list data storage unit 14 for storing the test test point list data, a test point list data update processing unit 15 for updating the test point list data, and a coverage for calculating a test coverage for the program module. Rate calculating unit 16 and a coverage for outputting the calculated test execution coverage data It constructed an output unit 17.

【0011】試験ログデータ入力部10には、図2に示
すプログラムモジュール試験装置3から出力された試験
ログデータが入力され、このデータの内容が試験ログデ
ータ解析部11で解析され、ログデータラベル・試験ポ
イント一覧照合処理部12に供給される。一方、試験ポ
イント一覧データ入力部13には、図2に示す試験ポイ
ント抽出装置2から出力される試験ポイント一覧データ
が入力され、このデータが試験ポイント一覧データ記憶
部14で記憶・保持される。
The test log data input unit 10 receives test log data output from the program module test apparatus 3 shown in FIG. 2, and the contents of this data are analyzed by the test log data analysis unit 11, and the log data label is output. -Supplied to the test point list matching processing unit 12. On the other hand, test point list data output from the test point extraction device 2 shown in FIG. 2 is input to the test point list data input unit 13, and this data is stored and held in the test point list data storage unit 14.

【0012】ログデータラベル・試験ポイント一覧照合
処理部12は、試験ログデータ解析部11で解析された
内容にしたがって、試験ログデータによって示される試
験の際に通過した処理ルートが、試験ポイント一覧デー
タに記載されているか否かの照合を行う。記載されてい
る場合には試験ポイント一覧データ更新処理部15によ
り記憶部14に記憶された試験ポイント一覧データが書
き換えられる。試験の際に通過したすべての処理ルート
に対して上記ログデータラベル・試験ポイント一覧照合
処理部12での照合が終了すると、網羅率算出部16で
試験実施網羅率が算出され、この結果が網羅率出力部1
7を介して出力される。
The log data label / test point list collation processing unit 12 determines, according to the content analyzed by the test log data analysis unit 11, the processing route passed during the test indicated by the test log data, Is checked to see if it is described in. If it is described, the test point list data stored in the storage unit 14 is rewritten by the test point list data update processing unit 15. When the log data label / test point list comparison processing unit 12 completes the comparison for all the processing routes that have passed during the test, the coverage calculation unit 16 calculates the test execution coverage. Rate output unit 1
7 is output.

【0013】図2は、試験実施網羅率測定装置1に試験
ポイント一覧データを供給する試験ポイント抽出装置
2、および試験実施網羅率測定装置1に試験ログデータ
を供給するプログラムモジュール試験装置3について示
している。試験ポイント抽出装置2は、試験対象のプロ
グラムモジュールを入力するプログラムモジュール入力
部20と、このプログラムモジュールに対して後述する
処理により処理分岐点を示すラベルを付与する処理分岐
点ラベル付与部21と、このラベルが付与されたプログ
ラムモジュールを記憶するラベル付プログラムモジュー
ル記憶部22と、試験ポイントを抽出する試験ポイント
抽出部23と、抽出された試験ポイントを一覧データと
してまとめて出力する試験ポイント一覧データ生成・出
力部24とを備えて構成される。
FIG. 2 shows a test point extracting device 2 for supplying test point list data to the test coverage measurement device 1 and a program module test device 3 for supplying test log data to the test coverage measurement device 1. ing. The test point extraction device 2 includes a program module input unit 20 for inputting a program module to be tested, a processing branch point labeling unit 21 for providing a label indicating a processing branch point to the program module by a process described later, A labeled program module storage unit 22 for storing the labeled program modules, a test point extraction unit 23 for extracting test points, and test point list data generation for outputting the extracted test points as list data An output unit 24;

【0014】プログラムモジュール入力部20からは、
試験対象のプログラムモジュールが入力される。このプ
ログラムモジュールは、オブジェクト指向技術に基づく
設計を行うべく、プログラミング言語C++で記述され
ている。
From the program module input unit 20,
A program module to be tested is input. This program module is described in the programming language C ++ in order to perform design based on the object-oriented technology.

【0015】処理分岐点ラベル付与部21は、プログラ
ムモジュール入力部20から入力されたプログラムモジ
ュールに対してラベルを付与する処理を行う。つまり、
構文解析部21aは、入力されたプログラムモジュール
に記述された構文を解析することにより、処理の分岐点
(例えば、後述する図4(b)の符号Pで示す部分)を
検索し、さらにその分岐点から派生するルート(分岐
節;例えば、後述する図4(b)の符号B1,B2で示
す部分)をサーチする処理を実行する。また、ラベル生
成・書込部21bは、この分岐節毎に当該分岐節を特定
するラベルを生成し、このラベルを該分岐節中に書き込
む処理を実行する。これら構文解析部21a、ラベル生
成・書込部21bにおける処理により、プログラムモジ
ュールにラベルが付与される。
The processing branch point labeling unit 21 performs a process of labeling the program module input from the program module input unit 20. That is,
The syntax analyzing unit 21a analyzes a syntax described in the input program module to search for a processing branch point (for example, a portion indicated by a symbol P in FIG. 4B described later), and further searches for the branch point. A process of searching for a route derived from a point (a branch node; for example, portions indicated by reference numerals B1 and B2 in FIG. 4B described later) is executed. Further, the label generation / write unit 21b generates a label for specifying the branch node for each branch node, and executes a process of writing the label in the branch node. A label is given to a program module by the processing in the syntax analysis unit 21a and the label generation / write unit 21b.

【0016】分岐点ラベル付プログラムモジュール記憶
部22は、この分岐点ラベルが付与された各プログラム
モジュールを記憶・保持し、試験ポイント抽出部23に
供給する。また、実際にプログラムモジュールに対する
試験を行う際には、プログラムモジュール試験装置3に
試験対象となる分岐点ラベル付プログラムモジュールを
供給する。試験ポイント抽出部23は、分岐点ラベル付
プログラムモジュール記憶部22からラベルが付与され
たプログラムモジュールを読み出して、このラベルを検
索して試験ポイントを抽出する。試験ポイント一覧生成
・出力部24では、試験ポイント抽出部23で抽出され
た試験ポイントの内容を整理・統合し、試験ポイント一
覧データとしてまとめて試験実施網羅率測定装置1に出
力する。
The branch point label-attached program module storage section 22 stores and holds each program module to which the branch point label is assigned, and supplies the program module to the test point extraction section 23. When a test is actually performed on a program module, a program module with a branch point label to be tested is supplied to the program module test apparatus 3. The test point extracting unit 23 reads out the labeled program module from the branch point labeled program module storage unit 22, searches the label, and extracts the test point. The test point list generation / output unit 24 organizes and integrates the contents of the test points extracted by the test point extraction unit 23, collectively outputs test point list data, and outputs the data to the test execution coverage measuring device 1.

【0017】プログラムモジュール試験装置3は、試験
対象プログラムモジュール入力部30と、コンパイラ3
1と、デバッガ32と、試験ログデータ出力部33とを
備えて構成される。試験対象プログラムモジュール入力
部30から入力されたラベル付プログラムモジュール
は、デバッグオプションの指定を受けてコンパイラ31
によってコンパイル・リンクされ、実行モジュールが作
成される。試験担当者は、デバッガ32を用いてこの実
行モジュールを起動し、ブレイクポイントを設定してプ
ログラムモジュールを1ステートメントずつ実行させる
ことで、当該プログラムモジュールをトレースしつつ単
体試験を行う。この試験の過程で、試験対象のプログラ
ムモジュールに書き込まれたラベルが処理分岐点を通過
する度にログファイルに出力される。このログファイル
が試験ログデータ出力部33によって試験実施網羅率測
定装置1に出力される。
The program module test apparatus 3 includes a program module input unit 30 to be tested and a compiler 3
1, a debugger 32, and a test log data output unit 33. The labeled program module input from the test target program module input unit 30 receives a debug option and receives
Is compiled and linked, and an execution module is created. The tester activates this execution module using the debugger 32, sets a breakpoint and executes the program module one statement at a time, thereby performing a unit test while tracing the program module. In the course of this test, the label written in the program module to be tested is output to the log file every time the label passes through the processing branch point. This log file is output to the test execution coverage measuring device 1 by the test log data output unit 33.

【0018】1.2.ハードウェア構成 図3は、試験実施網羅率測定装置1、試験ポイント抽出
装置2、およびプログラムモジュール試験装置3のハー
ドウェア構成の概略を示す図である。同図に示すよう
に、これら各々の装置は装置全体を統括・制御するCP
U100と、上述の図1,図2に示す各機能構成部(符
号10〜17,符号20〜24,符号30〜33で示し
たブロック)における処理を実行するプログラムが展開
されるRAM101と、種々の制御用プログラムが記憶
されたROM102と、ラベル付プログラムモジュー
ル、試験ポイント一覧データ等の種々のデータが記憶・
保持されるHDD(ハードディスク装置)103と、外
部端末からネットワーク経由で処理対象となるデータを
受け入れるとともに、各装置間の接続用インタフェース
となる通信制御部104とを備えて構成され、これらが
バス105で相互に接続されている。
1.2. Hardware Configuration FIG. 3 is a diagram schematically illustrating a hardware configuration of the test execution coverage measuring device 1, the test point extracting device 2, and the program module testing device 3. As shown in the figure, each of these devices is a CP that controls and controls the entire device.
U100, a RAM 101 on which a program for executing processing in each of the functional components (blocks denoted by reference numerals 10 to 17, 20 to 24, and 30 to 33) illustrated in FIGS. The ROM 102 in which the control program is stored and various data such as a labeled program module and test point list data are stored.
A hard disk drive (HDD) 103 and a communication control unit 104 serving as a connection interface between the devices while receiving data to be processed from an external terminal via a network. Connected to each other.

【0019】2.実施形態の動作 上述の通り、試験ポイント抽出装置2では試験ポイント
一覧データが生成され(処理1)、プログラムモジュー
ル試験装置3では試験ログデータが生成され(処理
2)、これらのデータが試験実施網羅率測定装置1に入
力されて試験実施網羅率が算出される(処理3)。そこ
で、これら一連の処理1〜3について項を分けて順番に
説明する。
2. Operation of Embodiment As described above, the test point extraction device 2 generates test point list data (Process 1), and the program module test device 3 generates test log data (Process 2). The test execution coverage is input to the rate measuring device 1 and calculated (process 3). Therefore, the series of processes 1 to 3 will be described in order by dividing the items.

【0020】2.1.試験ポイント一覧データ生成処理
(処理1) 試験ポイント抽出装置2において実行される試験ポイン
ト一覧データ生成処理の流れについて、図5に示してい
る。まず、試験対象のプログラムモジュールに対してラ
ベルを付与する処理が実行される(S10)。
2.1. Test Point List Data Generation Processing (Process 1) FIG. 5 shows a flow of test point list data generation processing executed in the test point extraction device 2. First, a process of assigning a label to a test target program module is executed (S10).

【0021】図4(a)は、このラベルのフォーマット
を示している。すなわち、このラベルは、各プログラム
モジュールにおける処理の分岐節に書き込まれ、クラス
名L1と、メンバ関数名(メソッド名)L2と、「if,
for, switch」文等の分岐文種別L3と、着目する関数
内のインデックスとなる関数内通番L4と、「then,els
e, case」節等の節種別L5とから構成される。このラ
ベルの情報により、分岐文の位置、すなわち、ラベルを
与えるプログラム上の位置(処理ルート)が明確化され
る。つまり、クラス名、メンバ関数名は、着目する関数
で使用されているものがそのまま使用されるため、この
表記によって、ラベルを見るだけで「どのクラスに属す
る、どのメンバ関数の、どの分岐点の、どの分岐節に付
けられたラベルであるか」が分かるようになっている。
FIG. 4A shows the format of this label. That is, this label is written in the branch of the processing in each program module, and the class name L1, the member function name (method name) L2, and "if,
A branch statement type L3 such as a “for, switch” statement, a function serial number L4 serving as an index in the function of interest, and “then, els
e, case "clauses and other clause types L5. The label information clarifies the position of the branch statement, that is, the position (processing route) in the program that gives the label. In other words, since the class name and member function name used in the function of interest are used as they are, just by looking at the label, it is possible to simply “see which class, which member function, which branch point, , To which branch node the label is attached ".

【0022】図4(b)は、プログラムモジュールにお
いて、分岐点Pから派生した分岐節B1,B2にラベル
が実際に書き込まれた例を示している。同図において、
,に示す「printf」文の行がラベルである。このよ
うなラベルをプログラムモジュールに埋め込むことによ
り、では、「Procという名前のクラスに属する、proc
1というメンバ関数内のif文中の通番1000番のthen
節における処理である」という情報が、デバッガ32を
起動して単体試験を実行する際にprintf文によって標準
出力に出力され、さらにこの情報がリダイレクションに
より上述の試験ログファイルに書き込まれる。
FIG. 4B shows an example in which labels are actually written in the branch nodes B1 and B2 derived from the branch point P in the program module. In the figure,
The line of the “printf” statement shown in, is the label. By embedding such a label in a program module, proc belongs to a class named Proc.
Then of serial number 1000 in the if statement in member function 1
This is output to the standard output by a printf statement when the debugger 32 is started and a unit test is executed, and this information is written to the above-described test log file by redirection.

【0023】処理分岐点ラベル付与部21において実行
される、このようなプログラムモジュールに対するラベ
ルの書き込み処理の内容を図8に示している。このラベ
ル書き込み処理では、まず、ラベル番号(図4(a)に
おける関数内通番L4)の初期値(例えば1000番)
が設定される(S100)。次に、構文解析部21aで
は、プログラムモジュールを1行単位で読み込み(S1
01)、読み込んだ文字列中に分岐節があるか否かが判
断される(S102)。分岐節がない場合(S102;
NO)、ステップS106に移行する。一方、読み込ん
だ文字列中に分岐節がある場合、ラベル生成・書込部2
1bは、上述のラベルを生成し(S103)、このラベ
ルをプログラムモジュール中の着目している分岐節に書
き込む処理を行う(S104)。そして、ラベル番号の
値を所定数だけインクリメントして(S105)、ステ
ップS101で読み込んだソースモジュール中の行が最
終行であるか否かが判断される(S106)。最終行で
ある場合(S106;YES)、プログラムモジュール
に対するラベル付与処理を終了する。一方、最終行では
ない場合(S106;NO)、次の行へポインタを移し
て(S107)、再度ステップS101以下の処理が実
行される。
FIG. 8 shows the contents of the label write processing for such a program module, which is executed in the processing branch point labeling section 21. In this label writing process, first, an initial value (for example, number 1000) of the label number (serial number L4 in the function in FIG. 4A)
Is set (S100). Next, the syntax analysis unit 21a reads the program module line by line (S1
01), it is determined whether there is a branch clause in the read character string (S102). When there is no branch node (S102;
NO), and it transfers to step S106. On the other hand, if there is a branch clause in the read character string, the label generation / write unit 2
1b generates the above-described label (S103), and performs a process of writing this label to the branch node of interest in the program module (S104). Then, the value of the label number is incremented by a predetermined number (S105), and it is determined whether or not the line in the source module read in step S101 is the last line (S106). If it is the last line (S106; YES), the labeling process for the program module ends. On the other hand, if it is not the last line (S106; NO), the pointer is moved to the next line (S107), and the processing from step S101 is executed again.

【0024】再び、図5の説明に戻る。このラベルが書
き込まれたプログラムモジュールは、ラベル付プログラ
ムモジュール記憶部22に記憶される。試験ポイント抽
出部23は、記憶されたラベル付プログラムモジュール
を読み出して、次のように試験ポイントを抽出して試験
ポイント一覧データを生成する。まず、ラベル付プログ
ラムモジュールの最初の分岐節へポインタを移動し(S
11)、この分岐節に記述されているラベル部分(図4
(b)の,で示されるprintf文内のメッセージ)を
取得し、その内容をファイルに書き込む処理を行う。こ
の試験ポイント一覧データの内容について、図9(b)
(c)に示している。同図に示すように、左側欄の
「未」「済」となっているのは、試験実施状況を示し、
右側欄はラベル(実行時に出力されるメッセージ内容)
である。
Returning to the description of FIG. The program module to which the label has been written is stored in the labeled program module storage unit 22. The test point extracting unit 23 reads the stored labeled program module, extracts test points as follows, and generates test point list data. First, the pointer is moved to the first branch section of the labeled program module (S
11), the label portion described in this branch clause (FIG. 4)
(B) The message in the printf statement indicated by, is acquired, and the contents are written to a file. FIG. 9B shows the contents of the test point list data.
(C). As shown in the figure, "Not yet" and "Done" in the left column indicate the test execution status,
The right column is the label (contents of the message output at execution)
It is.

【0025】次に、このラベルによって特定される試験
ポイントの実施状況が「未実施」である旨がファイルに
書き込まれる(S13)。そして、すべての分岐節につ
いて処理が終了したか否かが判断される(S14)。す
べての分岐節について処理が終了した場合(S14;Y
ES)は、この試験ポイント一覧データ生成処理が完了
する。一方、すべての分岐節について処理が終了してい
ない場合(S14;NO)は、ラベル付プログラムモジ
ュールの次の分岐節へポインタを移動し(S15)、ス
テップS12以下の処理が再度実行される。
Next, the fact that the execution status of the test point specified by the label is "not executed" is written in the file (S13). Then, it is determined whether the processing has been completed for all branch nodes (S14). When the processing has been completed for all branch nodes (S14; Y
In ES), the test point list data generation processing is completed. On the other hand, if the processing has not been completed for all the branch clauses (S14; NO), the pointer is moved to the next branch clause of the labeled program module (S15), and the processing from step S12 is executed again.

【0026】2.2.試験ログデータ生成処理(処理
2) 上述の通り、プログラムモジュール試験装置3では対象
となるプログラムモジュールに対して試験が実施され、
試験時に通過が確認された試験ポイントを記録したログ
データが生成される。図6は、その試験ログデータ生成
処理の流れを示すフローチャートである。まず、記憶部
22に記憶されたラベル付プログラムモジュールを含む
ソースファイルが試験対象プログラムモジュール入力部
30から入力されると(S20)、コンパイラ31は、
このソースファイルをデバッグオプション付きでコンパ
イル・リンクして実行モジュールを生成する処理を実行
する(S21)。次にデバッガ32が起動され(S2
2)、デバッガ32上で上記実行モジュールが起動され
る(S23)。そして、試験担当者がブレイクポイント
を設定して、プログラムモジュールに対するトレースが
開始される(S24)。この際、処理分岐点を通過する
際に出力されるメッセージがログファイルに記録される
(S25)。
2.2. Test Log Data Generation Process (Process 2) As described above, the program module test apparatus 3 performs a test on a target program module,
Log data is recorded that records the test points whose passage was confirmed during the test. FIG. 6 is a flowchart showing the flow of the test log data generation process. First, when a source file including a labeled program module stored in the storage unit 22 is input from the test target program module input unit 30 (S20), the compiler 31
The source file is compiled and linked with a debug option to execute a process of generating an execution module (S21). Next, the debugger 32 is activated (S2
2), the execution module is activated on the debugger 32 (S23). Then, the tester sets a breakpoint, and tracing for the program module is started (S24). At this time, a message output when passing through the processing branch point is recorded in the log file (S25).

【0027】このログファイルの内容を図9(a)に示
している。同図に示すように、デバッグの過程で、prin
tf文によって出力されるメッセージが、通過した処理ル
ートに対応するラベルとして出力されている。デバッガ
を用いたトレースを終了した段階で、この試験ログデー
タ生成処理が完了する。一方、トレースが完了していな
い場合(S26;NO)には、再び、ステップS24以
下の処理が実行される。
FIG. 9A shows the contents of the log file. As shown in the figure, during the debugging process, prin
The message output by the tf statement is output as a label corresponding to the processing route that has passed. When the trace using the debugger is completed, the test log data generation processing is completed. On the other hand, if the tracing has not been completed (S26; NO), the processing from step S24 is executed again.

【0028】2.3.試験実施網羅率測定処理(処理
3) さて、このようにして、試験ポイント一覧データと試験
ログデータとが揃うと、これらのデータが試験実施網羅
率測定装置1に入力され、図7に示す試験実施網羅率測
定処理が開始される。まず、試験ポイント一覧データが
試験ポイント一覧データ入力部13から入力され(S3
0)、試験ログデータが試験ログデータ入力部10から
入力される(S31)。試験ログデータ解析部11でロ
グデータの内容が解析されて試験実施時に通過した試験
ポイントが抽出され、ログデータラベル・試験ポイント
一覧照合処理部12で、この試験ポイントが試験ポイン
ト一覧に登録されているか否かが判断される。
2.3. Test Implementation Coverage Measurement Process (Process 3) When the test point list data and the test log data are prepared in this way, these data are input to the test execution coverage measuring device 1 and the test shown in FIG. The execution coverage measurement process is started. First, test point list data is input from the test point list data input unit 13 (S3).
0), test log data is input from the test log data input unit 10 (S31). The test log data analysis unit 11 analyzes the contents of the log data and extracts test points that have passed during the test, and the log data label / test point list matching processing unit 12 registers the test points in the test point list. Is determined.

【0029】すなわち、試験ログデータの最初のラベル
へポインタを移動し(S32)、着目しているラベルが
試験ポイント一覧に登録されているか否かが検索される
(S33)。そして、試験ポイント一覧データ中に一致
するラベルがあるか否かが判断される(S34)。試験
ポイント一覧データ中に一致するラベルがある場合(S
34;YES)、試験ポイント一覧データ更新処理部1
5は、試験ポイント一覧データ記憶部14に記憶されて
いる試験ポイント一覧データの内容を更新する。つま
り、該当する試験ポイントの実施状況を「未実施」から
「実施済」に更新する処理が実行される。試験ポイント
一覧データにおけるこの更新処理の状況を図9(b)
(c)に示している。同図(b)では、ラベルBとし
て、「未実施」とされていた試験ポイントが、同図
(a)の試験ログデータに記録されていることから、同
図(c)に示すように「実施済」とされている。
That is, the pointer is moved to the first label of the test log data (S32), and it is searched whether or not the label of interest is registered in the test point list (S33). Then, it is determined whether or not there is a matching label in the test point list data (S34). When there is a matching label in the test point list data (S
34; YES), test point list data update processing unit 1
5 updates the contents of the test point list data stored in the test point list data storage unit 14. That is, a process of updating the execution status of the corresponding test point from “not performed” to “completed” is executed. FIG. 9B shows the status of this update processing in the test point list data.
(C). In FIG. 6B, since the test point which was set as “not performed” as the label B is recorded in the test log data of FIG. 7A, as shown in FIG. Done. "

【0030】このように、試験ポイント一覧データが更
新されると、試験ログデータ中のすべてのラベルについ
て処理が終了したか否かが判断される(S36)。すべ
てのラベルについて、処理が終了していない場合(S3
6;NO)、次のラベルへポインタを移動して(S3
8)、ステップS33以下の処理が再度実行される。一
方、ログデータのすべてのラベルについて処理が終了し
た場合には(S36;YES)、網羅率算出部16で網
羅率が算出されて、その結果が網羅率出力部17から出
力される。ここで、試験実施後に試験ポイント一覧デー
タで「実施済」となっている試験ポイント数を通過ポイ
ント数(試験済ポイント数)とし、試験開始前に試験ポ
イント一覧データにおいて「未実施」となっていた試験
ポイント数を全ポイント数として、 網羅率=通過ポイント数/全ポイント数 として算出される。さらに、この網羅率は、同一のクラ
スに属するプログラムモジュール単位に算出され出力さ
れる。
As described above, when the test point list data is updated, it is determined whether or not the processing has been completed for all the labels in the test log data (S36). If the processing has not been completed for all the labels (S3
6; NO), move the pointer to the next label (S3
8) The processing of step S33 and subsequent steps is executed again. On the other hand, when the processing is completed for all the labels of the log data (S36; YES), the coverage ratio is calculated by the coverage ratio calculation unit 16, and the result is output from the coverage ratio output unit 17. Here, the number of test points that are “executed” in the test point list data after the test is performed is referred to as the number of passing points (number of tested points), and “not performed” in the test point list data before the test starts. The number of test points is calculated as the total number of points, and the coverage ratio = the number of passing points / total number of points Further, the coverage is calculated and output for each program module belonging to the same class.

【0031】3.実施形態の効果 (1)上述の通り、人手を介在させることなくソフトウ
ェア試験の実施状況を示す値が自動的に測定されるた
め、試験担当者は試験実施状況を随時把握することがで
き、膨大なプログラムに対する試験であっても、この試
験実施状況の値に基づいて計画的に試験を遂行していく
ことができる。 (2)また、試験対象のソフトウェアに対する試験がど
の程度行われているかについて定量的に把握できるの
で、試験実施状況に関して誤った認識をもたれることが
なくなり、試験が不十分のまま後工程で不具合が生じる
といった事態を防止でき、信頼性の高い試験の実現につ
ながる。
3. Advantages of Embodiment (1) As described above, the value indicating the execution status of the software test is automatically measured without human intervention, so that the tester can grasp the execution status of the test at any time. Even a test for a simple program can be performed systematically based on the value of the test execution status. (2) In addition, since it is possible to quantitatively grasp the degree to which the test is performed on the software to be tested, it is possible to prevent erroneous recognition of the test execution status, and to carry out a defect in a subsequent process while the test is insufficient. Can be prevented, and a highly reliable test can be realized.

【0032】4.変形例 本発明は、上記実施形態に限定されるものではなく、例
えば以下のように種々の変形が可能である。 (1)同一クラスに属するプログラムモジュール毎に網
羅率を算出することとしたが、全てのソースモジュール
に対する網羅率、ソースファイル単位での網羅率といっ
たように網羅率算出の際に種々の基準を設けて網羅率を
求めることが可能である。 (2)試験ポイント一覧データと試験ログデータとは、
ともにクラス名、関数名等が記述された同一のラベル形
式としたが、いずれか一方は行番号からなるラベル、他
方は本実施形態で採用したラベルといったように、双方
のデータともに、試験対象のプログラムモジュールにお
ける処理ルートを特定できるものであれば異なる表現形
式のラベルであってもよい。 (3)プログラミング言語としてC++を対象にした
が、C,JAVA等種々のプログラミング言語で記述さ
れたプログラムモジュールに対しても適用が可能であ
る。
4. Modifications The present invention is not limited to the above embodiment, and various modifications are possible as follows, for example. (1) The coverage is calculated for each program module belonging to the same class. However, various criteria are set when calculating the coverage, such as the coverage for all source modules and the coverage for each source file. It is possible to obtain the coverage rate by using (2) Test point list data and test log data
Both had the same label format in which the class name, function name, etc. were described.Both of the data, such as the label consisting of the line number and the label adopted in the present embodiment, were used as the test target. Labels in different expression formats may be used as long as they can specify the processing route in the program module. (3) Although C ++ is targeted as a programming language, the present invention is also applicable to program modules described in various programming languages such as C and JAVA.

【0033】[0033]

【発明の効果】以上詳細に説明したように、この発明に
よれば、ソフトウェア試験を実施する際、試験の進捗状
況が定量的に示されるため、的確に試験の実施状況を把
握することができ、試験担当者が試験実施状況に関して
誤った認識をもつことがなくなり、円滑に試験を遂行す
ることができる。
As described above in detail, according to the present invention, when a software test is performed, the progress of the test is quantitatively indicated, so that the status of the test can be accurately grasped. In addition, the test staff does not have a false recognition of the test execution status, and the test can be performed smoothly.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本実施形態にかかる試験実施網羅率測定装置1
の機能構成を示す図である。
FIG. 1 is a test coverage percentage measuring apparatus 1 according to the present embodiment.
FIG. 3 is a diagram showing a functional configuration of the embodiment.

【図2】本実施形態にかかる試験ポイント抽出装置2お
よびプログラムモジュール試験装置3の機能構成を示す
図である。
FIG. 2 is a diagram showing a functional configuration of a test point extraction device 2 and a program module test device 3 according to the present embodiment.

【図3】同上装置1から装置3の各々のハードウェア構
成の概略を示す図である。
FIG. 3 is a diagram showing an outline of a hardware configuration of each of the above-described devices 1 to 3.

【図4】同上試験ポイント抽出装置2において付与され
るラベルの内容を示し、(a)はラベルのフォーマット
を、(b)はプログラムモジュールにラベルが埋め込ま
れた例を示している。
FIGS. 4A and 4B show the contents of a label provided in the test point extracting apparatus 2, wherein FIG. 4A shows a label format, and FIG. 4B shows an example in which a label is embedded in a program module.

【図5】同上試験ポイント抽出装置2における試験ポイ
ント抽出処理の流れを示すフローチャートである。
FIG. 5 is a flowchart showing a flow of a test point extraction process in the test point extraction device 2 according to the embodiment.

【図6】同上プログラムモジュール試験装置3における
試験ログファイル生成時の処理の流れを示すフローチャ
ートである。
FIG. 6 is a flowchart showing a processing flow when a test log file is generated in the program module test apparatus 3;

【図7】同上試験実施網羅率測定装置1における試験実
施網羅率測定時の処理の流れを示すフローチャートであ
る。
FIG. 7 is a flowchart showing a flow of processing when measuring the test execution coverage in the test execution coverage measuring apparatus 1;

【図8】同上試験ポイント抽出装置2におけるソースモ
ジュールに対するラベル付与処理の流れを示すフローチ
ャートである。
FIG. 8 is a flowchart showing a flow of labeling processing for a source module in the test point extracting apparatus 2;

【図9】同上試験実施網羅率測定装置1に入力される試
験ログファイルと、試験ポイント一覧データの内容を示
したものである。(a)は、試験実施装置3においてデ
バッグ時に出力されるログの内容を示し、(b)(c)
は試験ポイント一覧データであり、試験実施の前後で実
施状況を示すデータが変更されることを示す。
FIG. 9 shows a test log file input to the test coverage coverage measuring apparatus 1 and contents of test point list data. (A) shows the contents of the log output at the time of debugging in the test execution device 3, and (b) and (c)
Is test point list data, and indicates that data indicating the execution status is changed before and after the test is executed.

【符号の説明】[Explanation of symbols]

1 試験実施網羅率測定装置 2 試験ポイント抽出装置 3 プログラムモジュール試験装置 10 試験ログデータ入力部 11 試験ログデータ解析部 12 ログデータラベル・試験ポイント一覧照合処理部 13 試験ポイント一覧データ入力部 14 試験ポイント一覧データ記憶部 15 試験ポイント一覧データ更新処理部 16 網羅率算出部 17 網羅率出力部 20 プログラムモジュール入力部 21 処理分岐点ラベル付与部 21a 構文解析部 21b ラベル生成・書込部 22 ラベル付プログラムモジュール記憶部 23 試験ポイント抽出部 24 試験ポイント一覧データ生成・出力部 30 試験対象プログラムモジュール入力部 31 コンパイラ 32 デバッガ 33 試験ログデータ出力部 Reference Signs List 1 Test coverage measurement device 2 Test point extraction device 3 Program module test device 10 Test log data input unit 11 Test log data analysis unit 12 Log data label / test point list matching processing unit 13 Test point list data input unit 14 Test point List data storage unit 15 Test point list data update processing unit 16 Coverage ratio calculation unit 17 Coverage ratio output unit 20 Program module input unit 21 Processing branch point label assignment unit 21a Syntax analysis unit 21b Label generation / write unit 22 Labeled program module Storage unit 23 Test point extraction unit 24 Test point list data generation / output unit 30 Test target program module input unit 31 Compiler 32 Debugger 33 Test log data output unit

───────────────────────────────────────────────────── フロントページの続き (72)発明者 松谷 忠行 東京都港区港南一丁目9番1号 エヌ・テ ィ・ティ・コミュニケーションウェア株式 会社内 (72)発明者 服部 信隆 東京都港区港南一丁目9番1号 エヌ・テ ィ・ティ・コミュニケーションウェア株式 会社内 (72)発明者 安藤 金吾 東京都港区港南一丁目9番1号 エヌ・テ ィ・ティ・コミュニケーションウェア株式 会社内 Fターム(参考) 5B042 GA02 HH10 HH18 HH30 HH44 LA02 MA14 MC12  ──────────────────────────────────────────────────続 き Continuing on the front page (72) Inventor Tadayuki Matsuya 1-9-1, Konan, Minato-ku, Tokyo Inside NTT Communicationware Co., Ltd. (72) Inventor Nobutaka Hattori Konan-ichi, Minato-ku, Tokyo (No. 9-1, NTT Communicationware Co., Ltd.) (72) Inventor Kingo Ando 1-9-1, Konan, Minato-ku, Tokyo F-term (inside, NTT Communicationware Co., Ltd.) Reference) 5B042 GA02 HH10 HH18 HH30 HH44 LA02 MA14 MC12

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 ソフトウェアの試験を実施した結果、当
該試験の対象であるプログラムモジュールに対してどの
程度試験が網羅されたかを測定する方法であって、 プログラムモジュールにおける処理の分岐点から派生す
る処理ルート毎に該処理ルートを特定する情報を記録し
た第1のデータを入力する過程と、 前記プログラムモジュールに対する試験において通過し
た前記処理ルートを特定する情報を記録した第2のデー
タを入力する過程と、 前記第2のデータに記録された情報によって特定される
処理ルートが、前記第1のデータに記録された情報によ
って特定される処理ルートのいずれかと一致するか否か
を判定し、一致した処理ルートに関して試験は実施済み
である旨の情報を記憶する記憶過程と、 前記記憶過程で記憶された情報を参照し、前記第1のデ
ータに記録された情報によって特定される複数の処理ル
ートに対してどの程度前記試験が網羅されたかを示す指
標となる値を算出する過程とを有することを特徴とする
ソフトウェア試験実施網羅率測定方法。
1. A method for measuring the extent to which a test has been performed on a program module to be tested as a result of performing a software test, the process being derived from a branch point of processing in the program module. A step of inputting first data recording information for specifying the processing route for each route; and a step of inputting second data recording information for specifying the processing route passed in a test on the program module. Determining whether a processing route specified by the information recorded in the second data matches any of the processing routes specified by the information recorded in the first data; A storing step of storing information that the test has been performed on the route, and storing the information stored in the storing step. Calculating a value as an index indicating how much the test has been covered for a plurality of processing routes specified by the information recorded in the first data. Software test coverage rate measurement method.
【請求項2】 請求項1に記載のソフトウェア試験実施
網羅率測定方法において、 前記各プログラムモジュールは階層化されて構成されて
おり、前記指標となる値は、同一階層のプログラムモジ
ュールを単位として算出されることを特徴とするソフト
ウェア試験実施網羅率測定方法。
2. The software test execution coverage measuring method according to claim 1, wherein each of the program modules is configured in a hierarchical manner, and the value serving as the index is calculated in units of program modules in the same hierarchy. A software test implementation coverage measurement method characterized by being performed.
【請求項3】 請求項1または2に記載のソフトウェア
試験実施網羅率測定方法を実行することを特徴とするソ
フトウェア試験実施網羅率測定装置。
3. A software test execution coverage measuring apparatus that executes the software test execution coverage measuring method according to claim 1 or 2.
【請求項4】 請求項1または2に記載のソフトウェア
試験実施網羅率測定方法を実行するプログラムを記録し
た記録媒体。
4. A recording medium on which a program for executing the software test execution coverage measuring method according to claim 1 or 2 is recorded.
JP11076706A 1999-03-19 1999-03-19 Method and instrument for measuring software test execution covering rate and recording medium Pending JP2000267888A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11076706A JP2000267888A (en) 1999-03-19 1999-03-19 Method and instrument for measuring software test execution covering rate and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11076706A JP2000267888A (en) 1999-03-19 1999-03-19 Method and instrument for measuring software test execution covering rate and recording medium

Publications (1)

Publication Number Publication Date
JP2000267888A true JP2000267888A (en) 2000-09-29

Family

ID=13612978

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11076706A Pending JP2000267888A (en) 1999-03-19 1999-03-19 Method and instrument for measuring software test execution covering rate and recording medium

Country Status (1)

Country Link
JP (1) JP2000267888A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007249906A (en) * 2006-03-20 2007-09-27 Ffc Ltd Program inspection device, program inspection method and program inspection program
JP2010204954A (en) * 2009-03-03 2010-09-16 Nec Corp Program-verifying device, program-verifying method, and program for execution of verifying function
JP2012073692A (en) * 2010-09-28 2012-04-12 Hitachi Ltd Maintenance support device for embedded system
JP2015507303A (en) * 2012-02-14 2015-03-05 アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited Code coverage rate determination method and system
US9164878B2 (en) 2010-12-24 2015-10-20 International Business Machines Corporation Evaluating coverage of a software test
US10411673B2 (en) 2015-09-30 2019-09-10 Murata Manufacturing Co., Ltd. Quartz crystal blank and quartz crystal resonator unit
CN112597007A (en) * 2020-12-14 2021-04-02 中国航发控制系统研究所 Embedded software integration test integrity analysis method

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007249906A (en) * 2006-03-20 2007-09-27 Ffc Ltd Program inspection device, program inspection method and program inspection program
JP2010204954A (en) * 2009-03-03 2010-09-16 Nec Corp Program-verifying device, program-verifying method, and program for execution of verifying function
JP2012073692A (en) * 2010-09-28 2012-04-12 Hitachi Ltd Maintenance support device for embedded system
US9164878B2 (en) 2010-12-24 2015-10-20 International Business Machines Corporation Evaluating coverage of a software test
JP2015507303A (en) * 2012-02-14 2015-03-05 アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited Code coverage rate determination method and system
US9317400B2 (en) 2012-02-14 2016-04-19 Alibaba Group Holding Limited Code coverage rate determination method and system
US10411673B2 (en) 2015-09-30 2019-09-10 Murata Manufacturing Co., Ltd. Quartz crystal blank and quartz crystal resonator unit
CN112597007A (en) * 2020-12-14 2021-04-02 中国航发控制系统研究所 Embedded software integration test integrity analysis method
CN112597007B (en) * 2020-12-14 2023-10-03 中国航发控制系统研究所 Integrated test integrity analysis method for embedded software

Similar Documents

Publication Publication Date Title
US6986125B2 (en) Method and apparatus for testing and evaluating a software component using an abstraction matrix
Shehady et al. A method to automate user interface testing using variable finite state machines
US6941546B2 (en) Method and apparatus for testing a software component using an abstraction matrix
US8359584B2 (en) Debugging from a call graph
US7496904B2 (en) Mining dependencies for testing and risk management
JP4430043B2 (en) A computer method for checking program component errors
US20020091968A1 (en) Object-oriented data driven software GUI automated test harness
US4984239A (en) Automatic verification system for maintenance/diagnosis facility in computer system
CN106557413A (en) Based on the method and apparatus that code coverage obtains test case
JPS61204749A (en) Software operation analyzing device
JPH08190587A (en) Simulation system for application process
CN111756575A (en) Performance analysis method and device of storage server and electronic equipment
US11307975B2 (en) Machine code analysis for identifying software defects
US20030088810A1 (en) Methods and apparatus for determining software component sizes associated with errors
CN109189674A (en) A kind of method and system that software defect reports automatically
CN106919431B (en) Code comparison method, equipment and system in continuous integration
CN115658452A (en) Buried point checking method, buried point checking device, readable storage medium and electronic equipment
JP2000267888A (en) Method and instrument for measuring software test execution covering rate and recording medium
JPH10320234A (en) Automatic test method for software
JP2019194818A (en) Software trouble prediction device
CN111966578A (en) Automatic evaluation method for android compatibility defect repair effect
JP2005338987A (en) Exception test support program and device
JP2000267886A (en) Method and device for extracting software test item and recording medium
JP2002014847A (en) Device for checking program and method for the same and recording medium with checking program stored
JPH0926897A (en) Program analyzer and program analyzing method

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20040330