JP2003099283A - Test priority derivation support method for software system, test case designing support method, and its support program - Google Patents

Test priority derivation support method for software system, test case designing support method, and its support program

Info

Publication number
JP2003099283A
JP2003099283A JP2001290380A JP2001290380A JP2003099283A JP 2003099283 A JP2003099283 A JP 2003099283A JP 2001290380 A JP2001290380 A JP 2001290380A JP 2001290380 A JP2001290380 A JP 2001290380A JP 2003099283 A JP2003099283 A JP 2003099283A
Authority
JP
Japan
Prior art keywords
test
strategy
priority
evaluation
test strategy
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001290380A
Other languages
Japanese (ja)
Inventor
Tetsuya Yamamoto
徹也 山本
Masayuki Hirayama
雅之 平山
Jiro Okayasu
二郎 岡安
Kazuyoshi Tamura
一賢 田村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2001290380A priority Critical patent/JP2003099283A/en
Publication of JP2003099283A publication Critical patent/JP2003099283A/en
Pending legal-status Critical Current

Links

Landscapes

  • Debugging And Monitoring (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a test case designing support method for a software system which can test important functions preferentially and selectively. SOLUTION: The test case designing support method has a specifications item characteristic value setting process of setting characteristic values based upon evaluation viewpoints of the system by specifications items extracted from specifications of the software system, a test strategy generating process of generating test strategies defining which of the evaluation viewpoints importance is attached to, a test strategy selecting process of selecting a test strategy to be applied to a test of the software system among the generated test strategies, a test priority deriving process of deriving test priority for determining specifications items to be tested preferentially according to the set characteristic values and the selected test strategy, and a test case designing process of designing a test case according to the test priority.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】この発明は、ソフトウェアシ
ステムの信頼性を向上させるためのテスト技術ならびに
検証技術に関係し、これらのテスト・検証を効率的に行
うテストケースの設計を支援する方法ならびにプログラ
ムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a test technique and a verification technique for improving the reliability of a software system, and a method and a program for supporting the design of a test case for efficiently performing these tests and verifications. Regarding

【0002】[0002]

【従来の技術】従来、ソフトウェアシステムの信頼性を
保証するためにソフトウェアテスト技術が広く用いられ
ている。ソフトウェアテスト技術では、テスト対象とな
るソフトウェアに対してどのようなテストケースを利用
するかが重要となり、このテストケースの良し悪しによ
ってテストにより保証されるソフトウェアの信頼性や品
質が大きく異なってくる。
2. Description of the Related Art Conventionally, software testing technology has been widely used to guarantee the reliability of software systems. In software testing technology, what kind of test case is used for the software to be tested is important, and the reliability and quality of the software guaranteed by the test greatly differ depending on whether the test case is good or bad.

【0003】テストケースは、対象ソフトウェアの機能
を網羅的にテストするように設計する必要があるが、最
近のソフトウェアシステムは大規模化・複雑化してお
り、すべての機能を網羅的にテストするためには、膨大
な工数を用いて膨大なテストケースを消化する必要があ
る。一方でソフトウェアシステム開発に当てられる開発
期間には限度があるため、限られた時間内にすべてを実
施することは不可能に近い。そのため、信頼性や重要度
などの基準に応じてテストする部分に優先順位をつけ、
優先順位によってテストケースの詳細度を変えること
で、必要十分な量の効率的なテストケースを設計するこ
とが必要となってきている。
The test case needs to be designed so as to comprehensively test the functions of the target software, but recent software systems have become large-scale and complicated, so that all the functions are comprehensively tested. Requires a huge number of man-hours to digest a huge number of test cases. On the other hand, there is a limit to the development period that can be devoted to software system development, so it is almost impossible to do everything in a limited time. Therefore, prioritize the parts to be tested according to criteria such as reliability and importance,
It is necessary to design a sufficient number of efficient test cases by changing the level of detail of the test cases depending on the priority.

【0004】ここで重要となるのがテストの優先順位を
決定するための手法である。これに対しては、特開平9
−212387号公報では、プログラムを構成するモジ
ュールの品質を決められたメトリクスによって測定し、
メトリクスの重要度である判定基準と組み合わせてモジ
ュールのデバッグ順序を判定する技術がある。
What is important here is a method for determining the priority of the test. For this, Japanese Patent Laid-Open No.
-212387 gazette measures the quality of the module which comprises a program by the fixed metric,
There is a technique for determining the debug order of modules in combination with a criterion that is the importance of metrics.

【0005】この従来技術ではデバッグ順序を決めるた
めに、プログラムの内部構造からプログラムモジュール
の品質を測定することに重点が置かれている。しかしソ
フトウェアテストにおいては、プログラムの構造には関
係なくシステム仕様書からテストケースを設計して、仕
様書の記述どおりにシステムが動作しているかどうかを
テストしなければならない。またシステム開発期間短縮
の面からも、プログラム開発と並行してシステム仕様書
からテストケース設計を行うことが望ましい。しかし従
来技術では、プログラムの完成を待たなければその品質
を測定することができないため、仕様書からテストケー
スを設計するソフトウェアテストには適用が難しくなっ
ている。
This prior art focuses on measuring the quality of the program module from the internal structure of the program in order to determine the debug order. However, in software testing, it is necessary to design a test case from the system specification regardless of the structure of the program and test whether the system is operating as described in the specification. Also, from the aspect of shortening the system development period, it is desirable to design test cases from system specifications in parallel with program development. However, in the related art, the quality cannot be measured until the completion of the program, so that it is difficult to apply it to software testing for designing test cases from specifications.

【0006】さらに従来技術では、どのメトリクスを重
視するかを決める判定基準の設定はプログラマの判断に
委ねられている。しかし大規模かつ複雑なソフトウェア
システムのテストにおいては、テスト対象システムの特
徴やテスト環境、テストにかけるリソースなどによっ
て、この判定基準をテストの戦略として意図的に設定し
なければ効率的なテストの実現は難しい。
Further, in the prior art, the setting of the judgment criteria for deciding which metric to emphasize is left to the judgment of the programmer. However, in large-scale and complex software system testing, efficient testing is realized unless these judgment criteria are intentionally set as a test strategy depending on the characteristics of the system under test, the test environment, and the resources to be tested. Is difficult

【0007】[0007]

【発明が解決しようとする課題】このように、従来の技
術ではプログラム構造をもとにデバッグ優先順位を決定
しており、システム仕様書など開発の初期段階から判断
可能な材料によってシステムの特徴を判断して、テスト
の優先順位を決定することは難しい。さらに、大規模か
つ複雑なソフトウェアシステムのテストにおいてテスト
の優先順位を決めるためには、どのメトリクスを重視す
るかという重みづけをシステムの特徴に基づいたテスト
戦略として設定することが重要となるが、従来の技術で
はそのテスト戦略設定についてはプログラマにその判断
が委ねられている。
As described above, in the conventional technology, the debug priority is determined based on the program structure, and the characteristics of the system are determined by the materials that can be judged from the initial stage of development such as the system specifications. It is difficult to judge and prioritize tests. Furthermore, in order to determine the test priority in testing large-scale and complex software systems, it is important to set the weighting of which metric is important as a test strategy based on the characteristics of the system. In the conventional technology, the programmer is left to make the judgment regarding the setting of the test strategy.

【0008】そこで本発明では、ソフトウェアテストに
おける効率的なテストケース設計のために、システム仕
様書など開発の初期段階から判断可能な材料を用いるこ
とで、プログラムの完成を待たずにそのシステムの特徴
を表現すると共に、そのシステムにとって適当なテスト
戦略を選択するための手段を提供することで、品質上重
要な機能かそうでない機能かを判断するテスト優先度を
よりシステムの特徴やテスト環境に適したものとして導
出でき、その結果、テストをとりまく環境や状況に応じ
て重要な機能を選別して、優先的かつ重点的にテストで
きるようなテストケースの設計を支援する方法およびプ
ログラムを提供するものである。
Therefore, in the present invention, in order to efficiently design a test case in software testing, by using a material such as a system specification that can be judged from an early stage of development, the characteristics of the system can be achieved without waiting for the completion of the program. And provide a means to select an appropriate test strategy for the system, so that the test priority for determining whether the function is important for quality or not is more suitable for the system characteristics and test environment. Methods and programs that support the design of test cases so that important functions can be selected according to the environment and situation surrounding the test and priority and focus can be tested. Is.

【0009】[0009]

【課題を解決するための手段】上記課題を解決するため
に、本発明では、ソフトウェアシステムの仕様書から抽
出される仕様項目ごとに、該システムの評価観点に基づ
く特性値を設定する仕様項目特性値設定工程と、前記評
価観点のうちいずれに重点を置くかを定義するテスト戦
略を作成するテスト戦略作成工程と、作成された前記テ
スト戦略のうち前記ソフトウェアシステムのテストに適
用するテスト戦略を選択するテスト戦略選択工程と、設
定された前記特性値と選択された前記テスト戦略から優
先的に前記テストを実行する前記仕様項目を決定するた
めのテスト優先度を導出するテスト優先度導出工程とを
備えたことを特徴とするテスト優先度導出支援方法およ
びその支援プログラムを提供する。
In order to solve the above problems, according to the present invention, a specification item characteristic for setting a characteristic value based on an evaluation viewpoint of the system for each specification item extracted from a specification of a software system. A value setting step and a test strategy creating step that creates a test strategy that defines which of the evaluation viewpoints should be emphasized, and a test strategy that is applied to the testing of the software system among the created test strategies is selected. And a test priority derivation step of deriving a test priority for determining the specification item for preferentially executing the test from the set characteristic value and the selected test strategy. Provided is a test priority derivation support method and a support program therefor.

【0010】また、本発明では、ソフトウェアシステム
の仕様書から抽出される仕様項目ごとに、該システムの
評価観点に基づく特性値を設定する仕様項目特性値設定
工程と、前記評価観点のうちいずれに重点を置くかを定
義するテスト戦略を作成するテスト戦略作成工程と、作
成された前記テスト戦略のうち前記ソフトウェアシステ
ムのテストに適用するテスト戦略を選択するテスト戦略
選択工程と、設定された前記特性値と選択された前記テ
スト戦略から優先的に前記テストを実行する前記仕様項
目を決定するためのテスト優先度を導出するテスト優先
度導出工程と、前記テスト優先度をもとにテストケース
を設計するテストケース設計工程とを備えたことを特徴
とするテストケース設計支援方法およびその支援プログ
ラムを提供する。
Further, according to the present invention, the specification item characteristic value setting step of setting the characteristic value based on the evaluation viewpoint of the system for each specification item extracted from the specification of the software system, and the evaluation viewpoint can be selected. A test strategy creating step of creating a test strategy that defines whether to emphasize, a test strategy selecting step of selecting a test strategy to be applied to a test of the software system among the created test strategies, and the set characteristic A test priority derivation step of deriving a test priority for determining the specification item to execute the test preferentially from a value and the selected test strategy, and designing a test case based on the test priority A test case design support method and a support program therefor are provided.

【0011】上記した本発明によれば、システム仕様書
など開発の初期から判断可能なメトリクスを用いて、プ
ログラムの完成を待たずにそのシステムの特徴を表現で
き、またそのシステムにとって適当なテスト戦略を選択
するための手段を提供することで、品質上重要な機能か
そうでない機能かを判断するテスト優先度をよりシステ
ムの特徴やテスト環境を反映したものとして導出するこ
とが可能となった。その結果、テストをとりまく環境や
状況に応じて重要な機能を選別して、その機能を優先的
かつ重点的にテストすることにより、効率的なソフトウ
ェアテストを実現するためのテストケースの設計が可能
となった。
According to the present invention described above, the characteristics of the system can be expressed without waiting for the completion of the program by using the metrics such as the system specification which can be judged from the early stage of the development, and the test strategy suitable for the system can be expressed. By providing a means for selecting, it has become possible to derive the test priority for judging whether the function is important for quality or not, as one that more reflects the characteristics of the system and the test environment. As a result, it is possible to design test cases to realize efficient software testing by selecting important functions according to the environment and situation surrounding the test and testing those functions with priority and priority. Became.

【0012】[0012]

【発明の実施の形態】以下、本発明の実施の形態につい
て、図面を参照しつつ詳細に説明する。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described in detail below with reference to the drawings.

【0013】図1は本発明の全体の流れを、ブロック図
を用いて示したものである。同図において3は仕様項目
特性値設定部、5はテスト戦略作成部、7はテスト戦略
選択部、9はテスト優先度導出部、11はテスト戦略評
価部、16はテストケース設計部、18はテスト実行・
結果出力部、21はテスト結果検証部である。
FIG. 1 is a block diagram showing the overall flow of the present invention. In the figure, 3 is a specification item characteristic value setting unit, 5 is a test strategy creation unit, 7 is a test strategy selection unit, 9 is a test priority derivation unit, 11 is a test strategy evaluation unit, 16 is a test case design unit, and 18 is Test execution
A result output unit, 21 is a test result verification unit.

【0014】本発明では、テスト対象となるソフトウェ
アシステム製品のシステム仕様書から抽出された仕様項
目リスト1と、ソフトウェアシステムの特徴を表現する
ために用意された評価観点データベース2をもとに、仕
様項目特性値設定部3を利用して、そのソフトウェアシ
ステムの特徴を表わす特性値つき仕様項目リスト4を作
成する。
According to the present invention, the specifications are based on the specification item list 1 extracted from the system specifications of the software system product to be tested and the evaluation viewpoint database 2 prepared to express the characteristics of the software system. Using the item characteristic value setting unit 3, a specification item list 4 with characteristic values representing the characteristics of the software system is created.

【0015】次に評価観点データベース2をもとにテス
ト戦略作成部5を利用して、どの評価観点にどれくらい
重点をおいてテストするかを設定するためのテスト戦略
を作成し、テスト戦略データベース6に登録する。
Next, the test strategy creation unit 5 is used based on the evaluation viewpoint database 2 to create a test strategy for setting which evaluation viewpoint and how much emphasis should be placed on the test. Register with.

【0016】テスト戦略選択部7では、テスト戦略デー
タベース6から任意のテスト戦略を選択してテスト優先
度導出部9に出力する。テスト優先度導出部9では、与
えられたテスト戦略と特性値つき仕様項目リスト4をも
とに、どの仕様項目を優先的にテストするかを表わすテ
スト優先度つき仕様項目リスト10が作成される。
The test strategy selection unit 7 selects an arbitrary test strategy from the test strategy database 6 and outputs it to the test priority derivation unit 9. The test priority derivation unit 9 creates a specification item list 10 with test priority indicating which specification item is to be preferentially tested based on the given test strategy and the specification item list 4 with characteristic value. .

【0017】テスト戦略評価部11では、テスト優先度
つき仕様項目リスト10と過去の不具合データ12を入
力として、選択されたテスト戦略を適用して得られる不
具合検出傾向をシミュレーションし、選択されたテスト
戦略がテスト対象ソフトウェアシステムに適しているか
どうかを判断する。必要ならば複数のテスト戦略を順次
選択して不具合検出傾向をシミュレーションし、最適だ
と思われるテスト戦略およびテスト優先度つき仕様項目
リストを、テストケース設計用に選択する。
The test strategy evaluation unit 11 inputs the specification item list 10 with test priority and the past defect data 12 and simulates the defect detection tendency obtained by applying the selected test strategy to select the selected test. Determine if the strategy is suitable for the software system under test. If necessary, multiple test strategies are sequentially selected to simulate the defect detection tendency, and a test strategy and a list of specification items with test priorities that are considered to be optimal are selected for test case design.

【0018】次に、テストケース設計用に選択されたテ
スト優先度つき仕様項目リスト10と、テストに利用さ
れる資源やスケジュールなどからなるテストリソース1
3、過去に生成された類似テストケース14、および不
足分のテストケースの補充、過多なテストケースの削除
をするためのテストケース設計手順15をもとに、テス
トケース設計部16を利用して、テスト対象ソフトウェ
アにとって最適なテストケース17を作成する。このテ
ストケース17によりテスト実行された結果発見された
不具合情報は、テスト実行・結果出力部18を利用して
テスト結果19として出力される。通常のテストでは、
開発・デバッグの進行に合わせてテストが繰り返し実行
される。現在テスト対象となっているソフトウェアへの
すべてのテスト結果は、現テスト対象の不具合データ2
0に登録される。
Next, a list of specification items 10 with test priorities selected for test case design, and a test resource 1 including resources and schedules used for testing.
3. Using the test case design unit 16 based on the similar test cases 14 generated in the past, and the test case design procedure 15 for replenishing the insufficient test cases and deleting the excessive test cases. , Create a test case 17 that is optimal for the software to be tested. The defect information found as a result of the test execution by the test case 17 is output as the test result 19 by using the test execution / result output unit 18. In a normal test,
Tests are repeatedly executed as development / debugging progresses. All test results for the software currently being tested are the defect data 2 for the current test.
Registered as 0.

【0019】テスト結果検証部21では、現テスト対象
の不具合データ20と適用されたテスト優先度つき仕様
項目リスト10を入力として適用テスト戦略を再度検証
し、テスト戦略評価部に記憶されている他のテスト戦略
によるテスト優先度つき仕様項目リストとも比較して、
必要ならば適用テスト戦略を入れ替えて再テストを実施
する。このようにして、常に最適なテスト戦略を選択し
て、最も効果的なテストケースが生成されるようにす
る。
The test result verification unit 21 verifies the applied test strategy again by using the defect data 20 of the current test target and the applied specification item list 10 with test priority as an input, and stores it in the test strategy evaluation unit. Compared with the list of specification items with test priority according to the test strategy of
If necessary, change the applicable test strategy and re-test. In this way, the optimal test strategy is always selected so that the most effective test case is generated.

【0020】以下、上記した各部の機能について詳細に
説明する。なお、各機能はソフトウェアによりコンピュ
ータを用いて実現されるものであっても良い。 <特性値つき仕様項目リストの作成>仕様項目特性値設
定部では、システム仕様書から抽出された仕様項目リス
トとシステムの特徴を表現するための評価観点データベ
ースを入力として、特性値つき仕様項目リストを作成す
る。様々な視点からシステムの特徴を表現するために、
ソフトウェアシステムを構成している各仕様項目に対し
て、複数の評価観点に基づいて特性値を与えることがで
きる。これにより、ソフトウェアシステムを複数の視点
から仕様項目単位で評価することが可能となる。
The functions of the above-mentioned parts will be described in detail below. Each function may be realized by software using a computer. <Creation of specification item list with characteristic values> In the specification item characteristic value setting section, the specification item list extracted from the system specifications and the evaluation viewpoint database for expressing the characteristics of the system are input, and the specification item list with characteristic values is input. To create. In order to express the characteristics of the system from various viewpoints,
It is possible to give a characteristic value to each specification item constituting the software system based on a plurality of evaluation points of view. This makes it possible to evaluate the software system on a specification item basis from multiple viewpoints.

【0021】一般にシステム仕様書には、ソフトウェア
システムで実現される機能が仕様項目として記述されて
いる。これらの項目の一覧をリストとして抽出した仕様
項目リストが仕様項目特性値設定部の入力となる。一
方、評価観点はシステムをいろいろな観点から評価して
その特徴を表現するために用意されるもので、システム
仕様書の内容や設計段階での開発情報などからシステム
開発の早期に評価できるものが主として選ばれ、評価観
点データベースに蓄積される。評価観点として考えられ
る一例を図2に示す。ここでは、評価観点をプログラム
の品質等の分類ごとに整理して示している。
Generally, the system specifications describe the functions realized by the software system as specification items. The specification item list obtained by extracting the list of these items as a list is input to the specification item characteristic value setting unit. On the other hand, the evaluation viewpoint is prepared in order to evaluate the system from various viewpoints and express its characteristics, and there are some that can be evaluated early in system development based on the contents of the system specifications and development information at the design stage. Mainly selected and stored in the evaluation viewpoint database. FIG. 2 shows an example considered as an evaluation viewpoint. Here, the evaluation viewpoints are arranged and shown for each classification such as program quality.

【0022】これらの仕様項目リストと評価観点データ
ベースを入力として仕様項目特性値設定部に与え、各仕
様項目に対して評価観点に基づいたパラメータを仕様項
目特性値として指定することで、特性値つき仕様項目リ
ストを生成する。その具体的な手順を図3に示す。
These specification item list and evaluation viewpoint database are input to the specification item characteristic value setting section, and parameters based on the evaluation viewpoint for each specification item are specified as the specification item characteristic value, so that the characteristic value Generate a specification item list. The specific procedure is shown in FIG.

【0023】まず、評価観点並びに仕様項目リストを読
み込み(S1,S2)、設定する評価観点を一覧から選
択する(S3)。続いて仕様項目リストから仕様項目を
検索し(S4)、選択した評価観点で評価した特性値を
検索した仕様項目に入力する(S5)。かかる操作を仕
様項目の検索が終了するまで繰り返し行う(S6)。次
に、入力された仕様項目特性値の正規化を行う(S
7)。仕様項目特性値は一般に仕様項目間の比較による
相対評価として与えられることが多い。そのため、各々
の評価観点について特性値がすべての仕様項目に与えら
れた段階で、特性値が、例えば1から10までの範囲に
収まるように正規化を行い、評価観点間の基準をそろえ
る。こうして、必要となるすべての評価観点について特
性値が仕様項目に与えられたかを確認し(S8)、特性
値つき仕様項目リストが作成される(S9)。
First, the evaluation viewpoint and the specification item list are read (S1, S2), and the evaluation viewpoint to be set is selected from the list (S3). Then, the specification item is searched from the specification item list (S4), and the characteristic value evaluated from the selected evaluation viewpoint is input to the searched specification item (S5). This operation is repeated until the specification item search is completed (S6). Next, the input specification item characteristic value is normalized (S
7). The characteristic value of a specification item is generally given as a relative evaluation by comparison between specification items. Therefore, when characteristic values are given to all specification items for each evaluation viewpoint, normalization is performed so that the characteristic values fall within the range of 1 to 10, for example, and criteria between evaluation viewpoints are set. In this way, it is confirmed whether or not the characteristic values have been given to the specification items for all necessary evaluation viewpoints (S8), and a specification item list with characteristic values is created (S9).

【0024】特性値つき仕様項目リストの一例を図4に
示す。ここで、仕様項目は大項目と中項目都からなり、
ここでは、「ファイル」と「編集」に関する各項目につ
いて、選択された「不具合致命度」「機能利用頻度」
「複雑さ」の各評価観点について特性値が与えられてい
る。 <テスト戦略の作成>テスト戦略作成部では、テストを
実行する際にどの評価観点にどれだけ重点をおいたテス
トをするかを示すテスト戦略を作成する。テスト戦略と
は、システムの特徴を表現するために仕様項目に与えら
れた複数の仕様項目特性値に対して、どの評価観点によ
る特性値をどの程度重視したテストを行うかを表わして
おり、図5のように各評価観点に対する重み付けとして
表現される。より重視する評価観点ほど、設定される重
みが大きくなる。例えば、致命度重視型のテスト戦略で
は、評価観点のうち「不具合致命度」に関する重みが最
も高い0.7に設定され、「機能利用頻度」および「仕
様の複雑さ」に関する重みはそれぞれ0.15となって
いる。
An example of the specification item list with characteristic values is shown in FIG. Here, the specification items consist of large items and middle items,
Here, for each item related to "File" and "Edit", the selected "Defect criticality level" and "Function usage frequency"
Characteristic values are given for each evaluation point of "complexity". <Creation of Test Strategy> The test strategy creation section creates a test strategy that indicates which evaluation viewpoint and how much the test should be performed when the test is executed. The test strategy indicates how much to evaluate the characteristic value from which evaluation point, and to what extent the characteristic value given to the specification item in order to express the characteristics of the system. It is expressed as a weighting for each evaluation point like 5. The weight to be set increases as the evaluation viewpoint is given more importance. For example, in the criticality-oriented test strategy, the weight related to the “defect criticality” is set to 0.7, which is the highest among the evaluation viewpoints, and the weights related to the “function usage frequency” and the “complexity of specifications” are 0. It is 15.

【0025】テスト戦略を作成するテスト戦略作成部に
おける手順を図6に示す。まず、評価観点一覧の読み込
みを行い(S10)、テスト戦略を新規に作成する必要
があるか否かの判断を行う(S11)。ここで、テスト
戦略を新たに作成しない場合は、テスト戦略データベー
スから編集したいテストデータを選択する(S12)。
テスト戦略作成部には、評価観点データベースから入力
が与えられ、各評価観点に対する重みを設定することで
テスト戦略を作成する。続いて、重みを設定する評価観
点を一覧から選択し(S13)、選択した評価観点に対
して重みを設定する(S14)。すべての評価観点に対
して重みが設定されれば(S15)、それらの合計が1
になるように正規化する(S16)。ここで、新たに作
成されたテスト戦略若しくは編集されたテスト戦略は、
テスト戦略データベースに登録される(S17)。 <テスト戦略の選択>テスト戦略選択部では、テストを
実行する際にどのようなテスト戦略に基づいてテストを
行うかを決定する。
FIG. 6 shows the procedure in the test strategy creating section for creating the test strategy. First, the evaluation viewpoint list is read (S10), and it is determined whether or not a new test strategy needs to be created (S11). If no new test strategy is created, the test data to be edited is selected from the test strategy database (S12).
The test strategy creation unit receives inputs from the evaluation viewpoint database and creates a test strategy by setting weights for each evaluation viewpoint. Then, the evaluation viewpoint for which the weight is set is selected from the list (S13), and the weight is set for the selected evaluation viewpoint (S14). If weights are set for all evaluation viewpoints (S15), the sum of them is 1
(S16). Here, the newly created test strategy or the edited test strategy is
It is registered in the test strategy database (S17). <Selection of Test Strategy> The test strategy selection unit determines what kind of test strategy should be used when executing the test.

【0026】テスト戦略選択部では、テスト戦略データ
ベースに登録されたテスト戦略の中から、テスト優先度
導出部に与えるテスト戦略を選択して出力する。テスト
戦略を選択するテスト戦略選択部における手順を図7に
示す。最初は任意のテスト戦略を選択するが(S2
1)、テストサイクルの進行に伴い、テスト戦略評価部
やテスト結果検証部からより最適なテスト戦略を選択す
るように指示が来るので(S20)、その指示に基づい
てテスト戦略をテスト戦略データベースから選択する。
例えば、テスト戦略データベースからまだテスト優先度
を導出していないテスト戦略を選択する(S22)。指
示に適したテスト戦略がデータベースに存在するか否か
を確認し(S23)、無い場合には、テスト戦略作成部
でテスト戦略を作成してデータベースに登録した後、そ
のテスト戦略を選択する(S24)。そして選択された
テスト戦略は出力するようにしても良い(S25)。 <テスト優先度つき仕様項目リストの作成>テスト優先
度導出部では、選択されたテスト戦略を適用することで
ソフトウェアシステムのどの部分を特に重点的にテスト
する必要があるかを、仕様項目単位に評価した指標であ
るテスト優先度を導出する。ここで作成されるテスト優
先度つき仕様項目リストは、特性値つき仕様項目リスト
とテスト戦略をもとにテスト優先度導出部にて生成され
るもので、図9に示すように仕様項目リストの各項目に
対してテスト優先度という値が与えられたものである。
The test strategy selection unit selects and outputs the test strategy to be given to the test priority derivation unit from the test strategies registered in the test strategy database. FIG. 7 shows the procedure in the test strategy selection unit for selecting the test strategy. At first, select an arbitrary test strategy (S2
1) As the test cycle progresses, the test strategy evaluation unit and the test result verification unit give instructions to select a more optimal test strategy (S20). Based on the instruction, the test strategy is retrieved from the test strategy database. select.
For example, a test strategy whose test priority has not yet been derived from the test strategy database is selected (S22). It is confirmed whether or not the test strategy suitable for the instruction exists in the database (S23), and if it does not exist, the test strategy is created by the test strategy creating section and registered in the database, and then the test strategy is selected ( S24). Then, the selected test strategy may be output (S25). <Creating a list of specification items with test priority> In the test priority derivation unit, which part of the software system needs to be tested with particular emphasis by applying the selected test strategy is specified for each specification item. The test priority, which is the evaluated index, is derived. The specification item list with test priority created here is generated by the test priority derivation unit based on the specification item list with characteristic values and the test strategy. As shown in FIG. The value of test priority is given to each item.

【0027】テスト優先度とは、その値が大きいほどテ
ストの実行順序やテストの量などに関して優先的・重点
的にテストを実施することを表わす指標である。テスト
優先度導出部では、各仕様項目に与えられた評価観点ご
との特性値と、テスト戦略として設定された各評価観点
への重みづけから、その仕様項目に対するテスト優先度
を算出する。その具体的な手順を図8に示す。まず、テ
スト戦略と特性値つき仕様項目リストが読み込まれる
(S31,S32)。続いて、仕様項目リストから順次
項目を検索し(S33)、テスト戦略で設定された各評
価観点への重みづけと、特性値つき仕様項目リストの各
仕様項目に与えられた特性値とから、その項目のテスト
優先度を算出する(S34)。かかる優先度の算出は、
仕様項目の検索が終了するまで繰り返し行われる(S3
5)。一般にテスト優先度は、各仕様項目 iに対して
n個の評価観点に基づいた仕様項目特性値
The test priority is an index indicating that the larger the value, the more preferentially and intensively the tests are executed with respect to the test execution order, the test amount, and the like. The test priority derivation unit calculates the test priority for the specification item from the characteristic value for each evaluation viewpoint given to each specification item and the weighting for each evaluation viewpoint set as the test strategy. The specific procedure is shown in FIG. First, the test strategy and the specification item list with characteristic values are read (S31, S32). Subsequently, the items are sequentially searched from the specification item list (S33), and the weighting for each evaluation viewpoint set in the test strategy and the characteristic value given to each specification item in the specification item list with characteristic values The test priority of the item is calculated (S34). The calculation of such priority is
It is repeated until the specification item search is completed (S3).
5). Generally, the test priority is a characteristic value of a specification item based on n evaluation points for each specification item i.

【0028】[0028]

【数1】 [Equation 1]

【0029】が与えられたとき、テスト戦略による各評
価観点への重みが
When is given, the weight to each evaluation viewpoint by the test strategy is

【0030】[0030]

【数2】 [Equation 2]

【0031】ならば、テスト優先度 は以下の数式
(1)で表現される。
Then, the test priority is expressed by the following mathematical expression (1).

【0032】[0032]

【数3】 [Equation 3]

【0033】ただしテスト優先度を導出する計算式は、
仕様項目特性値と各評価観点への重みとを組み合わせた
ものであれば異なる計算式を用いてもよい。こうして得
られたテスト優先度を各仕様項目に持たせて、図9に示
すようなテスト優先度つき仕様項目リストを作成する
(S36)。 <適用テスト戦略の評価>テスト戦略評価部では、適用
されたテスト戦略によって各仕様項目に与えられたテス
ト優先度に基づいたテストが、ソフトウェアシステムに
対してどれだけ有効なのか、テストの目的に合致してい
るのかどうかを評価する。また評価結果はすべて記憶し
ておき、複数のテスト戦略から最適なものを選択するた
めに比較・検討することができる。新規のシステム開発
においてはこのフェーズは実行できないが、過去に類似
のシステム仕様構成をもつソフトウェアシステムの開発
情報があれば、これを利用して適用テスト戦略の評価が
可能となる。
However, the formula for deriving the test priority is
Different calculation formulas may be used as long as they are a combination of the specification item characteristic value and the weight for each evaluation viewpoint. The test priority thus obtained is given to each specification item, and a specification item list with test priority as shown in FIG. 9 is created (S36). <Evaluation of applied test strategy> The test strategy evaluation section determines how effective the test based on the test priority given to each specification item by the applied test strategy is for the software system. Evaluate whether they match. Also, all evaluation results can be stored and compared and examined in order to select the optimum one from a plurality of test strategies. This phase cannot be executed in the development of a new system, but if there is development information of a software system with a similar system specification configuration in the past, it is possible to evaluate the applied test strategy using this.

【0034】テスト戦略評価部では、テスト優先度つき
仕様項目リストと過去の不具合データが入力として与え
られ、過去の不具合データと比較して適用したテスト戦
略がテスト対象ソフトに対して適当かどうかを評価す
る。過去の不具合データには、図11に示すようにシス
テムをバージョンアップする前の開発情報などの、類似
のシステム仕様構成を持つソフトウェアシステム開発プ
ロジェクトの不具合情報が蓄積され、各仕様項目にどれ
だけの不具合が存在していたかを示すデータが含まれて
いる。なお図11中の不具合数で「*」が記入されてい
る仕様項目は、その開発バージョンではまだ実装されて
いなかったことを示している。
In the test strategy evaluation section, the specification item list with test priority and the past defect data are given as inputs, and it is compared with the past defect data to determine whether the applied test strategy is appropriate for the software to be tested. evaluate. In the past defect data, defect information of software system development projects having a similar system specification configuration, such as development information before version upgrade of the system as shown in FIG. 11, is accumulated. It contains data that indicates whether a defect was present. It should be noted that the specification items in which “*” is entered in the number of defects in FIG. 11 indicate that the development version has not yet been implemented.

【0035】テスト戦略評価部における手順を図10に
示す。まず、テスト優先度つき仕様項目リストを読み込
み(S41)、過去の不具合データが存在するかを確認
して(S42)、存在する場合は入力されたテスト優先
度つき仕様項目リストを、過去の不具合データと比較し
て不具合が多く存在しそうな項目がどの程度テスト優先
度の上位に位置しているかをシミュレーションする。具
体的には、テスト優先度つき使用項目リストと過去の不
具合データから不具合検出傾向を予測し(S43)、こ
の予測した不具合検出傾向をテスト優先度つき仕様項目
及びそのテスト戦略と対応付けて記憶し(S44)、記
憶されている不具合検出傾向一覧を比較して、最適なテ
スト優先度つき仕様項目リストを選択する(S45)。
別のテスト戦略についてもシミュレーションを実行した
ければ(S46)、テスト戦略データベースから別のテ
スト戦略を選択するように、テスト戦略選択部に指示を
出す。こうして選択された新たなテスト戦略からテスト
優先度導出部にてテスト優先度つき仕様項目リストを導
出し(S47)、過去の不具合データと比較して同様に
評価する。この手順を繰り返して記憶したテスト戦略評
価の一覧を比較し、実際のテストケース設計に適用する
テスト戦略をひとつ選択し、テストケース設計部に出力
する(S48)。 <テストケース設計>テストケース設計部では、適用さ
れたテスト戦略によって導出したテスト優先度に基づい
て、各仕様項目に対してどのくらい重点的にテストを実
行するかを決定し、テストケースを設計する。
FIG. 10 shows the procedure in the test strategy evaluation section. First, the specification item list with test priority is read (S41), it is confirmed whether past defect data exists (S42), and if it exists, the input specification item list with test priority is compared with the past defect. Simulate to what degree the items that are likely to have many defects compared to the data are positioned higher in the test priority. Specifically, the defect detection tendency is predicted from the use item list with test priority and past defect data (S43), and the predicted defect detection tendency is stored in association with the specification item with test priority and its test strategy. Then, the stored failure detection tendency lists are compared (S44), and the optimum specification item list with test priority is selected (S45).
If it is desired to execute simulation for another test strategy (S46), the test strategy selection unit is instructed to select another test strategy from the test strategy database. The test priority derivation unit derives a specification item list with test priorities from the new test strategy thus selected (S47), and compares the past defect data with the same to evaluate the same. This procedure is repeated to compare the stored list of test strategy evaluations, select one test strategy to be applied to the actual test case design, and output it to the test case design unit (S48). <Test case design> In the test case design department, based on the test priority derived from the applied test strategy, how much priority is given to the test for each specification item is determined, and the test case is designed. .

【0036】テストケース設計部では、テスト優先度つ
き仕様項目リストと共に、テストリソース、過去の類似
テストケース、テストケース設計手段が入力として与え
られる。テストケース設計部における手順を図13に示
す。まず、テスト優先度つき仕様項目リストの読み込み
が行われる(S51)。次に、テストに利用される資源
やスケジュールなどを表わすテストリソースを読み込み
(S52)、各仕様項目に与えられたテスト優先度に応
じて仕様項目ごとに配分する(S53)。テストリソー
スの例を図12に挙げる。テストリソースとしては、
「担当」「期間」「資源」等の分類にしたがって、必要
なリソースが定義されている。
In the test case design unit, a test resource, a past similar test case, and a test case design means are given as inputs together with a list of specification items with test priority. The procedure in the test case design unit is shown in FIG. First, the specification item list with test priority is read (S51). Next, a test resource indicating a resource used for a test, a schedule, etc. is read (S52), and is distributed for each specification item according to the test priority given to each specification item (S53). An example of the test resource is given in FIG. As a test resource,
Necessary resources are defined according to the categories such as “charge”, “period”, and “resource”.

【0037】各仕様項目のテスト優先度と配分されたテ
ストリソースに応じて、仕様項目ごとに必要十分なテス
トケース量を予測する。次に、類似のシステム仕様に対
して過去に生成されたテストケースがあれば、それを読
み込み(S54)、仕様項目をリストから順次検索して
(S35)、その情報を利用してテストケースを設計す
る(S56)。各仕様項目のテストケース量を検討し
(S57)、過去の類似テストケースが全く存在しない
か、あるいは予測したテストケース量に比べてテストケ
ースが不足していれば、その不足分を補充するために公
知のテストケース設計手段を用いて不足分のテストケー
スを作成する(S58)。公知のテストケース設計手段
としては、特開2001−184232のようにシステ
ム仕様からテストケースを設計する手法を用いる。逆に
予測したテストケース量に比べてテストケースが過多で
あるような場合には、テストケースを削減して適当な量
にする(S59)。こうして、全ての仕様項目について
検索が終了すると(S60)、テスト対象にとって最適
なテストケースが生成される(S61)。 <テスト結果の再利用>こうして設計されたテストケー
スによりテスト実行された結果は、テスト実行・結果出
力部を利用してテスト結果として出力される。テスト実
行・結果出力部における手順を図14に示す。テスト実
行・結果出力部では、テストケースを読込み(S6
5)、読込まれたテストケースに基づいてテストを実行
し(S66)、その結果発見された不具合とその重要度
を、システムの各仕様項目と対応づけて記録する(S6
7)。こうして各仕様項目に関係する不具合数および重
要度を集計し、テスト結果として出力する(S68)。
出力されるテスト結果の例を図15に示す。また、テス
トはソフトウェアの開発・デバッグを通じて繰り返し行
われ、各テストサイクルでテスト結果が出力される。現
テスト対象に対して行われる各テストサイクルのすべて
のテスト結果は、何回目のテストサイクルで得られたテ
スト結果であるかとあわせて、現テスト対象の不具合デ
ータとして保存される。
A necessary and sufficient amount of test cases is predicted for each specification item according to the test priority of each specification item and the allocated test resources. Next, if there is a test case generated in the past for similar system specifications, it is read (S54), the specification items are sequentially searched from the list (S35), and the test case is used by using that information. Design (S56). To examine the amount of test cases for each specification item (S57), if there are no similar test cases in the past, or if there are insufficient test cases compared to the predicted amount of test cases, to supplement the shortfall. A shortage of test cases is created by using a known test case designing means (S58). As a publicly known test case designing means, a method of designing a test case from system specifications like Japanese Patent Laid-Open No. 2001-184232 is used. On the contrary, when there are too many test cases compared to the predicted test case amount, the test cases are reduced to an appropriate amount (S59). In this way, when the search is completed for all the specification items (S60), the optimum test case for the test target is generated (S61). <Reuse of Test Result> The result of test execution by the test case thus designed is output as a test result by using the test execution / result output unit. FIG. 14 shows the procedure in the test execution / result output unit. The test execution / result output unit reads the test case (S6
5) The test is executed based on the read test case (S66), and the defect found as a result and its importance are recorded in association with each specification item of the system (S6).
7). In this way, the number of defects and the degree of importance related to each specification item are totaled and output as a test result (S68).
FIG. 15 shows an example of the output test result. The test is repeated through software development and debugging, and the test result is output in each test cycle. All the test results of each test cycle performed on the current test object are stored as defect data of the current test object together with the test result obtained in what test cycle.

【0038】テスト結果検証部では、現テスト対象の不
具合データと適用されたテスト優先度つき仕様項目リス
トを入力として、適用テスト戦略が適当であったかどう
かを検証する。テスト結果検証部における手順を図16
に示す。まず、テストケース設計に適用したテスト優先
度つき仕様項目リストとテスト戦略部で記憶した不具合
検出傾向予測を読込む(S71,S72)。入力される
現テスト対象の不具合データには、何回目のテストサイ
クルで見つかった不具合なのか、またその不具合の重要
度がどの程度であるかが、仕様項目ごとに記録されてい
る。テスト結果検証部では、この不具合データとテスト
優先度つき仕様項目リストを比較して(S73)、適用
テスト戦略で期待された通りの効果が得られているかど
うかを検証する(S74)。検証の結果、期待通りの効
果が得られており、かつまだ不具合が収束していなけれ
ば(S75)、再テストを同じテスト戦略を用いて再度
実行して(S76)、適用中のテスト優先度つき仕様項
目リストを再出力する(S77)。一方、期待通りの効
果が得られていないか、効果は得られているが既に不具
合が収束しているようならば(S74,S75)、別の
テスト戦略を新たに選択することを決定し、テスト戦略
選択部に指示を出す(S78)。そして、適当なテスト
優先度つき仕様項目リストが存在する場合は(S7
9)、現テスト対象の不具合データから不具合検出傾向
を検証し、より最適なテスト戦略を選択する(S8
0)。一方、適当なテスト優先度つき仕様項目リストが
存在しない場合は(S79)、テスト戦略選択部におい
て新たにテスト戦略を選択し、テスト優先度につき仕様
項目リストを導出して、テスト戦略評価部で評価・記憶
を行う(S81)。なお、選択された最適なテスト戦略
は別のテスト戦略と比較しても良く(S82)、最終的
に選択されたテスト優先度つき仕様項目リストが出力さ
れる(S83)。
The test result verifying unit inputs the defect data of the current test target and the applied specification item list with test priority and verifies whether or not the applied test strategy is appropriate. FIG. 16 shows the procedure in the test result verification unit.
Shown in. First, the list of specification items with test priority applied to the test case design and the defect detection tendency prediction stored in the test strategy section are read (S71, S72). In the defect data of the current test target that is input, the number of test cycles in which the defect is found, and the importance of the defect are recorded for each specification item. The test result verification unit compares the defect data with the list of specification items with test priority (S73), and verifies whether or not the expected effect is obtained by the applied test strategy (S74). As a result of the verification, if the expected effect is obtained and the defect is not yet converged (S75), the retest is executed again using the same test strategy (S76), and the test priority being applied is applied. The attached specification item list is re-output (S77). On the other hand, if the expected effect is not obtained, or if the effect has been obtained but the defect has already converged (S74, S75), it is decided to newly select another test strategy, The test strategy selection unit is instructed (S78). If there is a list of specification items with an appropriate test priority (S7
9), verify the defect detection tendency from the defect data of the current test target and select a more optimal test strategy (S8)
0). On the other hand, if no specification item list with an appropriate test priority exists (S79), a new test strategy is selected in the test strategy selection section, a specification item list is derived for the test priority, and the test strategy evaluation section is selected. Evaluation / memorization is performed (S81). The selected optimal test strategy may be compared with another test strategy (S82), and the finally selected specification item list with test priority is output (S83).

【0039】このようにテストサイクルを通して常に最
適なテスト戦略を選択し、最も効果的なテストケースが
生成されるようにする。
In this way, the optimum test strategy is always selected throughout the test cycle so that the most effective test case is generated.

【0040】また現テスト対象の不具合データは過去の
不具合データにも現バージョンでの不具合情報として登
録され、次バージョンのテスト戦略評価の際に不具合デ
ータとして利用されることになる。
The defect data of the current test target is also registered in the defect data of the past as defect information of the current version, and is used as defect data when the test strategy of the next version is evaluated.

【0041】[0041]

【発明の効果】以上説明したように、本発明は、上記の
ようにシステム仕様書から抽出された仕様項目に対し
て、複数の評価観点に基づいた特性値を与えることでシ
ステムの特徴を表現し、そのテスト対象システムにとっ
て適当なテスト戦略を作成・選択することで、優先的に
テストすべき仕様項目を示すテスト優先度を導出し、最
適なテストケースを設計することを目的としている。さ
らに、システムにとって効果的なテストを実現するため
に、過去の不具合データなどを利用して適当なテスト戦
略を選択する手段を提供すると共に、テスト実行した結
果発見される不具合データを用いて適用されたテスト戦
略を再度検証する手段を提供することで、常に最適なテ
スト戦略を選択してテスト優先度を導出し、それに基づ
くテストケースを設計することが可能となっている。
As described above, the present invention expresses the characteristics of the system by giving characteristic values based on a plurality of evaluation points to the specification items extracted from the system specifications as described above. By designing and selecting an appropriate test strategy for the system under test, the test priority indicating the specification items to be tested preferentially is derived, and the optimum test case is designed. In addition, in order to realize an effective test for the system, it provides a means to select an appropriate test strategy by using past defect data, etc., and is applied by using the defect data found as a result of the test execution. By providing a means for re-verifying the test strategy, it is possible to always select the optimum test strategy, derive the test priority, and design the test case based on it.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の全体の流れを示すブロック図。FIG. 1 is a block diagram showing the overall flow of the present invention.

【図2】評価観点の一例を示す図。FIG. 2 is a diagram showing an example of an evaluation viewpoint.

【図3】特性値つき仕様項目リストを作成する過程を示
すフローチャート。
FIG. 3 is a flowchart showing a process of creating a specification item list with characteristic values.

【図4】図3で生成される特性値つき仕様項目リストの
一例を示す図。
FIG. 4 is a diagram showing an example of a specification item list with characteristic values generated in FIG.

【図5】テスト戦略の一例を示す図。FIG. 5 is a diagram showing an example of a test strategy.

【図6】テスト戦略を作成する過程を示すフローチャー
ト。
FIG. 6 is a flowchart showing a process of creating a test strategy.

【図7】テスト戦略を選択する過程を示すフローチャー
ト。
FIG. 7 is a flowchart showing a process of selecting a test strategy.

【図8】特性値つき仕様項目リストとテスト戦略からテ
スト優先度つき仕様項目リストを作成する過程を示すフ
ローチャート。
FIG. 8 is a flowchart showing a process of creating a specification item list with test priority from a specification item list with characteristic values and a test strategy.

【図9】図8で作成されるテスト優先度つき仕様項目リ
ストの一例を示す図。
9 is a diagram showing an example of a specification item list with test priorities created in FIG.

【図10】選択されたテスト戦略から作成されたテスト
優先度つき仕様項目リストを、過去の不具合データを用
いて評価する過程を示すフローチャート。
FIG. 10 is a flowchart showing a process of evaluating a specification item list with test priorities created from a selected test strategy using past defect data.

【図11】図10で利用する過去の不具合データの一例
を示す図。
11 is a diagram showing an example of past defect data used in FIG.

【図12】テストリソースの一例を示す図。FIG. 12 is a diagram showing an example of a test resource.

【図13】図8で作成されるテスト優先度つき仕様項目
リストとテストリソース、過去の類似テストケースおよ
び公知のテストケース設計手段から、テストケースを設
計する過程を示すフローチャート。
FIG. 13 is a flowchart showing a process of designing a test case from the specification item list with test priorities and test resources created in FIG. 8, a similar test case in the past, and a known test case designing means.

【図14】図13で設計されたテストケースを用いてテ
スト実行した結果、発見された不具合をテスト結果とし
て作成する過程を示すフローチャート。
FIG. 14 is a flowchart showing a process of creating a defect found as a result of test execution using the test case designed in FIG.

【図15】図14で作成されるテスト結果の一例を示す
図。
FIG. 15 is a diagram showing an example of a test result created in FIG.

【図16】図15で作成されるテスト結果を利用してテ
スト戦略を再度検証する過程を示すフローチャート。
16 is a flowchart showing a process of re-verifying a test strategy using the test result created in FIG.

【符号の説明】[Explanation of symbols]

1 システム仕様書仕様項目リスト 2 評価観点データベース 3 仕様項目特性値設定部 4 特性値つき仕様項目リスト 5 テスト戦略作成部 6 テスト戦略データベース 7 テスト戦略選択部 8 テスト戦略 9 テスト優先度導出部 10 テスト優先度付き仕様項目リスト 11 テスト戦略評価部 12 過去の不具合データ 13 テストリソース 14 過去の類似テストケース 15 テストケース設計手段 16 テストケース設計部 17 テストケース 18 テスト実行・結果出力部 19 テスト結果 20 現テスト対象の不具合データ 21 テスト結果検証部 1 System specifications specification item list 2 Evaluation viewpoint database 3 Specification item characteristic value setting section 4 List of specification items with characteristic values 5 Test Strategy Creation Department 6 test strategy database 7 Test strategy selection section 8 test strategies 9 Test priority derivation part 10 Specification list with test priority 11 Test Strategy Evaluation Department 12 Past defect data 13 Test resources 14 Similar test cases in the past 15 Test case design means 16 Test Case Design Department 17 test cases 18 Test execution / result output section 19 test results 20 Defect data of current test target 21 Test result verification unit

───────────────────────────────────────────────────── フロントページの続き (72)発明者 岡安 二郎 神奈川県川崎市幸区小向東芝町1番地 株 式会社東芝研究開発センター内 (72)発明者 田村 一賢 東京都府中市東芝町1番地 株式会社東芝 府中事業所内 Fターム(参考) 5B042 HH11 HH19    ─────────────────────────────────────────────────── ─── Continued front page    (72) Inventor Jiro Okayasu             1st Komukai Toshiba-cho, Sachi-ku, Kawasaki-shi, Kanagawa             Inside the Toshiba Research and Development Center (72) Inventor Kazunori Tamura             No. 1 Toshiba-cho, Fuchu-shi, Tokyo Toshiba Corporation             Fuchu Office F-term (reference) 5B042 HH11 HH19

Claims (18)

【特許請求の範囲】[Claims] 【請求項1】 ソフトウェアシステムの仕様書から抽出
される仕様項目ごとに、該システムの評価観点に基づく
特性値を設定する仕様項目特性値設定工程と、前記評価
観点のうちいずれに重点を置くかを定義するテスト戦略
を作成するテスト戦略作成工程と、作成された前記テス
ト戦略のうち前記ソフトウェアシステムのテストに適用
するテスト戦略を選択するテスト戦略選択工程と、設定
された前記特性値と選択された前記テスト戦略から優先
的に前記テストを実行する前記仕様項目を決定するため
のテスト優先度を導出するテスト優先度導出工程とを備
えたことを特徴とするテスト優先度導出支援方法。
1. A specification item characteristic value setting step of setting a characteristic value based on an evaluation viewpoint of the system for each specification item extracted from a specification of a software system, and which of the evaluation viewpoints is to be emphasized? Defining a test strategy, a test strategy creating step, a test strategy selecting step of selecting a test strategy to be applied to a test of the software system among the created test strategies, and a set characteristic value selected. And a test priority derivation step of deriving a test priority for deciding the specification item to preferentially execute the test from the test strategy.
【請求項2】 前記テスト戦略は、前記評価観点に対す
る重みを設定することにより作成されることを特徴とす
る請求項1記載のテスト優先度導出支援方法。
2. The test priority derivation support method according to claim 1, wherein the test strategy is created by setting a weight for the evaluation viewpoint.
【請求項3】 前記テスト優先度を用いて最適なテスト
戦略が適用されているかを評価するテスト戦略評価工程
を更に具備することを特徴とする請求項1または請求項
2のいずれか一項に記載のテスト優先度導出支援方法。
3. The method according to claim 1, further comprising a test strategy evaluation step of evaluating whether an optimal test strategy is applied using the test priority. The test priority derivation support method described.
【請求項4】 前記テスト戦略評価工程では、前記テス
ト優先度と不具合データを比較することにより最適なテ
スト戦略が適用されているかを評価することを特徴とす
る請求項3記載のテスト優先度導出支援方法。
4. The test priority derivation according to claim 3, wherein in the test strategy evaluation step, it is evaluated whether or not an optimum test strategy is applied by comparing the test priority with defect data. How to help.
【請求項5】 ソフトウェアシステムの仕様書から抽出
される仕様項目ごとに、該システムの評価観点に基づく
特性値を設定する仕様項目特性値設定工程と、前記評価
観点のうちいずれに重点を置くかを定義するテスト戦略
を作成するテスト戦略作成工程と、作成された前記テス
ト戦略のうち前記ソフトウェアシステムのテストに適用
するテスト戦略を選択するテスト戦略選択工程と、設定
された前記特性値と選択された前記テスト戦略から優先
的に前記テストを実行する前記仕様項目を決定するため
のテスト優先度を導出するテスト優先度導出工程と、前
記テスト優先度をもとにテストケースを設計するテスト
ケース設計工程とを備えたことを特徴とするテストケー
ス設計支援方法。
5. A specification item characteristic value setting step of setting a characteristic value based on an evaluation viewpoint of the system for each specification item extracted from the specifications of the software system, and which of the evaluation viewpoints is to be emphasized? Defining a test strategy, a test strategy creating step, a test strategy selecting step of selecting a test strategy to be applied to a test of the software system among the created test strategies, and a set characteristic value selected. A test priority derivation step of deriving a test priority for deciding the specification item to execute the test preferentially from the test strategy, and a test case design for designing a test case based on the test priority A test case design support method comprising: a process.
【請求項6】 前記テスト戦略は、前記評価観点に対す
る重みを設定することにより作成されることを特徴とす
る請求項5記載のテストケース設計支援方法。
6. The test case design support method according to claim 5, wherein the test strategy is created by setting a weight for the evaluation viewpoint.
【請求項7】 前記テスト優先度を用いて最適なテスト
戦略が適用されているかを評価するテスト戦略評価工程
を更に具備することを特徴とする請求項5または請求項
6のいずれか一項に記載のテストケース設計支援方法。
7. The method according to claim 5, further comprising a test strategy evaluation step of evaluating whether an optimal test strategy is applied using the test priority. Described test case design support method.
【請求項8】 前記テスト戦略評価工程では、前記テス
ト優先度と不具合データを比較することにより最適なテ
スト戦略が適用されているかを評価することを特徴とす
る請求項7記載のテストケース設計支援方法。
8. The test case design support according to claim 7, wherein in the test strategy evaluation step, it is evaluated whether an optimum test strategy is applied by comparing the test priority with defect data. Method.
【請求項9】 前記テストケースを用いてテスト実行し
た結果発見される不具合データから適用された前記テス
ト戦略を再度検証するテスト結果検証工程を更に備えた
請求項5乃至請求項9のいずれか一項に記載のテストケ
ース設計支援方法。
9. The method according to claim 5, further comprising a test result verification step of re-verifying the test strategy applied from defect data found as a result of test execution using the test case. Test case design support method described in paragraph.
【請求項10】 ソフトウェアシステムの仕様書から抽
出される仕様項目ごとに、該システムの評価観点に基づ
く特性値を設定する仕様項目特性値設定機能と、前記評
価観点のうちいずれに重点を置くかを定義するテスト戦
略を作成するテスト戦略作成機能と、作成された前記テ
スト戦略のうち前記ソフトウェアシステムのテストに適
用するテスト戦略を選択するテスト戦略選択機能と、設
定された前記特性値と選択された前記テスト戦略から優
先的に前記テストを実行する前記仕様項目を決定するた
めのテスト優先度を導出するテスト優先度導出機能とを
コンピュータに実現させることを特徴とするテスト優先
度導出支援プログラム。
10. A specification item characteristic value setting function for setting a characteristic value based on an evaluation viewpoint of the system for each specification item extracted from the specifications of the software system, and which of the evaluation viewpoints is to be emphasized? A test strategy creating function that creates a test strategy that defines a test strategy, a test strategy selecting function that selects a test strategy of the created test strategies to be applied to the testing of the software system, and a set characteristic value that is selected. A test priority derivation support program for causing a computer to realize a test priority derivation function for deriving a test priority for determining the specification item for preferentially executing the test from the test strategy.
【請求項11】 前記テスト戦略は、前記評価観点に対
する重みを設定することにより作成されることを特徴と
する請求項10記載のテスト優先度導出支援プログラ
ム。
11. The test priority derivation support program according to claim 10, wherein the test strategy is created by setting a weight for the evaluation viewpoint.
【請求項12】 前記テスト優先度を用いて最適なテス
ト戦略が適用されているかを評価するテスト戦略評価機
能を更にコンピュータに実現させることを特徴とする請
求項10または請求項11のいずれか一項に記載のテス
ト優先度導出支援プログラム。
12. The computer according to claim 10, further comprising a test strategy evaluation function for evaluating whether an optimum test strategy is applied using the test priority. The test priority derivation support program described in Section.
【請求項13】 前記テスト戦略評価機能は、前記テス
ト優先度と不具合データを比較することにより最適なテ
スト戦略が適用されているかを評価するものであること
を特徴とする請求項12記載のテスト優先度導出支援プ
ログラム。
13. The test according to claim 12, wherein the test strategy evaluation function evaluates whether or not an optimum test strategy is applied by comparing the test priority with defect data. Priority derivation support program.
【請求項14】 ソフトウェアシステムの仕様書から抽
出される仕様項目ごとに、該システムの評価観点に基づ
く特性値を設定する仕様項目特性値設定機能と、前記評
価観点のうちいずれに重点を置くかを定義するテスト戦
略を作成するテスト戦略作成機能と、作成された前記テ
スト戦略のうち前記ソフトウェアシステムのテストに適
用するテスト戦略を選択するテスト戦略選択機能と、設
定された前記特性値と選択された前記テスト戦略から優
先的に前記テストを実行する前記仕様項目を決定するた
めのテスト優先度を導出するテスト優先度導出機能と、
前記テスト優先度をもとにテストケースを設計するテス
トケース設計機能とをコンピュータに実現させることを
特徴とするテストケース設計支援プログラム。
14. A specification item characteristic value setting function for setting a characteristic value based on the evaluation viewpoint of the system for each specification item extracted from the specifications of the software system, and which of the evaluation viewpoints is to be emphasized? A test strategy creating function that creates a test strategy that defines a test strategy, a test strategy selecting function that selects a test strategy of the created test strategies to be applied to the testing of the software system, and a set characteristic value that is selected. A test priority derivation function for deriving a test priority for determining the specification items to be preferentially executed from the test strategy,
A test case design support program for causing a computer to realize a test case design function for designing a test case based on the test priority.
【請求項15】 前記テスト戦略は、前記評価観点に対
する重みを設定することにより作成されることを特徴と
する請求項14記載のテストケース設計支援プログラ
ム。
15. The test case design support program according to claim 14, wherein the test strategy is created by setting a weight for the evaluation viewpoint.
【請求項16】 前記テスト優先度を用いて最適なテス
ト戦略が適用されているかを評価するテスト戦略評価機
能を更に具備することを特徴とする請求項14または請
求項15のいずれか一項に記載のテストケース設計支援
プログラム。
16. The method according to claim 14, further comprising a test strategy evaluation function for evaluating whether an optimum test strategy is applied using the test priority. Test case design support program described.
【請求項17】 前記テスト戦略評価機能は、前記テス
ト優先度と不具合データを比較することにより最適なテ
スト戦略が適用されているかを評価することを特徴とす
る請求項16記載のテストケース設計支援プログラム。
17. The test case design support according to claim 16, wherein the test strategy evaluation function evaluates whether an optimum test strategy is applied by comparing the test priority with defect data. program.
【請求項18】 前記テストケースを用いてテスト実行
した結果発見される不具合データから適用された前記テ
スト戦略を再度検証するテスト結果検証機能を更に備え
た請求項14乃至請求項17のいずれか一項に記載のテ
ストケース設計支援プログラム。
18. The test result verification function according to claim 14, further comprising a test result verification function for re-verifying the test strategy applied from defect data found as a result of test execution using the test case. The test case design support program described in Section.
JP2001290380A 2001-09-25 2001-09-25 Test priority derivation support method for software system, test case designing support method, and its support program Pending JP2003099283A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001290380A JP2003099283A (en) 2001-09-25 2001-09-25 Test priority derivation support method for software system, test case designing support method, and its support program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001290380A JP2003099283A (en) 2001-09-25 2001-09-25 Test priority derivation support method for software system, test case designing support method, and its support program

Publications (1)

Publication Number Publication Date
JP2003099283A true JP2003099283A (en) 2003-04-04

Family

ID=19112692

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001290380A Pending JP2003099283A (en) 2001-09-25 2001-09-25 Test priority derivation support method for software system, test case designing support method, and its support program

Country Status (1)

Country Link
JP (1) JP2003099283A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003256206A (en) * 2002-02-28 2003-09-10 Toshiba Corp Test plan preparation support method for software system and test plan preparation support program
WO2006070454A1 (en) * 2004-12-28 2006-07-06 Fujitsu Limited System design supporting program and method
JP2008129661A (en) * 2006-11-16 2008-06-05 Internatl Business Mach Corp <Ibm> Information processor, method, and program for determining priority of test case to be executed in regression test
JP2008242540A (en) * 2007-03-26 2008-10-09 Fujitsu Ltd Test specification generation program and test specification generation device
JP2009288831A (en) * 2008-05-27 2009-12-10 Fujitsu Ltd Verification data creation method, device and program
JP2010072988A (en) * 2008-09-19 2010-04-02 Nec System Technologies Ltd Checklist creation apparatus and method, and program
US7739550B2 (en) 2006-06-15 2010-06-15 Dainippon Screen Mfg. Co. Ltd. Test case selection apparatus and method, and recording medium
JP2011044111A (en) * 2009-08-24 2011-03-03 Fujitsu Semiconductor Ltd Software test method and program
JP2015152979A (en) * 2014-02-10 2015-08-24 富士通株式会社 Product design support program, product design support method, and product design support device
CN106844197A (en) * 2016-12-26 2017-06-13 重庆邮电大学 Uniformity test use-case strategy dispatching method based on algebraic reconstruction technique feedback control
CN113821829A (en) * 2021-01-07 2021-12-21 北京沃东天骏信息技术有限公司 Data verification method, device and storage medium

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003256206A (en) * 2002-02-28 2003-09-10 Toshiba Corp Test plan preparation support method for software system and test plan preparation support program
WO2006070454A1 (en) * 2004-12-28 2006-07-06 Fujitsu Limited System design supporting program and method
GB2438096A (en) * 2004-12-28 2007-11-14 Fujitsu Ltd System design supporting program and method
US7739550B2 (en) 2006-06-15 2010-06-15 Dainippon Screen Mfg. Co. Ltd. Test case selection apparatus and method, and recording medium
JP2008129661A (en) * 2006-11-16 2008-06-05 Internatl Business Mach Corp <Ibm> Information processor, method, and program for determining priority of test case to be executed in regression test
JP2008242540A (en) * 2007-03-26 2008-10-09 Fujitsu Ltd Test specification generation program and test specification generation device
JP2009288831A (en) * 2008-05-27 2009-12-10 Fujitsu Ltd Verification data creation method, device and program
JP2010072988A (en) * 2008-09-19 2010-04-02 Nec System Technologies Ltd Checklist creation apparatus and method, and program
JP2011044111A (en) * 2009-08-24 2011-03-03 Fujitsu Semiconductor Ltd Software test method and program
JP2015152979A (en) * 2014-02-10 2015-08-24 富士通株式会社 Product design support program, product design support method, and product design support device
CN106844197A (en) * 2016-12-26 2017-06-13 重庆邮电大学 Uniformity test use-case strategy dispatching method based on algebraic reconstruction technique feedback control
CN106844197B (en) * 2016-12-26 2020-06-09 重庆邮电大学 Consistency test case strategy scheduling method based on feedback control of algebraic reconstruction method
CN113821829A (en) * 2021-01-07 2021-12-21 北京沃东天骏信息技术有限公司 Data verification method, device and storage medium
CN113821829B (en) * 2021-01-07 2024-04-16 北京沃东天骏信息技术有限公司 Data verification method, device and storage medium

Similar Documents

Publication Publication Date Title
US8196113B2 (en) Realtime creation of datasets in model based testing
US8522214B2 (en) Keyword based software testing system and method
JP2783641B2 (en) Design evaluation method and design evaluation tool
Linzhang et al. Generating test cases from UML activity diagram based on gray-box method
US5918037A (en) Generating tests for an extended finite state machine using different coverage levels for different submodels
US9760073B2 (en) Technique and tool for efficient testing of controllers in development
US6487704B1 (en) System and method for identifying finite state machines and verifying circuit designs
US8732676B1 (en) System and method for generating unit test based on recorded execution paths
Moghadam et al. Machine learning to guide performance testing: An autonomous test framework
US7793271B2 (en) Bi-directional product development process simulation
JP2003099283A (en) Test priority derivation support method for software system, test case designing support method, and its support program
Coles et al. Cost-sensitive concurrent planning under duration uncertainty for service-level agreements
CN108268373A (en) Automatic test cases management method, device, equipment and storage medium
Suleiman et al. A survey on prioritization regression testing test case
JP3883449B2 (en) Software system test plan creation support method and test plan creation support program
CN108363660B (en) Test program generation method and device
CN110990285B (en) UI (user interface) automatic testing method and device
JP2012099108A (en) Efficient partial computation for parallelization of software analysis in distributed computing environment
CN111897725B (en) Automatic test method, medium, equipment and system for middle platform service
Yu et al. Generating, selecting and prioritizing test cases from specifications with tool support
US7197445B1 (en) Atomic transaction processing for logic simulation
CN106209493B (en) A kind of pair of Internet service system carries out the System and method for of flow tracking
CN108491440A (en) A kind of GNSS non-real-time datas are traced to the source method for visualizing and system
US10733345B1 (en) Method and system for generating a validation test
CN113485940A (en) Combined test case generation method based on parameter abstract modeling

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20050414

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20050606