JP2003256206A - ソフトウェアシステムのテスト計画作成支援方法およびテスト計画作成支援プログラム - Google Patents

ソフトウェアシステムのテスト計画作成支援方法およびテスト計画作成支援プログラム

Info

Publication number
JP2003256206A
JP2003256206A JP2002053210A JP2002053210A JP2003256206A JP 2003256206 A JP2003256206 A JP 2003256206A JP 2002053210 A JP2002053210 A JP 2002053210A JP 2002053210 A JP2002053210 A JP 2002053210A JP 2003256206 A JP2003256206 A JP 2003256206A
Authority
JP
Japan
Prior art keywords
test
specification item
man
module
hour
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002053210A
Other languages
English (en)
Other versions
JP3883449B2 (ja
Inventor
Tetsuya Yamamoto
徹也 山本
Jiro Okayasu
二郎 岡安
Masayuki Hirayama
雅之 平山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2002053210A priority Critical patent/JP3883449B2/ja
Publication of JP2003256206A publication Critical patent/JP2003256206A/ja
Application granted granted Critical
Publication of JP3883449B2 publication Critical patent/JP3883449B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Debugging And Monitoring (AREA)
  • Stored Programmes (AREA)

Abstract

(57)【要約】 【課題】 ソフトウェアシステムのテストにどれだけの
リソースをどのように割り当てるべきかを、テスト計画
として決定することを支援する方法およびプログラムの
提供。 【解決手段】 ソフトウェアシステムのプログラムモジ
ュールごとの品質情報を設定する工程24と、前記品質
情報から前記プログラムモジュールの不具合検出工数を
予測する工程26と、前記モジュールと前記ソフトウェ
アシステムの仕様書から抽出される仕様項目との対応関
係を表すモジュール・仕様項目対応関係情報を作成する
工程22と、前記不具合検出工数と前記モジュール・仕
様項目対応関係情報とから仕様項目不具合検出工数を予
測する工程28と、前記仕様項目不具合検出工数に基づ
いて、前記ソフトウェアシステムのテストに利用可能な
テストリソースを配分するテスト計画を作成する工程3
0とを備えたことを特徴とするテスト計画作成支援方法
およびプログラム。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】この発明は、ソフトウェアシ
ステムの信頼性を向上させるためのテスト技術ならびに
検証技術に関係し、これらのテスト・検証を効率的に行
うテスト計画の作成を支援する方法ならびにプログラム
に関する。
【0002】
【従来の技術】従来、ソフトウェアシステムの信頼性を
保証するためにソフトウェアテスト技術が広く用いられ
ている。ソフトウェアテスト技術では、テスト対象とな
るソフトウェアに対してどのようなテストケースをどの
ようなテスト計画で利用するかが重要となる。テストケ
ースとテスト計画の良し悪しによって、テストの品質と
効率が大きく異なってくる。
【0003】テストケースは、対象ソフトウェアの機能
を網羅的にテストするように設計する必要があるが、最
近のソフトウェアシステムは大規模化・複雑化してお
り、すべての機能を網羅的にテストするためには、膨大
な工数を用いて膨大なテストケースを消化する必要があ
る。一方でソフトウェアシステム開発に当てられる開発
期間には限度があるため、限られた時間内にすべてを実
施することは不可能に近い。そのため、信頼性や重要度
などの基準に応じてテストする部分に優先順位をつけ、
優先順位によってテストケースの詳細度を変えること
で、必要十分な量の効率的なテストケースを設計するこ
とが必要となってきている。これに対して、発明者ら
は、システム仕様書などからシステムの特徴を表現し、
そのシステムにとって適当なテスト戦略を選択する手段
を提供して、重要な機能を優先的にテストできるテスト
ケースの設計支援方法を提案している(特願2001−
290380)。
【0004】一方で、テストの実行には、テストケース
と並んでテスト計画も必要である。テスト計画とは、具
体的に誰が、どのテストケースを、いつ、どれだけの工
数をかけて行うかを定めたものである。同一のテストケ
ースを用いても、そのテストを担当する技術者の力量
や、実際にテストで不具合を検出するのにかかる工数な
どテスト作業に関するメトリクスによって、テストの効
果は異なるものとなる。したがって、テストケースの作
成と同様、テスト計画の作成においても、どのメトリク
スを重視するかの判定基準を、テストの戦略として意図
的に設定しなければ、効率的なテストの実現は難しい。
【0005】従来技術では、テスト作業に関するメトリ
クスに注目してテスト計画を作成することはしていなか
ったが、より効率の良いテストを実現するためには、こ
のようなテスト計画作成手法が必要とされる。
【0006】
【発明が解決しようとする課題】このように、従来の技
術では、システム仕様書などからそのシステムの特徴を
表現し、そのシステムにとって適当なテスト戦略を選択
して、品質上重要な機能かそうでない機能かを判断する
テスト優先度を導出してテストケースを設計している
が、そのテストケースを効率的に実行するためのテスト
計画を、テスト作業に関するメトリクスに注目して作成
してはいなかった。
【0007】そこで本発明では、優先的にテストできる
ように設計されたテストケースに対して、モジュールご
とに測定されるプログラムの品質メトリクスや、開発し
たプログラマの技術力などの要因を分析することで、ど
のテストにおいて不具合が発生する可能性が高いかを予
測し、どのテストにどれだけのリソースをどのように割
り当てるべきかを、テスト計画として決定することを支
援する方法およびプログラムを提供する。
【0008】
【課題を解決するための手段】上記課題を解決するため
に、本発明では、ソフトウェアシステムのプログラムモ
ジュールごとの品質情報を設定するモジュール品質情報
設定工程と、前記品質情報から前記プログラムモジュー
ルの不具合検出工数を予測するモジュール不具合検出工
数予測工程と、前記モジュールと前記ソフトウェアシス
テムの仕様書から抽出される仕様項目との対応関係を表
すモジュール・仕様項目対応関係情報を作成するモジュ
ール・仕様項目対応関係設定工程と、前記不具合検出工
数と前記モジュール・仕様項目対応関係情報とから仕様
項目不具合検出工数を予測する仕様項目不具合検出工数
予測工程と、前記仕様項目不具合検出工数に基づいて、
前記ソフトウェアシステムのテストに利用可能なテスト
リソースを配分するテスト計画を作成するテスト計画作
成工程とを備えたことを特徴とするテスト計画作成支援
方法を提供する。
【0009】また、本発明では、ソフトウェアシステム
のプログラムモジュールごとの品質情報を設定するモジ
ュール品質情報設定機能と、前記品質情報から前記プロ
グラムモジュールの不具合検出工数を予測するモジュー
ル不具合検出工数予測機能と、前記モジュールと前記ソ
フトウェアシステムの仕様書から抽出される仕様項目と
の対応関係を表すモジュール・仕様項目対応関係情報を
作成するモジュール・仕様項目対応関係設定機能と、前
記不具合検出工数と前記モジュール・仕様項目対応関係
情報とから仕様項目不具合検出工数を予測する仕様項目
不具合検出工数予測機能と、前記仕様項目不具合検出工
数の基づいて、前記ソフトウェアシステムのテストにか
けることのできるテストリソースを配分するテスト計画
を作成するテスト計画作成機能とをコンピュータに実現
させることを特徴とするテスト計画作成支援プログラム
を提供する。
【0010】上記した本発明によれば、各モジュールの
品質に関わる情報を設定・利用して、モジュールごとの
不具合検出工数を予測し、モジュール・仕様項目対応関
係情報から仕様項目ごとの不具合検出工数を予測するこ
とが可能となった。その結果、仕様項目ごとのテスト優
先度、不具合検出工数予測、および利用可能なテストリ
ソースから、効率的なソフトウェアテストを実現するた
めのテスト計画を作成することが可能となった。
【0011】
【発明の実施の形態】以下、本発明の実施の形態につい
て、図面を参照しつつ詳細に説明する。
【0012】図1は本発明の全体の流れを、ブロック図
を用いて示したものである。同図において、22はモジ
ュール・仕様項目対応関係設定部、24はモジュール品
質情報設定部、26はモジュール不具合検出工数予測
部、28は仕様項目不具合検出工数予測部、30はテス
ト計画作成部、16はテストケース設計部、18はテス
ト実行・結果出力部である。
【0013】本発明では、テスト対象となるソフトウェ
アシステム製品のモジュールリスト32をもとに、モジ
ュール品質情報設定部24を利用してモジュールごとの
品質情報を設定し、モジュール品質情報25からモジュ
ール不具合検出工数予測部26を利用してモジュール不
具合検出工数27を予測する。さらに、システム仕様書
から抽出された仕様項目リスト1と、モジュール・仕様
項目対応関係設定部22を利用してモジュール・仕様項
目対応関係情報23を作成する。これらモジュール不具
合検出工数27とモジュール・仕様項目対応関係情報2
3とから、仕様項目不具合検出工数予測部28を利用し
て仕様項目不具合検出工数29を予測する。そして、テ
ストに利用される資源やスケジュールなどからなるテス
トリソース13、どの仕様項目を優先的にテストするか
を表わすテスト優先度つき仕様項目リスト10、仕様項
目不具合検出工数29からテスト計画作成部30を利用
して、効率的なソフトウェアテストを可能にするテスト
計画31を作成する。
【0014】次に、テスト優先度つき仕様項目リスト1
0と、テストリソース13、テストケース設計部16を
利用して、テスト対象ソフトウェアにとって最適なテス
トケース17を作成する。このテストケース17とテス
ト計画31にもとづいてテスト実行された結果発見され
た不具合情報は、テスト実行・結果出力部18を利用し
てテスト結果19として出力される。なお、本発明は、
テスト計画の作成までを主として支援するものであり、
テスト実行・結果出力部は設けなくても良い。また、テ
スト優先度つき仕様項目リストの情報はテスト計画の作
成にあたって使用しなくても良い。
【0015】以下、上記した各部の機能について詳細に
説明する。なお、各機能はソフトウェアによりコンピュ
ータを用いて実現されるものであっても良い。
【0016】<モジュール品質情報の設定>本発明で
は、ソフトウェアを構成するプログラムモジュールごと
に、その品質に関する情報(モジュール品質情報)を設
定する。設定された品質情報を用いて、後に、その不具
合検出工数を予測することになる。
【0017】まずは、設定される品質情報の例を図2に
示す。図2にあるように、品質情報にはその開発プロセ
スに関する特徴と、開発されたモジュールのソースコー
ドに関する特徴とに大きく分けられる。開発プロセスに
関する特徴は、主に主観的に設定されるものであり、一
方、ソースコードに関する特徴は、機械的に測定可能な
ものである。なお、テスト計画を作成するのはテスト実
行にかなり近い段階でも良いので、ソースコードを利用
することが可能となる。
【0018】モジュール品質情報設定の具体的な手順の
例を図3に示す。まず、設定する品質情報を一つ選択す
る(S81)。それが開発プロセスに関する品質情報か
否かを判断し(S82)、そうである場合には、その開
発プロセスについての調査を行い(S83)、その結果
について主観的あるいは客観的に評価して、1−10の
点数を与える(S84)。他にも評価したいモジュール
品質情報がある場合には、S81に戻って作業を繰り返
す(S85)。一方、選択した品質情報が、モジュール
ソースコードに関する品質情報の場合には(S86)、
その品質情報に対応するソースコードの特徴値あるいは
メトリクスを、ツールを利用、もしくは手作業にて測定
する(S87)。さらに測定結果にもとづいて、1−1
0の点数を与える(S88)。他にも評価したい品質情
報がある場合には、S81に戻って作業を繰り返す。
【0019】<モジュール不具合検出工数の予測>モジ
ュールごとに、そのモジュールからどの程度の不具合が
検出され、その検出工数がそのモジュールのトータルで
どの程度になるかを予測する。どのようにモジュール検
出工数を予測するかには、様々な手順が考えられるが、
ここでは、最も基本的な手順を図4にて説明する。ま
ず、不具合検出工数を予測するモジュールを一つ選択す
る(S91)。つづいて不具合数の予測に有効な品質情
報を選択し(S92)、それらから、ソースコードの単
位規模に対する不具合の数を予測する(S93)。ま
た、不具合検出工数の予測に有効な品質情報を選択し
(S94)、それらから、不具合当たりの検出工数を予
測する(S95)。最後に、それらの積をとることで、
トータルの不具合検出工数を算出する(S96)。不具
合検出工数が未知のモジュールが残っていたら、S91
へ戻って作業を繰り返す(S97)。
【0020】前記した品質情報の例(図2参照)の一部
を利用して、不具合検出工数予測の例を以下に述べる。
まず、不具合数の予測に有効な品質情報として、ソース
規模と担当者のスキルを利用する。担当者のスキルを把
握すれば、そのレベルのプログラマが作成したプログラ
ムに、例えば1000行あたりに何個程度の不具合が含
まれているかを予測することができる。例えば、プログ
ラム経験の浅いプログラマの担当したモジュールについ
ては、1000行あたりに5個の不具合を仮定して、ソ
ース規模からモジュールの総不具合数を予測する、など
である。この情報を用いて、トータルで何個程度の不具
合が含まれているかを予測する。次に、不具合検出工数
の予測に有効な品質情報として、ソースコードの複雑さ
を利用する。ソースコードが複雑であれば、そのソース
コードの実行パスも多岐に渡り、特定のパスに存在する
不具合を検出するのに、より多くの工数が必要となる。
通常の一個あたりの検出工数を設定し、複雑さに応じて
それに調整をほどこす。例えば、一定レベル以上の複雑
さをもつモジュールについては、単位あたりの不具合検
出工数を通常の1.5倍にする、などである。この検出
工数と、予測した不具合数との積をとることで、トータ
ルの不具合検出工数を予測することができる。
【0021】<モジュール・仕様項目対応関係情報の設
定>一般にシステム仕様書には、ソフトウェアシステム
で実現される機能が仕様項目として記述されている。こ
れらの項目の一覧をリストとして抽出した仕様項目リス
ト(詳細は後述)と、その仕様項目の実現に利用される
モジュールとの対応関係の情報を設定する。この情報
は、後に仕様項目ごとの不具合検出工数を予測するため
に必要となる。設定すべき情報は、図5のようである。
各仕様項目の実現に際して、どのモジュールが使用され
ているか、またその寄与の度合はどの程度になるか、を
設定する。実際の手順としても、図のような表を埋めて
いく形で行われる。基本的な手順は、図6のようであ
る。一つの仕様項目を選択し(S101)、その仕様項
目を実現するために使用されるモジュールを洗い出し
(S102)、各モジュールのこの仕様項目実現への寄
与の度合を、比率(パーセント)で設定する(S10
3)。以上の手順を、すべての仕様項目に対して繰り返
す(S104)。
【0022】<仕様項目不具合検出工数の予測>モジュ
ール・仕様項目対応関係情報と、モジュールごとの不具
合検出工数予測とから、それぞれの仕様項目ごとに、仕
様項目不具合検出工数を予測する。基本的な手順例は図
7のようである。一つのモジュールに対して(S11
1)そのモジュールの、各仕様項目への寄与の度合の比
率を計算する(S112)。そのモジュールの寄与する
仕様項目ごとに、不具合検出工数の予測値を、(S11
2)にて決定した比率で分配する(S113)。この分
配をすべてのモジュールについて繰り返す(S11
4)。次に、一つの仕様項目を選択し(S115)、各
モジュールからこの仕様項目への不具合検出工数の分配
値のトータルをとり、この仕様項目の不具合検出工数予
測値とする(S116)。この手順をすべての仕様項目
に対して繰り返す(S117)。図のようにして、仕様
項目ごとの不具合検出工数を予測する。
【0023】例えば、あるモジュールの不具合検出工数
が2人日であり、二つの仕様項目に寄与しているとす
る。この時、それぞれの仕様項目への寄与率がそれぞれ
40%、60%であった場合は、寄与の比率は2:3と
なり、それぞれへの不具合検出工数の分配は、0.8人
日、1.2人日になる。
【0024】<テスト計画の作成>テストに利用される
資源やスケジュールなどを表わすテストリソース、テス
ト優先度付き仕様項目リスト、予測された仕様項目不具
合検出工数の三つから、テスト計画を作成する。
【0025】テストリソースとしては、「担当」「期
間」「資源」等の分類にしたがって、必要なリソースが
定義されている(詳細は後述)。テスト優先度つき仕様
項目リストは、仕様項目リストの各項目に対してテスト
優先度という値が与えられたものである(詳細は後
述)。テスト優先度とは、その値が大きいほどテストの
実行順序やテストの量などに関して優先的・重点的にテ
ストを実施することを表わす指標である。また、テスト
計画とは、それぞれのテスト担当者に対して、誰が、ど
の仕様項目に対するテストを、どのタイミングで、どれ
だけの不具合検出工数をかけて、行うかを定めたもので
ある。すなわち、テスト計画は、仕様項目不具合検出工
数の予測値に基づいて、テストリソースの配分を決定す
るものである。テスト計画は、例えば図8のような線表
として表現することができる。
【0026】ここでは、テスト計画作成の非常に基本的
な手順を図9に示す。テストリソースとして、テスト期
間、テスト担当者の人数構成と各担当者の能力が与えら
れたものとする。この例では、テスト担当者の能力は、
基準とする担当者の能力を基準(1.0)にして、それ
に対して単位時間に処理できる不具合検出工数の相対比
で表現する。したがって、基準となるものよりも20%
能力の高い技術者とは、同一時間に1.2倍の工数分の
テストを行えるもののことである。その段階で割り当て
られていない仕様項目のテストのうち、最もテスト優先
度の高いものを選択し(S121)、途中段階の作業計
画から、割り当て可能なテスト担当者を選択し(S12
2)、その仕様項目の不具合検出工数予測値をテスト担
当者の能力比で割った値を、その仕様項目テスト期間と
して割り当てる(S123)。上記の手順をすべての仕
様項目に対して行う(S124)。以上のようにして、
テスト計画を作成することが可能となる。さらに図8の
状況を例にとると、次に割り当てるべき仕様項目はCa
se2であり、その不具合検出工数は2.4、割り当て
可能な担当者はB、能力は1.2である。この場合は、
担当者Bに対して、2.4/1.2=2日を割り当てる
ことになる。
【0027】前記の通り、この手順は非常に基本的で単
純な例を示したものである。テスト担当者の得手不得手
によって、仕様項目ごとに担当者の能力比を変え、担当
者の選択時に、最も能力の高い担当者を選ぶようにす
る、テスト優先度の高いものに対しては基本となる不具
合検出工数にさらに予備の工数を付与する、優先度の高
いものだけを集めた仕様項目のテストケースと、通常の
全仕様項目のテストケースを用意して交互に繰り返しテ
ストするなど、様々の工夫が可能である。
【0028】そこで、第二の実施形態として、予備の工
数を利用したテスト計画作成のアルゴリズムを説明す
る。これは、テストに利用可能な工数をあらかじめ基本
の不具合検出工数(基本工数)と予備の不具合検出工数
(予備工数)として区別しておく。基本工数と予備工数
の総和が、テストに利用可能な総不具合検出工数にな
る。基本工数は予測される仕様項目不具合検出工数にも
とづいて配分し、予備の不具合検出工数はテスト優先度
にもとづいて分配する、というアルゴリズムである。こ
のアルゴリズムを利用することにより、テスト優先度の
高い仕様項目については、テスト順序を先にするだけで
はなく、より多くの不具合検出工数を割り当てることが
可能となり、テスト優先度の高い仕様項目に対するテス
トの十分性をさらに高めることができる。
【0029】図10にこの例の手順を示す。まず、全仕
様項目に関する不具合検出工数の予測値の和をとりCp
(T)とする(S131)。次に利用可能な工数を基本
工数C(B)と予備工数C(P)とに、C(B)≦Cp
(T)となるように分ける(S132)。このうち、予
備工数の方をテスト優先度に基づいて分配することにな
る。まずは、基本工数を不具合検出工数の大きさにもと
づいて分配する。C(B)=Cp(T)の場合には(S
133)、各仕様項目に不具合検出工数を分配すること
が可能なので、仕様項目(i)ごとの不具合検出工数は
C(i)=Cp(i)とする(S134)。ただし、C
p(i)は、仕様項目(i)の不具合検出工数予測値で
ある。C(B)<Cp(T)の場合には、不具合検出工
数をすべての仕様項目に割り振ることはできないので、
基本工数を不具合検出工数予測値の比で分配し、C
(i)=C(B)*Cp(i)/Cp(T)、となる
(S135)。この時点でのC(i)は基本工数を分配
したものであり、この後、予備工数の分配に入る。予備
工数の分配は、テスト仕様項目のテスト優先度値P
(i)のテスト優先度値の総和P(T)に対する比にも
とづいて行う。C(i)=C(i)+C(P)*P
(i)/P(T)という形で、予備工数の分配分を、仕
様項目ごとの不具合検出工数に追加する。これにより、
テスト優先度の高い仕様項目に対してより多くの工数を
割り当てることができる(S136)。これより後のテ
スト計画作成は、前の例とほとんど同じである。その段
階で割り当てられていない仕様項目のテストのうち、最
もテスト優先度の高いものを選択し(S137)、途中段
階の作業計画から、割り当て可能なテスト担当者につい
て(S138)、その仕様項目の不具合検出工数予測値
をテスト担当者の能力比で割った値を、その仕様項目テ
スト期間として割り当てる(S139)。上記の手順を
すべての仕様項目に対して行う(S140)。以上のよ
うにして、テスト計画を作成することが可能となる。
【0030】第三の実施形態として、不具合修正が頻繁
に行われる開発形態でのリグレッションテストとして利
用する例を示す。リグレッションテストとは、同じテス
トケースを、一定量の不具合が修正されるたびに繰り返
し行うテストのことである。このテストは、不具合修正
によってシステムに悪影響が出ていないかを調べるため
に実施される。
【0031】ここでは、優先度の高いものだけを集めた
重要仕様項目リストと通常の全仕様項目リストの両方を
用意して、二つの仕様項目リストのテストを交互に繰り
返し実行するような、リグレッションテストの応用とな
るテスト計画作成アルゴリズムを説明する。このアルゴ
リズムを利用することにより、テスト優先度の高い仕様
項目については、テスト優先度の低い仕様項目と比較し
てより多くの回数テストされ、より多くの不具合検出工
数を割り当てることができる。重要仕様項目に対するテ
ストと通常の全仕様項目に対するテストを組み合わせて
利用することで、テスト効率とテスト十分性をさらに高
めることができる。
【0032】図11にこの例の手順を示す。まず、すべ
ての仕様項目を集合Utにセットする(S141)。次
にUtに属する仕様項目をテスト優先度値の大きいもの
から順に並べた配列A(Ut)を作成する(S14
2)。次に、集合Utに属する全仕様項目に関する不具
合検出工数の予測値の総和を計算してCp(T)とする
(S143)。重要仕様項目として選択したい項目の比
率x(0≦x≦1)を決定する(S144)。配列A
(Ut)の先頭の仕様項目から順番に一つずつ取り出し
て集合Uxに加え、Uxに属する仕様項目に関する不具
合検出工数の予測値の和Cp(x)を計算する(S14
5)。ここで、Cp(x)≦x*Cp(T)ならば(S
146)、配列A(Ut)から次の仕様項目を取り出し
て集合Uxに加えて同様にCp(x)を計算する(S1
45)。もしCp(x)>x*Cp(T)となれば(S
146)、最後に加えた項目はUxから削除する(S1
47)。こうして求めた部分集合Uxに対し、前述の第
一、第二の実施形態に挙げたような任意のアルゴリズム
を用いてテスト計画Pxを立てる(S148)。次に仕
様項目全体の集合Utに対して、同様に任意のアルゴリ
ズムを用いてテスト計画Ptを立てる(S149)。こ
れらのテスト計画PxとPtを任意に組み合わせること
で、全体のテスト計画を作成する(S150)。全仕様
項目のテスト計画Ptの実行回数に対する重要仕様項目
テスト計画Pxの実行回数を増やすことで、テスト優先
度の高い仕様項目により多くの不具合検出工数を割り当
てることが可能になる。また、部分集合UxをUtとみ
なし、再起的にこのアルゴリズムを適用して、さらに詳
細なテスト計画を作成することも可能である。
【0033】<テストの実行>こうして作成されたテス
ト計画と、公知の手段で設計されたテストケースによっ
てテスト実行された結果は、テスト実行・結果出力部を
利用してテスト結果として出力される。公知のテストケ
ース設計手段としては、例えば特開2001−1842
32のようにシステム仕様からテストケースを設計する
手法を用いる。テスト実行・結果出力部における手順は
後述する。
【0034】次に、システム仕様書などからシステムの
特徴を表現し、そのシステムにとって適当なテスト戦略
を選択する手段を提供して、重要な機能を優先的にテス
トできるテストケースの設計支援方法について説明す
る。
【0035】図12は、かかる設計支援方法の全体の流
れを、ブロック図を用いて示したものである。なお、こ
こには図1で示したテスト計画を設計する流れが併記さ
れているが、ここでは該当部分に同じ符号を用いること
により説明を省略する。
【0036】図12において3は仕様項目特性値設定
部、5はテスト戦略作成部、7はテスト戦略選択部、9
はテスト優先度導出部、11はテスト戦略評価部、16
はテストケース設計部、18はテスト実行・結果出力
部、21はテスト結果検証部である。
【0037】ここでは、まずテスト対象となるソフトウ
ェアシステム製品のシステム仕様書から抽出された仕様
項目リスト1と、ソフトウェアシステムの特徴を表現す
るために用意された評価観点データベース2をもとに、
仕様項目特性値設定部3を利用して、そのソフトウェア
システムの特徴を表わす特性値つき仕様項目リスト4を
作成する。
【0038】次に評価観点データベース2をもとにテス
ト戦略作成部5を利用して、どの評価観点にどれくらい
重点をおいてテストするかを設定するためのテスト戦略
を作成し、テスト戦略データベース6に登録する。
【0039】テスト戦略選択部7では、テスト戦略デー
タベース6から任意のテスト戦略を選択してテスト優先
度導出部9に出力する。テスト優先度導出部9では、与
えられたテスト戦略と特性値つき仕様項目リスト4をも
とに、どの仕様項目を優先的にテストするかを表わすテ
スト優先度つき仕様項目リスト10が作成される。
【0040】テスト戦略評価部11では、テスト優先度
つき仕様項目リスト10と過去の不具合データ12を入
力として、選択されたテスト戦略を適用して得られる不
具合検出傾向をシミュレーションし、選択されたテスト
戦略がテスト対象ソフトウェアシステムに適しているか
どうかを判断する。必要ならば複数のテスト戦略を順次
選択して不具合検出傾向をシミュレーションし、最適だ
と思われるテスト戦略およびテスト優先度つき仕様項目
リストを、テストケース設計用に選択する。
【0041】次に、テストケース設計用に選択されたテ
スト優先度つき仕様項目リスト10と、テストに利用さ
れる資源やスケジュールなどからなるテストリソース1
3、過去に生成された類似テストケース14、および不
足分のテストケースの補充、過多なテストケースの削除
をするためのテストケース設計手順15をもとに、テス
トケース設計部16を利用して、テスト対象ソフトウェ
アにとって最適なテストケース17を作成する。このテ
ストケース17によりテスト実行された結果発見された
不具合情報は、テスト実行・結果出力部18を利用して
テスト結果19として出力される。通常のテストでは、
開発・デバッグの進行に合わせてテストが繰り返し実行
される。現在テスト対象となっているソフトウェアへの
すべてのテスト結果は、現テスト対象の不具合データ2
0に登録される。
【0042】テスト結果検証部21では、現テスト対象
の不具合データ20と適用されたテスト優先度つき仕様
項目リスト10を入力として適用テスト戦略を再度検証
し、テスト戦略評価部に記憶されている他のテスト戦略
によるテスト優先度つき仕様項目リストとも比較して、
必要ならば適用テスト戦略を入れ替えて再テストを実施
する。このようにして、常に最適なテスト戦略を選択し
て、最も効果的なテストケースが生成されるようにす
る。
【0043】以下、上記した各部の機能について詳細に
説明する。なお、各機能はソフトウェアによりコンピュ
ータを用いて実現されるものであっても良い。
【0044】<特性値つき仕様項目リストの作成>仕様
項目特性値設定部3では、システム仕様書から抽出され
た仕様項目リスト1とシステムの特徴を表現するための
評価観点データベース2を入力として、特性値つき仕様
項目リスト4を作成する。様々な視点からシステムの特
徴を表現するために、ソフトウェアシステムを構成して
いる各仕様項目に対して、複数の評価観点に基づいて特
性値を与えることができる。これにより、ソフトウェア
システムを複数の視点から仕様項目単位で評価すること
が可能となる。
【0045】一般にシステム仕様書には、ソフトウェア
システムで実現される機能が仕様項目として記述されて
いる。これらの項目の一覧をリストとして抽出した仕様
項目リスト1が仕様項目特性値設定部3の入力となる。
一方、評価観点はシステムをいろいろな観点から評価し
てその特徴を表現するために用意されるもので、システ
ム仕様書の内容や設計段階での開発情報などからシステ
ム開発の早期に評価できるものが主として選ばれ、評価
観点データベース2に蓄積される。評価観点として考え
られる一例を図13に示す。ここでは、評価観点をプロ
グラムの品質等の分類ごとに整理して示している。
【0046】これらの仕様項目リスト1と評価観点デー
タベース2を入力として仕様項目特性値設定部3に与
え、各仕様項目に対して評価観点に基づいたパラメータ
を仕様項目特性値として指定することで、特性値つき仕
様項目リスト3を生成する。その具体的な手順を図14
に示す。
【0047】まず、評価観点並びに仕様項目リストを読
み込み(S1,S2)、設定する評価観点を一覧から選
択する(S3)。続いて仕様項目リストから仕様項目を
検索し(S4)、選択した評価観点で評価した特性値を
検索した仕様項目に入力する(S5)。かかる操作を仕
様項目の検索が終了するまで繰り返し行う(S6)。次
に、入力された仕様項目特性値の正規化を行う(S
7)。仕様項目特性値は一般に仕様項目間の比較による
相対評価として与えられることが多い。そのため、各々
の評価観点について特性値がすべての仕様項目に与えら
れた段階で、特性値が、例えば1から10までの範囲に
収まるように正規化を行い、評価観点間の基準をそろえ
る。こうして、必要となるすべての評価観点について特
性値が仕様項目に与えられたかを確認し(S8)、特性
値つき仕様項目リストが作成される(S9)。
【0048】特性値つき仕様項目リストの一例を図15
に示す。ここで、仕様項目は大項目と中項目とからな
り、ここでは、「ファイル」と「編集」に関する各項目
について、選択された「不具合致命度」「機能利用頻
度」「複雑さ」の各評価観点について特性値が与えられ
ている。
【0049】<テスト戦略の作成>テスト戦略作成部5
では、テストを実行する際にどの評価観点にどれだけ重
点をおいたテストをするかを示すテスト戦略を作成す
る。テスト戦略とは、システムの特徴を表現するために
仕様項目に与えられた複数の仕様項目特性値に対して、
どの評価観点による特性値をどの程度重視したテストを
行うかを表わしており、図16のように各評価観点に対
する重み付けとして表現される。より重視する評価観点
ほど、設定される重みが大きくなる。例えば、致命度重
視型のテスト戦略では、評価観点のうち「不具合致命
度」に関する重みが最も高い0.7に設定され、「機能
利用頻度」および「仕様の複雑さ」に関する重みはそれ
ぞれ0.15となっている。
【0050】テスト戦略を作成するテスト戦略作成部に
おける手順を図17に示す。まず、評価観点一覧の読み
込みを行い(S10)、テスト戦略を新規に作成する必
要があるか否かの判断を行う(S11)。ここで、テス
ト戦略を新たに作成しない場合は、テスト戦略データベ
ースから編集したいテストデータを選択する(S1
2)。テスト戦略作成部には、評価観点データベースか
ら入力が与えられ、各評価観点に対する重みを設定する
ことでテスト戦略を作成する。続いて、重みを設定する
評価観点を一覧から選択し(S13)、選択した評価観
点に対して重みを設定する(S14)。すべての評価観
点に対して重みが設定されれば(S15)、それらの合
計が1になるように正規化する(S16)。ここで、新
たに作成されたテスト戦略若しくは編集されたテスト戦
略は、テスト戦略データベースに登録される(S1
7)。
【0051】<テスト戦略の選択>テスト戦略選択部7
では、テストを実行する際にどのようなテスト戦略に基
づいてテストを行うかを決定する。
【0052】テスト戦略選択部7では、テスト戦略デー
タベース6に登録されたテスト戦略の中から、テスト優
先度導出部9に与えるテスト戦略8を選択して出力す
る。テスト戦略8を選択するテスト戦略選択部7におけ
る手順を図18に示す。最初は任意のテスト戦略を選択
するが(S21)、テストサイクルの進行に伴い、テス
ト戦略評価部やテスト結果検証部からより最適なテスト
戦略を選択するように指示が来るので(S20)、その
指示に基づいてテスト戦略をテスト戦略データベースか
ら選択する。例えば、テスト戦略データベースからまだ
テスト優先度を導出していないテスト戦略を選択する
(S22)。指示に適したテスト戦略がデータベースに
存在するか否かを確認し(S23)、無い場合には、テ
スト戦略作成部でテスト戦略を作成してデータベースに
登録した後、そのテスト戦略を選択する(S24)。そ
して選択されたテスト戦略は出力するようにしても良い
(S25)。
【0053】<テスト優先度つき仕様項目リストの作成
>テスト優先度導出部9では、選択されたテスト戦略8
を適用することでソフトウェアシステムのどの部分を特
に重点的にテストする必要があるかを、仕様項目単位に
評価した指標であるテスト優先度を導出する。ここで作
成されるテスト優先度つき仕様項目リスト10は、特性
値つき仕様項目リスト4とテスト戦略8をもとにテスト
優先度導出部9にて生成されるもので、図20に示すよ
うに仕様項目リストの各項目に対してテスト優先度とい
う値が与えられたものである。
【0054】テスト優先度とは、その値が大きいほどテ
ストの実行順序やテストの量などに関して優先的・重点
的にテストを実施することを表わす指標である。テスト
優先度導出部9では、各仕様項目に与えられた評価観点
ごとの特性値と、テスト戦略として設定された各評価観
点への重みづけから、その仕様項目に対するテスト優先
度を算出する。その具体的な手順を図19に示す。ま
ず、テスト戦略と特性値つき仕様項目リストが読み込ま
れる(S31,S32)。続いて、仕様項目リストから
順次項目を検索し(S33)、テスト戦略で設定された
各評価観点への重みづけと、特性値つき仕様項目リスト
の各仕様項目に与えられた特性値とから、その項目のテ
スト優先度を算出する(S34)。かかる優先度の算出
は、仕様項目の検索が終了するまで繰り返し行われる
(S35)。一般にテスト優先度は、各仕様項目 iに
対してn個の評価観点に基づいた仕様項目特性値
【0055】
【数1】
【0056】が与えられたとき、テスト戦略による各評
価観点への重みが
【0057】
【数2】
【0058】ならば、テスト優先度 は以下の数式
(1)で表現される。
【0059】
【数3】
【0060】ただしテスト優先度を導出する計算式は、
仕様項目特性値と各評価観点への重みとを組み合わせた
ものであれば異なる計算式を用いてもよい。こうして得
られたテスト優先度を各仕様項目に持たせて、図20に
示すようなテスト優先度つき仕様項目リストを作成する
(S36)。
【0061】<適用テスト戦略の評価>テスト戦略評価
部11では、適用されたテスト戦略によって各仕様項目
に与えられたテスト優先度に基づいたテストが、ソフト
ウェアシステムに対してどれだけ有効なのか、テストの
目的に合致しているのかどうかを評価する。また評価結
果はすべて記憶しておき、複数のテスト戦略から最適な
ものを選択するために比較・検討することができる。新
規のシステム開発においてはこのフェーズは実行できな
いが、過去に類似のシステム仕様構成をもつソフトウェ
アシステムの開発情報があれば、これを利用して適用テ
スト戦略の評価が可能となる。
【0062】テスト戦略評価部11では、テスト優先度
つき仕様項目リスト10と過去の不具合データ12が入
力として与えられ、過去の不具合データ12と比較して
適用したテスト戦略がテスト対象ソフトウェアシステム
に対して適当かどうかを評価する。過去の不具合データ
12には、図22に示すようにシステムをバージョンア
ップする前の開発情報などの、類似のシステム仕様構成
を持つソフトウェアシステム開発プロジェクトの不具合
情報が蓄積され、各仕様項目にどれだけの不具合が存在
していたかを示すデータが含まれている。なお図22中
の不具合数で「*」が記入されている仕様項目は、その
開発バージョンではまだ実装されていなかったことを示
している。
【0063】テスト戦略評価部における手順を図21に
示す。まず、テスト優先度つき仕様項目リストを読み込
み(S41)、過去の不具合データが存在するかを確認
して(S42)、存在する場合は入力されたテスト優先
度つき仕様項目リストを、過去の不具合データと比較し
て不具合が多く存在しそうな項目がどの程度テスト優先
度の上位に位置しているかをシミュレーションする。具
体的には、テスト優先度つき使用項目リストと過去の不
具合データから不具合検出傾向を予測し(S43)、こ
の予測した不具合検出傾向をテスト優先度つき仕様項目
及びそのテスト戦略と対応付けて記憶し(S44)、記
憶されている不具合検出傾向一覧を比較して、最適なテ
スト優先度つき仕様項目リストを選択する(S45)。
別のテスト戦略についてもシミュレーションを実行した
ければ(S46)、テスト戦略データベースから別のテ
スト戦略を選択するように、テスト戦略選択部に指示を
出す。こうして選択された新たなテスト戦略からテスト
優先度導出部にてテスト優先度つき仕様項目リストを導
出し(S47)、過去の不具合データと比較して同様に
評価する。この手順を繰り返して記憶したテスト戦略評
価の一覧を比較し、実際のテストケース設計に適用する
テスト戦略をひとつ選択し、テストケース設計部に出力
する(S48)。
【0064】<テストケース設計>テストケース設計部
16では、適用されたテスト戦略8によって導出したテ
スト優先度に基づいて、各仕様項目に対してどのくらい
重点的にテストを実行するかを決定し、テストケースを
設計する。
【0065】テストケース設計部16では、テスト優先
度つき仕様項目リスト10と共に、テストリソース1
3、過去の類似テストケース14、テストケース設計手
段15が入力として与えられる。テストケース設計部1
6における手順を図24に示す。まず、テスト優先度つ
き仕様項目リストの読み込みが行われる(S51)。次
に、テストに利用される資源やスケジュールなどを表わ
すテストリソースを読み込み(S52)、各仕様項目に
与えられたテスト優先度に応じて仕様項目ごとに配分す
る(S53)。テストリソースの例を図23に挙げる。
テストリソースとしては、「担当」「期間」「資源」等
の分類にしたがって、必要なリソースが定義されてい
る。
【0066】各仕様項目のテスト優先度と配分されたテ
ストリソースに応じて、仕様項目ごとに必要十分なテス
トケース量を予測する。次に、類似のシステム仕様に対
して過去に生成されたテストケースがあれば、それを読
み込み(S54)、仕様項目をリストから順次検索して
(S35)、その情報を利用してテストケースを設計す
る(S56)。各仕様項目のテストケース量を検討し
(S57)、過去の類似テストケースが全く存在しない
か、あるいは予測したテストケース量に比べてテストケ
ースが不足していれば、その不足分を補充するために公
知のテストケース設計手段を用いて不足分のテストケー
スを作成する(S58)。公知のテストケース設計手段
としては、特開2001−184232のようにシステ
ム仕様からテストケースを設計する手法を用いる。逆に
予測したテストケース量に比べてテストケースが過多で
あるような場合には、テストケースを削減して適当な量
にする(S59)。こうして、全ての仕様項目について
検索が終了すると(S60)、テスト対象にとって最適
なテストケースが生成される(S61)。
【0067】<テスト結果の再利用>こうして設計され
たテストケースによりテスト実行された結果は、テスト
実行・結果出力部18を利用してテスト結果19として
出力される。テスト実行・結果出力部18における手順
を図25に示す。テスト実行・結果出力部では、テスト
ケースを読込み(S65)、読込まれたテストケースに
基づいてテストを実行し(S66)、その結果発見され
た不具合とその重要度を、システムの各仕様項目と対応
づけて記録する(S67)。こうして各仕様項目に関係
する不具合数および重要度を集計し、テスト結果として
出力する(S68)。出力されるテスト結果の例を図2
6に示す。また、テストはソフトウェアの開発・デバッ
グを通じて繰り返し行われ、各テストサイクルでテスト
結果が出力される。現テスト対象に対して行われる各テ
ストサイクルのすべてのテスト結果は、何回目のテスト
サイクルで得られたテスト結果であるかとあわせて、現
テスト対象の不具合データとして保存される。
【0068】テスト結果検証部21では、現テスト対象
の不具合データ20と適用されたテスト優先度つき仕様
項目リスト10を入力として、適用テスト戦略が適当で
あったかどうかを検証する。テスト結果検証部21にお
ける手順を図27に示す。まず、テストケース設計に適
用したテスト優先度つき仕様項目リストとテスト戦略部
で記憶した不具合検出傾向予測を読込む(S71,S7
2)。入力される現テスト対象の不具合データには、何
回目のテストサイクルで見つかった不具合なのか、また
その不具合の重要度がどの程度であるかが、仕様項目ご
とに記録されている。テスト結果検証部では、この不具
合データとテスト優先度つき仕様項目リストを比較して
(S73)、適用テスト戦略で期待された通りの効果が
得られているかどうかを検証する(S74)。検証の結
果、期待通りの効果が得られており、かつまだ不具合が
収束していなければ(S75)、再テストを同じテスト
戦略を用いて再度実行して(S76)、適用中のテスト
優先度つき仕様項目リストを再出力する(S77)。一
方、期待通りの効果が得られていないか、効果は得られ
ているが既に不具合が収束しているようならば(S7
4,S75)、別のテスト戦略を新たに選択することを
決定し、テスト戦略選択部に指示を出す(S78)。そ
して、適当なテスト優先度つき仕様項目リストが存在す
る場合は(S79)、現テスト対象の不具合データから
不具合検出傾向を検証し、より最適なテスト戦略を選択
する(S80)。一方、適当なテスト優先度つき仕様項
目リストが存在しない場合は(S79)、テスト戦略選
択部において新たにテスト戦略を選択し、テスト優先度
につき仕様項目リストを導出して、テスト戦略評価部で
評価・記憶を行う(S81)。なお、選択された最適な
テスト戦略は別のテスト戦略と比較しても良く(S8
2)、最終的に選択されたテスト優先度つき仕様項目リ
ストが出力される(S83)。
【0069】このようにテストサイクルを通して常に最
適なテスト戦略を選択し、最も効果的なテストケースが
生成されるようにする。
【0070】また現テスト対象の不具合データは過去の
不具合データにも現バージョンでの不具合情報として登
録され、次バージョンのテスト戦略評価の際に不具合デ
ータとして利用されることになる。
【0071】
【発明の効果】以上説明したように、本発明は、各モジ
ュールの品質に関わる情報を設定し利用して、モジュー
ルごとの不具合検出工数を予測し、モジュールとシステ
ム仕様書から抽出された仕様項目との対応情報から、仕
様項目ごとの不具合検出工数を予測することが可能とな
った。 その結果、優先的にテストすべき仕様項目を示
すテスト優先度、仕様項目不具合検出工数、および利用
可能なテストリソースから、効率的なソフトウェアテス
トを実現するためのテスト計画を作成することが可能と
なっている。
【図面の簡単な説明】
【図1】 本発明(テスト計画作成支援方法)の全体の
流れを示すブロック図。
【図2】 品質情報の一例を示す図。
【図3】 品質情報を設定する過程を示すフローチャー
ト。
【図4】 モジュール不具合検出工数を予測する過程を
示すフローチャート。
【図5】 仕様項目とモジュールとの対応関係として設
定する情報の一例を示す図。
【図6】 仕様項目とモジュールとの対応関係情報を設
定する過程を示すフローチャート。
【図7】 仕様項目の不具合検出工数を予測する過程を
示すフローチャート。
【図8】 テスト計画の作成過程での一例を示す図。
【図9】 テスト計画を作成する第一の例の過程を示す
フローチャート。
【図10】 テスト計画を作成する第二の例の過程を示
すフローチャート。
【図11】 テスト計画を作成する第三の例の過程を示
すフローチャート。
【図12】 本発明の全体の流れを示すブロック図。
【図13】 評価観点の一例を示す図。
【図14】 特性値つき仕様項目リストを作成する過程
を示すフローチャート。
【図15】 図14で生成される特性値つき仕様項目リ
ストの一例を示す図。
【図16】 テスト戦略の一例を示す図。
【図17】 テスト戦略を作成する過程を示すフローチ
ャート。
【図18】 テスト戦略を選択する過程を示すフローチ
ャート。
【図19】 特性値つき仕様項目リストとテスト戦略か
らテスト優先度つき仕様項目リストを作成する過程を示
すフローチャート。
【図20】 図19で作成されるテスト優先度つき仕様
項目リストの一例を示す図。
【図21】 選択されたテスト戦略から作成されたテス
ト優先度つき仕様項目リストを、過去の不具合データを
用いて評価する過程を示すフローチャート。
【図22】 図21で利用する過去の不具合データの一
例を示す図。
【図23】 テストリソースの一例を示す図。
【図24】 図19で作成されるテスト優先度つき仕様
項目リストとテストリソース、過去の類似テストケース
および公知のテストケース設計手段から、テストケース
を設計する過程を示すフローチャート。
【図25】 図24で設計されたテストケースを用いて
テスト実行した結果、発見された不具合をテスト結果と
して作成する過程を示すフローチャート。
【図26】 図25で作成されるテスト結果の一例を示
す図。
【図27】 図26で作成されるテスト結果を利用して
テスト戦略を再度検証する過程を示すフローチャート。
【符号の説明】
1 システム仕様書仕様項目 2 評価観点データベース 3 仕様項目特性値設定部 4 特性値つき仕様項目リスト 5 テスト戦略作成部 6 テスト戦略データベース 7 テスト戦略選択部 8 テスト戦略 9 テスト優先度導出部 10 テスト優先度付き仕様項目リスト 11 テスト戦略評価部 12 過去の不具合データ 13 テストリソース 14 過去の類似テストケース 15 テストケース設計手段 16 テストケース設計部 17 テストケース 18 テスト実行・結果出力部 19 テスト結果 20 現テスト対象の不具合データ 21 テスト結果検証部 22 モジュール・仕様項目対応関係設定部 23 モジュール・仕様項目対応関係情報 24 モジュール品質情報設定部 25 モジュール品質情報 26 モジュール不具合検出工数予測部 27 モジュール不具合検出工数 28 仕様項目不具合検出工数予測部 29 仕様項目不具合検出工数 30 テスト計画作成部 31 テスト計画 32 モジュールリスト
───────────────────────────────────────────────────── フロントページの続き (72)発明者 平山 雅之 神奈川県川崎市幸区小向東芝町1番地 株 式会社東芝研究開発センター内 Fターム(参考) 5B042 HH17 HH19 5B076 EC08 EC09 EC10

Claims (8)

    【特許請求の範囲】
  1. 【請求項1】 ソフトウェアシステムのプログラムモジ
    ュールごとの品質情報を設定するモジュール品質情報設
    定工程と、 前記品質情報から前記プログラムモジュールの不具合検
    出工数を予測するモジュール不具合検出工数予測工程
    と、 前記モジュールと前記ソフトウェアシステムの仕様書か
    ら抽出される仕様項目との対応関係を表すモジュール・
    仕様項目対応関係情報を設定するモジュール・仕様項目
    対応関係設定工程と、 前記不具合検出工数と前記モジュール・仕様項目対応関
    係情報とから仕様項目不具合検出工数を予測する仕様項
    目不具合検出工数予測工程と、 前記仕様項目不具合検出工数に基づいて、前記ソフトウ
    ェアシステムのテストに利用可能なテストリソースを配
    分するテスト計画を作成するテスト計画作成工程とを備
    えたことを特徴とするテスト計画作成支援方法。
  2. 【請求項2】 前記ソフトウェアシステムのテストを実
    行する仕様項目のテスト優先度を導出するテスト優先度
    導出工程を更に備えたことを特徴とする請求項1記載の
    テスト計画作成支援方法。
  3. 【請求項3】 前記テスト計画作成工程は、前記テスト
    リソースの配分にあたり、基本工数と予備工数を設定
    し、該基本工数を前記仕様項目不具合検出工数に基づい
    て配分し、該予備工数を前記テスト優先度に基づいて配
    分するようにしたことを特徴とする請求項2記載のテス
    ト計画作成支援方法。
  4. 【請求項4】 前記テスト計画作成工程は、全仕様項目
    に関するテスト計画と前記テスト優先度に基づいて選択
    される重要仕様項目に関するテスト計画とを任意に組み
    合わせて実行するテスト計画を作成するものであること
    を特徴とする請求項2記載のテスト計画作成支援方法。
  5. 【請求項5】 ソフトウェアシステムのプログラムモジ
    ュールごとの品質情報を設定するモジュール品質情報設
    定機能と、 前記品質情報から前記プログラムモジュールの不具合検
    出工数を予測するモジュール不具合検出工数予測機能
    と、 前記モジュールと前記ソフトウェアシステムの仕様書か
    ら抽出される仕様項目との対応関係を表すモジュール・
    仕様項目対応関係情報を設定するモジュール・仕様項目
    対応関係設定機能と、 前記不具合検出工数と前記モジュール・仕様項目対応関
    係情報とから仕様項目不具合検出工数を予測する仕様項
    目不具合検出工数予測機能と、 前記仕様項目不具合検出工数に基づいて、前記ソフトウ
    ェアシステムのテストに利用可能なテストリソースを配
    分するテスト計画を作成するテスト計画作成機能とをコ
    ンピュータに実現させることを特徴とするテスト計画作
    成支援プログラム。
  6. 【請求項6】 前記ソフトウェアシステムのテストを実
    行する仕様項目のテスト優先度を導出するテスト優先度
    導出機能を更に備えたことを特徴とする請求項5記載の
    テスト計画作成支援プログラム。
  7. 【請求項7】 前記テスト計画作成機能は、前記テスト
    リソースの配分にあたり、基本工数と予備工数を設定
    し、該基本工数を前記仕様項目不具合検出工数に基づい
    て配分し、該予備工数を前記テスト優先度に基づいて配
    分するようにしたことを特徴とする請求項6記載のテス
    ト計画作成支援プログラム。
  8. 【請求項8】 前記テスト計画作成機能は、全仕様項目
    に関するテスト計画と前記テスト優先度に基づいて作成
    される重要仕様項目に関するテスト計画とを任意に組み
    合わせて実行するテスト計画を作成するものであること
    を特徴とする請求項6記載のテスト計画作成支援プログ
    ラム。
JP2002053210A 2002-02-28 2002-02-28 ソフトウェアシステムのテスト計画作成支援方法およびテスト計画作成支援プログラム Expired - Fee Related JP3883449B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002053210A JP3883449B2 (ja) 2002-02-28 2002-02-28 ソフトウェアシステムのテスト計画作成支援方法およびテスト計画作成支援プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002053210A JP3883449B2 (ja) 2002-02-28 2002-02-28 ソフトウェアシステムのテスト計画作成支援方法およびテスト計画作成支援プログラム

Publications (2)

Publication Number Publication Date
JP2003256206A true JP2003256206A (ja) 2003-09-10
JP3883449B2 JP3883449B2 (ja) 2007-02-21

Family

ID=28664695

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002053210A Expired - Fee Related JP3883449B2 (ja) 2002-02-28 2002-02-28 ソフトウェアシステムのテスト計画作成支援方法およびテスト計画作成支援プログラム

Country Status (1)

Country Link
JP (1) JP3883449B2 (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006059217A (ja) * 2004-08-23 2006-03-02 Mitsubishi Electric Corp ソフトウェアメモリイメージ生成装置及び組み込み機器ソフトウェア更新システム及びプログラム
JP2007323299A (ja) * 2006-05-31 2007-12-13 Sharp Corp レビュー実施順序決定装置、レビュー実施順序決定プログラム、レビュー実施順序決定プログラムが格納された記録媒体およびレビュー実施順序決定方法
JP2010128542A (ja) * 2008-11-25 2010-06-10 Hitachi Software Eng Co Ltd テスト手順評価システム
JP2012185642A (ja) * 2011-03-04 2012-09-27 Internatl Business Mach Corp <Ibm> テスト・ケース生成方法、プログラム及びシステム
US8479165B1 (en) 2011-05-23 2013-07-02 International Business Machines Corporation System for testing operation of software
JP2015001825A (ja) * 2013-06-14 2015-01-05 富士電機株式会社 テストスケジュール決定装置、プログラム
JP2015200988A (ja) * 2014-04-07 2015-11-12 三菱電機株式会社 開発支援装置
JP2018018373A (ja) * 2016-07-29 2018-02-01 日本電信電話株式会社 抽出装置および抽出方法
JP2018128978A (ja) * 2017-02-10 2018-08-16 株式会社日立システムズ 設計書評価装置、設計書評価方法、及びプログラム
JP2019194818A (ja) * 2018-05-02 2019-11-07 株式会社野村総合研究所 ソフトウェア不具合予測装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003099283A (ja) * 2001-09-25 2003-04-04 Toshiba Corp ソフトウェアシステムのテスト優先度導出支援方法、テストケース設計支援方法、およびその支援プログラム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003099283A (ja) * 2001-09-25 2003-04-04 Toshiba Corp ソフトウェアシステムのテスト優先度導出支援方法、テストケース設計支援方法、およびその支援プログラム

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
岡安二郎・他: "「信頼性を重視した選択的テスト手法の提案(1)」", 情報処理学会第61回全国大会講演論文集, vol. 第1分冊, CSNJ200100008001, 3 October 2000 (2000-10-03), JP, pages 323 - 324, ISSN: 0000789186 *
平山雅之・他: "「機能モジュールに対する優先度に基づいた選択的ソフトウェアテスト手法の提案」", 電子情報通信学会技術研究報告, vol. Vol.101, No.98(SS2001-6〜11), CSNG200300231001, 22 May 2001 (2001-05-22), JP, pages 1 - 8, ISSN: 0000789184 *
真野俊樹・他, 「実践ソフトウェア開発工学シリーズ8 見積りの方法」, vol. 初版, CSNB199900052001, 9 December 1993 (1993-12-09), JP, pages 17 - 34, ISSN: 0000789185 *

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006059217A (ja) * 2004-08-23 2006-03-02 Mitsubishi Electric Corp ソフトウェアメモリイメージ生成装置及び組み込み機器ソフトウェア更新システム及びプログラム
JP2007323299A (ja) * 2006-05-31 2007-12-13 Sharp Corp レビュー実施順序決定装置、レビュー実施順序決定プログラム、レビュー実施順序決定プログラムが格納された記録媒体およびレビュー実施順序決定方法
JP2010128542A (ja) * 2008-11-25 2010-06-10 Hitachi Software Eng Co Ltd テスト手順評価システム
US9465724B2 (en) 2011-03-04 2016-10-11 International Business Machines Corporation Method, program, and system for generating test cases
JP2012185642A (ja) * 2011-03-04 2012-09-27 Internatl Business Mach Corp <Ibm> テスト・ケース生成方法、プログラム及びシステム
US9483385B2 (en) 2011-03-04 2016-11-01 International Business Machines Corporation Method, program, and system for generating test cases
US8479165B1 (en) 2011-05-23 2013-07-02 International Business Machines Corporation System for testing operation of software
US8707268B2 (en) 2011-05-23 2014-04-22 Interntional Business Machines Corporation Testing operations of software
US8745588B2 (en) 2011-05-23 2014-06-03 International Business Machines Corporation Method for testing operation of software
JP2015001825A (ja) * 2013-06-14 2015-01-05 富士電機株式会社 テストスケジュール決定装置、プログラム
JP2015200988A (ja) * 2014-04-07 2015-11-12 三菱電機株式会社 開発支援装置
JP2018018373A (ja) * 2016-07-29 2018-02-01 日本電信電話株式会社 抽出装置および抽出方法
JP2018128978A (ja) * 2017-02-10 2018-08-16 株式会社日立システムズ 設計書評価装置、設計書評価方法、及びプログラム
JP2019194818A (ja) * 2018-05-02 2019-11-07 株式会社野村総合研究所 ソフトウェア不具合予測装置
JP7190246B2 (ja) 2018-05-02 2022-12-15 株式会社野村総合研究所 ソフトウェア不具合予測装置

Also Published As

Publication number Publication date
JP3883449B2 (ja) 2007-02-21

Similar Documents

Publication Publication Date Title
US7178063B1 (en) Method and apparatus for ordering test cases for regression testing
JP5845809B2 (ja) 知的且つ動的なロードバランシングによる、分散コンピューティング環境におけるソフトウェアの解析の効率的な並列化の手法
US8819633B2 (en) Testing software applications with progress tracking
US8983881B2 (en) Benchmarking progressive systems for solving combinatorial problems
JP5845812B2 (ja) 分散コンピューティング環境におけるソフトウェアの解析の効率的な並列化のためのポリシーのスケジューリング
Song et al. Using Earned Value Management and Schedule Risk Analysis with resource constraints for project control
JP5845813B2 (ja) 分散コンピューティング環境におけるソフトウェアの解析の効率的な並列化のためのノードの計算の初期化手法
JP3883449B2 (ja) ソフトウェアシステムのテスト計画作成支援方法およびテスト計画作成支援プログラム
JP5845811B2 (ja) 分散コンピューティング環境におけるソフトウェアの解析の効率的な並列化のための動的且つ知的な部分的計算管理
US7793271B2 (en) Bi-directional product development process simulation
CN107992410A (zh) 软件质量监测方法、装置、计算机设备和存储介质
CN110825522A (zh) Spark参数自适应优化方法及系统
CN113391913A (zh) 一种基于预测的分布式调度方法和装置
JP5845810B2 (ja) 分散コンピューティング環境におけるソフトウェアの解析の並列化のための効率的な部分計算
CN113157421A (zh) 一种基于用户作业流程的分布式集群资源调度方法
JP2003099283A (ja) ソフトウェアシステムのテスト優先度導出支援方法、テストケース設計支援方法、およびその支援プログラム
US20050278301A1 (en) System and method for determining an optimized process configuration
WO2001016838A9 (en) Project management, scheduling system and method
CN111367632B (zh) 一种基于周期特征的容器云调度方法
US20040024673A1 (en) Method for optimizing the allocation of resources based on market and technology considerations
CN106294174B (zh) 测试充分性的多维度度量方法及装置
Emberson et al. Stressing search with scenarios for flexible solutions to real-time task allocation problems
CN109344079A (zh) 布局布线回归测试方法、系统、设备及存储介质
CN111897725B (zh) 中台服务自动化测试方法、介质、设备及系统
US10733345B1 (en) Method and system for generating a validation test

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040225

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20050414

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20050606

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060519

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060713

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060818

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061003

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20061110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20061114

LAPS Cancellation because of no payment of annual fees