JP4646248B2 - Program inspection item generation system and method, program test system and method, and program - Google Patents

Program inspection item generation system and method, program test system and method, and program Download PDF

Info

Publication number
JP4646248B2
JP4646248B2 JP2007079182A JP2007079182A JP4646248B2 JP 4646248 B2 JP4646248 B2 JP 4646248B2 JP 2007079182 A JP2007079182 A JP 2007079182A JP 2007079182 A JP2007079182 A JP 2007079182A JP 4646248 B2 JP4646248 B2 JP 4646248B2
Authority
JP
Japan
Prior art keywords
inspection
program
evaluation
viewpoint
item
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007079182A
Other languages
Japanese (ja)
Other versions
JP2008242595A (en
Inventor
健一 村田
Original Assignee
株式会社日立情報システムズ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立情報システムズ filed Critical 株式会社日立情報システムズ
Priority to JP2007079182A priority Critical patent/JP4646248B2/en
Publication of JP2008242595A publication Critical patent/JP2008242595A/en
Application granted granted Critical
Publication of JP4646248B2 publication Critical patent/JP4646248B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Debugging And Monitoring (AREA)
  • Stored Programmes (AREA)

Description

本発明は、コンピュータシステムで用いるプログラムの品質状態をプログラムされたコンピュータにより検査する技術に係り、特に、ブラックボックステストによる当該プログラムの品質状態を、効率良く正確に分析するのに好適なプログラム検査技術に関するものである。   The present invention relates to a technique for inspecting the quality state of a program used in a computer system by a programmed computer, and in particular, a program inspection technique suitable for efficiently and accurately analyzing the quality state of the program by a black box test. It is about.

ブラックボックステストとは、入力と出力だけに着目し、様々な入力に対して仕様書通りの出力が得られるかどうかを確認するものであり、このブラックボックステストでのプログラム検査を実施する場合、検査に必要となる検査項目を予め作成する。従来、この検索項目の作成は、検査員の経験則を基に、あるいは、類似プログラムの検査項目を基に作成していた。そのため、このような検査項目を用いた検査では、検査員の力量に左右された一貫性のない評価になることから、信頼に欠けた検査となっていた。   The black box test focuses on only the input and output, and confirms whether or not output according to the specifications can be obtained for various inputs.When performing program inspection in this black box test, Inspection items necessary for the inspection are created in advance. Conventionally, this search item is created based on an inspector's empirical rule or based on an inspection item of a similar program. For this reason, the inspection using such inspection items is an unreliable inspection because the evaluation is inconsistent depending on the ability of the inspector.

また、急遽発生する検査に対しては、その機能を理解して検査項目を作成しなければならず、その機能を理解している限られた検査員以外では、適切な検査項目の作成までの所要時間が膨大にかかってしまい、迅速に評価ができない。そのため、急遽発生する検査に対しては、限られた検査員以外には対応できない状況であった。   In addition, for inspections that occur suddenly, it is necessary to understand the functions and prepare inspection items. Unless a limited inspector who understands the functions, it is necessary to prepare appropriate inspection items. It takes a huge amount of time and cannot be evaluated quickly. For this reason, it was a situation where only a limited number of inspectors could deal with an inspection that occurred suddenly.

さらに、検査のために入力する情報においても、予め設計書を準備するほか、過去の検査項目などの情報が必要であり、このような入力情報がないと、検査項目の生成も、検査評価もできない。   Furthermore, in addition to preparing a design document in advance for information to be input for inspection, information such as past inspection items is necessary. Without such input information, neither inspection item generation nor inspection evaluation is possible. Can not.

このような問題を解決するための技術として、例えば特許文献1においては、検査項目の生成を検査員のスキルに関係なく自動で行う技術が記載されている。しかし、この技術では、検査データの定義および入力を予め実施しなければならず、さらに、特定検査対象物に絞られた検査であるため、汎用的に検査項目を作成することができない。また、評価対象観点(検査目的)を絞った検査が実施できず、全体の検査を実施するため範囲を絞った特定の検査ができない。そのため、更なる効率向上に繋がらない。   As a technique for solving such a problem, for example, Patent Document 1 describes a technique for automatically generating an inspection item regardless of the skill of an inspector. However, with this technique, inspection data must be defined and input in advance, and furthermore, since this inspection is limited to a specific inspection object, inspection items cannot be created for general purposes. In addition, it is not possible to carry out an inspection focused on the evaluation target viewpoint (inspection purpose), and a specific inspection with a narrow scope cannot be performed because the entire inspection is performed. Therefore, it does not lead to further efficiency improvement.

また、特許文献2においては、品質評価を行うために、品質要素を入力し、基準値とを比較する技術が記載されている。しかし、この技術では、品質要素が設定されていない状態では評価できず、基準値が曖昧の場合には正確な評価が実施できないことがある。また、この技術では、品質要素、基準値が入力情報として必須条件であり、単独での評価は不可能である。尚、単独での評価とは、テストを実施してその結果を基に評価するものであり、第三者の情報を基に評価することではない。   Patent Document 2 describes a technique for inputting a quality element and comparing it with a reference value in order to perform quality evaluation. However, with this technique, evaluation cannot be performed when no quality factor is set, and accurate evaluation may not be performed when the reference value is ambiguous. In this technique, the quality factor and the reference value are indispensable conditions as input information and cannot be evaluated alone. Note that the evaluation by itself means that a test is performed and an evaluation is made based on the result, not an evaluation based on information from a third party.

特開2000−305811号公報JP 2000-305811 A 特開平09−265393号公報JP 09-265393 A

解決しようとする問題点は、従来の技術では、プログラムのブラックボックステスト検査を実施する場合、検査員が、その機能を理解して検査項目を作成する必要があり、検査時間が膨大になってしまう点と、検査員によっては理解不足による検査項目の漏れにより正確なテストが実施できない点、および、評価方法も統一されておらず、評価結果に各検査要員でバラツキが発生してしまう点である。   The problem to be solved is that in the conventional technology, when performing black box test inspection of a program, it is necessary for an inspector to understand the function and create inspection items, and the inspection time becomes enormous. In addition, some inspectors cannot perform accurate tests due to omissions in inspection items due to lack of understanding, and the evaluation method is not uniform, resulting in variations in evaluation results among each inspector. is there.

本発明の目的は、これら従来技術の課題を解決し、プログラムのブラックボックステストにおける検査時間の削減を可能とすると共に、検査員のスキル等に影響されない正確な検査を可能とすることである。   An object of the present invention is to solve these problems of the prior art, to reduce the inspection time in the black box test of the program, and to enable an accurate inspection that is not influenced by the skill of the inspector.

上記目的を達成するため、本発明においては、予め登録している汎用的な「検査目的(検査観点)」および実際の検査に必要な「検査項目」の情報を基に、ユーザ(検査者)が評価したい観点(目的)を選択するためのGUI画面を生成して表示し、このGUI画面を介してユーザ(検査者)が評価したい観点(目的)を選択することで検査項目を生成する。これにより、短時間での項目の消化(検査)および分析・評価が可能になる。例えば、「対象システムの入力チェックが妥当かを判定してほしい」場合、検査員が、GUI画面より、「入力チェック」に必要な観点から検査項目を選択するだけで、選択された検査項目のみを消化することとなり、不必要な観点の消化にかかる時間を軽減し、どの要員でも同じ検査項目を消化することができる。   In order to achieve the above object, in the present invention, a user (inspector) based on pre-registered general-purpose “inspection purpose (inspection viewpoint)” and “inspection item” information necessary for actual inspection. A GUI screen for selecting a viewpoint (purpose) to be evaluated is generated and displayed, and an inspection item is generated by selecting a viewpoint (purpose) that the user (inspector) wants to evaluate via this GUI screen. Thereby, digestion (inspection), analysis, and evaluation of items in a short time become possible. For example, when “I want to determine whether the input check of the target system is valid”, the inspector simply selects the inspection item from the viewpoint necessary for “input check” on the GUI screen, and only the selected inspection item is selected. As a result, the time required for digestion from an unnecessary viewpoint can be reduced, and any personnel can digest the same test item.

本発明によれば、プログラム検査の準備にかかる時間を軽減させることができると共に、テスト検査項目の決定、およびテスト評価を統一的に実施することができ、効率的かつ正確なプログラム検査を実施することが可能である。   According to the present invention, it is possible to reduce the time required for the preparation for the program inspection, and it is possible to uniformly perform the test inspection item determination and the test evaluation, and to carry out an efficient and accurate program inspection. It is possible.

以下、本発明の実施形態について図面等を用いて詳細に説明する。まず、各図について説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. First, each figure will be described.

図1は、本発明に係るプログラムテストシステムの構成例を示すブロック図であり、図2は、図1におけるサーバコンピュータのデータ格納部が管理している観点・項目DBの構成例を示す説明図、図3は、図1におけるサーバコンピュータのデータ格納部が管理している選択情報DBの構成例を示す説明図、図4は、図1におけるサーバコンピュータのデータ格納部が管理している対象情報DBの構成例を示す説明図、図5は、図1におけるサーバコンピュータのデータ格納部が管理している評価ポイントDBの構成例を示す説明図、図6は、図1におけるサーバコンピュータのデータ格納部が管理している見解情報DBの構成例を示す説明図、図7は、図1におけるプログラムテストシステムの本発明に係る処理動作例を示すフローチャートである。   FIG. 1 is a block diagram showing a configuration example of a program test system according to the present invention, and FIG. 2 is an explanatory diagram showing a configuration example of a viewpoint / item DB managed by the data storage unit of the server computer in FIG. FIG. 3 is an explanatory diagram showing a configuration example of the selection information DB managed by the data storage unit of the server computer in FIG. 1, and FIG. 4 is target information managed by the data storage unit of the server computer in FIG. FIG. 5 is an explanatory diagram illustrating a configuration example of the evaluation point DB managed by the data storage unit of the server computer in FIG. 1, and FIG. 6 is a data storage of the server computer in FIG. FIG. 7 is a flowchart showing a processing operation example according to the present invention of the program test system in FIG. It is a door.

また、図8A〜図8Fは、図1におけるプログラムテストシステムによる評価観点の選択動作例を示す説明図であり、図8Aは、図1におけるプログラムテストシステムによる評価観点の選択動作における帳票出力画面例を示す説明図、図8Bは、図1におけるプログラムテストシステムによる評価観点の選択動作におけるキー取得動作例を示す説明図、図8Cは、図1におけるプログラムテストシステムによる評価観点の選択動作における観点・項目データベース検索動作例を示す説明図、図8Dは、図1におけるプログラムテストシステムによる評価観点の選択動作における選択情報データベース登録動作例を示す説明図、図8Eは、図1におけるプログラムテストシステムによる評価観点の選択動作における選択情報データベースと観点・項目データベースの検索動作例を示す説明図、図8Fは、図1におけるプログラムテストシステムによる評価観点の選択動作で表示出力される帳票出力画面例を示す説明図である。   8A to 8F are explanatory diagrams showing an example of an evaluation viewpoint selection operation by the program test system in FIG. 1, and FIG. 8A is an example of a form output screen in the evaluation viewpoint selection operation by the program test system in FIG. FIG. 8B is an explanatory diagram showing an example of key acquisition operation in the evaluation viewpoint selection operation by the program test system in FIG. 1, and FIG. 8C is a viewpoint in the evaluation viewpoint selection operation by the program test system in FIG. FIG. 8D is an explanatory diagram showing an example of the item database search operation, FIG. 8D is an explanatory diagram showing an example of the selection information database registration operation in the selection operation of the evaluation viewpoint by the program test system in FIG. 1, and FIG. 8E is an evaluation by the program test system in FIG. Selection information database and view in selection action of viewpoint - Item explanatory diagram showing a search operation example of a database, Fig. 8F is an explanatory view showing a form output screen example displayed output in the evaluation point of view of selecting operation of the program test system in FIG.

図9は、図1におけるプログラムテストシステムによる評価処理動作例を示す説明図である。図10A〜図10Dは、図9における評価処理動作の具体例例を示す説明図であり、図10Aは、図9の評価処理動作における検査開始前の重要度ランク設定動作例を示す説明図、図10Bは、図9の評価処理動作における評価ポイントの設定動作例を示す説明図、図10Cは、図9の評価処理動作における検査完了後の評価判定動作例を示す説明図、図10Dは、図9の評価処理動作における検査完了後の全体評価判定動作例を示す説明図である。   FIG. 9 is an explanatory diagram showing an example of evaluation processing operation by the program test system in FIG. 10A to 10D are explanatory diagrams illustrating a specific example of the evaluation processing operation in FIG. 9, and FIG. 10A is an explanatory diagram illustrating an example of the importance rank setting operation before the start of the examination in the evaluation processing operation in FIG. FIG. 10B is an explanatory diagram illustrating an example of setting an evaluation point in the evaluation processing operation of FIG. 9, FIG. 10C is an explanatory diagram illustrating an example of an evaluation determination operation after completion of the inspection in the evaluation processing operation of FIG. 9, and FIG. FIG. 10 is an explanatory diagram illustrating an example of an overall evaluation determination operation after completion of an inspection in the evaluation processing operation of FIG. 9.

また、図11A〜図11Cは、図10Dにおける検査完了後の全体評価判定動作の具体例を示す説明図であり、図11Aは、図10Dの全体評価判定動作における機能別評価と観点別評価および総合的評価の具体的な動作例を示す説明図、図11Bは、図11Aにおける観点別・機能別評価および観点別評価の動作例を示す説明図、図11Cは、図11Aにおける機能別評価および総合評価の動作例を示す説明図である。   11A to 11C are explanatory diagrams illustrating a specific example of the overall evaluation determination operation after completion of the inspection in FIG. 10D. FIG. 11A illustrates the functional evaluation and the viewpoint evaluation in the overall evaluation determination operation of FIG. FIG. 11B is an explanatory diagram illustrating a specific operation example of the comprehensive evaluation, FIG. 11B is an explanatory diagram illustrating an operation example of the viewpoint-specific evaluation and the function-specific evaluation in FIG. 11A, and FIG. 11C is a function-specific evaluation in FIG. It is explanatory drawing which shows the operation example of comprehensive evaluation.

また、図12Aは、図11Aにおける機能別評価と観点別評価および総合的評価の動作結果に基づく個別見解処理動作例を示す説明図であり、図12Bは、図12Aにおける個別見解処理動作の具体例を示す説明図である。   12A is an explanatory diagram illustrating an example of individual view processing operation based on the operation results of evaluation by function, evaluation by viewpoint, and comprehensive evaluation in FIG. 11A, and FIG. 12B is a specific example of the individual view processing operation in FIG. 12A. It is explanatory drawing which shows an example.

また、図13は、図1におけるプログラムテストシステムによる評価結果の出力処理動作例を示す説明図である。   FIG. 13 is an explanatory diagram showing an example of an output processing operation for evaluation results by the program test system in FIG.

図1におけるプログラムテストシステムは、プログラムされたコンピュータにより、プログラムの品質評価を行うものであり、CPU(Central Processing Unit)や主メモリ、表示装置、入力装置、外部記憶装置からなるコンピュータ構成からなり、光ディスク駆動装置等を介してCD−ROM等の記憶媒体に記録されたプログラムやデータを外部記憶装置内にインストールした後、この外部記憶装置から主メモリに読み込みCPUで処理することにより、各処理部の機能を実行する。   The program test system in FIG. 1 performs program quality evaluation by a programmed computer, and includes a computer configuration including a CPU (Central Processing Unit), a main memory, a display device, an input device, and an external storage device. Each processing unit is installed by installing a program or data recorded in a storage medium such as a CD-ROM via an optical disk drive or the like in the external storage device, then reading the program or data from the external storage device into the main memory and processing it by the CPU. Perform the function.

すなわち、本例のプログラムテストシステムは、図1に示すように、それぞれネットワークで接続されたクライアントコンピュータ100とサーバコンピュータ105からなり、これらのクライアントコンピュータ100とサーバコンピュータ105のプログラムに基づく処理により、本発明に係るプログラムの検査用項目生成および自動評価を行う。   That is, as shown in FIG. 1, the program test system of the present example includes a client computer 100 and a server computer 105 connected via a network, and the program test system performs processing based on the programs of the client computer 100 and the server computer 105. The inspection item generation and automatic evaluation of the program according to the invention are performed.

本例では、クライアントコンピュータ100を用いて検査担当者が検査項目の生成および自動評価を対話的に行う仕組みとしており、サーバコンピュータ105にデータ(情報)を蓄積し、負荷を軽減している。   In this example, the inspection person in charge uses the client computer 100 to interactively generate and automatically inspect inspection items, and data (information) is accumulated in the server computer 105 to reduce the load.

作業時にはクライアントコンピュータ100とサーバコンピュータ105をLAN(Local Area Network)で接続し、情報のやり取りを行う。   During work, the client computer 100 and the server computer 105 are connected via a LAN (Local Area Network) to exchange information.

クライアントコンピュータ100には、入出力部101、帳票出力部(図中「帳票出力」と記載)102、データ制御部103、処理部104の各処理機能部が設けられており、入出力部101の入力画面より検査担当者が投入した情報および命令をデータ制御部103が受け取り、処理部104に渡し、処理部104において、新規入力処理であるか、検査項目消化、評価分析(途中、完了)時であるかを判断する。   The client computer 100 includes an input / output unit 101, a form output unit (described as “form output” in the figure) 102, a data control unit 103, and a processing unit 104. The data control unit 103 receives information and instructions input by the person in charge of inspection from the input screen, and passes them to the processing unit 104. In the processing unit 104, whether the input process is a new input process, inspection item digestion, evaluation analysis (during completion) It is judged whether it is.

処理部104は、プログラムされたコンピュータの処理機能として、データ選択振分処理部(図中「データ選択振分処理」と記載)104a、評価分析1処理(残推定)部(図中「評価分析1処理(残推定)」と記載)104b、報告書編集処理部(図中「報告書編集処理」と記載)104c、情報保存処理部(図中「情報保存処理」と記載)104d、評価分析2処理(結果評価)部(図中「評価分析2処理(結果評価)」と記載)104e、観点項目編集処理部(図中「観点項目編集処理」と記載)104f、結果登録処理部(図中「結果登録処理」と記載)104g、画面帳票表示処理部(図中「画面帳票表示処理」と記載)104hを有し、判断結果に応じて、各々の処理部にデータを引き渡し、データの取得/編集を行う。   The processing unit 104 includes a data selection distribution processing unit (described as “data selection distribution processing” in the drawing) 104 a and an evaluation analysis 1 processing (remaining estimation) unit (“evaluation analysis” in the drawing) as processing functions of the programmed computer. 104b, report edit processing section (described as “report edit processing” in the figure) 104c, information storage processing section (described as “information storage processing” in the figure) 104d, evaluation analysis 2 processing (result evaluation) section (described as “evaluation analysis 2 processing (result evaluation)” in the drawing) 104e, viewpoint item editing processing section (described as “viewpoint item editing processing” in the drawing) 104f, result registration processing section (shown in FIG. 104 g and “screen form display processing” (shown as “screen form display processing” in the figure) 104 h. The data is transferred to each processing unit according to the determination result. Acquire / edit.

サーバコンピュータ105は、プログラムされたコンピュータの処理機能として、データ制御部106とデータ格納部107を具備する。   The server computer 105 includes a data control unit 106 and a data storage unit 107 as processing functions of the programmed computer.

処理部104は、判断結果に応じて、各々の処理部(104a〜104h)でのデータの取得/編集を行う際、各処理部(104a〜104h)で必要となる情報がサーバコンピュータ105側のデータ格納部107に存在する場合は、データ制御部103,106を介してアクセスし、データの取得(読み出し)および登録(書き込み)を実施する。   When the processing unit 104 acquires / edits data in each processing unit (104a to 104h) according to the determination result, information necessary for each processing unit (104a to 104h) is stored on the server computer 105 side. If it exists in the data storage unit 107, it is accessed via the data control units 103 and 106, and data acquisition (reading) and registration (writing) are performed.

処理部104は、データ編集後、その結果を入出力部101によりCRT等の表示画面に表示し、検査担当者の次処理の入力操作を促す。尚、検査担当者がキーボードやマウス等の入力装置を操作して帳票出力を要求した場合は、入出力部101を介してのその要求情報を入力し、上記同様の遷移が行われ、その処理結果が帳票出力部102を介してプリンタ等で出力される。   After data editing, the processing unit 104 displays the result on a display screen such as a CRT by the input / output unit 101 and prompts the person in charge of the inspection to input the next process. When the person inspecting the operator operates the input device such as a keyboard or a mouse to request a form output, the request information is input via the input / output unit 101, and the same transition as described above is performed. The result is output by a printer or the like via the form output unit 102.

処理部104における、データ選択振分処理部104aは、検査の目的(検査観点)および項目を選択して検査項目を作成すると共に評価ポイントの振り分け処理等を行い、評価分析1処理(残推定)部104bは、残不良の推定処理等を行い、報告書編集処理部104cは、報告書の編集・印刷処理等を行い、情報保存処理部104dは、入力された情報(機能等)の記憶装置への保存処理等を行い、評価分析2処理(結果評価)部104eは、検査項目消化結果を用いた評価分析処理等を行い、観点項目編集処理部104fは、検査観点および項目の追加・更新・削除処理等を行い、結果登録処理部104gは、検査項目消化結果および評価結果の記憶装置への保存処理等を行い、画面帳票表示処理部104hは、各処理で使用する画面や帳票の表示処理等を行う。   The data selection / distribution processing unit 104a in the processing unit 104 selects an inspection purpose (inspection viewpoint) and an item to create an inspection item, performs an evaluation point distribution process, and the like, and performs an evaluation analysis 1 process (remaining estimation). The unit 104b performs residual defect estimation processing, the report edit processing unit 104c performs report editing / printing processing, and the information storage processing unit 104d stores the input information (function, etc.). The evaluation analysis 2 process (result evaluation) unit 104e performs an evaluation analysis process using the inspection item digestion result, and the viewpoint item edit processing unit 104f adds / updates the inspection viewpoint and items. -The deletion process etc. are performed, the result registration processing unit 104g performs the storage processing of the examination item digest result and the evaluation result in the storage device, and the screen form display processing unit 104h displays the screen used in each processing Performing a display processing, and the like of the form.

また、サーバコンピュータ105におけるデータ格納部(図中「データベース」と記載)107は、データベース機能を具備し、観点・項目DB(図中「観点・項目」と記載)107a、選択情報DB(図中「選択情報」と記載)107b、対象情報DB(図中「対象情報」と記載)107c、評価ポイントDB(図中「評価ポイント」と記載)107d、見解情報DB(図中「見解情報」と記載)107eの各データベース情報を管理している。   A data storage unit (described as “database” in the figure) 107 in the server computer 105 has a database function, and includes a viewpoint / item DB (described as “viewpoint / item” in the figure) 107 a and a selection information DB (in the figure). 107b, target information DB (denoted as “target information” in the figure) 107c, evaluation point DB (denoted as “evaluation point” in the figure) 107d, opinion information DB (denoted as “opinion information” in the figure) (Description) Each database information of 107e is managed.

観点・項目DB107aでは、図2に示す構成内容で全検査観点・項目が保存され、選択情報DB107bでは、図3に示す構成内容で対象システムで評価選択された情報が保存され、対象情報DB107cでは、図4に示す構成内容で対象システムの入力情報が格納され、評価ポイントDB107dでは、図5に示す構成内容で各種評価で使用する基となる情報が格納され、見解情報DB107eでは、図6に示す構成内容で観点・評価毎に決まった見解の文言が格納されている。   In the viewpoint / item DB 107a, all inspection viewpoints / items are stored with the configuration contents shown in FIG. 2, and in the selection information DB 107b, information evaluated and selected by the target system with the configuration contents shown in FIG. 3 is stored, and in the target information DB 107c. 4, the input information of the target system is stored with the configuration content shown in FIG. 4, the evaluation point DB 107 d stores the information used as the basis for various evaluations with the configuration content shown in FIG. 5, and the opinion information DB 107 e stores the information shown in FIG. 6. The wording of the opinion decided for each viewpoint / evaluation is stored in the structure shown.

このような構成により本例のプログラムテストシステムでは、プログラムされたコンピュータによって、プログラムのブラックボックステストで用いる検査項目をユーザ(検査者)との対話的操作に基づき生成する。   With such a configuration, in the program test system of this example, an inspection item used in a black box test of the program is generated by a programmed computer based on an interactive operation with a user (inspector).

すなわち、サーバコンピュータ105においてデータ格納部107の観点・項目DB107aで、予め、各検査項目を、検査の目的別に複数のグループに分けて階層化し、観点・項目情報として格納しておき、クライアントコンピュータ100の起動に伴い、処理部104のデータ選択振分処理部104aにより、観点・項目DB107aから観点・項目情報を読み出し参照して、各検査項目を検査目的別に階層化して選択可能に表示するGUI画面を生成して入出力部101を介して表示出力し、このGUI画面で検査者が選択した検査項目からなる検査項目一覧情報を生成する。   That is, in the server computer 105, each inspection item is divided into a plurality of groups according to the purpose of inspection and stored as viewpoint / item information in advance in the viewpoint / item DB 107 a of the data storage unit 107. GUI screen which displays the inspection item / item information from the viewpoint / item DB 107a by the data selection / distribution processing unit 104a of the processing unit 104, and displays the inspection items in a hierarchy by inspection purpose. Is generated and displayed via the input / output unit 101, and inspection item list information including inspection items selected by the inspector on the GUI screen is generated.

そして、クライアントコンピュータ100の処理部104は、評価分析2処理部104eにより、このように生成された検査項目一覧情報を入力し、この検査項目一覧情報に含まれる検査項目を基に当該プログラムの検査を行い、その検査結果を分析して当該プログラムの品質評価を行う。   Then, the processing unit 104 of the client computer 100 inputs the inspection item list information generated in this way by the evaluation analysis 2 processing unit 104e, and inspects the program based on the inspection item included in the inspection item list information. And analyze the inspection results to evaluate the quality of the program.

尚、この際、評価分析2処理部104eは、サーバコンピュータ105が評価ポイントDB107dにおいて予め格納している検査目的別および検査項目別の重み付け情報を読み出し参照して、各検査項目の検査結果に対して当該重み付けを付加して当該プログラムの品質評価を行う。   At this time, the evaluation analysis 2 processing unit 104e reads out the weighting information for each inspection purpose and each inspection item stored in advance in the evaluation point DB 107d by the server computer 105 and refers to the inspection result of each inspection item. The weight is added to evaluate the quality of the program.

さらに、クライアントコンピュータ100の処理部104は、評価分析1処理部104bにより、評価分析2処理部104eによるプログラムの検査の途中検査結果情報を用いた統計的手法により当該プログラムに残存する不良数の予測値を算出する。例えば、途中検査結果情報として、検査消化数と不良摘出数および危険率を含み、評価分析1処理部104bは、検査消化数と不良摘出数および危険率を用いた二項確率により当該プログラムに残存する不良数の予測値を算出する。   Further, the processing unit 104 of the client computer 100 uses the evaluation analysis 1 processing unit 104b to predict the number of defects remaining in the program by a statistical method using the inspection result information during the program inspection by the evaluation analysis 2 processing unit 104e. Calculate the value. For example, the number of inspection digests, the number of defective extractions, and the risk rate are included as intermediate inspection result information, and the evaluation analysis 1 processing unit 104b remains in the program with a binomial probability using the number of inspection digestions, the number of defective extractions, and the risk rate. A predicted value of the number of defects to be calculated is calculated.

以下、このような構成からなるプログラムテストシステムによる検査用項目生成処理動作例および自動評価処理動作例を、図7を用いて説明する。   Hereinafter, an example of the inspection item generation processing operation and the automatic evaluation processing operation by the program test system having the above configuration will be described with reference to FIG.

図7においては、クライアントコンピュータ100とサーバコンピュータ105の処理手順例を示している。   FIG. 7 shows an example of processing procedures of the client computer 100 and the server computer 105.

(1)検査用評価システムの起動(ステップS200)処理において、検査担当者は、クライアントコンピュータ上にある検査用項目生成、自動評価装置を起動する。 (1) In the process of starting the inspection evaluation system (step S200), the inspection person starts the inspection item generation / automatic evaluation apparatus on the client computer.

(2)評価対象のシステム情報登録(ステップS201)処理においては、今回評価対象とするシステム(対象システム)の基本情報(システム名・規模・機能名など)を初期画面より入力する。 (2) In the system information registration (step S201) process to be evaluated, basic information (system name, scale, function name, etc.) of the system (target system) to be evaluated this time is input from the initial screen.

(3)評価観点(検査の目的)の選択(観点)(項目)(ステップS202,S203)処理においては、評価対象とするシステムの検査目的(評価観点)を選択する。評価観点にはシステム全体を評価対象とする「全観点選択(ステップS204)」と評価目的に合わせた個別観点の選択が可能な「一部観点選択(ステップS205)」の2通りに分類される。 (3) In the selection (viewpoint) (item) (steps S202 and S203) of the evaluation viewpoint (purpose of inspection), the inspection purpose (evaluation viewpoint) of the system to be evaluated is selected. There are two types of evaluation viewpoints: “select all viewpoints (step S204)” that targets the entire system and “select partial viewpoints (step S205)” that allow selection of individual viewpoints according to the evaluation purpose. .

「一部観点選択」では観点の組み合わせが複数選択できるため、例えば画面機能に特化した評価を実施したい場合などは観点を個別選択することで、絞り込んだ検証(評価)が可能となっている。   Since “selection of partial viewpoints” allows you to select multiple combinations of viewpoints, for example, when you want to perform an evaluation specialized for screen functions, you can narrow down verification (evaluation) by selecting individual viewpoints. .

評価観点の選択は大項目「観点」、小項目「項目」から成り立っており、大項目「観点」を選択することでその詳細である小項目「項目」が表示、その中からさらに評価に見合った項目を選択することができるため、複数の角度から評価分析が可能となっている。   The selection of the evaluation viewpoint consists of a large item “point of view” and a small item “item”. By selecting the large item “point of view”, the detailed small item “item” is displayed, and from that, it further matches the evaluation. Since the selected item can be selected, evaluation analysis can be performed from a plurality of angles.

(4)項目自動生成(ステップS206)処理は、評価観点の選択が確定した後、自動で処理される。本処理の役割は「評価観点の選択(ステップS202,S203)」で実施した観点・項目の選択結果をうけて、検査作業で必要となる「検査項目」を生成するものである。 (4) The item automatic generation (step S206) processing is automatically performed after the evaluation viewpoint selection is confirmed. The role of this process is to generate the “inspection item” necessary for the inspection work based on the selection result of the viewpoint / item performed in “selection of evaluation viewpoint (steps S202 and S203)”.

この「検査項目」は、評価対象システムを検証する場合の検査条件となる項目と、妥当であるかを確認する項目、機能別/項目毎に誰がいつ確認したかを示す項目(確認結果が問題なしか否かを示す項目は左記に含まれる)からなっている。   This “inspection item” includes items that become inspection conditions when verifying the evaluation target system, items that are confirmed to be valid, items that indicate when and for each function / item (the confirmation result is a problem) An item indicating whether or not there is included is included in the left column).

(5)項目消化(ステップS207)処理においては、項目自動生成処理(ステップS206)で作成された項目を基に、実際に検証(検査)を開始する。観点/項目毎に検証を実施し、その結果を登録していく。 (5) In the item digest (step S207) process, verification (inspection) is actually started based on the item created in the item automatic generation process (step S206). Perform verification for each viewpoint / item and register the result.

(6)消化完了(ステップS208)処理においては、検査項目が消化したか否かにより処理分岐する。次の(7)(8)では分岐後の処理を示す。 (6) In the digestion completion (step S208) process, the process branches depending on whether or not the inspection item has been digested. The following (7) and (8) show processing after branching.

(7)評価生成(残予測型)(ステップS209)処理は、前処理(ステップS208)にて、検査項目の消化が途中段階で起動した場合の処理である。評価判定については、前述の通り処理される。さらに本処理では、検査項目の確認途中で事前に残不良を予測(自動)し、開発元へ品質改善を促すアクションをタイムリーに支援する機能を実装したものである。残不良の予測方法としては下記の(イ)、(ロ)の二通りを用意している(詳細は「図9」で説明する)。 (7) The evaluation generation (remaining prediction type) (step S209) process is a process in the case where the digestion of the inspection item is started in the middle of the preprocess (step S208). The evaluation determination is processed as described above. Furthermore, in this process, a function is implemented that predicts (automatically) remaining defects in advance while checking the inspection items, and supports actions that prompt the developer to improve quality in a timely manner. The following two methods (a) and (b) are prepared as remaining defect prediction methods (details will be described with reference to FIG. 9).

(イ)二項確率で予測:統計学で用いられる二項確率紙を自動化したものである。 (B) Prediction with binomial probability: An automated binomial probability paper used in statistics.

(ロ)実施面積から予測:現在までに実施した観点・規模・不良数を基に、全検査項目・全機能実施した場合の上昇率を求め、不良数に比例させて残不良を予測する (B) Prediction from execution area: Based on the viewpoint, scale, and number of defects implemented to date, the rate of increase when all inspection items and functions are implemented is calculated, and the remaining defects are predicted in proportion to the number of defects.

(8)自動評価&ビュー(ステップS210)処理は、前処理(ステップS208)にて全項目の消化が完了したか否かに限らず起動される処理である。検査項目内の「確認欄」に記載した検査結果合否を基に観点/項目別に集計を行い、内部で持っている評価ポイント、重要度と、自動集計された不良割合ポイントから、観点別/機能別に評価判定を実施し、さらに同様の処理で全体の評価判定を行う。尚、評価内容(結果)を画面上に表示(ビュー)する。 (8) The automatic evaluation & view (step S210) process is a process that is activated regardless of whether or not all items have been digested in the preprocess (step S208). Based on the pass / fail of the inspection results described in the “Confirmation column” in the inspection item, it is calculated for each point of view / item. Separately, evaluation determination is performed, and further overall evaluation determination is performed by the same processing. The evaluation contents (results) are displayed (viewed) on the screen.

(9)報告(ステップS211)処理においては、評価結果を報告書として生成するか否かにより処理分岐する。次の(10)では報告書生成を選択した場合の処理を示す。 (9) In the report (step S211) process, the process branches depending on whether the evaluation result is generated as a report. The next (10) shows the processing when report generation is selected.

(10)報告書生成(ステップS212)処理は、前処理(ステップS211)にて、報告書生成を起動した場合の処理である。本処理は、評価結果を第三者向けに提出できる様に自動で報告書化を行う。 (10) The report generation (step S212) process is a process performed when report generation is started in the preprocessing (step S211). This process automatically creates a report so that the evaluation results can be submitted to a third party.

(11)評価システム終了(ステップS213)処理においては、検査項目消化および報告書作成等の処理が完了した場合、検査用評価システムを終了する。終了時での処理は特にない。 (11) In the evaluation system termination (step S213) process, when the processes such as digestion of test items and report creation are completed, the test evaluation system is terminated. There is no particular processing at the end.

次に、図2、図8A〜図8F、図9、図10A〜図10D、図11A〜図11C、図12A,図12B、および図13を用いて、本例のプログラムテストシステムによる検査用項目の生成処理、自動評価処理の具体的な例を説明する。   Next, with reference to FIGS. 2, 8A to 8F, FIG. 9, FIGS. 10A to 10D, FIGS. 11A to 11C, FIGS. 12A, 12B, and 13, an inspection item by the program test system of this example is used. A specific example of the generation process and the automatic evaluation process will be described.

図8A〜図8Fは、図7におけるステップS202,S203での評価観点の選択処理を行う場合の具体的な処理動作を示している。   8A to 8F show specific processing operations when the evaluation viewpoint selection processing in steps S202 and S203 in FIG. 7 is performed.

対象システムの検査を実施する場合、検査計画時に、検査の目的に応じて、評価方法(検査観点)を決める必要がある。まず、検査担当者は「今回評価を実施したい観点」、「第三者が求める評価の観点」を受け、該当観点を、図8Aに示すGUI画面である評価観点選択画面300より選択していく。   When the target system is inspected, it is necessary to determine an evaluation method (inspection viewpoint) according to the purpose of the inspection at the time of inspection planning. First, the person in charge of inspection receives the “perspective to be evaluated this time” and the “perspective of evaluation required by a third party”, and selects the pertinent viewpoint from the evaluation viewpoint selection screen 300 which is a GUI screen shown in FIG. 8A. .

評価観点として、大きく分けて「システム全体評価版」と「個別評価版」の二通りが選択できる(大項目)。「システム全体評価版」は評価対象とするシステムを、通常検査で実施する全観点(システムが顧客要求通りに動作すること、動作が一般的な視点で考えられていること、システムが正常動作すること、イレギュラーケースを考えた動作になっていることなどシステムをトータル的に見たもの)を設定することで製品としての評価が可能になっている。   The evaluation viewpoint can be broadly divided into “system overall evaluation version” and “individual evaluation version” (major items). "System-wide evaluation version" refers to all aspects of the system to be evaluated during normal inspection (that the system operates as requested by the customer, that the operation is considered from a general viewpoint, and that the system operates normally. In addition, it is possible to evaluate the product as a product by setting a system that takes into account the irregular case.

「個別評価版」では、製品を、ある特定の観点より評価することを検査目的としている。例えば、開発途中のテスト工程において、画面入出力系で不具合が多発しており、第三者はその部分の品質に不安があると想定する。   The “individual evaluation version” is intended to evaluate a product from a specific viewpoint. For example, it is assumed that there are many problems in the screen input / output system in the testing process during development, and that the third party is concerned about the quality of the part.

このような状況において、早急に特定箇所の品質を見極めたいと検査部署に依頼がなされた場合、検査者が、図8Aの評価観点選択画面300において個別評価版の「画面入出力重視」(中項目)を選択することで、必要最小限の観点を自動で選別でき、効率的な評価が実現できる仕掛けとなっている。   In such a situation, when an inspection department is requested to quickly determine the quality of a specific location, the inspector selects “screen input / output emphasis” of the individual evaluation version on the evaluation viewpoint selection screen 300 in FIG. By selecting (item), the minimum necessary viewpoint can be automatically selected, and it is a mechanism that can realize efficient evaluation.

また、「画面入出力」に関しての評価において特に「入力チェック」(小項目)に重点を置きたいなど、さらに詳細な評価観点の選択も可能となっている。   Further, in the evaluation regarding “screen input / output”, it is possible to select a more detailed evaluation viewpoint, such as focusing on “input check” (small item).

このようにして評価観点が選択された後、内部ロジックとして、図8B〜図8Fに示す、以下の処理手順301〜304を実行し検査項目305を生成する。   After the evaluation viewpoint is selected in this way, the following processing procedures 301 to 304 shown in FIGS. 8B to 8F are executed as internal logic to generate an inspection item 305.

(a)選択された項目に応じて、図2に詳細を示す「観点・項目DB107a」から情報取得する際に使用するワークキーを設定する(図8Bの処理手順301)。 (A) In accordance with the selected item, a work key used when acquiring information from the “viewpoint / item DB 107a” shown in detail in FIG. 2 is set (processing procedure 301 in FIG. 8B).

この処理手順301における“B”は、チェックされたことを示すためのフラグである。また、中項目にチェックがなされた場合には、観点・項目DB107aの「キーフラグ1」を、小項目毎にチェックがなされた場合には、観点・項目DB107aの「キーフラグ2」を参照してワークキーを設定するようになっている。尚、キーフラグ1はNO1に対応し、キーフラグ2はNO2に対応する。   “B” in the processing procedure 301 is a flag for indicating that it has been checked. When the middle item is checked, the “key flag 1” of the viewpoint / item DB 107a is referred to. When the check is made for each small item, the “key flag 2” of the viewpoint / item DB 107a is referred to. The key is set. Key flag 1 corresponds to NO1, and key flag 2 corresponds to NO2.

(b)取得したワークキーを基に「観点・項目DB107a」を検索し、合致する情報を取得する(図8Cの処理手順302)。   (B) The “viewpoint / item DB 107a” is searched based on the acquired work key, and the matching information is acquired (processing procedure 302 in FIG. 8C).

この処理手順302は、どの観点が選択されたかを判別するための処理であり、例えば、「画面入力重視」と「入力チェック」がチェックされた場合には、観点・項目DB107aのキーフラグ1=“B”に対応するNO1の情報を取得し、キーフラグ2=“B”に対応するNO2の情報を取得する。   This processing procedure 302 is a process for determining which viewpoint has been selected. For example, when “screen input emphasis” and “input check” are checked, the key flag 1 of the viewpoint / item DB 107a = “ The information of NO1 corresponding to “B” is acquired, and the information of NO2 corresponding to the key flag 2 = “B” is acquired.

(c)取得した情報から「対象情報DB107c」を比較/マージし、その結果を「選択情報DB107b」に反映する(図8Dの処理手順303)。ここでは機能毎に観点を設定し、その情報を選択情報DB107bへ格納する。   (C) Compare / merge the “target information DB 107c” from the acquired information, and reflect the result in the “selection information DB 107b” (processing procedure 303 in FIG. 8D). Here, a viewpoint is set for each function, and the information is stored in the selection information DB 107b.

(d)「選択情報DB107b」と「観点・項目DB107a」から、画面表示する際の情報を取得する(図8Eの処理手順304)。   (D) Information for screen display is acquired from the “selection information DB 107b” and the “viewpoint / item DB 107a” (processing procedure 304 in FIG. 8E).

(e)上述の(d)の処理手順304で取得した情報を、図8Fにおける検査項目305として生成して表示する。   (E) The information acquired in the processing procedure 304 of (d) described above is generated and displayed as the inspection item 305 in FIG. 8F.

この図8Fの検査項目305で表示される検査項目生成画面は、観点を選択した結果から、検査に必要な「検査項目」を自動で生成した結果である。この検査項目は、例えばExcel(登録商標)形式の表で出力されることから、他コンピュータなど外部への持込みを可能としている。   The inspection item generation screen displayed as the inspection item 305 in FIG. 8F is a result of automatically generating “inspection items” necessary for the inspection from the result of selecting the viewpoint. Since this inspection item is output in, for example, a table in Excel (registered trademark) format, it is possible to bring it into an external device such as another computer.

尚、図8Fおける検査項目305は、「項番」、「大項目」、「中項目」、「確認日」、「確認者」、・・・、「確認日」「確認者」からなっており、「項番」は検査項目を識別するIDであり、「大項目」は検査観点をさらに詳細の内容にしたもの、「中項目」は検査項目の確認内容、「確認日」は各検査項目を確認した日を入力する欄、「確認者」は各検査項目を確認した担当者の名前を入力する欄であり、この「確認日」と「確認者」欄は機能毎に入力する形式をとっている。   8F includes “item number”, “large item”, “medium item”, “confirmation date”, “confirmer”,..., “Confirmation date”, “confirmer”. “Item No.” is an ID for identifying an inspection item, “Large item” is a more detailed inspection viewpoint, “Middle item” is the confirmation content of the inspection item, “Confirmation date” is each inspection A field for entering the date on which the item was confirmed, “Confirmer” is a field for entering the name of the person in charge who confirmed each inspection item, and the “Date of confirmation” and “Confirmer” fields are entered for each function. Have taken.

図9は、図1のクライアントコンピュータ100の処理部104における評価分析1処理(残推定)部104bによる図7のステップS209における評価生成(残不良型)を行う場合の具体的な処理動作を示す説明図である。   FIG. 9 shows a specific processing operation when the evaluation generation (remaining defective type) in step S209 of FIG. 7 is performed by the evaluation analysis 1 processing (remaining estimation) unit 104b in the processing unit 104 of the client computer 100 of FIG. It is explanatory drawing.

評価分析1処理(残推定)部104bは、検査途中での処理において、図9における情報400を基に残不良予測を導き出す。尚、情報算出の際はシステム全体/機能毎で算出を行う。また、機能毎の算出では「機能情報」をキーとして情報取得する。   The evaluation analysis 1 process (remaining estimation) unit 104b derives a remaining defect prediction based on the information 400 in FIG. In addition, when calculating information, the calculation is performed for the entire system / for each function. Further, in the calculation for each function, information is acquired using “function information” as a key.

図9における情報400は、不良件数(不良n件)、全項目数(全項目数m件)、未消化項目数(未消化項目数x件)、機能数(機能数y件)、危険率(危険率5%)、規模(規模a step)からなる。   The information 400 in FIG. 9 includes the number of defects (n defects), the number of all items (m items of all items), the number of undigested items (number of undigested items x), the number of functions (number of functions y), and the risk rate. (Risk rate 5%) and scale (scale a step).

「不良件数」は、検査項目の確認日が「NG」の項目であり、図3の選択情報DB107bにおける「確認日」より「NG」件数のSUM算出により取得する。   The “number of defects” is an item whose check item confirmation date is “NG”, and is acquired from the “confirmation date” in the selection information DB 107b of FIG. 3 by SUM calculation of the number of “NG” items.

「全項目数」は、選択した観点から生成された検査項目の全件であり、図3の選択情報DB107bにおける行数をカウントし取得する。   “Number of all items” is all items of the inspection items generated from the selected viewpoint, and the number of rows in the selection information DB 107b of FIG. 3 is counted and acquired.

「未消化項目数」は、検査項目の確認日が未入力の項目であり、図3の選択情報DB107bにおける「確認日」よりNULL件数のSUM算出により取得する。   “The number of undigested items” is an item for which the confirmation date of the examination item has not been input, and is obtained by SUM calculation of the NULL number from the “confirmation date” in the selection information DB 107b of FIG.

「機能数」は、初回にシステム情報で登録した機能数であり、図4の対象情報DB107cにおける「機能情報」の全件数を取得する。   The “number of functions” is the number of functions registered in the system information for the first time, and the total number of “function information” in the target information DB 107c of FIG. 4 is acquired.

「危険率」は、図1の評価分析1処理(残推定)部104bがプログラム検査の途中検査結果情報を基に当該プログラムに残存する不良数の予測値を算出する際に用いる統計的手法の内の「二項確率」での算出時に必要となる情報であり、本例では、一般的な数値の5%を設定する。   The “risk rate” is a statistical method used when the evaluation analysis 1 processing (remaining estimation) unit 104b in FIG. 1 calculates a predicted value of the number of defects remaining in the program based on the inspection result information during the program inspection. This information is necessary when calculating with the “binary probability”, and in this example, 5% of a general numerical value is set.

「規模」は、評価対象のプログラムの開発ステップ数であり、図4の対象情報DB107cにおける「規模」よりSUM算出して取得する。   The “scale” is the number of development steps of the program to be evaluated, and is obtained by calculating the SUM from the “scale” in the target information DB 107c of FIG.

尚、図1の評価分析1処理(残推定)部104bによる残不良予測には「二項確率」での予測と「実施面積」からの予測の二通りの統計的手法から算出できる。担当者(検査者)は、いずれか当該評価に適した予測手法を選択し、使うことができる。   The residual failure prediction by the evaluation analysis 1 processing (remaining estimation) unit 104b in FIG. 1 can be calculated from two statistical methods of prediction based on “binary probability” and prediction based on “implemented area”. The person in charge (inspector) can select and use a prediction method suitable for the evaluation.

以下に「二項確率での予測」および「実施面積からの予測」手順について説明する。   The procedures of “prediction with binomial probabilities” and “prediction from implementation area” will be described below.

まず、「二項確率で予測」の算出手順401では、必要情報として、「全項目数」、「未消化項目数」、「不良件数:n」、「危険率:X」、「全項目数:m」を用い、これらの必要情報を下記のように、各計算式に代入して残不良(システム/機能毎)を算出する。   First, in the calculation procedure 401 of “predict with binomial probability”, necessary information includes “total number of items”, “number of undigested items”, “number of defective items: n”, “risk rate: X”, “total number of items”. : M ”and substituting these necessary information into each calculation formula as follows to calculate the residual defect (for each system / function).

(1)a=全項目数−未消化項目数   (1) a = number of all items−number of undigested items

(2)A'=a/不良件数n   (2) A ′ = a / number of defects n

(3)A1=A'+(危険率X×(SQRT(A'(1−A')/a)))   (3) A1 = A ′ + (Risk factor X × (SQRT (A ′ (1-A ′) / a)))

(4)A2=A'−(危険率X×(SQRT(A'(1−A')/a)))   (4) A2 = A ′ − (Risk factor X × (SQRT (A ′ (1-A ′) / a)))

(5)残不良1=全項目数m×A1   (5) Residual defect 1 = total number of items m × A1

(6)残不良2=全項目数m×A2   (6) Residual defect 2 = total number of items m × A2

(7)「残不良1」を残不良件数とする。また、「残不良2」は、図9に示す二項確率紙403を作成するときの数値である。   (7) “Residual defect 1” is the number of remaining defects. “Remaining defect 2” is a numerical value when the binomial probability sheet 403 shown in FIG. 9 is created.

次に、「実施面積から予測」の算出手順402では、必要情報として、「機能毎の全項目数m1」、「機能毎の未消化項目数r1」、「不良件数n」、「全規模d」を用い、これらの必要情報を下記のように、各計算式に代入して残不良(システム/機能毎)を算出する。   Next, in the calculation procedure 402 of “predict from the execution area”, as necessary information, “total number of items m1 for each function”, “number of undigested items for each function r1”, “number of defective cases n”, “total scale d” The necessary information is substituted into each calculation formula as described below to calculate a residual defect (for each system / function).

(1)b=SUM(機能毎の全項目で(機能毎の全項目数m1−機能毎の未消化項目数r1>0)の規模   (1) Scale of b = SUM (all items for each function (total number of items for each function m1−number of undigested items for each function r1> 0))

(2)c=SUM(b×(1−(r1/m1)))   (2) c = SUM (b × (1− (r1 / m1)))

(3)B=不良件数n/b×全規模d   (3) B = number of defects n / b × total scale d

(4)e=1−(SUM(1−(r1/m1)))   (4) e = 1- (SUM (1- (r1 / m1)))

(5)B1=e×B   (5) B1 = e × B

(6)このようにして求めた「B」は対象機能に対しての残不良件数であり、「B1」は、システム全体での残不良件数である。尚、「B」、「B1」、「c」を基に、図9に示す実施面積図404を作成する。   (6) “B” obtained in this way is the number of remaining defects for the target function, and “B1” is the number of remaining defects in the entire system. An implementation area diagram 404 shown in FIG. 9 is created based on “B”, “B1”, and “c”.

上述の計算ロジック処理を実施後、例えばExcel(登録商標)のグラフ機能を用いてグラフ作成処理を行う。   After performing the above-described calculation logic processing, for example, graph creation processing is performed using the graph function of Excel (registered trademark).

次に、図10A〜図10Dを用いて、図1におけるクライアントコンピュータ100の処理部104における評価分析2処理(結果評価)部104eによる、図7のステップS210における評価生成(完了型)処理を行う場合の具体的な処理動作を説明する。   Next, an evaluation generation (completion type) process in step S210 in FIG. 7 is performed by the evaluation analysis 2 process (result evaluation) unit 104e in the processing unit 104 of the client computer 100 in FIG. 1 using FIGS. 10A to 10D. A specific processing operation in this case will be described.

検査開始前に、対象機能毎で重要度ランクを設定しておく。重要度ランクの設定基準は、図10Aに示す重要度ランク情報500の通り、その機能が顧客に与える影響を考慮して設定する。   Prior to the start of inspection, an importance rank is set for each target function. The importance rank setting criteria is set in consideration of the influence of the function on the customer as the importance rank information 500 shown in FIG. 10A.

また、選択された観点・項目のそれぞれには、図10Bの評価ポイント情報501に示す各評価ポイントが予め振り分けられており、観点・項目毎に自動的に重み付けを設定する。   In addition, each evaluation point shown in the evaluation point information 501 in FIG. 10B is assigned in advance to each selected viewpoint / item, and a weight is automatically set for each viewpoint / item.

検査完了後、検査結果(検査項目毎のOK/NG)および図10Cに示す不良割合ポイント情報502を基に自動判定を行い、機能別およびシステム全体の評価を実施し、そのシステムの良し悪しを、図10Dの機能毎及び総合で評価処理手順503を実行して、機能別およびシステム全体の評価を視覚的にできるようにする。   After the inspection is completed, automatic determination is performed based on the inspection result (OK / NG for each inspection item) and the defect rate point information 502 shown in FIG. 10C, and the evaluation of each function and the entire system is performed. The evaluation processing procedure 503 is executed for each function in FIG. 10D and comprehensively so that the evaluation of each function and the entire system can be visually performed.

尚、本処理は検査項目の全項目消化に関係なく実施されるものである。   In addition, this process is implemented irrespective of digestion of all the inspection items.

図10Dの機能毎及び総合で評価処理手順503について、図11A〜図11Cと図12A,図12Bを用いて説明する。   The evaluation processing procedure 503 for each function and in FIG. 10D will be described with reference to FIGS. 11A to 11C and FIGS. 12A and 12B.

「前提」:評価基準として情報を保持するものは以下の通りとする。   “Premise”: Information that retains information as evaluation criteria is as follows.

(i)重要度ランク(手入力):A〜Dの4種類。   (I) Importance rank (manual input): 4 types of A to D.

(ii)評価ポイント(自動設定):a〜eの5種類。   (Ii) Evaluation points (automatic setting): 5 types a to e.

(iii)不良割合ポイント(自動集計):0〜10のポイントを上記「二項確率で予測」と「実施面積から予測」における処理を基に振り分ける。   (Iii) Defect ratio point (automatic counting): 0 to 10 points are allocated based on the processes in “predict with binomial probability” and “predict from execution area”.

(iv)不良割合パーセント(自動集計):0%〜100%で範囲設定。   (Iv) Percentage of defectives (automatic counting): range setting from 0% to 100%.

(v)ランク重み付け(自動集計):0%〜15%で、図11Aの評価表601における丸1のランクに振り分ける。   (V) Rank weighting (automatic counting): 0% to 15%, and assigned to the rank of circle 1 in the evaluation table 601 of FIG. 11A.

(vi)評価判定(自動判定):「丸」、「三角」、「×」等の5種類で機能別、システム全体で判定する。   (Vi) Evaluation determination (automatic determination): 5 types such as “circle”, “triangle”, “x” and the like are determined for each function and the entire system.

まず、「評価方法1」を、図11A〜図11Cを用いて説明する。この「評価方法1」では、上記前提を基に集計を行い、下記のようにして評価判定を実施し、図11Aに示す評価表601を生成する。   First, “Evaluation Method 1” will be described with reference to FIGS. 11A to 11C. In this “evaluation method 1”, tabulation is performed based on the above assumptions, evaluation determination is performed as follows, and an evaluation table 601 shown in FIG. 11A is generated.

(1)図11Bに示す手順により観点別・機能別に評価を算出する。   (1) The evaluation is calculated for each viewpoint and function according to the procedure shown in FIG. 11B.

まず、検査対象に選定された図11Aに示す検索項目602の評価ポイントを1観点/1機能毎に合計し、このようにして集計された評価ポイント(小計)に対して関連する不良割合ポイントを乗算し、図11Bの検査項目集計表603に示すように、Aポイント(小計/合計)を求める。   First, the evaluation points of the search item 602 shown in FIG. 11A selected as the inspection object are totaled for each viewpoint / function, and the defect ratio points related to the evaluation points (subtotals) thus tabulated are calculated. Multiply and obtain A point (subtotal / total) as shown in the inspection item total table 603 of FIG. 11B.

次に、検査項目602における不良が摘出された検査項目の評価ポイントを1観点/1機能毎に合計し、このようにして集計された評価ポイント(小計)に対して関連する不良割合ポイントを乗算し、図11Bの不良件数集計表604に示すようにBポイント(小計/合計)を求める。   Next, the evaluation points of the inspection items from which defects in the inspection item 602 are extracted are totaled for each viewpoint / function, and the evaluation points (subtotals) thus tabulated are multiplied by the related defect ratio points. Then, B points (subtotal / total) are obtained as shown in the defect count table 604 in FIG. 11B.

そして、Aポイント(合計)を母数としてBポイント(合計)の割合を求め、この割合が内部データである不良割合パーセントと比較し、図11Bの評価集計表605に示すように、該当する範囲の評価判定を1観点/1機能毎に振り分けていく。   Then, the ratio of B point (total) is obtained by using A point (total) as a parameter, and this ratio is compared with the defect ratio percentage that is internal data. As shown in the evaluation summary table 605 in FIG. The evaluation judgment is assigned to one viewpoint / one function.

(2)観点別に評価を算出する場合にも、図11Bの観点別評価集計表606の通り、上記(1)での観点別・機能別に評価を算出する処理と同様の処理を全機能に対して行う。   (2) When calculating evaluations by viewpoint, the same processing as that for calculating evaluations by viewpoint and function in (1) above is performed for all functions as shown in the evaluation summary table 606 by viewpoint in FIG. 11B. Do it.

(3)機能別に評価を算出する場合、図11Cに示す手順により以下のようにして算出する。   (3) When the evaluation is calculated for each function, it is calculated as follows according to the procedure shown in FIG. 11C.

すなわち、検査対象に選定された機能の観点数を1機能毎に合計し、次に、上記(1)の処理で振り分けられた評価判定を機能毎/評価判定別に合計し、上記で集計された評価判定(小計)に対して関連する不良割合ポイントを乗算し、Cポイント(合計)を求める。この処理の結果を図11Cにおける観点別集計表607に示す。   That is, the number of viewpoints of the functions selected as inspection targets is totaled for each function, and then the evaluation judgments distributed in the process (1) above are summed for each function / evaluation judgment, and are totaled as described above. Multiply the evaluation ratio (subtotal) by the related defect rate points to obtain C points (total). The result of this processing is shown in the tabulation table 607 by viewpoint in FIG. 11C.

さらに、観点数の合計に対して不良割合ポイント(最大値)を乗算し、Zポイントを求める。この処理の結果を図11Cにおける母数点算出表608に示す。   Furthermore, the defect percentage point (maximum value) is multiplied by the total number of viewpoints to obtain the Z point. The result of this processing is shown in the parameter point calculation table 608 in FIG. 11C.

そして、求めたZポイントを母数としてCポイント(合計)の割合を求め、その算出結果を割合Xとする。この処理の結果を図11Cにおける評価集計表609に示す。   Then, the ratio of C points (total) is determined using the determined Z points as a parameter, and the calculation result is defined as a ratio X. The result of this processing is shown in the evaluation summary table 609 in FIG. 11C.

図11Cにおけるランク重み付け条件表610に示すように、求めた割合Xが0%、または50%以上であった場合は、ランク重み付けを加味させないが、それ以外であれば、図11Cにおけるランク重み付け表611に示すように、機能毎に振り分けされたランク重み付けを割合Xに加味する。   As shown in the rank weighting condition table 610 in FIG. 11C, when the obtained ratio X is 0% or 50% or more, the rank weighting is not taken into consideration, but otherwise, the rank weighting table in FIG. 11C is used. As indicated by 611, the rank weight assigned to each function is added to the ratio X.

このようにしてランク重み付けされた割合Xを内部データである不良割合パーセントと比較し、該当する範囲の評価判定を1機能毎に振り分けていく。この処理の結果を図11Cにおける評価集計表612に示す。   The rank-weighted ratio X is compared with the defect ratio percentage that is internal data, and the evaluation determination of the corresponding range is distributed for each function. The result of this processing is shown in the evaluation summary table 612 in FIG. 11C.

(4)総合評価を算出する処理では、図11Cの総合評価集計表613の通り、上記(3)の機能別評価で算出した評価判定の悲観値とする。   (4) In the process of calculating the comprehensive evaluation, the pessimistic value of the evaluation determination calculated in the function-based evaluation in (3) is used as shown in the comprehensive evaluation aggregation table 613 in FIG. 11C.

次に、「評価方法2」を、図12A,図12Bを用いて説明する。この「評価方法2」では、上記「評価方法1」を基に、以下の処理により、個別見解を取得し、図12Aにおける評価表620を生成する。   Next, “Evaluation Method 2” will be described with reference to FIGS. 12A and 12B. In this “evaluation method 2”, based on the above “evaluation method 1”, an individual opinion is acquired by the following processing, and an evaluation table 620 in FIG. 12A is generated.

(1)観点別の見解を算出する処理では、図12Bの観点別見解算出処理手順621に示すように、振り分けられた評価判定の最低評価の上位5つを観点別に取得する。   (1) In the process of calculating the viewpoints according to the viewpoints, as shown in the viewpoint-specific viewpoint calculation processing procedure 621 in FIG.

尚、最低評価が6つ以上存在した場合、取得した観点から機能毎に最低評価数を算出し、多いものを採用する。さらに、上記処理の採用数が同数の場合は、評価ポイント数を算出し、多いものを採用する。   When there are six or more minimum evaluations, the minimum evaluation number is calculated for each function from the acquired viewpoint, and a larger number is adopted. Further, when the same number of processes is employed, the number of evaluation points is calculated and a larger number is employed.

また、最低評価が4つ以下の場合には、取得した観点を採用、さらに次に最低評価のものを取得する。全取得数が5つになるまで、本処理を繰り返す。   If the minimum evaluation is 4 or less, the acquired viewpoint is adopted, and the next lowest evaluation is acquired. This process is repeated until the total number of acquisitions reaches 5.

さらに、最低評価が0の場合には、「問題なし」との固定文字を採用し、次処理での図6における見解情報DB107eを参照する処理は実施しない。   Further, when the lowest evaluation is 0, a fixed character “no problem” is adopted, and the process of referring to the opinion information DB 107e in FIG. 6 in the next process is not performed.

その次処理として、上記処理で取得した観点毎の評価判定を基に、図12Bに示す見解情報DB622を参照して、該当する見解内容を取得する。   As the next process, based on the evaluation determination for each viewpoint acquired in the above process, the corresponding opinion content is acquired with reference to the opinion information DB 622 shown in FIG. 12B.

(2)機能別の見解を設定する処理では、図12Bの機能別見解算出処理手順623に示すように、まず、上記(1)における観点別の見解を設定する処理と同様の処理で、振り分けられた評価判定の最低評価上位5つを機能別に取得し、次に、取得した機能名称を基に固定文字を作成する。   (2) In the process of setting views by function, as shown in the function-by-function opinion calculation processing procedure 623 in FIG. 12B, first, the distribution is performed in the same process as the process for setting the viewpoints by viewpoint in (1) above. The five lowest evaluation top evaluations are acquired for each function, and then a fixed character is created based on the acquired function name.

(3)総合評価の見解を算出する処理では、図12Bの総合評価見解算出処理手順624に示すように、総合評価の評価判定を基に、図12Bにおける見解情報DB625を参照して該当する見解内容を取得する。   (3) In the process of calculating the opinion of the comprehensive evaluation, as shown in the comprehensive evaluation opinion calculation processing procedure 624 in FIG. 12B, the corresponding opinion with reference to the opinion information DB 625 in FIG. Get the contents.

次に、図13を用いて、図1のクライアントコンピュータ100における処理部104の報告書編集処理部104cによる、図7におけるステップS212での報告書を自動作成する処理動作を具体的例で説明する。   Next, with reference to FIG. 13, a specific example of the processing operation for automatically creating the report in step S <b> 212 in FIG. 7 by the report editing processing unit 104 c of the processing unit 104 in the client computer 100 in FIG. 1 will be described. .

図9,図10A〜図10D,図11A〜図11C,図12A,図12Bでの処理で算出した情報(残不良件数、評価判定、見解)および事前に設定した情報(対象機能、観点)を基に、予め生成されている報告書フォーマット700の各エリアに、その内容を埋め込み、報告書として作成する。   The information (number of remaining defects, evaluation judgment, opinion) calculated in the processing in FIG. 9, FIG. 10A to FIG. 10D, FIG. 11A to FIG. 11C, FIG. 12A, and FIG. Based on this, the contents are embedded in each area of the report format 700 generated in advance to create a report.

すなわち、報告書フォーマット700のエリアAには、図11A〜図11C,図12A,図12Bで求めた情報(ワークエリアの評価表)を埋め込み(*残不良件数は図9の情報から埋め込む)、エリアB(検査観点エリア)には、選択情報DB107bの「選択NO1」をキーとして観点・項目DB107aの「NO1」と比較し、合致した場合は「観点」項目を抽出し(尚、同一情報があった場合はUNIQ処理を行う)、結果を埋め込む。   That is, in the area A of the report format 700, the information (work area evaluation table) obtained in FIGS. 11A to 11C, 12A, and 12B is embedded (* the number of remaining defects is embedded from the information of FIG. 9). In area B (inspection viewpoint area), “selection NO1” in the selection information DB 107b is used as a key, and “NO1” in the viewpoint / item DB 107a is compared. If there is, perform UNIQ processing) and embed the result.

また、エリアC(全体見解エリア)には、図12Bの総合評価見解算出処理手順624(「(3)総合評価の見解の算出」)で求めた見解内容を埋め込み、エリアD(個別見解エリア)には、図12Bの機能別見解算出処理手順623(「(2)機能別の見解の設定」)で求めた見解内容を埋め込む。   Further, in area C (overall opinion area), the opinion content obtained in the comprehensive evaluation opinion calculation processing procedure 624 in FIG. 12B (“(3) Calculation of opinion of comprehensive evaluation”) is embedded, and area D (individual opinion area) Is embedded with the opinion content obtained in the function-based opinion calculation processing procedure 623 in FIG. 12B (“(2) Function-specific opinion setting”).

尚、本処理では報告書作成を任意にしており、使用する側の判断で作成有無を決めている。   In this process, report creation is optional, and whether or not the report is created is determined by the judgment of the user.

以上、図1〜図13を用いて説明したように、本例では、機能仕様を理解せずに行うブラックボックス型のプログラム検査において、検査員の力量にかかわらず統一的な検査を実現する。そのために、予め登録されている汎用的な「検査観点」および実際の項目消化に必要な「検査項目」の情報をもとに、標準的な検査を実行し、項目消化や不良箇所といった検査実績情報を記憶装置に登録し、予め設定登録されている評価ポイントなどから自動的に分析/評価を行う。尚、その際、検査が途中経過であってもそれまでに登録した情報から残存不良数の予測を行う。そして、評価結果に対する統一的な見解を導き出し、自動的に報告書作成を行う。   As described above with reference to FIGS. 1 to 13, in this example, in the black box type program inspection performed without understanding the functional specifications, a unified inspection is realized regardless of the ability of the inspector. For this purpose, standard inspections are performed based on pre-registered general-purpose “inspection viewpoints” and information on “inspection items” necessary for actual item digestion. Information is registered in a storage device, and analysis / evaluation is automatically performed from an evaluation point set and registered in advance. At that time, even if the inspection is in progress, the number of remaining defects is predicted from the information registered so far. Then, a unified view of the evaluation results is derived and a report is automatically created.

本例のプログラムテストシステムは、対話型の各種システムに対応しており、あらゆるシステムのプログラム検査に適用できる。   The program test system of this example is compatible with various interactive systems, and can be applied to program inspection of any system.

特に本例のシステムでは、過去から蓄積した「検査に必要な観点」および、「プログラム検査実施時のチェック内容としている検査項目」が予め記憶装置に登録されており、必要な情報(評価に用いたい観点)を選択することでプログラム検査対象のシステムにあった確認内容を自動で生成でき、どのようなシステムでも対話型であればプログラム検査が実現できる。尚、各システムによって第三者がどのように評価したいかを選択できるため、選択方法によっては数十通りの評価が実現できる。   In particular, in the system of this example, “viewpoints necessary for inspection” and “inspection items to be checked at the time of program inspection” accumulated in the past are registered in the storage device in advance, and necessary information (for evaluation) By selecting the desired viewpoint), the confirmation contents suitable for the system to be inspected can be automatically generated, and the program inspection can be realized if any system is interactive. Since each system can select how a third party wants to evaluate, several tens of evaluations can be realized depending on the selection method.

また、本例では、検査観点/標準検査項目を基にプログラム検査(実機検証)を実施し、その結果(OK/NG)を観点、項目毎に登録することで、観点の重み付けポイントとプログラム不良の重要度、および機能別ポイントから独自の評価を自動で行い、不良摘出要求件数、見直し観点などを判定し、一貫性のある品質評価が行える。   Also, in this example, program inspection (actual machine verification) is performed based on inspection viewpoint / standard inspection items, and the result (OK / NG) is registered for each viewpoint and item, so that weighting points and program defects of the viewpoint are registered. A unique evaluation is automatically performed based on the importance of each item and the point according to function, and the number of defect extraction requests, the review viewpoint, etc. are judged, and a consistent quality evaluation can be performed.

また、本例のプログラムテストシステムでは、作業途中にあって、検査観点/標準検査項目の消化状況から現在までの進捗を算出および消化状況とプログラム不良摘出数、危険率から統計的手法を用いた残不良予測が算出でき、開発元へのタイムリーな品質確保要求が実現できる。   Moreover, in the program test system of this example, the progress from the viewpoint of inspection / standard inspection items to the present is calculated in the middle of the work, and the statistical method is used from the digestion status, the number of defective programs, and the risk rate. Residual defect prediction can be calculated, and timely quality assurance requirements can be realized.

また、評価結果から、予め決まったフォーマットに量的、質的情報とそれぞれの見解を、表とグラフを用いて自動的に報告書が作成できる。   In addition, from the evaluation result, a report can be automatically created using a table and a graph with quantitative and qualitative information and respective views in a predetermined format.

このように、本例では、予め登録している汎用的な「検査目的(検査観点)」および実際の検査に必要な「検査項目」の情報を基に、ユーザ(検査者)が評価したい観点(目的)を選択するためのGUI画面を生成して表示し、このGUI画面を介してユーザ(検査者)が評価したい観点(目的)を選択することで検査項目を生成する。これにより、短時間での項目の消化(検査)および分析・評価が可能になる。   In this way, in this example, the viewpoint that the user (inspector) wants to evaluate based on the pre-registered general-purpose “inspection purpose (inspection viewpoint)” and “inspection item” information necessary for the actual inspection. A GUI screen for selecting (purpose) is generated and displayed, and an inspection item is generated by selecting a viewpoint (purpose) that the user (inspector) wants to evaluate via this GUI screen. Thereby, digestion (inspection), analysis, and evaluation of items in a short time become possible.

例えば、「対象システムの入力チェックが妥当かを判定してほしい」場合、検査員が、GUI画面より、「入力チェック」に必要な観点から検査項目を選択するだけで、選択された検査項目のみを消化することとなり、不必要な観点の消化にかかる時間を軽減し、どの要員でも同じ検査項目を消化することができる。尚、単独評価のみでなくシステム全体の観点評価も可能である。   For example, when “I want to determine whether the input check of the target system is valid”, the inspector simply selects the inspection item from the viewpoint necessary for “input check” on the GUI screen, and only the selected inspection item is selected. As a result, the time required for digestion from an unnecessary viewpoint can be reduced, and any personnel can digest the same test item. Note that not only a single evaluation but also a viewpoint evaluation of the entire system is possible.

また、評価処理としては、検査途中および検査完了後のどのタイミングにおいても評価が自動で実施でき、タイムリーな状況把握が実現できる。自動評価については、検査項目消化時のOK、NGの検査結果から、内部でもっている評価ポイントを基に、観点の重み付けポイントとプログラム不良の重要度、および機能別ポイントを加味して、評価を求める。評価においては、どの観点、操作が弱いかを評価ポイントを基に見解テーブルから導き出し、総括として報告書に自動で纏める。尚、見解を表やグラフでも表示させ、一目で強い、弱い箇所がわかるようにしている。   In addition, as the evaluation process, the evaluation can be automatically performed at any timing during the inspection and after the completion of the inspection, and a timely grasp of the situation can be realized. For automatic evaluation, based on the results of OK and NG inspections at the time of digestion of the inspection items, based on the internal evaluation points, the weighting point of the viewpoint, the importance of the program failure, and the function-specific points are taken into consideration. Ask. In the evaluation, which viewpoint and operation are weak are derived from the opinion table based on the evaluation points, and automatically summarized in a report as a summary. The opinion is also displayed in a chart or graph so that the strong and weak points can be seen at a glance.

これにより、本例のプログラムテストシステムでは、評価観点を予め限定しておき、この限定した項目で検査項目を自動作成、自動評価することができる。そのため必要最小限にものに絞り込むこと、また検査項目を作成する必要がなく、評価も自動作成するため、プログラム検査の準備にかかる時間を軽減させることができると共に、テスト検査項目の決定、およびテスト評価を統一的に実施することができ、効率的かつ正確なプログラム検査を実施することが可能であり、その分の効率をあげることができる。さらに、評価内容においても視覚的に見ることができ、残不良も予測できることから、今後の品質向上に大きく貢献できる。   Thereby, in the program test system of this example, the evaluation viewpoint can be limited in advance, and inspection items can be automatically created and automatically evaluated using the limited items. Therefore, it is not necessary to narrow down to the minimum necessary, and it is not necessary to create inspection items, and the evaluation is automatically created, so the time required for preparation for program inspection can be reduced, and test inspection items can be determined and tested. The evaluation can be carried out in a unified manner, and it is possible to carry out an efficient and accurate program inspection, and the efficiency can be increased accordingly. Furthermore, since the evaluation contents can be visually seen and the remaining defects can be predicted, it can greatly contribute to future quality improvement.

尚、本発明は、図1〜図13を用いて説明した例に限定されるものではなく、その要旨を逸脱しない範囲において種々変更可能である。例えば、本例では、本発明に係わる処理プログラムをクライアントコンピュータ100に置き、データをサーバコンピュータ105に置いてネットワークを介して1:1で処理する仕掛けとしているが、複数台のクライアントコンピュータ100を介した情報共有も可能であり、かつ、データと処理プログラムを1台のクライアントコンピュータ100に置いて処理することも可能である。   In addition, this invention is not limited to the example demonstrated using FIGS. 1-13, In the range which does not deviate from the summary, various changes are possible. For example, in this example, the processing program according to the present invention is placed in the client computer 100 and the data is placed in the server computer 105 and processed 1: 1 via the network. It is also possible to share information and process data and processing programs on one client computer 100.

また、本例のコンピュータ構成に関しても、キーボードや光ディスクの駆動装置の無いコンピュータ構成としても良い。また、本例では、光ディスクを記録媒体として用いているが、FD(Flexible Disk)等を記録媒体として用いることでも良い。また、プログラムのインストールに関しても、通信装置を介してネットワーク経由でプログラムをダウンロードしてインストールすることでも良い。   The computer configuration of this example may be a computer configuration without a keyboard or optical disk drive. In this example, an optical disk is used as a recording medium. However, an FD (Flexible Disk) or the like may be used as a recording medium. As for the program installation, the program may be downloaded and installed via a network via a communication device.

本発明に係るプログラムテストシステムの構成例を示すブロック図である。It is a block diagram which shows the structural example of the program test system which concerns on this invention. 図1におけるサーバコンピュータのデータ格納部が管理している観点・項目DBの構成例を示す説明図である。It is explanatory drawing which shows the structural example of viewpoint and item DB which the data storage part of the server computer in FIG. 1 manages. 図1におけるサーバコンピュータのデータ格納部が管理している選択情報DBの構成例を示す説明図である。It is explanatory drawing which shows the structural example of selection information DB which the data storage part of the server computer in FIG. 1 manages. 図1におけるサーバコンピュータのデータ格納部が管理している対象情報DBの構成例を示す説明図である。It is explanatory drawing which shows the structural example of object information DB which the data storage part of the server computer in FIG. 1 manages. 図1におけるサーバコンピュータのデータ格納部が管理している評価ポイントDBの構成例を示す説明図である。It is explanatory drawing which shows the structural example of evaluation point DB which the data storage part of the server computer in FIG. 1 manages. 図1におけるサーバコンピュータのデータ格納部が管理している見解情報DBの構成例を示す説明図である。It is explanatory drawing which shows the structural example of opinion information DB which the data storage part of the server computer in FIG. 1 manages. 図1におけるプログラムテストシステムの本発明に係る処理動作例を示すフローチャートである。It is a flowchart which shows the process operation example which concerns on this invention of the program test system in FIG. 図1におけるプログラムテストシステムによる評価観点の選択動作における帳票出力画面例を示す説明図である。It is explanatory drawing which shows the example of a form output screen in selection operation | movement of the evaluation viewpoint by the program test system in FIG. 図1におけるプログラムテストシステムによる評価観点の選択動作におけるキー取得動作例を示す説明図である。It is explanatory drawing which shows the key acquisition operation example in selection operation | movement of the evaluation viewpoint by the program test system in FIG. 図1におけるプログラムテストシステムによる評価観点の選択動作における観点・項目データベース検索動作例を示す説明図である。It is explanatory drawing which shows the viewpoint and item database search operation example in selection operation | movement of the evaluation viewpoint by the program test system in FIG. 図1におけるプログラムテストシステムによる評価観点の選択動作における選択情報データベース登録動作例を示す説明図である。It is explanatory drawing which shows the selection information database registration operation example in the selection operation of the evaluation viewpoint by the program test system in FIG. 図1におけるプログラムテストシステムによる評価観点の選択動作における選択情報データベースと観点・項目データベースの検索動作例を示す説明図である。It is explanatory drawing which shows the search operation example of the selection information database in the selection operation | movement of an evaluation viewpoint by the program test system in FIG. 1, and a viewpoint and item database. 図1におけるプログラムテストシステムによる評価観点の選択動作で表示出力される帳票出力画面例を示す説明図である。It is explanatory drawing which shows the example of a form output screen displayed and output by the selection operation | movement of the evaluation viewpoint by the program test system in FIG. 図1におけるプログラムテストシステムによる評価処理動作例を示す説明図である。It is explanatory drawing which shows the example of evaluation processing operation | movement by the program test system in FIG. 図9の評価処理動作における検査開始前の重要度ランク設定動作例を示す説明図である。It is explanatory drawing which shows the importance rank setting operation example before the test | inspection start in the evaluation process operation | movement of FIG. 図9の評価処理動作における評価ポイントの設定動作例を示す説明図である。FIG. 10 is an explanatory diagram showing an example of setting an evaluation point in the evaluation processing operation of FIG. 9. 図9の評価処理動作における検査完了後の評価判定動作例を示す説明図である。FIG. 10 is an explanatory diagram illustrating an example of an evaluation determination operation after completion of an inspection in the evaluation processing operation of FIG. 9. 図9の評価処理動作における検査完了後の全体評価判定動作例を示す説明図である。FIG. 10 is an explanatory diagram illustrating an example of an overall evaluation determination operation after completion of an inspection in the evaluation processing operation of FIG. 9. 図10Dの全体評価判定動作における機能別評価と観点別評価および総合的評価の具体的な動作例を示す説明図である。It is explanatory drawing which shows the specific operation example of evaluation according to function in the whole evaluation determination operation | movement of FIG. 10D, evaluation according to viewpoint, and comprehensive evaluation. 図11Aにおける観点別・機能別評価および観点別評価の動作例を示す説明図である。It is explanatory drawing which shows the operation example of evaluation according to viewpoint and function according to FIG. 11A, and evaluation according to viewpoint. 図11Aにおける機能別評価および総合評価の動作例を示す説明図である。It is explanatory drawing which shows the operation example of evaluation according to function in FIG. 11A, and comprehensive evaluation. 図11Aにおける機能別評価と観点別評価および総合的評価の動作結果に基づく個別見解処理動作例を示す説明図である。It is explanatory drawing which shows the example of individual view process operation based on the operation result of evaluation according to function in FIG. 11A, evaluation according to viewpoint, and comprehensive evaluation. 図12Aにおける個別見解処理動作の具体例を示す説明図である。It is explanatory drawing which shows the specific example of the individual opinion process operation | movement in FIG. 12A. 図1におけるプログラムテストシステムによる評価結果の出力処理動作例を示す説明図である。It is explanatory drawing which shows the output processing operation example of the evaluation result by the program test system in FIG.

符号の説明Explanation of symbols

100:クライアントコンピュータ、101:入出力部、102:帳票出力部(「帳票出力」)、103:データ制御部、104:処理部、104a:データ選択振分処理部(「データ選択振分処理」)、104b:評価分析1処理(残推定)部(「評価分析1処理(残推定)」)、104c:報告書編集処理部(「報告書編集処理」)、104d:情報保存処理部(「情報保存処理」)、104e:評価分析2処理(結果評価)部(「評価分析2処理(結果評価)」)、104f:観点項目編集処理部(「観点項目編集処理」)、104g:結果登録処理部(「結果登録処理」)、104h:画面帳票表示処理部(「画面帳票表示処理」)、105:サーバコンピュータ、106:データ制御部、107:データ格納部(「データベース」)、107a:観点・項目DB、107b:選択情報DB、107c:対象情報DB、107d:評価ポイントDB、107e:見解情報DB、300:評価観点選択画面、301〜304:処理手順、305:検査項目、400:情報(残不良予測のための情報)、401:算出手順(二項確率計算)、402:算出手順(実施面積計算)、403:二項確率紙、404:実施面積図、500:重要度ランク情報、501:評価ポイント情報、502:不良割合ポイント情報、503:評価処理手順、601:評価表、602:検査項目、603:検査項目集計表、604:不良件数集計表、605:評価集計表、606:観点別評価集計表、607:観点別集計表、608:母数点算出表、609:評価集計表、610:ランク重み付け条件表、611:ランク重み付け表、612:評価集計表、613:総合評価集計表、620:評価表、621:観点別見解算出処理手順、622:見解情報DB、623:機能別見解算出処理手順、624:総合評価見解算出処理手順、625:見解情報DB、700:報告書フォーマット。   100: client computer 101: input / output unit 102: form output unit (“form output”) 103: data control unit 104: processing unit 104a: data selection distribution processing unit (“data selection distribution processing”) ), 104b: Evaluation analysis 1 processing (remaining estimation) section (“Evaluation analysis 1 processing (remaining estimation)”), 104c: Report editing processing section (“report editing processing”), 104d: Information storage processing section (“ Information storage process "), 104e: evaluation analysis 2 process (result evaluation) section (" evaluation analysis 2 process (result evaluation) "), 104f: viewpoint item edit processing section (" viewpoint item editing process "), 104g: result registration Processing unit ("result registration process"), 104h: screen form display processing unit ("screen form display process"), 105: server computer, 106: data control unit, 107: data storage unit ("database") 107a: viewpoint / item DB, 107b: selection information DB, 107c: target information DB, 107d: evaluation point DB, 107e: opinion information DB, 300: evaluation viewpoint selection screen, 301 to 304: processing procedure, 305: inspection item 400: Information (information for predicting remaining defects) 401: Calculation procedure (binary probability calculation) 402: Calculation procedure (implementation area calculation) 403: Binary probability paper 404: Implementation area diagram 500 Importance rank information, 501: Evaluation point information, 502: Defect ratio point information, 503: Evaluation process procedure, 601: Evaluation table, 602: Inspection item, 603: Inspection item total table, 604: Number of defect total table, 605: Evaluation summary table, 606: Evaluation summary table by viewpoint, 607: Summary table by viewpoint, 608: Parameter point calculation table, 609: Evaluation summary table, 610: Rank weighting Case table, 611: Rank weighting table, 612: Evaluation tabulation table, 613: Comprehensive evaluation tabulation table, 620: Evaluation table, 621: Viewpoint calculation processing procedure by viewpoint, 622: View information DB, 623: View calculation processing procedure by function 624: Comprehensive evaluation opinion calculation processing procedure, 625: opinion information DB, 700: report format.

Claims (9)

プログラムのブラックボックステストでテストする検査の内容を表す検査項目の一覧情報(検査項目一覧情報)をコンピュータ処理により生成するシステムであって、
予め、各検査項目を、検査の目的(観点)別に複数のグループに分けて各グループの目的(観点)の内容を表した項目を上位層として階層化した観点・項目情報を記憶装置に格納する第1の処理手段と、
上記各検査目的(観点)を階層化して選択可能に表示するGUI画面を生成して出力する第2の処理手段と、
上記GUI画面で選択された上記各検査の目的(観点)に対応する各検査項目を、上記観点・項目情報を参照して読み出し、読み出した各検査項目からなる上記検査項目一覧情報を生成する第3の処理手段と
を有することを特徴とするプログラム検査項目生成システム。
A system that generates, by computer processing, list information (inspection item list information) of inspection items representing the contents of the inspection to be tested in the black box test of the program,
Each inspection item is divided into a plurality of groups according to inspection purposes (viewpoints), and the viewpoint / item information in which items representing the contents of each group's purpose (viewpoint) are hierarchized as a higher layer is stored in the storage device. First processing means;
A second processing means for generating and outputting a GUI screen that displays the purpose (viewpoint) of each inspection in a hierarchical manner;
The inspection item corresponding to the purpose (viewpoint) of each inspection selected on the GUI screen is read with reference to the viewpoint / item information, and the inspection item list information including the read inspection items is generated. 3. A program inspection item generation system characterized by comprising:
コンピュータ処理により、プログラムのブラックボックステストを行うシステムであって、
上記コンピュータ処理を実行する手段として、
請求項1に記載のプログラム検査項目生成システムで生成された検査項目一覧情報を入力する第4の処理手段と、
該検査項目一覧情報に含まれる検査項目に基づいて当該プログラムの検査を行う第5の処理手段と、
該第5の処理手段の検査結果を分析して当該プログラムの品質評価を行う第6の処理手段と
を有することを特徴とするプログラムテストシステム。
A system for performing a black box test of a program by computer processing,
As means for executing the computer processing,
Fourth processing means for inputting inspection item list information generated by the program inspection item generation system according to claim 1;
Fifth processing means for inspecting the program based on the inspection items included in the inspection item list information;
A program test system comprising: sixth processing means for analyzing a test result of the fifth processing means and performing quality evaluation of the program.
請求項2に記載のプログラムテストシステムであって、
上記第6の処理手段は、
予め記憶装置に格納された検査目的別および検査項目別の重み付け情報を読み出し参照して、各検査項目の検査結果に対して当該重み付けを付加して当該プログラムの品質評価を行うことを特徴とするプログラムテストシステム。
The program test system according to claim 2,
The sixth processing means includes
It is characterized in that weighting information for each inspection purpose and each inspection item stored in advance in a storage device is read out and referred to, and the weight is added to the inspection result of each inspection item to evaluate the quality of the program. Program test system.
請求項2もしくは請求項3のいずれかに記載のプログラムテストシステムであって、
上記コンピュータ処理を実行する手段として、
上記第5の処理手段によるプログラムの検査の途中検査結果情報を用いた統計的手法により当該プログラムに残存する不良数の予測値を算出する第7の処理手段
を有することを特徴とするプログラムテストシステム。
A program test system according to claim 2 or claim 3, wherein
As means for executing the computer processing,
A program test system comprising: seventh processing means for calculating a predicted value of the number of defects remaining in the program by a statistical method using inspection result information during the program inspection by the fifth processing means. .
請求項4に記載のプログラムテストシステムであって、
上記第5の処理手段の途中検査結果情報は、検査消化数と不良摘出数および危険率を含み、
上記第7の処理手段は、検査消化数と不良摘出数および危険率を用いた二項確率により上記プログラムに残存する不良数の予測値を算出することを特徴とするプログラムテストシステム。
The program test system according to claim 4,
The intermediate test result information of the fifth processing means includes the test digestion number, the number of defective extractions, and the risk rate,
The seventh processing means calculates a predicted value of the number of defects remaining in the program based on a binomial probability using the number of inspection digests, the number of defective extractions, and the risk rate.
コンピュータを、請求項1に記載のプログラム検査項目生成システムにおける各処理手段として機能させるためのプログラム。   A program for causing a computer to function as each processing means in the program inspection item generation system according to claim 1. コンピュータを、請求項2から請求項5のいずれかに記載のプログラムテストシステムにおける各処理手段として機能させるためのプログラム。   The program for functioning a computer as each process means in the program test system in any one of Claims 2-5. プログラムのブラックボックステストでテストする検査の内容を表す検査項目の一覧情報(検査項目一覧情報)をコンピュータの処理により生成する方法であって、
上記コンピュータの処理手順として、
予め、各検査項目を、検査の目的(観点)別に複数のグループに分けて各グループの目的(観点)の内容を表した項目を上位層として階層化した観点・項目情報を記憶装置に格納する第1の手順と、
上記各検査目的(観点)を階層化して選択可能に表示するGUI画面を生成して出力する第2の手順と、
上記GUI画面で選択された上記各検査の目的(観点)に対応する各検査項目を、上記観点・項目情報を参照して読み出し、読み出した各検査項目からなる上記検査項目一覧情報を生成する第3の手順と
を含むことを特徴とするプログラム検査項目生成方法。
A method for generating inspection item list information (inspection item list information) representing the content of an inspection to be tested in a black box test of a program by computer processing,
As a processing procedure of the above computer,
Each inspection item is divided into a plurality of groups according to the inspection purpose (viewpoint), and the viewpoint / item information is stored in the storage device in which the items representing the purpose (viewpoint) contents of each group are hierarchized as upper layers. The first procedure;
A second procedure for generating and outputting a GUI screen that displays the purpose (viewpoint) of each of the above inspections in a hierarchical manner;
Each inspection item corresponding to the purpose (viewpoint) of each inspection selected on the GUI screen is read with reference to the viewpoint / item information, and the inspection item list information including the read inspection items is generated. 3. A program inspection item generation method comprising the steps of:
プログラムのブラックボックステストをコンピュータの処理により行う方法であって、
上記コンピュータの処理手順として、
請求項1に記載のプログラム検査項目生成システムにおける各処理手段による処理手順と、
請求項2から請求項5のいずれかに記載のプログラムテストシステムにおける各処理手段による処理手順と
を含むことを特徴とするプログラムテスト方法。
A method of performing a black box test of a program by computer processing,
As a processing procedure of the above computer,
A processing procedure by each processing means in the program inspection item generation system according to claim 1,
6. A program test method comprising: a processing procedure by each processing means in the program test system according to claim 2.
JP2007079182A 2007-03-26 2007-03-26 Program inspection item generation system and method, program test system and method, and program Expired - Fee Related JP4646248B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007079182A JP4646248B2 (en) 2007-03-26 2007-03-26 Program inspection item generation system and method, program test system and method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007079182A JP4646248B2 (en) 2007-03-26 2007-03-26 Program inspection item generation system and method, program test system and method, and program

Publications (2)

Publication Number Publication Date
JP2008242595A JP2008242595A (en) 2008-10-09
JP4646248B2 true JP4646248B2 (en) 2011-03-09

Family

ID=39913904

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007079182A Expired - Fee Related JP4646248B2 (en) 2007-03-26 2007-03-26 Program inspection item generation system and method, program test system and method, and program

Country Status (1)

Country Link
JP (1) JP4646248B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10783067B2 (en) 2017-11-29 2020-09-22 Toyota Jidosha Kabushiki Kaisha Software quality determination apparatus, software quality determination method, and software quality determination program
US11068379B2 (en) 2017-11-29 2021-07-20 Toyota Jidosha Kabushiki Kaisha Software quality determination apparatus, software quality determination method, and software quality determination program

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2055484B1 (en) 2007-10-30 2018-08-29 Brother Kogyo Kabushiki Kaisha Driving force transmission device and image recording apparatus having the same
JP5651450B2 (en) * 2010-12-03 2015-01-14 株式会社エヌ・ティ・ティ・データ Screen design evaluation apparatus, screen design evaluation method and program
KR101700413B1 (en) * 2015-09-24 2017-02-13 주식회사 오앤파트너스 Method and system for integrity check of integrit of program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04237371A (en) * 1991-01-21 1992-08-25 Oki Electric Ind Co Ltd Check item data base retrieving system
JPH1078890A (en) * 1996-09-02 1998-03-24 Toshiba Corp Device and method for review check item management
JP2001256077A (en) * 2000-03-09 2001-09-21 Hitachi Ltd Method for sorting program test using test scenario management system
JP2003058372A (en) * 2001-08-20 2003-02-28 Hitachi Software Eng Co Ltd Method for evaluating quality of system
JP2005332098A (en) * 2004-05-19 2005-12-02 Nec Corp Testing item extraction system, testing item extraction device, testing item extraction method used for the device, and program therefor

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04237371A (en) * 1991-01-21 1992-08-25 Oki Electric Ind Co Ltd Check item data base retrieving system
JPH1078890A (en) * 1996-09-02 1998-03-24 Toshiba Corp Device and method for review check item management
JP2001256077A (en) * 2000-03-09 2001-09-21 Hitachi Ltd Method for sorting program test using test scenario management system
JP2003058372A (en) * 2001-08-20 2003-02-28 Hitachi Software Eng Co Ltd Method for evaluating quality of system
JP2005332098A (en) * 2004-05-19 2005-12-02 Nec Corp Testing item extraction system, testing item extraction device, testing item extraction method used for the device, and program therefor

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10783067B2 (en) 2017-11-29 2020-09-22 Toyota Jidosha Kabushiki Kaisha Software quality determination apparatus, software quality determination method, and software quality determination program
US11068379B2 (en) 2017-11-29 2021-07-20 Toyota Jidosha Kabushiki Kaisha Software quality determination apparatus, software quality determination method, and software quality determination program

Also Published As

Publication number Publication date
JP2008242595A (en) 2008-10-09

Similar Documents

Publication Publication Date Title
JP4646248B2 (en) Program inspection item generation system and method, program test system and method, and program
CN113010413A (en) Automatic interface testing method and device
Shah et al. An overview of software defect density: A scoping study
CN112153378A (en) Method and system for testing video auditing capability
Lee et al. Designing acceptance sampling plans based on the lifetime performance index under gamma distribution
CN113742227B (en) Control method, device, equipment and medium for software testing process
Herraiz et al. Impact of installation counts on perceived quality: A case study on debian
JP6975086B2 (en) Quality evaluation method and quality evaluation equipment
JP4502535B2 (en) Software quality inspection support system and method
Tarhan et al. Investigating the effect of variations in the test development process: a case from a safety-critical system
Shepperd et al. Metrics, outlier analysis and the software design process
Lübke et al. Effectiveness of combinatorial test design with executable business processes
JP7281708B2 (en) Manufacturing condition calculation device, manufacturing condition calculation method, and manufacturing condition calculation program for identifying equipment that contributes to the generation of defective products
CN113986970A (en) Method for detecting measurement fee calculation result based on baseline database data
CN113609698A (en) Process reliability analysis method and system based on process fault database
Ai et al. What ruined your cake: impacts of code modifications on bug distribution
Tam et al. Using Gaussian and hyperbolic distributions for quality improvement in construction: Case study approach
CN116991149B (en) Method and device for checking fee-controlled product, electronic equipment and storage medium
Selvaraj et al. Skip-lot sampling plan of type SkSP-T for life testes based on percentiles of exponentiated Rayleigh distribution
IBRAHIM et al. A Study on Extension of Double Acceptance Sampling Plans Based on Truncated Life Tests on The Inverse Rayleigh Distribution
CN107632931B (en) Software defect description standardization system and method
Jeong et al. Identifying Quality Factors for Surface Defects on Small Steel Bars Using a Two-step Method of Statistical Difference Testing and k-means Clustering
JP3706935B2 (en) Statistical solution work management system for quality problems and work management method using it
CN118069517A (en) Service testing method and device
Gan Software performance testing

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090918

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091006

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100423

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100621

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101203

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101203

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131217

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4646248

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131217

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131217

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees