JP2004326237A - Test case creation device, test case creation method, test case, and test method - Google Patents

Test case creation device, test case creation method, test case, and test method Download PDF

Info

Publication number
JP2004326237A
JP2004326237A JP2003117070A JP2003117070A JP2004326237A JP 2004326237 A JP2004326237 A JP 2004326237A JP 2003117070 A JP2003117070 A JP 2003117070A JP 2003117070 A JP2003117070 A JP 2003117070A JP 2004326237 A JP2004326237 A JP 2004326237A
Authority
JP
Japan
Prior art keywords
test
error
test procedure
resource
generation unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003117070A
Other languages
Japanese (ja)
Other versions
JP3833626B2 (en
Inventor
Sachiko Wada
祥子 和田
Satoru Nakano
哲 中野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2003117070A priority Critical patent/JP3833626B2/en
Publication of JP2004326237A publication Critical patent/JP2004326237A/en
Application granted granted Critical
Publication of JP3833626B2 publication Critical patent/JP3833626B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a test case creation device capable of preventing a rerun of a test and greatly reducing an analysis time. <P>SOLUTION: In a system LSI function verification method outputting analysis support information, this test case creation device is provided with a test case creation part 105 creating and storing a test case 106, which is provided with a test procedure for testing operation of a function model modeling a circuit having a plurality of H/W resources such as a program counter, a versatile register, a memory, and a register controlling input/output (I/O), and a cause analysis information creation part 156 creating error cause analysis information for analyzing an error cause and storing the error cause analysis information in the test case 106 when the test procedure created by the test case creation part 105 is executed by a simulator 108 and the operation test of the function model results in an error. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、機能試験を行う場合に、検証対象の製品が有する資源を、試験として活性化させた後、資源に対する期待値と実効値(活性化後の資源の値)との比較の結果エラーが発生した場合や、資源の変化するタイミングが期待値と異なる結果エラーが発生した場合に、エラーの原因を解析する際の作業負荷を軽減する機能検証システムに関するものである。
【0002】
【従来の技術】
機能試験を行う場合に、試験プログラムをシミュレータ上で実行した結果、エラーとなったテストケースを抽出後、エラーの原因を解析する為に、製品を構成する資源に対する試験プログラムを逐次シミュレータ上で実行する際に変化する推移情報を記録する為の市販のツールなどを利用しながら、エラーを再現する為に先程のテストケースを再度論理シミュレータ上で再実行する。また、再現した後、全ての資源に対する推移情報と、試験プログラムの実行順などを意識しながら、エラーが発生した試験プログラムの箇所と関与する資源及び時間を段階的に特定することで、エラーの原因を解明していた。
【0003】
【特許文献1】
特開2000−2753号公報
【特許文献2】
特開2001−5841号公報
【0004】
【発明が解決しようとする課題】
エラーとなったテストケースを抽出後再実行し、市販のツールなどを用いテストケースの実行途中の製品が保有する全ての資源の推移情報を記録するので、エラーを再現する際のテストケースのシミュレータ上での実行時間は、記録しない通常の実行時間よりも数倍の時間を要する。また、エラー解析作業においては、製品の高機能化が進むのにつれて、製品を構成する資源の数が増大し、製品の機能が複雑化するため、これを試験する為のテストケースもまた複雑化する。このため、試験の実行結果がエラーとなった際の、エラー解析作業において、プログラムの実行順を把握しながら、エラーが発生する箇所と関与する資源を抽出して、人手で解析するには、多大な時間と労力を要していた。
本発明は、システムLSI(大規模集積回路)等の機能検証方式、方法において、試験の再実行の抑止や、解析時間の大幅な短縮を実現することができるようにすることを目的とする。
【0005】
【課題を解決するための手段】
この発明のテストケース生成装置は、複数の資源を有する回路をモデル化した機能モデルの動作を試験する試験手続きを生成しテストケースとして記憶するテストケース生成部と、
テストケース生成部が生成した試験手続きによる機能モデルの動作の試験の結果がエラーになる場合、このエラー原因を解析するためのエラー原因解析情報を生成して記憶する原因解析情報生成部と
を備えたことを特徴とする。
【0006】
【発明の実施の形態】
以下に述べる実施の形態のシステムLSI(大規模集積回路)機能検証方式では、テストケースを生成する際に、各ステップで使用する製品の資源と、ステップの実行順と、資源の継承関係などをエラー原因解析情報として生成しメモリに記録する手段と、これらのエラー原因解析情報をテストケースに追加して記録する手段を有する事で、試験の再実行の抑止や、解析時間の大幅な短縮を実現する。
【0007】
本システムLSI機能検証方式によって、従来の方法において発生していた、エラーを再現させる為のテストケースを再実行する作業や、エラーの原因を解析する作業における多大な解析における労力と時間を軽減できる。
【0008】
実施の形態1.
以下、本発明の実施の形態を図面を用いて説明する。
図1は、本エラー解析支援付きシステムLSI検証方式の全体構成図である。
システムLSIの機能検証作業は、検証対象であるシステムLSIが機能的に正しく動作する事を確認する作業である。よって、システムLSIに関する機能説明が記載されている製品仕様書101から、システムLSIの機能を果たす為に保有しているH/W(ハードウェア)資源(以下、単に資源ともいう)を抽出した資源構成情報103と、システムLSIの各機能に関する試験を実施するためのテストシナリオ102を作成する。また、システムLSIに関する機能説明が記載されている製品仕様書101から、システムLSIの回路をモデル化した機能モデル104を作成する。機能モデル104は、検証対象であるシステムLSIの機能記述を記したものである。また、システムLSIに関する機能説明が記載されている製品仕様書101から、機能モデル104を試験するためのテストベンチ107を作成する。テストベンチ107は、機能モデル104と接続して機能モデルへの入出力を制御するものである。
【0009】
ここで、H/W資源とは、例えば、プログラムカウンタ、汎用レジスタ、メモリ、入出力(I/O)を制御するレジスタなどをいう。また、H/W資源の特定とは、プログラムカウンタのID、汎用レジスタの番号、メモリのアドレス、入出力(I/O)を制御するレジスタの番号などの識別子により複数のH/W資源の中から1種かつ1つのH/W資源を一意に定めるこという。また、H/W資源の実効値とは、H/W資源に設定される情報やデータや値をいい、例えばプログラムカウンタに設定される値、汎用レジスタに設定される値、メモリに設定される値、入出力(I/O)を制御するレジスタに設定される値などをいう。H/W資源の実効値は、H/W資源を識別子により識別して設定コマンドや書き込みコマンドを用いることによりH/W資源に保持される。また、読み込みコマンドによりH/W資源から読み込まれる。
【0010】
次に、テストケース生成部105は、資源構成情報103とテストシナリオ102から、検証対象であるシステムLSIの機能記述を記した機能モデル104及び、機能モデル104と接続して機能モデルへの入出力を制御するテストベンチ107を制御する為の試験プログラムであるテストケース106を生成する。テストケース106とは、試験プログラムのことであり、試験データを含んでもよいし含まなくてもよい。また、この実施の形態のテストケース106は後述するエラー解析を支援する各種の情報(エラー原因解析情報)を保持し、各種の情報に基づいてエラー結果を解析するメッセージを出力する。テストケース106はプログラムファイルとして磁気ディスク等の記録媒体に記録されている。
【0011】
このテストケース106と、機能モデル104と、テストベンチ107とをシミュレータ108で実行し、正常終了またはエラー終了を示すシミュレーション実行結果としてのテストケース実行結果109を得る。
【0012】
エラー解析部110は、例えば、テストケース106内に試験手続の一部として含まれており、テストケース106の実行後に動作するプログラムルーチンである。エラー解析部110は、独立したプログラムでもかまわない。
エラー解析部110は、このシミュレーション実行結果のうち、エラー終了したテストケース実行結果109に対し、エラーの発生した原因を解析する。この際に、従来は、人間が、製品仕様書101に書かれている機能説明と、機能モデル104が保有している各H/W資源の実効値と、試験の手続き内容を表すテストケース106とを総合的に参照することでエラー解析していたが、本システムLSI検証方式では、エラー解析を支援する情報(エラー原因解析情報)が含まれているテストケース106を出力することで、製品仕様書101や機能モデル104を特に調査しなくても、エラー解析部110が、エラーの原因を解明できる。エラー解析部110はテストケース106に含まれているエラー解析を支援する情報(エラー原因解析情報)を参照することにより、自動で或いは半自動でエラー解析をする。或いは、エラー解析部110は、テストケース106に含まれているエラー解析を支援する情報(エラー原因解析情報)を検索してエラーの原因を推定或いは判定しその推定判定結果をテストケースに表示し人間のエラー解析作業を支援する。
【0013】
このエラー解析を支援する情報(エラー原因解析情報)を出力する為に、本システムLSI検証方式では、図1に示す原因解析情報生成部156を有している。原因解析情報生成部156は、図1のように独立して存在していてもよいし、テストケース生成部105の内部にあってもよい。また、原因解析情報生成部156は、テストケース106の内部にあってもよい。原因解析情報生成部156は、テストケース106を生成する際に、試験手続き毎に使用するH/W資源との関係を記録する試験手続き別資源記録部105aと、各試験手続きの実行後に格納されるべき期待値をH/W資源別に生成する資源別期待値生成部の一例としての資源別アクセス順序・期待値生成部105bと、試験手続きの実行順序の期待値を生成する試験手続き実行順序期待値生成部105cと、テストケース実行結果でエラーと判定された場合に備え、エラーの原因を解析する作業を支援する為のメッセージを出力するエラー解析用メッセージ生成部105dと、エラーを予測して使用するH/W資源の近傍にデータを配置するための擬似データ生成部105eと、各試験手続きの継承関係を生成する試験手続き間継承関係生成部105fを備えている。
【0014】
上記擬似データ生成部105eは、エラー原因解析情報として、複数の資源それぞれに設定され、いずれの資源であるかを特定可能な擬似データを生成する。上記テストケース生成部105は、上記試験手続きの実行前に擬似データ生成部105eが生成した擬似データ値を各資源に設定した後に、機能モデルの動作を試験する試験手続きを生成する。こうして、上記テストケースの試験手続きが実行された結果、資源から得られる結果値からその結果値を提供した資源がいずれの資源であるかを特定可能にする。
【0015】
また、上記エラー解析用メッセージ生成部105dは、エラー原因解析情報として、想定されるエラー結果とそのエラー要因とを対応させたエラー解析用メッセージを生成する。
テストケース生成部105は、回路機能を構成する複数の資源の少なくとも1つの資源に対して試験が実行される場合その資源から得られるはずの期待値が既知の試験を実行し、その試験の実行の結果、その資源から得られる結果値と資源別アクセス順序・期待値生成部105bが生成した期待値とを比較することにより試験結果がエラーか否かを判定するとともに、試験結果がエラーであると判定される場合にエラー解析用メッセージを出力する試験手続きを生成する。
【0016】
図2は、試験手続き別資源記録部105aがメモリに生成しテストケース106に記録する試験手続き構成情報106aの説明図である。
テストケース106は、複数の試験手続き(以下、試験アクセスともいう)から構成されている。この試験手続きを生成する際に、試験手続きの内容を、システムLSIが保有する動作手段の概要やテストベンチが保有する動作手段の概要を記した「試験アクセス種類」と、これらを番号付けした「試験アクセスID」と、アドレスを格納する為に使用する「アドレス格納資源」と、データを格納する為に使用する「データ格納資源」と、アドレス格納資源を通してアクセスする「メモリアクセス資源」と、「データ格納資源」に値をセットする際の「即値」とに分類して記録する。「アドレス格納資源」と、「データ格納資源」と、「メモリアクセス資源」は、試験としてアクセスした際に使用するH/W資源である。
このように、テストケース生成部105は、所定の順序で実行される複数の試験手続きからなる試験手続きを生成するとともに、試験手続き別資源記録部105aは、エラー原因解析情報として試験手続き(試験アクセス)別に試験手続きの内容と試験手続きが使用するH/W資源の情報を生成し、試験手続き構成情報106bとしてメモリに記録する。
エラー解析用メッセージ生成部105dは、試験手続き別資源記録部105aがメモリに記録した試験手続き構成情報106aを用いてエラー解析用メッセージ情報106dを生成する。
試験手続き構成情報106bとエラー解析用メッセージ情報106dとは、テストケース106に出力され、記録される。
【0017】
図3は、資源別アクセス順序・期待値生成部105bがメモリに生成しテストケース106に記録する資源別アクセス順序・期待値情報106bの説明図である。
資源別アクセス順序・期待値生成部105bは、H/W資源別にそのH/W資源をアクセスする試験手続きのリストを生成する。
例えば、図3では、レジスタ3は、
試験アクセスID−0002
試験アクセスID−0005
試験アクセスID−0007
の順にアクセスされることを示している。
【0018】
また、資源別アクセス順序・期待値生成部105bは、試験手続き別資源記録部105aが生成した試験手続き構成情報106aの「試験アクセス種類」に従って、試験アクセスが使用するH/W資源に対する、試験アクセス実行後の値(変化後の値)または変化しない場合は試験アクセス実行直前に保持している値を、試験アクセス実行直後の「期待値」としてH/W資源別に保持しておく。ここで、「期待値」とは、機能モデルが正常に動作する場合に試験アクセス実行後にH/W資源から得ることができるはずの値である。
例えば、図3では、レジスタ3に保持される値は、
試験アクセスID−0002の実行後、値0になり、
試験アクセスID−0005の実行後、値3000になり、
試験アクセスID−0007の実行後、値3300になる
ことを示している。
【0019】
上記資源別アクセス順序・期待値生成部105bは、H/W資源別にそのH/W資源をアクセスする試験手続きのリストを生成し、試験手続きが実行され資源が試験されることにより資源に保持されることが期待される期待値を生成してメモリに記憶するとともに、テストケース106に記憶する。上記テストケース生成部105は、資源が試験された結果、その資源から得られる結果値と資源別アクセス順序・期待値生成部105bが生成した期待値とを比較することにより試験結果がエラーか否かを判定し、試験結果がエラーであると判定される場合に期待値を含むエラー解析用メッセージを出力する試験手続きを、例えば、エラー解析部110の一部として生成する。
【0020】
図4は、擬似データ生成部105eがメモリに生成しテストケース106に記録する資源別擬似データ情報106eの説明図である。
試験アクセスで、検証対象であるシステムLSIが誤って動作した際にその誤り方を特定するために、試験アクセスとしては全く使用しないが、誤った箇所を特定するために、使用するH/W資源の近傍に、擬似的なデータを予め設定しておく事を表す。ここで、擬似データとは、本来アクセスすべきH/W資源が特定できる値であり、擬似データの解析により、本来アクセスすべきメモリやレジスタなどのH/W資源を検出できる。
【0021】
例えば、機能モデルが32ビット単位の計算が可能な演算器を有しており、メモリを4バイト(4番地)単位でアクセスするものと仮定する。試験アクセスID−0005で、レジスタを経由してアクセスするメモリのアドレス2000番地(「RAM−2000」)に対し、擬似データを例えば、以下のように生成する。
アドレス1FF8番地(「RAM−1FF8」)に対し、擬似データを、「F88F1FF1」とする。
アドレス1FFC番地(「RAM−1FFC」)に対し、擬似データを、「FCCF1FF1」とする。
アドレス2004番地(「RAM−2004」)に対し、擬似データを、「04400220」とする。
アドレス2008番地(「RAM−2008」)に対し、擬似データを、「08802002」とする。
上記擬似データは、誤ってアクセスされるメモリのアドレスを所定のアルゴリズムで加工した値である。
【0022】
図2に示すように試験アクセスID−0005では、レジスタ2(REG2)に格納された値(アドレス2000番地)に対応する「RAM−2000」から、「RAM−2000」に格納されているデータ「3000」をレジスタ3(REG3)に格納する「CPU READ」というシステムLSI機能に対する試験アクセスを実行する。この試験アクセスID−0005において、システムLSIが誤って、隣の「RAM−2004」からデータを読み出してしまった場合には、REG3には期待値「3000」ではなく、擬似データである誤ったデータ「04400220」が格納されており、このデータが検索されることによって、データ「04400220」からアドレス2004番地が計算され、「本来アクセスすべきアドレス2000番地のメモリから4加算したアドレス2004番地へ誤ってアクセスした」事を検出できる。
【0023】
或いは、擬似データとして、以下のように、誤ってアクセスされるメモリのアドレスそのものを用いてもよい。
アドレス1FF8番地(「RAM−1FF8」)に対し、擬似データを、「00001FF8」とする。
アドレス1FFC番地(「RAM−1FFC」)に対し、擬似データを、「00001FFC」とする。
アドレス2004番地(「RAM−2004」)に対し、擬似データを、「00002004」とする。
アドレス2008番地(「RAM−2008」)に対し、擬似データを、「00002008」とする。
【0024】
或いは、擬似データとして、以下のように、本来アクセスすべきメモリのアドレスと誤ってアクセスされたメモリのアドレスとの差分値を用いてもよい。
アドレス1FF8番地(「RAM−1FF8」)に対し、擬似データを、「−8(10進数)」とする。
アドレス1FFC番地(「RAM−1FFC」)に対し、擬似データを、「−4(10進数)」とする。
アドレス2004番地(「RAM−2004」)に対し、擬似データを、「+4(10進数)」とする。
アドレス2008番地(「RAM−2008」)に対し、擬似データを、「+8(10進数)」とする。
【0025】
以上のように、上記擬似データ生成部105eは、エラー原因解析情報として、複数の資源(複数のアドレスのメモリ)それぞれに設定され、いずれの資源(いずれのアドレスのメモリ)であるかを特定可能な擬似データ値を生成する。
テストケース生成部105は、上記試験手続きの実行前に擬似データ生成部105eが生成した資源別擬似データ情報106eを各資源に設定した後に、機能モデルの動作を試験する試験手続きを生成する。エラー解析用メッセージ生成部105dは、擬似データ生成部105eが生成した資源別擬似データ情報106eを含むエラー解析用メッセージを生成する。こうして、上記テストケース106の試験手続きが実行された結果、資源から得られる結果値(資源別擬似データ情報106e)からその結果値を提供した資源がいずれの資源であるかが特定可能になる。
【0026】
図5は、試験手続き実行順序期待値生成部105cがメモリに生成しテストケース106に記録する試験手続き実行順序情報106cの説明図である。
試験手続き実行順序期待値生成部105cは、テストシナリオ102に従って、試験アクセスが逐次生成される際に、その実行順序の期待値を保有しておく。図5に示すように、試験アクセスの実行順序は、試験アクセスIDの小さい順とは限らない。
【0027】
このように、テストケース生成部105は、所定の順序で実行される複数の試験手続きからなる試験手続き(試験アクセス)を生成する。試験手続き実行順序期待値生成部105cは、エラー原因解析情報として複数の試験手続きの実行順序を生成し、試験手続き実行順序情報106cとして記録する。
エラー解析用メッセージ生成部105dは、実行順序期待値生成部105cが生成した試験手続き実行順序情報106cを用いて試験手続きの実行の順序に従ってエラー解析用メッセージを出力する試験手続きを、例えば、エラー解析部110の一部として生成する。
【0028】
図6は、試験手続き間継承関係生成部105fがメモリ生成しテストケース106に記録する試験アクセス間継承情報106fの説明図である。
テストケース生成部105は、テストシナリオ102を実現する為の複数の試験手続きを生成する。この試験手続きを実現する試験アクセスで使用するH/W資源をテストケース生成部105が決定する時に、これまでに生成した試験アクセスで使用したH/W資源の情報(図2に記した試験手続き別資源記録情報105a)と、試験アクセスの実行順序の期待値(図5に記した試験手続き実行順序情報106c)とを参照する。テストケース生成部105が今回生成すべき試験アクセスで使用するH/W資源を決定する際に、試験手続き間継承関係生成部105fは既にこのH/W資源を使用した試験アクセスIDを抽出する。
例えば、試験手続き間継承関係生成部105fは、試験アクセスID−0005では、REG2とREG3を使用するが、図5に記した試験手続き実行順序情報106cの実行順序の期待値に従うと、試験アクセスID−0005より以前に実行する試験アクセスIDの中で、REG2を使用した試験アクセスID−0001と、REG3を使用した試験アクセスID−0002を抽出し、試験アクセスID−0005にとって関連のある試験アクセスIDとして、実行順序と逆順序、すなわち、試験アクセスID−0002、試験アクセスID−0001の順に、継承関係を生成し試験手続き間継承情報106fとしてメモリに保持する。
【0029】
図7は、エラー解析用メッセージ生成部105eがメモリに生成しテストケース106に記録するエラー解析用メッセージ情報106eの説明図である。
エラー解析用メッセージ生成部105dは、試験手続き構成情報106a(図2)と、資源別アクセス順序・期待値情報106b(図3)と、資源別擬似データ情報106e(図4)と、試験手続き実行順序情報106c(図5)と、試験手続き間継承情報106f(図6)から、複数の試験アクセスのうち、資源の値を期待値と比較する試験アクセスを起点に、エラー解析用メッセージ情報106dをメモリに生成して、テストケース106内に出力する。
【0030】
例えば、図7に示す用に、試験アクセスID−0008は、REG3に関して期待値「3300」と、本試験アクセスを実行した段階でREG3に格納されている実行値とを比較する「試験アクセス種類」であるが、もしテストケース106をシミュレータ108で実行した結果、本試験アクセスID−0008の所でエラーを検出し、停止した場合に備え、試験アクセスIDで比較対象としている資源REG3に関して、期待値となる値であるエラー予測値を、そのエラー原因付きで表示する。すなわち、資源から得た結果値とエラー予測値(期待値)と予測される1つ以上のエラー原因を表示する。エラー原因が確定していれば、そのエラー原因のみを表示する。
【0031】
すなわち、試験手続き実行順序情報106c(図5)を参照し、試験アクセスID−0008より前に実行した試験アクセスIDの中から、資源REG3をアクセスした最も近い(直前の)試験アクセスIDを探索した結果、試験アクセスID−0007を抽出する。同様に、試験アクセスID−0007に対し、最も直前に資源REG3をアクセスした試験アクセスID−0005を抽出する。このとき、試験アクセスID−0005を実行した結果、REG3には期待値「3000」が格納されるべきであるため、本試験アクセスID−0008のエラー予測値の一つとして「3000」を採択して、メッセージとして「試験アクセス−0005までは正常、試験アクセス−0007が失敗」を表示する。同様に、幾つかのエラー予測値を提示する事によって、テストケース実行時に試験アクセスID−0008でエラー停止した段階のREG3の値が、これらエラー予測値の中のいずれかと一致した場合には、そのメッセージを読む事でエラー要因を迅速に指摘する事が出来る。
【0032】
図7では、資源の値を期待値と比較する試験アクセス(試験アクセスID−0008)を起点にする場合を示したが、比較する試験アクセスを起点にする場合に限らず、他の試験アクセスに対してエラー結果とエラー要因とを生成して出力するようにしてもよい。例えば、図7の試験アクセスID−0005において、図4に示す擬似データが設定されることを前提として以下のようなエラー結果とエラー要因を生成しておいて記憶していてもよい。
1.試験アクセスID−0005の第1のエラー結果とエラー要因
期待値比較エラー REG3:DATA−F88F1FF1。
試験アクセスID−0005が失敗、アドレス1FF8番地のデータ「F88F1FF1」を誤って受け取っている。
2.試験アクセスID−0005の第2のエラー結果とエラー要因
期待値比較エラー REG3:DATA−FCCF1FF1。
試験アクセスID−0005が失敗、アドレス1FFC番地のデータ「FCCF1FF1」を誤って受け取っている。
3.試験アクセスID−0005の第3のエラー結果とエラー要因
期待値比較エラー REG3:DATA−04400220。
試験アクセスID−0005が失敗、アドレス2004番地のデータ「04400220」を誤って受け取っている。
4.試験アクセスID−0005の第4のエラー結果とエラー要因
期待値比較エラー REG3:DATA−08802002。
試験アクセスID−0005が失敗、アドレス2008番地のデータ「08802002」を誤って受け取っている。
【0033】
以上のように、テストケース生成部105は、所定の順序で実行される複数の試験手続きからなる試験手続きを生成する。
原因解析情報生成部156は、エラー原因解析情報として試験手続き別に試験手続きの内容と試験手続きが使用する資源の情報を生成し、試験手続き構成情報106aとして記録する試験手続き別資源記録部105aと、
エラー原因解析情報として複数の試験手続きの実行順序を生成し、試験手続き実行順序期待値として試験手続き実行順序情報106cを記録する試験手続き実行順序期待値生成部105cと、
試験手続き別資源記録部105aが生成した試験手続き構成情報106aと試験手続き実行順序期待値生成部105cが生成した試験手続き実行順序情報106cとを用いて、試験手続きが実行された場合にエラー結果を引き起こす試験手続きを試験手続き間継承情報106fとして生成する試験手続き間継承関係生成部105fとを備えている。
そして、エラー解析用メッセージ生成部105dは、試験手続き間継承関係生成部105fが生成した試験手続き間継承情報106fを用いてエラー結果を引き起こす試験手続きをエラー要因としたエラー解析用メッセージ情報106dをメモリに記憶するとともにテストケース106に記録する。
【0034】
前述したエラー原因解析情報は、図2〜図7によるデータや情報でもよいが、これらの情報を利用して解析支援情報やエラー解析用メッセージを出力するプログラムやルーチンを含んでいてもよい。これらプログラムやルーチンは、エラー解析部110を構成する。
【0035】
以上のように、この実施の形態のシステムLSI機能検証方式は、エラー原因解析情報や解析支援情報やエラー解析用メッセージを出力することに特徴がある。すなわち、この実施の形態のシステムLSI機能検証方式は、あるシステムLSIを機能的な側面から検証する為に作成する、製品仕様書に基いた試験項目を具現化した、試験の手続き(ステップ)を表したプログラム(テストケース106)を作成する際に、テストケース106をシミュレータ108で実行しその結果がエラーと判定される場合に備え、エラーの発生した手続きと、エラーと判定対象とされたシステムLSIを構成する資源の値(実効値)との組み合わせ別に、エラーの原因を推定しておき、テストケース106に出力する手段を有することを特徴とする。
【0036】
また、この実施の形態のシステムLSI機能検証方式は、各試験手続きの情報を記録することに特徴がある。すなわち、この実施の形態のシステムLSI機能検証方式は、テストケース106の実行結果がエラーとなった場合に備え、テストケース106を構成する試験の手続き毎に、各手続きが使用するシステムLSIの資源に関する情報と手続きの内容をテストケース106に出力する手段を有することを特徴とする。
【0037】
また、この実施の形態のシステムLSI機能検証方式は、H/W資源のアクセス順序履歴を記録することに特徴がある。すなわち、この実施の形態のシステムLSI機能検証方式は、テストケース106の実行結果がエラーとなった場合に備え、システムLSIを構成する資源毎に、資源を使用した手続きを出力する手段を有することを特徴とする。
【0038】
また、この実施の形態のシステムLSI機能検証方式は、試験手続き間の継承を記録することに特徴がある。すなわち、この実施の形態のシステムLSI機能検証方式は、テストケース106の実行結果がエラーとなった場合に備え、システムLSIの資源に格納された値(実効値)を期待値と比較する手続きを起点とし、その手続きが比較対照とした資源を使用した他の試験手続きをテストケース106の実行時における、各手続きの実行順の期待値に基づいた継承関係をテストケース106に出力する手段を有することを特徴とする。
【0039】
また、この実施の形態のシステムLSI機能検証方式は、エラー原因の解析用情報をエラーが生じる可能性のある資源の周りにあらかじめ配置させておくことに特徴がある。すなわち、この実施の形態のシステムLSI機能検証方式は、テストケース106の実行結果がエラーとなった場合に備え、エラーを予測し、テストケース106で使用する資源の近傍あるいはすべてに、予め擬似的なデータを設定しておき、期待値比較対象の資源の実効値がこの擬似データと一致した場合に備え、擬似データに関する情報をテストケース106に出力する手段を有することを特徴とする。
【0040】
以上の結果、作成されたテストケース106は以下のような構成になる。
1.機能モデルの動作を試験する前に、擬似データを資源に設定する擬似データ設定部。
2.回路機能をモデル化した機能モデルの動作を試験する試験手続き部。
3.試験手続き部による機能モデルの動作の試験の結果がエラーになる場合、このエラー原因を解析するためのエラー原因解析情報を試験手続きに対応させて記憶する原因解析情報記憶部。
4.原因解析情報記憶部に記憶されたエラー原因解析情報を利用してエラー原因を解析するため情報を提供するエラー原因情報提供部(エラー解析部)。
【0041】
上記原因解析情報記憶部は、エラー原因解析情報として以下の情報を記憶する。
試験手続き構成情報106a(図2)
資源別アクセス順序・期待値情報106b(図3)
資源別擬似データ情報106e(図4)
試験手続き実行順序期待値情報106c(図5)
試験手続き間継承情報106f(図6)
エラー解析用メッセージ情報106d(図7)
【0042】
上記原因解析情報記憶部は、テストケース106内になくてもよい。メモリやディスクにファイル形式で独立して記録されていてもよい。
【0043】
また、上記エラー原因情報提供部(エラー解析部)も、テストケース106内になくてもよい。メモリやディスクにファイル形式で独立して記録されていてもよい。
【0044】
上記原因解析情報記憶部は、エラー原因解析情報として上記情報を全て記憶している必要はない。少なくとも1つ以上の情報を保持していればよい。望ましくは、エラー解析用メッセージ情報106d(図7)が、他の情報を多く含んでいること、及び、ユーザにメッセージを表示出力するために用いられるので、人間がエラー解析しやすくなることの理由によりエラー原因解析情報に含まれているのがよい。
【0045】
図8は、実施の形態1におけるプログラム生成装置(テストケース生成装置)の外観を示す図である。
図8において、プログラム生成装置(テストケース生成装置)100は、システムユニット200、CRT(Cathode Ray Tube)表示装置41、キーボード(K/B)42、マウス43、コンパクトディスク装置(CDD)86、プリンタ装置87、スキャナ装置88を備え、これらはケーブルで接続されている。さらに、プログラム生成装置(テストケース生成装置)100は、FAX機310、電話器320とケーブルで接続され、また、ローカルエリアネットワーク(LAN)5、ウェブサーバ500を介してインターネット501に接続されている。
【0046】
図9は、実施の形態1におけるプログラム生成装置(テストケース生成装置)のハードウェア構成図である。
図9において、プログラム生成装置(テストケース生成装置)100は、プログラムを実行するCPU(Central Processing Unit)37を備えている。CPU37は、バス38を介してROM39(不揮発性記憶装置の一例である)、RAM40(メモリ、揮発性記憶装置の一例である)、通信ボード44、CRT表示装置41、K/B42、マウス43、FDD(Flexible Disk Drive)45、磁気ディスク装置46(不揮発性記憶装置の一例である)、CDD86、プリンタ装置87、スキャナ装置88と接続されている。通信ボード44は、FAX機310、電話器320、LAN5等に接続されている。
例えば、通信ボード44、K/B42、FDD45は、情報入力部の一例となる。或いは、情報入力部がおこなう処理をプログラムで構成する場合、プログラムは、例えば、通信ボード44、K/B42、FDD45という入力装置を用いて処理をおこなってもよい。或いは、CPU37を用いてCPU37の内部処理としておこなってもよい。
また、例えば、通信ボード44は、出力部の一例となる。出力部がおこなう処理をプログラムで構成する場合、プログラムは、例えば、通信ボード44という出力装置を用いて処理をおこなってもよい。或いは、CPU37を用いてCPU37の内部処理としておこなってもよい。
また、例えば、ROM39、RAM40、磁気ディスク装置46は、記憶部の一例となる。記憶部がおこなう処理をプログラムで構成する場合、プログラムは、例えば、ROM39、RAM40、磁気ディスク装置46という記憶装置を用いて処理をおこなってもよい。
上記以外の各部がハードウェアで構成される場合、例えば、CPU37は、上記以外の各部の一例となる。上記以外の各部がおこなう処理をプログラムで構成する場合、プログラムは、CPU37に処理をさせる。
【0047】
ここで、通信ボードは、LAN5に限らず、直接、インターネット、或いはISDN等のWAN(ワイドエリアネットワーク)に接続されていても構わない。直接、インターネット、或いはISDN等のWANに接続されている場合、プログラム生成装置100は、インターネット、或いはISDN等のWANに接続され、ウェブサーバ500は不用となる。
磁気ディスク装置46には、オペレーティングシステム(OS)47、ウィンドウシステム48、プログラム群49、ファイル群50が記憶されている。プログラム群は、CPU37、OS47、ウィンドウシステム48により実行される。
【0048】
上記プログラム群49には、実施の形態の説明において「テストワーク」や「シミュレータ」や「〜部」として説明したものがプログラムで実現される場合、そのプログラムが記憶されている。また、「テストワーク」や「シミュレータ」や「〜部」と説明したものを「〜処理」、「〜ルーチン」、「〜手段」、「〜工程」、「〜ステップ」、「〜装置」と置き換えることにより、プログラムの発明、方法の発明、システムの発明とすることもできる。
【0049】
ファイル群には、上記実施の形態の説明において「テストシナリオ」、「テストケース」、「機能モデル」、「テストベンチ」、「〜結果」、「〜情報」として説明したものが「〜ファイル」として記憶されている。
【0050】
また、実施の形態の説明において「〜部」として説明したものは、ROM39に記憶されたファームウェアで実現されていても構わない。或いは、ソフトウェアのみ、或いは、ハードウェアのみ、或いは、ソフトウェアとハードウェアとの組み合わせ、さらには、ファームウェアとの組み合わせで実施されても構わない。
【0051】
また、実施の形態を実施させるプログラムは、また、磁気ディスク装置、FD(Flexible Disk)、光ディスク、CD(コンパクトディスク)、MD(ミニディスク)、DVD(Digital Versatile Disk)等のその他の記録媒体による記録装置を用いて記憶されても構わない。
【0052】
また、前述した説明において、「記憶する」、「保持する」という動作は、メモリや記憶装置に情報やデータを電気的又は磁気的にファイル形式やプログラム内の変数形式で保存することをいう。また、「試験する」、「実行する」、「生成する」、「解析する」、「判定する」という動作も、その結果がメモリや記憶装置に情報やデータを電気的又は磁気的にファイル形式やプログラム内の変数形式で保存されることを意味している。
【0053】
【発明の効果】
本発明により、例えば、試験対象であるシステムLSIに対する試験の手続きを表したテストケースをシミュレータ上で実行した結果、エラーとなった場合に発生する作業であるエラー解析作業を、テストケースに表示されている幾つかのエラー予測値と、テストケースの実行結果に表示されている、エラー発生箇所及びエラー対象資源の実効値とを比較する事で、大幅に軽減する事が可能である。
【図面の簡単な説明】
【図1】実施の形態1における全体構成図である。
【図2】試験手続き別資源記録部105aがメモリに生成しテストケース106に記録する試験手続き構成情報106aの説明図である。
【図3】資源別アクセス順序・期待値生成部105bがメモリに生成しテストケース106に記録する資源別アクセス順序・期待値情報106bの説明図である。
【図4】擬似データ生成部105eがメモリに生成しテストケース106に記録する資源別擬似データ情報106eの説明図である。
【図5】試験手続き実行順序期待値生成部105cがメモリに生成しテストケース106に記録する試験手続き実行順序情報106cの説明図である。
【図6】試験手続き間継承関係生成部105fがメモリ生成しテストケース106に記録する試験アクセス間継承情報106fの説明図である。
【図7】エラー解析用メッセージ生成部105eがメモリに生成しテストケース106に記録するエラー解析用メッセージ情報106eの説明図である。
【図8】実施の形態1におけるプログラム生成装置(テストケース生成装置)の外観を示す図である。
【図9】実施の形態1におけるプログラム生成装置(テストケース生成装置)のハードウェア構成図である。
【符号の説明】
5 LAN、37 CPU、38 バス、39 ROM、40 RAM、41CRT表示装置、42 K/B、43 マウス、44 通信ボート、45 FDD、46 磁気ディスク装置、47 OS、48 ウィンドウシステム、49プログラム群、50 ファイル群、86 CDD、87 プリンタ装置、88スキャナ装置、100 プログラム生成装置、101 製品仕様書、102 テストシナリオ、103 資源構成情報、104 機能モデル、105 テストケース生成部、105a 試験手続き別資源記録部、105b 資源別アクセス順序・期待値生成部、105c 試験手続き実行順序期待値生成部、105d エラー解析用メッセージ生成部、105e 擬似データ生成部、105f 試験手続き間継承関係生成部、106 テストケース、106a 試験手続き構成情報、106b 資源別アクセス順序・期待値情報、106c 試験手続き実行順序情報、106d エラー解析用メッセージ情報、106e 資源別擬似データ情報、106f 試験手続き間継承情報、107 テストベンチ、108 シミュレータ、109 テストケース実行結果、110 エラー解析部、200 システムユニット、310 FAX機、320 電話器、500 ウェブサーバ、501 インターネット。
[0001]
TECHNICAL FIELD OF THE INVENTION
According to the present invention, when performing a function test, after activating a resource of a product to be verified as a test, a result of comparison between an expected value of the resource and an effective value (value of the resource after activation) is obtained. The present invention relates to a function verification system that reduces the workload when analyzing the cause of an error when the error occurs or when a result error occurs when the timing of resource change differs from an expected value.
[0002]
[Prior art]
When performing a functional test, the test program is executed on the simulator. After extracting the test cases that resulted in an error, the test programs for the resources that make up the product are sequentially executed on the simulator to analyze the cause of the error. In order to reproduce the error, the test case is re-executed on the logic simulator, using a commercially available tool for recording transition information that changes when the test is performed. After the reproduction, the location of the test program in which the error occurred, the resources involved, and the time involved are identified stepwise while considering the transition information for all resources and the execution order of the test program. The cause was clarified.
[0003]
[Patent Document 1]
JP-A-2000-2753
[Patent Document 2]
JP 2001-5841A
[0004]
[Problems to be solved by the invention]
The test case in which the error occurred is extracted and re-executed, and the transition information of all resources owned by the product during the execution of the test case is recorded using a commercially available tool, etc., so a simulator for the test case when reproducing the error The above execution time requires several times longer than the normal execution time without recording. In the error analysis work, as the functionality of the product increases, the number of resources that make up the product increases and the function of the product becomes more complex, so the test cases for testing this also become more complex. I do. For this reason, in the error analysis work when the test execution results in an error, while grasping the execution order of the program, extracting the location where the error occurs and the resources involved, and manually analyzing it, It took a lot of time and effort.
SUMMARY OF THE INVENTION It is an object of the present invention to provide a method and method for verifying functions of a system LSI (large-scale integrated circuit) or the like, which can suppress re-execution of a test and significantly reduce analysis time.
[0005]
[Means for Solving the Problems]
A test case generation device of the present invention includes: a test case generation unit that generates a test procedure for testing an operation of a functional model obtained by modeling a circuit having a plurality of resources and stores the test procedure as a test case;
If the result of the test of the operation of the functional model by the test procedure generated by the test case generation unit results in an error, a cause analysis information generation unit that generates and stores error cause analysis information for analyzing the cause of the error;
It is characterized by having.
[0006]
BEST MODE FOR CARRYING OUT THE INVENTION
In a system LSI (large-scale integrated circuit) function verification method according to an embodiment described below, when a test case is generated, a product resource used in each step, an execution order of the step, a resource inheritance relationship, and the like. By having a means to generate and record in the memory as error cause analysis information and a means to add and record this error cause analysis information to the test case, it is possible to suppress the re-execution of the test and significantly reduce the analysis time. Realize.
[0007]
This system LSI function verification method can reduce labor and time required for re-executing a test case for reproducing an error and analyzing a cause of an error, which have been generated in the conventional method, in a large amount of analysis. .
[0008]
Embodiment 1 FIG.
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is an overall configuration diagram of the system LSI verification method with error analysis support.
The function verification work of the system LSI is a work of confirming that the system LSI to be verified operates correctly and functionally. Therefore, H / W (hardware) resources (hereinafter, also simply referred to as resources), which are possessed to fulfill the functions of the system LSI, are extracted from the product specification 101 in which the functional description of the system LSI is described. A configuration scenario 103 and a test scenario 102 for performing a test on each function of the system LSI are created. In addition, a function model 104 that models a circuit of the system LSI is created from the product specification 101 in which a description of functions related to the system LSI is described. The function model 104 describes the function description of the system LSI to be verified. In addition, a test bench 107 for testing the function model 104 is created from the product specification 101 in which a description of functions related to the system LSI is described. The test bench 107 is connected to the function model 104 and controls input / output to the function model.
[0009]
Here, the H / W resource refers to, for example, a program counter, a general-purpose register, a memory, a register for controlling input / output (I / O), and the like. The specification of the H / W resource means that a plurality of H / W resources are identified by identifiers such as a program counter ID, a general-purpose register number, a memory address, and a register number for controlling input / output (I / O). , One type and one H / W resource are uniquely determined. The effective value of the H / W resource refers to information, data, and a value set in the H / W resource, for example, a value set in a program counter, a value set in a general-purpose register, and set in a memory. Value, a value set in a register for controlling input / output (I / O), and the like. The effective value of the H / W resource is held in the H / W resource by identifying the H / W resource by an identifier and using a setting command or a write command. The data is read from the H / W resource by a read command.
[0010]
Next, the test case generation unit 105 converts the resource configuration information 103 and the test scenario 102 into a function model 104 describing the function description of the system LSI to be verified, and inputs / outputs the function model 104 by connecting to the function model 104. A test case 106 which is a test program for controlling a test bench 107 for controlling the test bench 106 is generated. The test case 106 is a test program, and may or may not include test data. Further, the test case 106 of this embodiment holds various types of information (error cause analysis information) that supports error analysis to be described later, and outputs a message for analyzing an error result based on the various types of information. The test case 106 is recorded on a recording medium such as a magnetic disk as a program file.
[0011]
The test case 106, the function model 104, and the test bench 107 are executed by the simulator 108, and a test case execution result 109 as a simulation execution result indicating normal end or error end is obtained.
[0012]
The error analysis unit 110 is, for example, a program routine that is included in the test case 106 as a part of the test procedure and operates after the execution of the test case 106. The error analysis unit 110 may be an independent program.
The error analysis unit 110 analyzes the cause of the error with respect to the test case execution result 109 that has ended in the error among the simulation execution results. At this time, conventionally, a human has described a function description written in the product specification 101, an effective value of each H / W resource held by the function model 104, and a test case 106 representing the contents of a test procedure. In the present system LSI verification method, the test case 106 including information for supporting the error analysis (error cause analysis information) is output. The error analysis unit 110 can clarify the cause of the error without particularly investigating the specification 101 and the function model 104. The error analysis unit 110 performs error analysis automatically or semi-automatically by referring to information (error cause analysis information) supporting error analysis included in the test case 106. Alternatively, the error analysis unit 110 searches for information (error cause analysis information) supporting the error analysis included in the test case 106, estimates or determines the cause of the error, and displays the estimated determination result in the test case. Support human error analysis work.
[0013]
In order to output information (error cause analysis information) supporting the error analysis, the present system LSI verification method has a cause analysis information generation unit 156 shown in FIG. The cause analysis information generation unit 156 may exist independently as shown in FIG. 1 or may be inside the test case generation unit 105. Further, the cause analysis information generation unit 156 may be inside the test case 106. When generating the test case 106, the cause analysis information generating unit 156 stores a test procedure-specific resource recording unit 105a that records the relationship with the H / W resource used for each test procedure, and is stored after executing each test procedure. An access order / expected value generation unit 105b as an example of a resource expected value generation unit for generating expected values to be generated for each H / W resource, and a test procedure execution order expectation for generating an expected value of a test procedure execution order. A value generation unit 105c, an error analysis message generation unit 105d that outputs a message for supporting a task of analyzing the cause of the error in preparation for a case where an error is determined in the test case execution result, A pseudo data generation unit 105e for arranging data near the H / W resources to be used, and a test procedure inheritance relationship generator for generating an inheritance relationship between test procedures. And it includes a section 105f.
[0014]
The pseudo data generation unit 105e generates pseudo data that is set for each of a plurality of resources as error cause analysis information and that can specify which resource the resource is. The test case generator 105 sets a pseudo data value generated by the pseudo data generator 105e in each resource before executing the test procedure, and then generates a test procedure for testing the operation of the functional model. In this manner, as a result of the execution of the test procedure of the test case, it is possible to specify which resource is the resource that provided the result value from the result value obtained from the resource.
[0015]
Further, the error analysis message generation unit 105d generates an error analysis message in which an expected error result is associated with the error factor as error cause analysis information.
When a test is performed on at least one of a plurality of resources constituting the circuit function, the test case generation unit 105 executes a test whose expected value to be obtained from the resource is known, and executes the test. As a result, it is determined whether the test result is an error by comparing the result value obtained from the resource with the expected value generated by the resource-specific access order / expected value generation unit 105b, and the test result is an error. A test procedure that outputs an error analysis message when it is determined that
[0016]
FIG. 2 is an explanatory diagram of test procedure configuration information 106a generated by the test procedure-specific resource recording unit 105a in the memory and recorded in the test case 106.
The test case 106 includes a plurality of test procedures (hereinafter, also referred to as test access). When the test procedure is generated, the contents of the test procedure are described as “test access type” that describes the outline of the operation means possessed by the system LSI and the outline of the operation means possessed by the test bench. A “test access ID”, an “address storage resource” used to store an address, a “data storage resource” used to store data, a “memory access resource” accessed through the address storage resource, It is classified and recorded as "immediate value" when a value is set in "data storage resource". “Address storage resources”, “data storage resources”, and “memory access resources” are H / W resources used when accessed as a test.
As described above, the test case generation unit 105 generates a test procedure including a plurality of test procedures to be executed in a predetermined order, and the test procedure-specific resource recording unit 105a generates a test procedure (test access test) as error cause analysis information. (2) Separately, generates information on the contents of the test procedure and H / W resources used by the test procedure, and records them in the memory as test procedure configuration information 106b.
The error analysis message generation unit 105d generates the error analysis message information 106d using the test procedure configuration information 106a recorded in the memory by the test procedure-specific resource recording unit 105a.
The test procedure configuration information 106b and the error analysis message information 106d are output to the test case 106 and recorded.
[0017]
FIG. 3 is an explanatory diagram of the resource-specific access order / expected value information 106b generated in the memory by the resource-specific access order / expected value generation unit 105b and recorded in the test case 106.
The resource-specific access order / expected value generation unit 105b generates a list of test procedures for accessing the H / W resource for each H / W resource.
For example, in FIG.
Test access ID-0002
Test access ID-0005
Test access ID-0007
In that order.
[0018]
Further, the resource-specific access order / expected value generation unit 105b performs a test access to the H / W resource used by the test access according to the “test access type” of the test procedure configuration information 106a generated by the test procedure-specific resource recording unit 105a. The value after the execution (the value after the change) or the value held just before the execution of the test access when it does not change is held for each H / W resource as the “expected value” immediately after the execution of the test access. Here, the “expected value” is a value that should be obtained from the H / W resource after the execution of the test access when the function model operates normally.
For example, in FIG. 3, the value held in the register 3 is
After the execution of the test access ID-0002, the value becomes 0,
After the execution of the test access ID-0005, the value becomes 3000,
After execution of the test access ID-0007, the value becomes 3300
It is shown that.
[0019]
The resource-specific access order / expected value generation unit 105b generates a list of test procedures for accessing the H / W resource for each H / W resource, and executes the test procedure to test the resources and holds the list of resources. The expected value expected to be obtained is generated and stored in the memory, and also stored in the test case 106. The test case generation unit 105 compares the result value obtained from the resource test with the expected value generated by the resource-specific access order / expected value generation unit 105b, and determines whether the test result is an error. Then, a test procedure for outputting an error analysis message including an expected value when the test result is determined to be an error is generated, for example, as a part of the error analysis unit 110.
[0020]
FIG. 4 is an explanatory diagram of the resource-specific pseudo-data information 106e generated in the memory by the pseudo-data generating unit 105e and recorded in the test case 106.
H / W resources that are not used at all as test accesses to identify the way in which a system LSI to be verified operates erroneously in test access, but used to identify erroneous locations Indicates that pseudo data is set in advance in the vicinity of. Here, the pseudo data is a value by which the H / W resource to be accessed originally can be specified. By analyzing the pseudo data, the H / W resource such as a memory or a register to be originally accessed can be detected.
[0021]
For example, it is assumed that the functional model has an arithmetic unit capable of performing calculations in 32-bit units, and that the memory is accessed in units of 4 bytes (4 addresses). With the test access ID-0005, pseudo data is generated as follows, for example, for the address 2000 (“RAM-2000”) of the memory accessed via the register.
For the address 1FF8 (“RAM-1FF8”), the pseudo data is “F88F1FF1”.
For the address 1FFC (“RAM-1FFC”), the pseudo data is “FCCF1FF1”.
The pseudo data for the address 2004 (“RAM-2004”) is “04400220”.
The pseudo data for the address 2008 (“RAM-2008”) is “08802002”.
The pseudo data is a value obtained by processing an address of a memory that is erroneously accessed by a predetermined algorithm.
[0022]
As shown in FIG. 2, in the test access ID-0005, the data “RAM-2000” corresponding to the value (address 2000) stored in the register 2 (REG2) is changed from the data “RAM-2000” stored in the “RAM-2000”. A test access to a system LSI function called “CPU READ” that stores “3000” in a register 3 (REG3) is executed. In the test access ID-0005, if the system LSI erroneously reads data from the adjacent “RAM-2004”, the REG3 is not the expected value “3000” but the erroneous data that is pseudo data. "04400220" is stored. By searching this data, the address 2004 is calculated from the data "04400220". "Accessed" can be detected.
[0023]
Alternatively, the address of a memory that is erroneously accessed may be used as the pseudo data as described below.
The pseudo data for the address 1FF8 (“RAM-1FF8”) is “00001FF8”.
The pseudo data for the address 1FFC (“RAM-1FFC”) is “00001FFC”.
The pseudo data for the address 2004 (“RAM-2004”) is “0000002004”.
The pseudo data for the address 2008 (“RAM-2008”) is “00002008”.
[0024]
Alternatively, as the pseudo data, a difference value between the address of the memory to be accessed originally and the address of the memory accessed erroneously may be used as described below.
For the address 1FF8 (“RAM-1FF8”), the pseudo data is “−8 (decimal number)”.
The pseudo data for the address 1FFC (“RAM-1FFC”) is “−4 (decimal number)”.
The pseudo data for the address 2004 (“RAM-2004”) is “+4 (decimal number)”.
For the address 2008 (“RAM-2008”), the pseudo data is set to “+8 (decimal number)”.
[0025]
As described above, the pseudo data generation unit 105e is set in each of a plurality of resources (memory of a plurality of addresses) as error cause analysis information, and can specify which resource (memory of which address). Generate a pseudo data value.
The test case generation unit 105 sets the resource-specific pseudo data information 106e generated by the pseudo data generation unit 105e for each resource before executing the test procedure, and then generates a test procedure for testing the operation of the functional model. The error analysis message generation unit 105d generates an error analysis message including the resource-specific pseudo data information 106e generated by the pseudo data generation unit 105e. In this way, as a result of executing the test procedure of the test case 106, it is possible to specify which resource is the resource that provided the result value from the result value obtained from the resource (resource-specific pseudo data information 106e).
[0026]
FIG. 5 is an explanatory diagram of the test procedure execution order information 106c generated by the test procedure execution order expected value generation unit 105c in the memory and recorded in the test case 106.
The test procedure execution order expected value generation unit 105c holds an expected value of the execution order when test accesses are sequentially generated according to the test scenario 102. As shown in FIG. 5, the execution order of the test access is not always the order of the test access IDs.
[0027]
As described above, the test case generation unit 105 generates a test procedure (test access) including a plurality of test procedures executed in a predetermined order. The test procedure execution order expectation value generation unit 105c generates an execution order of a plurality of test procedures as error cause analysis information, and records it as test procedure execution order information 106c.
The error analysis message generation unit 105d executes a test procedure that outputs an error analysis message in accordance with the test procedure execution order using the test procedure execution order information 106c generated by the execution order expected value generation unit 105c. Generated as a part of the unit 110.
[0028]
FIG. 6 is an explanatory diagram of the inter-test-access inheritance information 106f generated by the inter-test procedure inheritance relationship generation unit 105f and recorded in the test case 106.
The test case generation unit 105 generates a plurality of test procedures for realizing the test scenario 102. When the test case generation unit 105 determines the H / W resources used in the test access that realizes the test procedure, information on the H / W resources used in the test access generated so far (the test procedure illustrated in FIG. 2). Reference is made to the separate resource record information 105a) and the expected value of the test access execution order (the test procedure execution order information 106c shown in FIG. 5). When the test case generation unit 105 determines the H / W resource to be used in the test access to be generated this time, the test procedure inheritance relationship generation unit 105f extracts the test access ID that has already used the H / W resource.
For example, the test procedure inheritance relationship generation unit 105f uses REG2 and REG3 for the test access ID-0005, but according to the expected value of the execution order of the test procedure execution order information 106c shown in FIG. The test access ID using REG2 and the test access ID using REG3 are extracted from the test access IDs executed before -0005, and the test access ID related to the test access ID-0005 is extracted. Then, an inheritance relationship is generated in the reverse order of the execution order, that is, in the order of the test access ID-0002 and the test access ID-0001, and is held in the memory as inter-test procedure inheritance information 106f.
[0029]
FIG. 7 is an explanatory diagram of the error analysis message information 106e generated in the memory by the error analysis message generation unit 105e and recorded in the test case 106.
The error analysis message generation unit 105d includes test procedure configuration information 106a (FIG. 2), resource-specific access order / expected value information 106b (FIG. 3), resource-specific pseudo data information 106e (FIG. 4), and test procedure execution. From the order information 106c (FIG. 5) and the inter-test procedure inheritance information 106f (FIG. 6), the error analysis message information 106d is started from a test access that compares a resource value with an expected value among a plurality of test accesses. It is generated in a memory and output to the test case 106.
[0030]
For example, as shown in FIG. 7, the test access ID-0008 is a “test access type” that compares the expected value “3300” with respect to REG3 and the execution value stored in REG3 at the stage of executing the main test access. However, as a result of executing the test case 106 by the simulator 108, an error is detected at the test access ID-0008, and in preparation for a case where the test case is stopped, the expected value of the resource REG3 to be compared with the test access ID is obtained. Is displayed along with the error cause. That is, the result value obtained from the resource, the predicted error value (expected value), and one or more predicted error causes are displayed. If the cause of the error is determined, only the cause of the error is displayed.
[0031]
That is, with reference to the test procedure execution order information 106c (FIG. 5), the closest (previous) test access ID that accessed the resource REG3 was searched from the test access IDs executed before the test access ID-0008. As a result, the test access ID-0007 is extracted. Similarly, for the test access ID-0007, the test access ID-0005 that accessed the resource REG3 most recently is extracted. At this time, since the expected value “3000” should be stored in REG3 as a result of executing the test access ID-0005, “3000” is adopted as one of the error prediction values of the test access ID-0008. Then, a message "Test access-0005 is normal, test access-0007 failed" is displayed. Similarly, by presenting some error prediction values, when the value of REG3 at the stage of stopping the error with the test access ID-0008 during the execution of the test case matches any of these error prediction values, By reading the message, the cause of the error can be quickly pointed out.
[0032]
FIG. 7 shows the case where the starting point is a test access (test access ID-0008) that compares the value of the resource with the expected value. However, the present invention is not limited to the case where the starting point is the test access to be compared. Alternatively, an error result and an error factor may be generated and output. For example, in the test access ID-0005 in FIG. 7, the following error results and error factors may be generated and stored on the assumption that the pseudo data shown in FIG. 4 is set.
1. First error result and error factor of test access ID-0005
Expected value comparison error REG3: DATA-F88F1FF1.
The test access ID-0005 has failed, and the data “F88F1FF1” at address 1FF8 has been erroneously received.
2. Second error result and error factor of test access ID-0005
Expected value comparison error REG3: DATA-FCCF1FF1.
The test access ID-0005 has failed, and the data “FCCF1FF1” at the address 1FFC has been erroneously received.
3. Third error result and error factor of test access ID-0005
Expected value comparison error REG3: DATA-04400220.
The test access ID-0005 has failed, and the data “04400220” at the address 2004 is erroneously received.
4. Fourth error result and error factor of test access ID-0005
Expected value comparison error REG3: DATA-08802002.
The test access ID-0005 has failed, and the data “08802002” at the address 2008 is erroneously received.
[0033]
As described above, the test case generation unit 105 generates a test procedure including a plurality of test procedures executed in a predetermined order.
A cause analysis information generation unit 156 generates test procedure contents and information on resources used by the test procedure for each test procedure as error cause analysis information, and records the test procedure-specific resource recording unit 105a as test procedure configuration information 106a;
A test procedure execution order expected value generation unit 105c that generates an execution order of a plurality of test procedures as error cause analysis information and records the test procedure execution order information 106c as a test procedure execution order expected value;
Using the test procedure configuration information 106a generated by the test procedure-specific resource recording unit 105a and the test procedure execution order information 106c generated by the test procedure execution order expected value generation unit 105c, an error result is generated when the test procedure is executed. A test procedure inheritance relationship generation unit 105f that generates a test procedure to be caused as test procedure inheritance information 106f.
The error analysis message generation unit 105d stores the error analysis message information 106d in which a test procedure causing an error result is an error factor using the inter-test procedure inheritance information 106f generated by the inter-test procedure inheritance relationship generation unit 105f. And record it in the test case 106.
[0034]
The error cause analysis information described above may be the data and information shown in FIGS. 2 to 7, but may include a program or a routine that outputs analysis support information or an error analysis message using such information. These programs and routines constitute the error analysis unit 110.
[0035]
As described above, the system LSI function verification method of this embodiment is characterized in that error cause analysis information, analysis support information, and an error analysis message are output. That is, the system LSI function verification method according to the present embodiment includes a test procedure (step) that embodies a test item based on a product specification, which is created to verify a certain system LSI from a functional aspect. When a program (test case 106) is created, the test case 106 is executed by the simulator 108, and the procedure in which the error occurred and the system determined to be an error are prepared in case the result is determined to be an error. It is characterized in that it has means for estimating the cause of the error for each combination with the value (effective value) of the resource constituting the LSI and outputting it to the test case 106.
[0036]
Further, the system LSI function verification method of this embodiment is characterized in that information of each test procedure is recorded. That is, the system LSI function verification method according to the present embodiment prepares for the case where the execution result of the test case 106 results in an error. It is characterized by having a means for outputting information about and the contents of the procedure to the test case 106.
[0037]
Further, the system LSI function verification method of this embodiment is characterized in that an access order history of H / W resources is recorded. That is, the system LSI function verification method of this embodiment has means for outputting a procedure using resources for each resource configuring the system LSI in case an execution result of the test case 106 results in an error. It is characterized by.
[0038]
Further, the system LSI function verification method of this embodiment is characterized in that the inheritance between test procedures is recorded. That is, the system LSI function verification method according to the present embodiment includes a procedure for comparing a value (effective value) stored in the resources of the system LSI with an expected value in case an execution result of the test case 106 becomes an error. When the test case 106 executes another test procedure that uses the resources that are compared and compared with the procedure as a starting point, there is provided a means for outputting to the test case 106 an inheritance relationship based on an expected value of the execution order of each procedure. It is characterized by the following.
[0039]
Further, the system LSI function verification method of this embodiment is characterized in that information for analyzing the cause of an error is arranged in advance around resources where an error may occur. That is, the system LSI function verification method according to the present embodiment predicts an error and prepares a pseudo-simulation in the vicinity or all of the resources used in the test case 106 in preparation for an error in the execution result of the test case 106. In this case, there is provided a means for outputting information about the pseudo data to the test case 106 in case the effective value of the resource to be compared with the expected value matches the pseudo data.
[0040]
As a result, the created test case 106 has the following configuration.
1. A pseudo data setting unit that sets pseudo data to a resource before testing the operation of the functional model.
2. A test procedure section that tests the operation of a functional model that models circuit functions.
3. A cause analysis information storage unit that stores error cause analysis information for analyzing the cause of the error when the result of the test of the operation of the functional model by the test procedure unit results in an error, in association with the test procedure.
4. An error cause information providing unit (error analysis unit) that provides information for analyzing an error cause using the error cause analysis information stored in the cause analysis information storage unit.
[0041]
The cause analysis information storage unit stores the following information as error cause analysis information.
Test procedure configuration information 106a (FIG. 2)
Resource-specific access order / expected value information 106b (FIG. 3)
Resource-specific pseudo data information 106e (FIG. 4)
Test procedure execution order expected value information 106c (FIG. 5)
Test procedure inheritance information 106f (FIG. 6)
Error analysis message information 106d (FIG. 7)
[0042]
The cause analysis information storage unit may not be provided in the test case 106. It may be independently recorded in a file format on a memory or a disk.
[0043]
Further, the error cause information providing unit (error analyzing unit) may not be provided in the test case 106. It may be independently recorded in a file format on a memory or a disk.
[0044]
The cause analysis information storage unit does not need to store all the information as the error cause analysis information. What is necessary is just to hold at least one or more pieces of information. Desirably, the error analysis message information 106d (FIG. 7) contains a large amount of other information and is used for displaying and outputting a message to a user. It may be included in the error cause analysis information.
[0045]
FIG. 8 is a diagram illustrating an appearance of a program generation device (test case generation device) according to the first embodiment.
8, a program generation device (test case generation device) 100 includes a system unit 200, a CRT (Cathode Ray Tube) display device 41, a keyboard (K / B) 42, a mouse 43, a compact disk device (CDD) 86, and a printer. An apparatus 87 and a scanner 88 are provided, and these are connected by a cable. Further, the program generating device (test case generating device) 100 is connected to the FAX machine 310 and the telephone 320 by cables, and is also connected to the Internet 501 via the local area network (LAN) 5 and the web server 500. .
[0046]
FIG. 9 is a hardware configuration diagram of the program generation device (test case generation device) according to the first embodiment.
In FIG. 9, a program generation device (test case generation device) 100 includes a CPU (Central Processing Unit) 37 that executes a program. The CPU 37 includes a ROM 39 (an example of a nonvolatile storage device), a RAM 40 (an example of a memory and a volatile storage device), a communication board 44, a CRT display device 41, a K / B 42, a mouse 43, It is connected to an FDD (Flexible Disk Drive) 45, a magnetic disk device 46 (an example of a non-volatile storage device), a CDD 86, a printer device 87, and a scanner device 88. The communication board 44 is connected to the FAX machine 310, the telephone 320, the LAN 5, and the like.
For example, the communication board 44, the K / B 42, and the FDD 45 are examples of an information input unit. Alternatively, when the processing performed by the information input unit is configured by a program, the program may perform the processing using, for example, input devices such as the communication board 44, the K / B 42, and the FDD 45. Alternatively, the processing may be performed as an internal process of the CPU 37 by using the CPU 37.
Further, for example, the communication board 44 is an example of an output unit. When the processing performed by the output unit is configured by a program, the program may perform the processing using, for example, an output device called the communication board 44. Alternatively, the processing may be performed as an internal process of the CPU 37 by using the CPU 37.
Further, for example, the ROM 39, the RAM 40, and the magnetic disk device 46 are examples of a storage unit. When the processing performed by the storage unit is configured by a program, the program may perform the processing using, for example, a storage device such as the ROM 39, the RAM 40, and the magnetic disk device 46.
When each unit other than the above is configured by hardware, for example, the CPU 37 is an example of each unit other than the above. When the processing performed by each unit other than the above is configured by a program, the program causes the CPU 37 to perform the processing.
[0047]
Here, the communication board is not limited to the LAN 5 and may be directly connected to the Internet or a WAN (Wide Area Network) such as ISDN. When directly connected to the Internet or a WAN such as ISDN, the program generation device 100 is connected to the Internet or a WAN such as ISDN, and the web server 500 is unnecessary.
The magnetic disk device 46 stores an operating system (OS) 47, a window system 48, a program group 49, and a file group 50. The program group is executed by the CPU 37, the OS 47, and the window system 48.
[0048]
In the program group 49, when what is described as “test work”, “simulator” or “section” in the description of the embodiment is realized by a program, the program is stored. Also, what is described as "test work", "simulator" or "-unit" is referred to as "-process", "-routine", "-means", "-process", "-step", "-device". By substituting, the invention of the program, the invention of the method, and the invention of the system can be made.
[0049]
In the file group, those described as “test scenario”, “test case”, “functional model”, “test bench”, “—result”, and “—information” in the description of the above-described embodiment are “—files”. It is stored as
[0050]
Also, what is described as “-unit” in the description of the embodiment may be realized by firmware stored in the ROM 39. Alternatively, the present invention may be implemented only with software, only with hardware, a combination of software and hardware, or a combination with firmware.
[0051]
Further, the program for implementing the embodiment is also provided by other recording media such as a magnetic disk device, an FD (Flexible Disk), an optical disk, a CD (Compact Disk), an MD (Mini Disk), and a DVD (Digital Versatile Disk). It may be stored using a recording device.
[0052]
In the above description, the operation of “storing” and “holding” refers to electrically or magnetically storing information or data in a file format or a variable format in a program in a memory or a storage device. In addition, the operations of “test”, “execute”, “generate”, “analyze”, and “determine” are also performed by storing information or data in a memory or a storage device electrically or magnetically in a file format. Or in the form of variables in the program.
[0053]
【The invention's effect】
According to the present invention, for example, when a test case representing a test procedure for a system LSI to be tested is executed on a simulator, an error analysis operation, which is an operation that occurs when an error occurs, is displayed on the test case. It is possible to greatly reduce the number of errors by comparing the estimated error values with the effective values of the error occurrence location and the error target resource displayed in the execution result of the test case.
[Brief description of the drawings]
FIG. 1 is an overall configuration diagram according to a first embodiment.
FIG. 2 is an explanatory diagram of test procedure configuration information a generated by a test procedure-specific resource recording unit 105a in a memory and recorded in a test case 106;
FIG. 3 is an explanatory diagram of resource-specific access order / expected value information 106b generated in a memory by a resource-specific access order / expected value generation unit 105b and recorded in a test case 106;
FIG. 4 is an explanatory diagram of resource-specific pseudo data information 106e generated by a pseudo data generation unit 105e in a memory and recorded in a test case 106.
FIG. 5 is an explanatory diagram of test procedure execution order information 106c generated in a memory by a test procedure execution order expected value generation unit 105c and recorded in a test case 106.
FIG. 6 is an explanatory diagram of test access inheritance information 106f generated by a test procedure inheritance relationship generation unit 105f and stored in a test case 106;
FIG. 7 is an explanatory diagram of error analysis message information 106e generated in a memory by an error analysis message generation unit 105e and recorded in a test case 106;
FIG. 8 is a diagram illustrating an appearance of a program generation device (test case generation device) according to the first embodiment.
FIG. 9 is a hardware configuration diagram of a program generation device (test case generation device) according to the first embodiment.
[Explanation of symbols]
5 LAN, 37 CPU, 38 bus, 39 ROM, 40 RAM, 41 CRT display device, 42 K / B, 43 mouse, 44 communication boat, 45 FDD, 46 magnetic disk device, 47 OS, 48 window system, 49 program group, 50 files, 86 CDD, 87 printer, 88 scanner, 100 program generator, 101 product specification, 102 test scenario, 103 resource configuration information, 104 functional model, 105 test case generator, 105a resource record for each test procedure Section, 105b resource-specific access order / expected value generator, 105c test procedure execution order expected value generator, 105d error analysis message generator, 105e pseudo data generator, 105f test procedure inheritance relationship generator, 106 test case, 106a Examination procedure Configuration information, 106b Access order / expected value information for each resource, 106c Test procedure execution order information, 106d Error analysis message information, 106e Pseudo data information for each resource, 106f Inheritance information between test procedures, 107 test bench, 108 simulator, 109 test Case execution result, 110 error analysis unit, 200 system unit, 310 fax machine, 320 telephone, 500 web server, 501 Internet.

Claims (10)

複数の資源を有する回路をモデル化した機能モデルの動作を試験する試験手続きを生成してテストケースとして記憶するテストケース生成部と、
テストケース生成部が生成した試験手続きによる機能モデルの動作の試験の結果がエラーになる場合、このエラー原因を解析するためのエラー原因解析情報を生成して記憶する原因解析情報生成部と
を備えたことを特徴とするテストケース生成装置。
A test case generation unit that generates a test procedure for testing the operation of a functional model obtained by modeling a circuit having a plurality of resources and stores the test procedure as a test case;
When a result of a test of the operation of the functional model by the test procedure generated by the test case generation unit results in an error, a cause analysis information generation unit that generates and stores error cause analysis information for analyzing the cause of the error is provided. A test case generation device.
上記原因解析情報生成部は、エラー原因解析情報として、複数の資源それぞれに設定され、いずれの資源であるかを特定可能な擬似データを生成する擬似データ生成部を備え、
上記テストケース生成部は、機能モデルの動作を試験する前に擬似データ生成部が生成した擬似データを各資源に設定する試験手続きを生成することを特徴とし、
上記試験手続きが実行された結果、資源から得られる結果値が擬似データである場合にその結果値を提供した資源がいずれの資源であるかを特定可能にすることを特徴とする請求項1記載のテストケース生成装置。
The cause analysis information generation unit includes a pseudo data generation unit that generates pseudo data that is set for each of a plurality of resources as error cause analysis information and that can specify which resource the resource is,
The test case generation unit generates a test procedure for setting the pseudo data generated by the pseudo data generation unit to each resource before testing the operation of the functional model,
2. The method according to claim 1, wherein, as a result of the execution of the test procedure, when a result value obtained from the resource is pseudo data, it is possible to specify which resource provided the result value. Test case generator.
上記原因解析情報生成部は、エラー原因解析情報として、エラー結果とそのエラー要因との対応関係とエラー解析用メッセージとを生成するエラー解析用メッセージ生成部を備え、
上記テストケース生成部は、資源に対して試験が実行された場合にその資源に保持されるはずの期待値が既知の試験を実行し、その試験の実行により、その資源から得られる結果値と期待値とを比較することにより試験結果がエラーか否かを判定するとともに、試験結果がエラーであると判定される場合にエラー解析用メッセージを出力する試験手続きを生成することを特徴とする請求項1または2記載のテストケース生成装置。
The cause analysis information generation unit includes an error analysis message generation unit that generates a correspondence between an error result and the error factor and an error analysis message as error cause analysis information,
The test case generation unit executes a test in which an expected value to be held in the resource when the test is executed on the resource is known, and by executing the test, a result value obtained from the resource is obtained. Determining whether the test result is an error by comparing the expected value with an expected value, and generating a test procedure for outputting an error analysis message when the test result is determined to be an error. Item 3. The test case generation device according to item 1 or 2.
上記原因解析情報生成部は、
試験手続きが実行され資源が試験されることによりその資源に保持されることが期待される期待値を生成する資源別期待値生成部を備え、
上記テストケース生成部は、資源が試験されることによりその資源から得られる結果値と資源別期待値生成部が生成した期待値とを比較することにより試験結果がエラーか否かを判定する試験手続きを生成することを特徴とする請求項1〜3いずれか記載のテストケース生成装置。
The cause analysis information generation unit includes:
An expected value generation unit for each resource that generates an expected value expected to be held in the resource when the test procedure is executed and the resource is tested,
The test case generator is configured to compare a result value obtained from the resource when the resource is tested with the expected value generated by the resource-specific expected value generator to determine whether the test result is an error. The test case generation device according to claim 1, wherein the test case generation device generates a procedure.
上記テストケース生成部は、所定の順序で実行される複数の試験手続きからなる試験手続きを生成するとともに、
上記原因解析情報生成部は、エラー原因解析情報として試験手続き別に試験手続きの内容と試験手続きが使用する資源の情報を生成し、試験手続き構成情報として記録する試験手続き別資源記録部を備え、
上記エラー解析用メッセージ生成部は、試験手続き別資源記録部が記録した試験手続き構成情報を用いてエラー解析用メッセージを生成すること特徴とする請求項3に記載のテストケース生成装置。
The test case generation unit generates a test procedure including a plurality of test procedures to be executed in a predetermined order,
The cause analysis information generating unit includes a test procedure-specific resource recording unit that generates test procedure contents and resource information used by the test procedure for each test procedure as error cause analysis information, and records the information as test procedure configuration information.
4. The test case generation apparatus according to claim 3, wherein the error analysis message generation unit generates the error analysis message using the test procedure configuration information recorded by the test procedure-specific resource recording unit.
上記テストケース生成部は、所定の順序で実行される複数の試験手続きからなる試験手続きを生成するとともに、
上記原因解析情報生成部は、エラー原因解析情報として複数の試験手続きの実行順序を生成し、試験手続き実行順序期待値として記録する試験手続き実行順序期待値生成部を備え、
上記エラー解析用メッセージ生成部は、原因解析情報生成部が生成した試験手続き実行順序期待値を用いてエラー解析用メッセージを生成すること特徴とする請求項3記載のテストケース生成装置。
The test case generation unit generates a test procedure including a plurality of test procedures to be executed in a predetermined order,
The cause analysis information generation unit includes a test procedure execution order expected value generation unit that generates an execution order of a plurality of test procedures as error cause analysis information and records the execution order as a test procedure execution order expected value.
4. The test case generation device according to claim 3, wherein the error analysis message generation unit generates the error analysis message using the test procedure execution order expected value generated by the cause analysis information generation unit.
上記テストケース生成部は、所定の順序で実行される複数の試験手続きからなる試験手続きを生成するとともに、
上記原因解析情報生成部は、
エラー原因解析情報として試験手続き別に試験手続きの内容と試験手続きが使用する資源の情報を生成し、試験手続き構成情報として記録する試験手続き別資源記録部と、
エラー原因解析情報として複数の試験手続きの実行順序を生成し、試験手続き実行順序期待値として記録する試験手続き実行順序期待値生成部と、
試験手続き別資源記録部が生成した試験手続き構成情報と試験手続き実行順序期待値生成部が生成した試験手続き実行順序期待値とを用いて、試験手続きが実行された場合にエラー結果を引き起こす試験手続きを試験手続き間継承情報として生成する試験手続き間継承関係生成部とを備え、
上記エラー解析用メッセージ生成部は、試験手続き間継承関係生成部が生成した試験手続き間継承情報を用いてエラー結果を引き起こす試験手続きをエラー要因としたエラー解析用メッセージを生成することを特徴とする請求項3記載のテストケース生成装置。
The test case generation unit generates a test procedure including a plurality of test procedures to be executed in a predetermined order,
The cause analysis information generation unit includes:
A test procedure-specific resource recording unit that generates test procedure contents and resource information used by the test procedure for each test procedure as error cause analysis information, and records the information as test procedure configuration information;
A test procedure execution order expected value generation unit that generates an execution order of a plurality of test procedures as error cause analysis information and records the test procedure execution order expected value;
A test procedure that causes an error result when a test procedure is executed using the test procedure configuration information generated by the test procedure resource recording unit and the test procedure execution order expected value generated by the test procedure execution order expected value generation unit. And an inter-procedure inheritance relationship generation unit that generates
The error analysis message generation unit generates an error analysis message using a test procedure that causes an error result as an error factor, using the inter-test procedure inheritance information generated by the inter-test procedure inheritance relationship generation unit. The test case generation device according to claim 3.
複数の資源を有する回路をモデル化した機能モデルの動作を試験する試験手続きを生成しテストケースとして記憶するテストケース生成工程と、
テストケース生成工程が生成した試験手続きによる機能モデルの動作の試験の結果がエラーになる場合、このエラー原因を解析するためのエラー原因解析情報を生成して記憶する原因解析情報生成工程と
を備えたことを特徴とするテストケース生成方法。
A test case generating step of generating a test procedure for testing the operation of a functional model obtained by modeling a circuit having a plurality of resources and storing the test procedure as a test case;
A cause analysis information generation step of generating and storing error cause analysis information for analyzing the cause of the error when the result of the test of the operation of the functional model by the test procedure generated by the test case generation step results in an error; A test case generation method characterized in that:
回路をモデル化した機能モデルの動作を試験する試験手続き部と、
試験手続き部による機能モデルの動作の試験の結果がエラーになる場合、このエラー原因を解析するためのエラー原因解析情報を試験手続きに対応させて記憶する原因解析情報記憶部と
を備えたことを特徴とするテストケース。
A test procedure unit for testing the operation of the functional model that models the circuit,
When the result of the test of the operation of the functional model by the test procedure unit results in an error, a cause analysis information storage unit for storing error cause analysis information for analyzing the cause of the error in association with the test procedure is provided. Test case to be characterized.
回路をモデル化した機能モデルの動作を試験する試験手続き工程と、
エラー原因を解析するためのエラー原因解析情報を予め試験手続きに対応させて生成しメモリに記憶する原因解析情報生成工程と、
試験手続き工程による機能モデルの動作の試験の結果がエラーになる場合、原因解析情報生成工程でメモリに記憶したエラー原因解析情報を試験手続きに対応させて表示する原因解析情報表示工程と
を備えたことを特徴とするテスト方法。
A test procedure for testing the operation of the functional model that models the circuit; and
A cause analysis information generating step of generating error cause analysis information for analyzing an error cause in advance corresponding to a test procedure and storing the information in a memory;
A cause analysis information display step of displaying the error cause analysis information stored in the memory in the cause analysis information generation step in accordance with the test procedure when the result of the test of the operation of the functional model in the test procedure step results in an error. A test method characterized by the following:
JP2003117070A 2003-04-22 2003-04-22 Test case generation apparatus and test case generation method Expired - Fee Related JP3833626B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003117070A JP3833626B2 (en) 2003-04-22 2003-04-22 Test case generation apparatus and test case generation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003117070A JP3833626B2 (en) 2003-04-22 2003-04-22 Test case generation apparatus and test case generation method

Publications (2)

Publication Number Publication Date
JP2004326237A true JP2004326237A (en) 2004-11-18
JP3833626B2 JP3833626B2 (en) 2006-10-18

Family

ID=33497086

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003117070A Expired - Fee Related JP3833626B2 (en) 2003-04-22 2003-04-22 Test case generation apparatus and test case generation method

Country Status (1)

Country Link
JP (1) JP3833626B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008083781A (en) * 2006-09-26 2008-04-10 Fujitsu Ltd Verification support program, recording medium for recording this program, verification support device, and verification support method
JP2008210004A (en) * 2007-02-23 2008-09-11 Fujitsu Ltd Device, method and program for generating verification scenario, and verification device
CN110334003A (en) * 2019-05-22 2019-10-15 梁俊杰 A kind of flow designing method and relevant device
CN110554956A (en) * 2019-07-31 2019-12-10 交控科技股份有限公司 BDMS automatic testing method

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03157781A (en) * 1989-11-16 1991-07-05 Nec Corp Logic circuit verifying system
JPH04165431A (en) * 1990-10-29 1992-06-11 Matsushita Electric Ind Co Ltd Bus system test device
JPH05334202A (en) * 1992-06-03 1993-12-17 Fuji Electric Co Ltd Check method for ram
JPH09330242A (en) * 1996-06-12 1997-12-22 Hitachi Ltd Test instruction string generation system for information processor
JPH10339763A (en) * 1997-06-06 1998-12-22 Nec Corp Detection method and system of input terminal competing pattern
JPH11120022A (en) * 1997-10-13 1999-04-30 Meidensha Corp Test device for printed board
JP2001022610A (en) * 1999-07-07 2001-01-26 Hitachi Ltd Logic simulation system for data processor

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03157781A (en) * 1989-11-16 1991-07-05 Nec Corp Logic circuit verifying system
JPH04165431A (en) * 1990-10-29 1992-06-11 Matsushita Electric Ind Co Ltd Bus system test device
JPH05334202A (en) * 1992-06-03 1993-12-17 Fuji Electric Co Ltd Check method for ram
JPH09330242A (en) * 1996-06-12 1997-12-22 Hitachi Ltd Test instruction string generation system for information processor
JPH10339763A (en) * 1997-06-06 1998-12-22 Nec Corp Detection method and system of input terminal competing pattern
JPH11120022A (en) * 1997-10-13 1999-04-30 Meidensha Corp Test device for printed board
JP2001022610A (en) * 1999-07-07 2001-01-26 Hitachi Ltd Logic simulation system for data processor

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008083781A (en) * 2006-09-26 2008-04-10 Fujitsu Ltd Verification support program, recording medium for recording this program, verification support device, and verification support method
JP4707191B2 (en) * 2006-09-26 2011-06-22 富士通株式会社 Verification support program, recording medium storing the program, verification support apparatus, and verification support method
JP2008210004A (en) * 2007-02-23 2008-09-11 Fujitsu Ltd Device, method and program for generating verification scenario, and verification device
CN110334003A (en) * 2019-05-22 2019-10-15 梁俊杰 A kind of flow designing method and relevant device
CN110554956A (en) * 2019-07-31 2019-12-10 交控科技股份有限公司 BDMS automatic testing method
CN110554956B (en) * 2019-07-31 2023-05-23 交控科技股份有限公司 BDMS automatic test method

Also Published As

Publication number Publication date
JP3833626B2 (en) 2006-10-18

Similar Documents

Publication Publication Date Title
US10552301B2 (en) Completing functional testing
US7272752B2 (en) Method and system for integrating test coverage measurements with model based test generation
US7506211B2 (en) Automated atomic system testing
US7685471B2 (en) System and method for detecting software defects
US20090271661A1 (en) Status transition test support device, status transition test support method, and recording medium
JP6070847B2 (en) Verification method, verification apparatus, and verification program
JP2007172542A (en) Design apparatus, design method, and program therefor
JP2000112784A (en) Program test support device and storage medium recording program test support program
EP2263148A2 (en) Building operating system images based on applications
JP5504960B2 (en) Simulation apparatus and simulation method
JP3833626B2 (en) Test case generation apparatus and test case generation method
JP2005338987A (en) Exception test support program and device
US20080052678A1 (en) Method for Providing Annotated Transaction Monitoring Data for Initially Hidden Software components
JP4503203B2 (en) Method and apparatus for creating test program for evaluating information processing apparatus, and program describing processing for the same
GB2397905A (en) Method for automatically generating and ordering test scripts
US7689399B1 (en) Automatic extraction of design properties
JP2012164098A (en) Entry rewriting device and entry rewriting program
JP2008191796A (en) Analysis device, analysis method and program
JPH10334125A (en) Device, system, and method for cad software automatic test, and recording medium
JP6974707B2 (en) Test program, test equipment and test method
JP6397800B2 (en) Test support system and test support method
JP2010211342A (en) Test pattern management device, test pattern management method, and program
CN116318861A (en) Ether-mill intelligent contract return value non-testing method based on dynamic transaction information
JP2021015481A (en) Information processing program, information processing method, and information processing device
JPH11149489A (en) Simulation system

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20041026

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060516

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060621

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060718

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060719

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees