WO2014010036A1 - テスト生成システム、及び、テスト生成方法 - Google Patents

テスト生成システム、及び、テスト生成方法 Download PDF

Info

Publication number
WO2014010036A1
WO2014010036A1 PCT/JP2012/067642 JP2012067642W WO2014010036A1 WO 2014010036 A1 WO2014010036 A1 WO 2014010036A1 JP 2012067642 W JP2012067642 W JP 2012067642W WO 2014010036 A1 WO2014010036 A1 WO 2014010036A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
test
task
rule
document
Prior art date
Application number
PCT/JP2012/067642
Other languages
English (en)
French (fr)
Inventor
こなぎ 内部
康嗣 森本
久雄 間瀬
Original Assignee
株式会社日立製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立製作所 filed Critical 株式会社日立製作所
Priority to PCT/JP2012/067642 priority Critical patent/WO2014010036A1/ja
Publication of WO2014010036A1 publication Critical patent/WO2014010036A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0639Performance analysis of employees; Performance analysis of enterprise or organisation operations

Definitions

  • the present invention relates to a system that supports an understanding of a document of an operator who performs a task.
  • Patent Document 1 discloses a system that manages a document to be referenced in association with a task to be performed and realizes a function that makes it easy for an operator to refer to the document.
  • Patent Document 2 discloses a self-study system that generates a test using related documents based on keywords and sentences relating to contents that an operator wants to learn.
  • Patent Document 1 Using the method of Patent Document 1, it becomes easier for an operator to find a document related to the task he / she performs. However, it does not create a test for the document to be referenced, and it is up to the worker to refer to the document. For this reason, some workers perform tasks without referring to them, and there is a problem that they do not lead to knowledge acquisition.
  • Patent Document 2 makes it easier for the operator to obtain knowledge from the document.
  • a database in which documents are tabulated with items defined in advance must be created, and the work of creating an existing document into a database is very complicated.
  • Patent Document 2 it is created based on the items and their relationships, and the similarity between the query and the document. For example, when a query is given to a database documented in the items “event”, “cause”, and “measure”, a description classified as “event” similar to the query is selected, and “the event is A question such as "What is the cause?" On the other hand, it is a creation method in which a description classified as “cause” corresponding to the event is used as an answer. With this method, there was a problem that tests could be created only with items defined for all tasks and their relationships. For example, the question “What causes the event?” Is meaningful for an operator who performs a task, but is not meaningful for an operator who performs another task because it indicates general technical common sense. There can be.
  • a recording unit that records document data corresponding to task information for identifying a task, rule information corresponding to task information, an input unit for inputting task information, and a test based on the input task information
  • a test generation system having a test generation unit that generates information and a display unit that displays a test created based on the test information.
  • the rule information is associated with each of a plurality of task information, and the test generation unit acquires document data and rule information corresponding to the input task information from the recording unit, and the acquired document data and rule Test information is generated based on the information.
  • the present invention it is easy to understand a document by performing a test according to the task on a document to be read when the task is performed. As a result, knowledge about tasks can be obtained, and the creation of defects due to lack of knowledge can be reduced.
  • FIG. 1 is a diagram for explaining the configuration of this embodiment.
  • a design document understanding support apparatus 101 for realizing the present invention includes a CPU 102 that executes various processes, an input apparatus 103 that a user inputs, an output apparatus 104 that provides various information to the user, an OS 106, and a design process management. It comprises a storage device 105 for storing a program such as the program 107 and the test execution program 108, and various data, and a work memory 113 for temporarily storing calculation results being processed.
  • the CPU 102 implements various functions described below by reading and executing various programs recorded in the storage device 105.
  • the input device 103 can be composed of devices such as a keyboard and a mouse.
  • the output device 104 can be composed of a display device such as a display.
  • the storage device 105 can be configured by a non-volatile memory such as SRAM or flash memory, and may be configured such that programs and invariant data are divided into ROM and variable data is divided into RAM. It can also be configured by a storage medium such as a disk.
  • the design process management program 107 manages the progress status such as the start and end of the task, the output information that must be created in the task, the information on the documents and tools related to the task, etc. It is a program.
  • the test execution program 108 receives task information at the same time as the request, and generates test information in the test generation program 109.
  • the test generation program 109 includes a keyword extraction program 110, a partial description extraction program 111, and a test information generation program 112 as subprograms.
  • a test screen is created based on the test information generated by the test generation program 109 and displayed on the output device 104.
  • the user inputs an answer using the input device 103 on the display screen.
  • the test execution program 108 determines whether the answer is correct based on the test information for the input answer, and outputs the determination result to the output device 104.
  • FIG. 2 shows an example of a screen displayed for the design process management program 107 to manage the task execution status of the worker.
  • the work process table 201 displays a list of design processes in a tree form.
  • the tasks actually performed by the worker are tasks arranged in the leaves of the tree (task A and task B in FIG. 2).
  • task information 202 such as progress, output, tool, and reference document is displayed.
  • An example of the design process management program 107 is disclosed in, for example, Japanese Patent Laid-Open No. 2003-316829, and various known techniques can be applied.
  • FIG. 3 is a diagram for explaining the configuration of data handled in this embodiment.
  • the data consists of document information corresponding to a task and rules applied to description extraction in test creation, and can be configured by a task correspondence information table 301, a document table 306, and a test generation rule table 307.
  • the task correspondence information table 301, the document table 306, and the test generation rule table 307 are stored in the storage device 105.
  • the task correspondence information table 301 includes a task 302, an output reference document 303, a required reading document 304, and a test generation rule 305.
  • Task 302 is a list of tasks corresponding to the leaves of the work process chart shown in FIG.
  • the output reference document 303 is information indicating a document to be used as a reference when creating an output document in the task 302. It can be held as an array of addresses in the document table 306 of the corresponding document.
  • the required reading document 304 is information indicating a document to be read in the task 302. It can be held in the same manner as the output reference document 303.
  • the test generation rule 305 is information indicating a rule applied when creating a test in the task 302. It can be held as an array of addresses in the description extraction rule table 307.
  • the document table 306 is a table in which documents used as references in the design process, such as documents that are targets of the output reference document 303 and the required reading document 304, are collected. Stores information that can identify a document, such as a document storage directory.
  • the test generation rule table 307 includes an extraction rule 308 and a determination rule 309.
  • the extraction rule 308 is a rule for determining an important description part for each task. For example, mathematical expressions, numerical values, instruction expressions, etc. are defined as important descriptions, and extraction rules for these are stored. In the case of mathematical formulas, it is a rule to extract sentences consisting of numbers, alphabets, and symbols, including equal or inequalities. For numeric values, a string of numbers is used as the extraction rule. What is necessary is just to set as a rule which extracts the sentence containing the wording which represents an instruction, such as "should be”.
  • the determination rule 309 stores a rule for determining the question part for the description extracted by the extraction rule 308.
  • a rule corresponding to the extraction rule 308 such as a right part of an equal sign or an inequality sign, a numerical value itself, a word that is a purpose of an instruction in an instruction expression is stored in the expression.
  • a test corresponding to a task can be generated by defining an extraction rule and a decision rule corresponding to each task.
  • FIG. 4 is a schematic PAD showing the processing flow of the test generation program 109.
  • the test generation program 109 is executed when the test execution program 108 receives a test execution request from the design process management program 107 together with information on a task to be tested.
  • the task information is information that can identify which task is stored in the task correspondence information table 301, an address on the table, an ID number, or the like.
  • keyword extraction processing 401 is performed on all output reference documents 303 corresponding to the designated task 302.
  • a partial description extraction process 402 and a test information generation process 403 are performed on all the required reading documents 304 corresponding to the designated task 302.
  • test information obtained in the test information generation process 403 is returned (404).
  • FIG. 5 is a schematic PAD of the keyword extraction process 401. This process is performed by the keyword extraction program 111.
  • the target document has a table of contents (501).
  • whether a document includes an expression representing a table of contents such as “table of contents” or “contents” can be applied as a determination rule. If a table of contents is included, the item names of chapters and sections described in the table of contents are extracted (502). For example, an extraction rule with item names from the back of a description expression such as “1.”, “1.4”, “Chapter 1” to the front of a space or “...” “. If there is no table of contents, the chapter and section item names in the document are extracted (503). Extraction rules with item names from after “1”, “1.4”, “Chapter 1”, etc. to before line feed are applied.
  • the title description of the table or figure is extracted (504). For example, it is performed by applying an extraction rule that uses the subsequent sentences such as “FIG. 2” and “Table 2.2” as table / title names.
  • FIG. 6 shows an example of a chapter item name and a table / title name description extracted during the keyword extraction process 401.
  • FIG. 7 is an example of keywords and appearance frequency (number) obtained as a result of the keyword extraction processing 401.
  • FIG. 8 is a schematic PAD of the partial description extraction process 402. This process is performed by the partial description extraction program 111.
  • the description of the target must-read document is divided (801). For example, it can be divided by one paragraph or a predetermined number of lines and characters. If an expression representing a chapter / section appears, it may be divided so that it does not cross over the chapter / section.
  • the score calculation can be calculated as the product sum of the number of keywords extracted by the keyword extraction processing 401 and the appearance frequency in each divided description.
  • N is the number of tests to be created and may be defined in advance or specified from the design process management program 107.
  • FIG. 9 shows an example of the description extracted by the description extraction process 402.
  • FIG. 10 is a schematic PAD of the test information generation process. This process is performed by the test information generation program 112.
  • an important description is extracted according to the test generation rule 305 corresponding to the task 302 that is the target of the task correspondence information table 301 (1001).
  • the extraction rule corresponding to the task refers to the extraction rule 308 that is an element of the test generation rule table 307 indicated by the test generation rule 305 of the task correspondence information table 301. If the extraction rule is a rule for extracting a numerical value, a numerical value is extracted, and if the extraction rule is a rule for extracting a mathematical expression, a portion in which the mathematical expression is described is extracted.
  • the question part is determined in the extracted important description (1002).
  • the question part is determined according to a determination rule corresponding to the extraction rule applied in the important description extraction processing 1001.
  • the determination rule 309 corresponding to the extraction rule 308 in the test generation rule table 307 is referred to.
  • the question part can be the numerical part when the important description is a numerical value, it can be the right side of an equal sign or inequality sign in the case of a mathematical expression, and can be the object in the sentence in the case of a command expression.
  • the question part corresponding to the task can be determined by using the extraction rule and the determination rule corresponding to the task.
  • FIG. 11 shows the case where an important description and a question part are determined when a rule for extracting a mathematical expression, a numerical value, and an instruction expression is adopted as an example of a rule for extracting an important description with respect to the partial description obtained by the partial description extracting process 402. This is an example.
  • Descriptions 1101, 1102, and 1103 correspond to 901, 902, and 903 in FIG.
  • m is the type of extraction rule.
  • m 1 for numerical values
  • m 2 for instruction expressions
  • m 3 for mathematical expressions.
  • x is the ID (serial number) of the partial description in each partial description.
  • numerical expressions “15”, “10”, and “60” and an instruction expression are extracted as one important description.
  • numerical values “1”, “10”, and “3” are extracted.
  • the question part in the important description is a part surrounded by tags ⁇ s> and ⁇ / s>.
  • the numerical value is the same as the important description
  • the instruction expression “part A” is the question part.
  • “W” and “v0 ⁇ g ⁇ t” are questions.
  • the description 1103 since all important descriptions are numerical values, the important description and the question part are the same.
  • the text tagged with the questions shown in FIG. 11 is returned as test information.
  • the test execution program 108 receives the test information, generates a test screen with the question part blank and an answer column, and displays it on the output device 104.
  • a general WEB screen creation method for performing a question-and-answer session can be applied.
  • the user can enter answers and give instructions on the test screen.
  • the test execution program 108 performs scoring based on the test information and displays the result.
  • the grading can be determined by checking the contents entered by the user against the test questions in the test information.
  • the display of the result can be performed in the same manner as the creation of a normal WEB screen.
  • Fig. 12 shows an example of a test display screen.
  • a designated question part is created as a blank for the text received as test information.
  • the answer column 1202 includes an answer entry column and buttons for instructing scoring.
  • Fig. 13 is a sequence diagram from the test request to the scoring result display.
  • the CPU 102 acquires document information and rule information corresponding to the task information from the storage device 105 based on the task information passed along with the test execution request ( 1302), generating test information, storing the test information in the storage device 105 (1303), and displaying the test on the output device 104 (1304).
  • the CPU 102 acquires test information from the storage device 105 (1306) and displays the determination result on the output device 104 (1307).
  • Design document understanding support device 102 CPU 103 Input Device 104 Output Device 105 Storage Device 106 OS 107 Design Process Management Program 108 Test Execution Program 109 Test Generation Program 110 Keyword Extraction Program 111 Partial Description Extraction Program 112 Test Information Generation Program 201 Work Process Table 202 Task Information 301 Task Correspondence Information Table 302 Task 303 Output Reference Document 304 Required Reading Document 305 Test Generation rule 306 Document table 307 Test generation rule table 308 Extraction rule 309 Determination rule 401 Keyword extraction process 402 Partial description extraction process 403 Test information generation process

Landscapes

  • Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Engineering & Computer Science (AREA)
  • Strategic Management (AREA)
  • Development Economics (AREA)
  • Economics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Educational Administration (AREA)
  • Operations Research (AREA)
  • Marketing (AREA)
  • Game Theory and Decision Science (AREA)
  • Quality & Reliability (AREA)
  • Tourism & Hospitality (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

 タスクを識別するためのタスク情報に対応する文書データと、タスク情報に対応するルール情報とを記録し、入力されたタスク情報に基づいてテスト情報を生成し、テスト情報に基づいて作成されたテストを表示する。ルール情報は、複数のタスク情報それぞれに対して対応づけられている。入力されたタスク情報に対応する文書データとルール情報とを取得し、取得した文書データとルール情報とに基づいてテスト情報を生成することにより、タスクを実施する際に読むべき文書に対する理解を支援する。

Description

テスト生成システム、及び、テスト生成方法
 本発明は、タスクを実施する作業者の文書の理解を支援するシステムに関するものである。
 設計工程において不良が発生すると、手戻りによる設計期間の延長など大きなロスが生じる。不良の中でも、作業者の知識不足により発生する不良は多く、知識不足の経験の浅い作業者を補助していた熟練作業者の減少も重なり、より大きな問題となっている。
 このような不良発生を防ぐために、設計基準書や規格書、過去の不良事例集、設計ノウハウ集など、タスクの実施に役立つ文書を活用して、知識不足を補うという方法が注目されてきている。
 設計工程管理において、実施するタスクに対して参考になる文書を関連付けて管理し、作業者が文書を参照しやすくなる機能を実現するシステムが特許文献1に開示されている。
 また、作業者が学びたい内容に関するキーワードや文を基に、関連する文書を用いて、テストを生成する自習システムが特許文献2に開示されている。
特開2008-226157号公報 特開2010-157199号公報
 特許文献1の方法を用いると、作業者は自分が行うタスクと関係のある文書を見つけやすくなる。しかし、参照すべき文書に関するテストを作成するものではなく、文書の参照は作業者に任される。そのため、参照しないままタスクを実施する作業者もあり、知識の獲得につながらないという課題があった。
 一方、特許文献2の方法を用いると、作業者が文書から知識を得やすくはなる。しかし、文書を予め定義した項目でテーブル化したデータベースを作成しておかなければならず、既存の文書をデータベース化する作業が非常に煩雑であるという課題があった。
 また、特許文献2のテスト生成においては、項目とその関係、およびクエリと文書の類似性を基に作成している。例えば、「事象」「原因」「対策」という項目でデータベース化された文書に対し、あるクエリが与えられると、そのクエリに類似した「事象」に分類された記述を選択し、「その事象が起こる原因は何か」というような質問が生成される。それに対して、その事象に対応する「原因」に分類された記述を解答とするような作成方法である。この方法だと、あらゆるタスクに対して定義した項目とその関係でしかテストを作成できないという課題があった。例えば、「その事象が起こる原因は何か」という質問は、あるタスクを行う作業者にとっては有意義であるが、別のタスクを行う作業者にとっては一般的な技術常識を示す内容となり有意義でないことがありうる。
 本願において開示される発明のうち、代表的なものの概要を簡単に説明すれば、下記の通りである。
 タスクを識別するためのタスク情報に対応する文書データと、タスク情報に対応するルール情報とを記録する記録部と、タスク情報を入力するための入力部と、入力されたタスク情報に基づいてテスト情報を生成するテスト生成部と、テスト情報に基づいて作成されたテストを表示する表示部と、を有するテスト生成システムである。ルール情報は、複数のタスク情報それぞれに対して対応づけられており、テスト生成部は、入力されたタスク情報に対応する文書データとルール情報とを記録部から取得し、取得した文書データとルール情報とに基づいてテスト情報を生成する。
 本発明によれば、タスクを実施する際に読むべき文書に対して、タスクに応じたテストを実施することにより、文書を理解しやすくなる。結果として、タスクに関する知識が得られ、知識不足による不良の作り込みを軽減できる。
設計文書理解支援装置の例である。 設計工程管理を行うシステムの表示画面を説明する図の例である。 データ構造を説明する図の例である。 テスト生成プログラムの処理フローを説明する図での例ある。 キーワード抽出処理の処理フローを説明する図の例である。 キーワードを抽出する対象となる記述の例を説明する図である。 抽出したキーワードの例を説明する図である。 部分記述抽出処理の処理フローを説明する図の例である。 部分記述の例を説明する図である。 テスト情報生成処理の処理フローを説明する図の例である。 重要記述と出題箇所を説明する図の例である。 テストの表示例を説明する図である。 テスト要求から採点結果表示までのシーケンスを説明する図の例である。
 以下、本発明の実施例を図1~13を参照して説明する。
 図1は本実施例の構成について説明する図である。本発明を実現するための設計文書理解支援装置101は、各種処理を実行するCPU102と、ユーザが入力を行う入力装置103と、各種情報をユーザに提供する出力装置104と、OS106、設計工程管理プログラム107やテスト実施プログラム108などのプログラム類、各種データを格納すると共に処理中の計算結果を一時的に格納する作業メモリ113を格納する記憶装置105からなる。
 CPU102は、記憶装置105に記録されている各種プログラムを読み出して実行することにより、以下説明する各種機能を実現する。
 入力装置103は、キーボードやマウスなどのデバイスで構成することが可能である。
 出力装置104は、ディスプレイなどの表示装置で構成することが可能である。
 記憶装置105は、SRAMやフラッシュメモリなどの不揮発性メモリで構成することが可能であるほか、プログラム類や不変データをROMに、可変データをRAMに分ける構成としてもよく、半導体メモリではなく、磁気ディスクなどの記憶媒体で構成することも可能である。
 設計工程管理プログラム107は設計工程を構成するタスクに対し、タスクの開始や終了などの進捗状況や、タスクにおいて作成しなければならない出力の情報、タスクに関連する文書やツールの情報などを管理するプログラムである。
 テスト実施プログラム108は、設計工程管理プログラム107からテスト実施リクエストがあったときに、リクエストと同時にタスク情報を受け取り、テスト生成プログラム109においてテスト情報を生成する。テスト生成プログラム109は、サブプログラムとして、キーワード抽出プログラム110、部分記述抽出プログラム111、テスト情報生成プログラム112を有する。テスト生成プログラム109が生成したテスト情報を基にテスト画面を作成して出力装置104に表示する。ユーザは表示画面に対して入力装置103を用いて解答を入力する。テスト実施プログラム108は、入力された解答に対し、上記テスト情報を基に解答の正誤を判定し、判定結果を出力装置104に出力する。
 図2は設計工程管理プログラム107が作業者のタスク実施状況管理を行うために表示する画面例である。作業工程表201には設計工程の一覧をツリー状に表示する。作業者が実際に行うタスクはツリーの葉(図2におけるタスクA、タスクB)に配置されたタスクである。作業者が作業工程表201で実施するタスクにチェックを入れると、進捗、出力、ツール、参考文書などのタスク情報202が表示される。設計工程管理プログラム107の例としては、例えば特開2003-316829に開示されており、各種公知の技術を適用可能である。
 図3は本実施例で扱うデータの構成について説明する図である。データはタスクと対応する文書情報、およびテスト作成において記述抽出に適用するルールから成り、タスク対応情報テーブル301、文書テーブル306、テスト生成ルールテーブル307で構成できる。タスク対応情報テーブル301、文書テーブル306、テスト生成ルールテーブル307は記憶装置105に保存される。
 タスク対応情報テーブル301は、タスク302、出力参考文書303、必読文書304、テスト生成ルール305を要素とする。
 タスク302は図2に示した作業工程表の葉に当たるタスクの一覧である。
 出力参考文書303は、タスク302において出力文書を作成する際に参考となる文書を示す情報である。対応する文書の文書テーブル306におけるアドレスの配列として保持できる。
 必読文書304は、タスク302において読むべき文書を示す情報である。出力参考文書303と同様の方法で保持できる。
 テスト生成ルール305は、タスク302においてテスト作成の際に適用されるルールを示す情報である。記述抽出ルールテーブル307におけるアドレスの配列として保持できる。
 文書テーブル306は出力参考文書303や必読文書304の対象となる文書など、設計工程において参考となる文書を集めたテーブルである。文書の格納先ディレクトリなど、文書を特定できる情報を格納する。
 テスト生成ルールテーブル307は、抽出ルール308と決定ルール309で構成される。
 抽出ルール308は、タスクごとに重要となる記述部分を決定するルールである。例えば、重要な記述として、数式、数値、命令表現などを定め、これらに対する抽出ルールを格納する。数式の場合、等号か不等号を含み、数字、アルファベット、記号からなる文を抽出するルールとし、数値の場合は数字の列を抽出ルールに、命令表現の場合は、「~すること」「~すべきである」など命令を表す言い回しを含む文を抽出するルールとして定めればよい。
 決定ルール309は、抽出ルール308で抽出する記述に対し、出題部分を決定するルールを格納する。例えば、数式に対しては式に置いて等号、不等号の右側部分、数値は数値そのもの、命令表現では命令の目的となる語など抽出ルール308に対応するルールを格納する。
 このように、タスクごとに対応する抽出ルール、決定ルールを定めておくことにより、タスクに応じたテストを生成することができる。
 図4はテスト生成プログラム109の処理フローを示す概略PADである。テスト生成プログラム109は、テスト実施プログラム108が設計工程管理プログラム107からテスト実施のリクエストを、テストを実施したいタスクの情報と共に受け取ると実行される。タスクの情報はタスク対応情報テーブル301に格納されているどのタスクかを識別できる情報、テーブル上のアドレスやID番号などとする。
 最初に、指定されたタスク302に対応する全ての出力参考文書303に対し、キーワード抽出処理401を行う。
 次に、指定されたタスク302に対応する全ての必読文書304に対し、部分記述抽出処理402とテスト情報生成処理403を行う。
 最後に、テスト情報生成処理403で得られたテスト情報を返す(404)。
 図5はキーワード抽出処理401の概略PADである。本処理はキーワード抽出プログラム111により行われる。
 最初に、対象となる文書に目次があるか否かを判定する(501)。判定には、文書に「目次」「もくじ」など目次を表す表現が含まれるか否かを判定ルールとして適用できる。目次が含まれる場合には、目次に記述されている章、節の項目名を抽出する(502)。例えば「1.」「1.4」「第1章」などの記述表現の後ろから、スペースや「…」「・・・」などの前までを項目名とする抽出ルールを適用する。目次がない場合には、文書中の章、節項目名を抽出する(503)。「1」「1.4」「第1章」などの後から改行前までを項目名とする抽出ルールを適用する。
 次に、表や図の題名記述を抽出する(504)。例えば、「図2」「表2.2」などの後の文を表・図題名とする抽出ルールを適用して行う。
 抽出した章節項目名や表・図題名記述を形態素解析し(505)、形態素解析結果から名詞を選択し、「目的」「結果」「解析」「概要」など予め定めた不要ワードを除去し、残った単語の個数を集計する(506)。
 図6はキーワード抽出処理401の途中で抽出される、章節項目名と表・図題名記述の例である。
 図7はキーワード抽出処理401の結果として得られるキーワードと出現頻度(個数)の例である。
 図8は部分記述抽出処理402の概略PADである。本処理は部分記述抽出プログラム111により行われる。
 最初に対象となる必読文書の記述を分割する(801)。例えば、1パラグラフや、予め定めた行数や字数で分割することができる。章・節を表す表現が出現した場合にはそこで分割し、章・節をまたがないようにしてもよい。
 次に、分割した各記述に対し、スコアを計算する(802)。スコア計算は、分割した各記述内における、キーワード抽出処理401で抽出したキーワードの個数と出現頻度の積和として計算できる。
 最後に、スコアの高い分割記述をN個選択する(803)。Nは作成したいテスト数で、予め定義しておいても良いし、設計工程管理プログラム107から指定してもよい。図9は記述抽出処理402で抽出した記述の例である。
 図10はテスト情報生成処理の概略PADである。本処理はテスト情報生成プログラム112により行われる。
 まず、部分記述抽出処理402で得られた各部分記述に対し、タスク対応情報テーブル301の対象としているタスク302に対応するテスト生成ルール305に従って、重要記述を抽出する(1001)。タスクに対応する抽出ルールはタスク対応情報テーブル301のテスト生成ルール305が示すテスト生成ルールテーブル307の要素である抽出ルール308を参照する。抽出ルールが数値を抽出するルールであれば数値を、数式を抽出するルールであれば、数式が記述されている部分を抽出する。
 次に、抽出した重要記述において出題箇所を決定する(1002)。出題箇所の決定は、重要記述抽出処理1001で適用した抽出ルールに対応する決定ルールに従って行う。テスト生成ルールテーブル307における抽出ルール308に対応する決定ルール309を参照する。出題箇所は、重要記述が数値の場合、その数値部分とし、数式の場合、数式の等号や不等号の右辺とし、命令表現の場合、文中の目的語とすることができる。
 このように、抽出した重要記述から出題箇所を決定する際に、タスクに応じた抽出ルール、決定ルールを用いることにより、タスクに応じた出題箇所を決定することができる。
 また、タスクに関係するキーワードに基づいて、タスクとの関連性の高い部分記述を対象に出題箇所を決定することにより、よりタスクとの関連性の高い適切なテスト生成を行える。
 図11は部分記述抽出処理402で得られた部分記述に対し、重要記述を抽出するルールの例として、数式、数値、命令表現を抽出するルールを採用した場合に、重要記述と出題箇所を決定した例である。記述1101、1102、1103は、図9の901、902、903に対応している。
 重要記述はタグ<tm n=x>と</tm>で囲んだ部分である。ただし、mは即ち抽出ルールの種類である。図11においては、数値の場合にm=1、命令表現の場合m=2、数式の場合m=3としている。xは各部分記述における部分記述のID(通し番号)である。記述1101においては、数値「15」「10」「60」と命令表現がひとつ重要記述として抽出されている。記述1102においては、数式「μ・F>W」と「v=v0-g・t」が抽出されている。記述1103においては、数値「1」「10」「3」が抽出されている。
 一方、重要記述内の出題箇所はタグ<s>と</s>で囲んだ部分である。記述1101においては、数値については重要記述と同じ部分、命令表現については「部品A」が出題箇所である。記述1102においては「W」「v0-g・t」が出題箇所である。記述1103においては、重要記述は全て数値であるため、重要記述と出題箇所は同じである。
 テスト生成プログラム109の処理404においては、図11に示した出題箇所にタグ付けされたテキストをテスト情報として返す。
 テスト実施プログラム108は、テスト情報を受け取り、出題箇所を空欄とし、解答欄を設けたテスト画面を生成し、出力装置104に表示する。テスト画面の作成と表示は、一般的な質疑応答を行うWEB画面作成方法を適用できる。
 テスト画面に対し、ユーザは解答の記入と採点の指示を行うことができる。テスト実施プログラム108は採点の指示があると、上記テスト情報を基に採点を行い、結果を表示する。採点はユーザの記入内容と、テスト情報の記述の出題箇所との照合により正誤を判定できる。結果の表示についても通常のWEB画面の作成と同様に実施できる。
 図12はテストの表示画面の例である。出題欄1201はテスト情報として受け取ったテキストに対し、指定されている出題箇所を空欄として作成している。解答欄1202には解答記入欄と採点を指示するボタンを配置している。
 図13はテスト要求から採点結果表示までのシーケンス図である。テストの実施要求を入力装置103から入力する(1301)と、テストの実施要求と共に渡されるタスク情報を基に、CPU102は、タスク情報に対応する文書情報とルール情報を記憶装置105から取得し(1302)、テスト情報を生成し、テスト情報を記憶装置105に格納し(1303)、テストを出力装置104に表示する(1304)。テストの解答が記入され、採点要求があると(1305)、CPU102は記憶装置105からテスト情報を取得して(1306)、判定結果を出力装置104に表示する(1307)。
 以上、本発明の実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、種々変形実施可能であることは、当業者に理解されよう。
 101 設計文書理解支援装置
 102 CPU
 103 入力装置
 104 出力装置
 105 記憶装置
 106 OS
 107 設計工程管理プログラム
 108 テスト実施プログラム
 109 テスト生成プログラム
 110 キーワード抽出プログラム
 111 部分記述抽出プログラム
 112 テスト情報生成プログラム
 201 作業工程表
 202 タスク情報
 301 タスク対応情報テーブル
 302 タスク
 303 出力参考文書
 304 必読文書
 305 テスト生成ルール
 306 文書テーブル
 307 テスト生成ルールテーブル
 308 抽出ルール
 309 決定ルール
 401 キーワード抽出処理
 402 部分記述抽出処理
 403 テスト情報生成処理

Claims (5)

  1.  タスクを識別するためのタスク情報に対応する文書データと、前記タスク情報に対応するルール情報とを記録する記録部と、
     前記タスク情報を入力するための入力部と、
     前記入力されたタスク情報に基づいてテスト情報を生成するテスト生成部と、
     前記テスト情報に基づいて作成されたテストを表示する表示部と、を有し、
     前記ルール情報は、複数のタスク情報それぞれに対して対応づけられており、
     前記テスト生成部は、前記入力されたタスク情報に対応する文書データとルール情報とを前記記録部から取得し、前記取得した文書データとルール情報とに基づいて前記テスト情報を生成するテスト生成システム。
  2.  請求項1に記載のテスト生成システムであって、
     前記記録部は、前記タスク情報に対応する参考文書を記録し、
     前記テスト生成部は、
     前記参考文書からキーワードを抽出するキーワード抽出部と、
     前記抽出されたキーワードに基づいて前記文書データから部分記述を抽出する部分記述抽出部と、
     前記抽出された部分記述から前記ルール情報に基づいて重要記述を抽出し、前記抽出された重要記述から前記ルール情報に基づいて出題箇所を決定するテスト情報生成部と、を有するテスト生成システム。
  3.  請求項2に記載のテスト生成システムであって、
     前記部分記述抽出部は、前記文書データを複数の分割記述に分割し、前記複数の分割記述それぞれにおける前記抽出されたキーワードの個数と出現頻度の積和をスコアとして計算し、前記スコアが高い所定数の分割記述を前記部分記述として抽出するテスト生成システム。
  4.  タスクを識別するためのタスク情報に対応する文書データと、前記タスク情報に対応するルール情報とを記録し、
     入力された前記タスク情報に基づいてテスト情報を生成し、
     前記テスト情報に基づいて作成されたテストを表示するテスト生成方法であって、
     前記ルール情報は、複数のタスク情報それぞれに対して対応づけられており、
     前記入力されたタスク情報に対応する文書データとルール情報とを取得し、
     前記取得した文書データとルール情報とに基づいて前記テスト情報を生成するテスト生成方法。
  5.  請求項4に記載のテスト生成方法であって、
     前記タスク情報に対応する参考文書を記録し、
     前記参考文書からキーワードを抽出し、
     前記抽出されたキーワードに基づいて前記文書データから部分記述を抽出し、
     前記抽出された部分記述から前記ルール情報に基づいて重要記述を抽出し、前記抽出された重要記述から前記ルール情報に基づいて出題箇所を決定するテスト生成方法。
PCT/JP2012/067642 2012-07-11 2012-07-11 テスト生成システム、及び、テスト生成方法 WO2014010036A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2012/067642 WO2014010036A1 (ja) 2012-07-11 2012-07-11 テスト生成システム、及び、テスト生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2012/067642 WO2014010036A1 (ja) 2012-07-11 2012-07-11 テスト生成システム、及び、テスト生成方法

Publications (1)

Publication Number Publication Date
WO2014010036A1 true WO2014010036A1 (ja) 2014-01-16

Family

ID=49915539

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/067642 WO2014010036A1 (ja) 2012-07-11 2012-07-11 テスト生成システム、及び、テスト生成方法

Country Status (1)

Country Link
WO (1) WO2014010036A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008204159A (ja) * 2007-02-20 2008-09-04 Kobe Steel Ltd 教育システム
JP2010271809A (ja) * 2009-05-20 2010-12-02 L'operaio:Kk フィールドセオリーを用いた営業支援方法およびその装置
JP2011076046A (ja) * 2009-09-30 2011-04-14 Osk:Kk 学習管理装置、学習管理サーバー装置、学習管理システム、プログラムおよび方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008204159A (ja) * 2007-02-20 2008-09-04 Kobe Steel Ltd 教育システム
JP2010271809A (ja) * 2009-05-20 2010-12-02 L'operaio:Kk フィールドセオリーを用いた営業支援方法およびその装置
JP2011076046A (ja) * 2009-09-30 2011-04-14 Osk:Kk 学習管理装置、学習管理サーバー装置、学習管理システム、プログラムおよび方法

Similar Documents

Publication Publication Date Title
Singh et al. A structured review of Lean Six Sigma in various industrial sectors
Balling et al. Post-editing of machine translation: Processes and applications
JP6505421B2 (ja) 情報抽出支援装置、方法およびプログラム
WO2005010789A1 (ja) 能力評価装置、能力評価方法および能力評価プログラム
JP6542612B2 (ja) テストシナリオ生成支援装置およびテストシナリオ生成支援方法
US20090070317A1 (en) Patent claim and specification analysis
JP6237168B2 (ja) 情報処理装置及び情報処理プログラム
Hong et al. How Good is the Crowd at “real” WSD?
Hayes et al. Text mining for software engineering: how analyst feedback impacts final results
JP2013246644A (ja) ソフトウェアオブジェクト修正支援装置、ソフトウェアオブジェクト修正支援方法、および、プログラム
JP6256317B2 (ja) 答案採点装置および答案採点プログラム
WO2014010036A1 (ja) テスト生成システム、及び、テスト生成方法
JP3929418B2 (ja) 情報探索プログラム及び情報探索プログラムを記録した媒体
Uddin et al. Construction hazard recognition: a smart literature review
US20210318949A1 (en) Method for checking file data, computer device and readable storage medium
KR20150008212A (ko) 구매요청도서 마크 데이터 구축방법
JP5322872B2 (ja) 給与計算式作成システム
Chan et al. Text Analytics on Course Reviews from Coursera Platform
Porntrakoon Improve the Accuracy of SenseComp in Thai Consumer’s Review Using Syntactic Analysis
JP6797038B2 (ja) ソフトウェア素材選定支援装置及びソフトウェア素材選定支援プログラム
JP2008250409A (ja) 典型文分析装置、その方法及びそのプログラム
Qureshi et al. Capturing users requirements using a data mining approach
EP3444727A1 (en) A revision system and method for revising translated texts
WO2023228351A1 (ja) 学習装置、管理シート作成支援装置、プログラム、学習方法及び管理シート作成支援方法
KR101287158B1 (ko) 구매요청도서 마크 데이터 구축방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12881004

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12881004

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP