JP2003280687A - Scenario creation supporting device and program for the same - Google Patents

Scenario creation supporting device and program for the same

Info

Publication number
JP2003280687A
JP2003280687A JP2002078411A JP2002078411A JP2003280687A JP 2003280687 A JP2003280687 A JP 2003280687A JP 2002078411 A JP2002078411 A JP 2002078411A JP 2002078411 A JP2002078411 A JP 2002078411A JP 2003280687 A JP2003280687 A JP 2003280687A
Authority
JP
Japan
Prior art keywords
scenario
information
creation support
dialogue
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002078411A
Other languages
Japanese (ja)
Inventor
Ryuichi Suzuki
竜一 鈴木
Mikio Sasaki
美樹男 笹木
Fumihiko Murase
文彦 村瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2002078411A priority Critical patent/JP2003280687A/en
Publication of JP2003280687A publication Critical patent/JP2003280687A/en
Pending legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide a scenario creation supporting device which reduces the man-hours required for scenario creation and easily creates a scenario for realizing interactive processing. <P>SOLUTION: Considering that the description of a scenario created in an interactive system part at least includes a users' input word, a corresponding speech sentence at the side of the system and the transition position of the scenario, the automatic creation of the scenario is performed by using an interactive scenario specification table 21. The interactive scenario specification table 21 expresses the correspondence relation of each information including the input word, a scenario name to be added, a speech sentence and a transition scenario name. Thereby, an input of required information is simplified by expressing the scenario which becomes complicated by a hierarchical structure and a transition description in the structure in order to realize natural interactive processing by the interactive scenario specification table 21 for each unit of a dialogue. <P>COPYRIGHT: (C)2004,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、対話処理に使用さ
れるシナリオの作成技術に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a technique for creating a scenario used for interactive processing.

【0002】[0002]

【従来の技術】従来より、ユーザの発話を音声認識し
て、装置などを制御する技術が知られている。このよう
な場合に、より自然にユーザとの対話を実現し、対話の
流れをつくり出し、一連の対話内容によって、装置を制
御するという思想がある。これを実現するためには、ユ
ーザの発話に対して、システム側の回答や次の質問を様
々に変化させる必要がある。
2. Description of the Related Art Conventionally, there is known a technique of recognizing a user's utterance by voice and controlling an apparatus or the like. In such a case, there is an idea of more naturally realizing a dialogue with a user, creating a flow of the dialogue, and controlling the device by a series of dialogue contents. In order to realize this, it is necessary to change the answer and the next question on the system side in response to the user's utterance.

【0003】そのための手法として、ユーザの発話に対
するシステム側の出力情報や遷移情報を予め記述したシ
ナリオを用いることが考えられる。このようなシナリオ
を使用することにより、システム側の対話処理の流れ
は、シナリオで実現されることになり、このシナリオさ
え用意すれば、種々のシステムにおいて簡単に対話を実
現でき、ユーザの発話に対して適切な出力を行ったり、
適切な遷移を行ったりすることができる。
As a method therefor, it is conceivable to use a scenario in which output information and transition information on the system side in response to a user's utterance are described in advance. By using such a scenario, the flow of the dialogue processing on the system side is realized by the scenario, and if this scenario is prepared, the dialogue can be easily realized in various systems and the user's utterance can be realized. Appropriate output to
You can make the appropriate transitions.

【0004】シナリオの概略を図13(a)に例示し
た。図13(a)に示すように、シナリオは、シナリオ
→アクト→シーンというような階層構造で記述すること
が考えられる。また、シーンの中にも、遷移処理を実現
するためのラベルが記述されることがある。このシナリ
オには、パフォーマンスが記述される。パフォーマンス
は、図13(b)に示すように、ユーザ側の発話情報な
どであるユーザ側入力情報、ユーザ側入力情報に対応す
るシステム側出力情報、システム制御情報、及び、シス
テム側出力の後のシナリオの遷移位置などが含まれる。
An outline of the scenario is illustrated in FIG. 13 (a). As shown in FIG. 13A, the scenario may be described in a hierarchical structure such as scenario → act → scene. Also, a label for implementing the transition process may be described in the scene. Performance is described in this scenario. As shown in FIG. 13 (b), the performance is as follows: user-side input information such as user-side utterance information, system-side output information corresponding to the user-side input information, system control information, and after the system-side output. The transition position of the scenario is included.

【0005】[0005]

【発明が解決しようとする課題】シナリオによって自然
な対話処理を実現するためには、シナリオに複数の階層
化構造を作成する必要があり、また、シナリオ記述は予
め決められた記述形式で行わなければならない。
In order to realize natural dialogue processing by a scenario, it is necessary to create a plurality of hierarchical structures in the scenario, and the scenario description must be performed in a predetermined description format. I have to.

【0006】そのため、システムの設計において、シナ
リオの作成工数が大きくなってしまうという問題があっ
た。また、シナリオの記述形式を修得した者にしかシナ
リオの作成は出来なかった。本発明は、簡単にシナリオ
を作成するためのシナリオ作成支援装置を提供すること
を目的とし、シナリオ作成工数の削減に寄与する。
Therefore, there is a problem that the number of man-hours for creating a scenario becomes large in the system design. Moreover, the scenario can be created only by those who have mastered the description format of the scenario. An object of the present invention is to provide a scenario creation support device for easily creating a scenario, which contributes to a reduction in scenario creation man-hours.

【0007】[0007]

【課題を解決するための手段及び発明の効果】本発明の
シナリオ作成支援装置は、対話処理を実行する対話シス
テムに用いられるシナリオを作成するものである。この
シナリオによって、対話処理における遷移が実現される
ことになる。
Means for Solving the Problems and Effects of the Invention A scenario creation support apparatus of the present invention creates a scenario used in a dialogue system for executing dialogue processing. This scenario realizes the transition in the dialogue processing.

【0008】また、このシナリオには、ユーザから入力
されるユーザ側入力情報が記述されると共に、当該ユー
ザ側入力情報が入力された場合に対話システムからの出
力となるシステム側出力情報及び次に実行されるシナリ
オの遷移位置が記述される。このような前提の下、本発
明では、入力手段が、ユーザ側入力情報、ユーザ側入力
情報の記述位置、システム側出力情報、及び、遷移位置
を、それぞれの情報の対応関係が表現される対話シナリ
オ仕様表への挿入という形式で入力する。入力手段にて
入力される各情報は、ユーザによってキーボードなどか
ら与えられることが考えられる。そして、シナリオ作成
手段が、作成された対話シナリオ仕様表に従って、シナ
リオを作成する。
In this scenario, user-side input information input by the user is described, and when the user-side input information is input, the system-side output information that is output from the interactive system and the next The transition position of the scenario to be executed is described. Based on such a premise, in the present invention, the input means uses the user-side input information, the description position of the user-side input information, the system-side output information, and the transition position as a dialog in which the correspondence relationship between each information is expressed. Input in the format of insertion into the scenario specification table. It is conceivable that each information input by the input means is given by the user from a keyboard or the like. Then, the scenario creating means creates a scenario according to the created interactive scenario specification table.

【0009】つまり、本発明では、シナリオの記述が、
ユーザ側入力情報、それに対応するシステム側出力情報
と遷移位置を少なくとも含むことに着目し、さらに、ユ
ーザ側入力情報の記述位置を指定することによって、シ
ナリオ作成の元となる対話シナリオ仕様表を作成する。
このとき、対話シナリオ仕様表を各情報の対応関係を表
現可能なものとし、対話シナリオ仕様表への情報の挿入
という形式を用いて、ユーザにとっての分かり易い入力
を実現した。
That is, in the present invention, the description of the scenario is
Focusing on at least the user-side input information, the corresponding system-side output information, and the transition position, and by specifying the description position of the user-side input information, create a dialogue scenario specification table that is the basis of scenario creation. To do.
At this time, the dialogue scenario specification table was made to be able to express the correspondence relationship of each information, and the format of inserting information into the dialogue scenario specification table was used to realize easy-to-understand input for the user.

【0010】これによって、シナリオの記述形式を修得
していない場合でも、簡単にシナリオを作成することが
でき、シナリオ作成工数の削減に寄与できる。なお、対
話シナリオ仕様表における一つの対応関係に対して、複
数のユーザ側入力情報を挿入できるようにしてもよい
(請求項2)。これは、システム側出力情報に対して、
複数のユーザ側入力情報が対応付けられることを意味す
る。このようにすれば、あるシステム側の出力を得るた
めのユーザ側の入力が固定的にならない。
As a result, even if the description format of the scenario is not acquired, the scenario can be easily created, which contributes to the reduction of the scenario creation man-hour. It should be noted that a plurality of user-side input information may be inserted into one correspondence relationship in the dialogue scenario specification table (claim 2). This is for the output information on the system side,
It means that a plurality of user-side input information are associated. By doing so, the input on the user side for obtaining the output on a certain system side is not fixed.

【0011】同様に、対話シナリオ仕様表における一つ
の対応関係に対して、複数のシステム側出力情報を挿入
可能とすることが考えられる(請求項3)。また、複数
の遷移位置を挿入可能としてもよい(請求項4)。前者
の構成では、あるユーザ側の入力に対してシステムを柔
軟に動作させることができ、後者の構成では、対話の流
れを状況に応じて変えることができる。
Similarly, it is conceivable that a plurality of system-side output information can be inserted into one correspondence relationship in the dialogue scenario specification table (claim 3). Also, a plurality of transition positions may be inserted (claim 4). In the former configuration, the system can be flexibly operated in response to an input from a certain user, and in the latter configuration, the flow of dialogue can be changed depending on the situation.

【0012】特に、後者の構成を前提とすれば、複数の
遷移位置に対応する遷移条件を挿入可能とし、シナリオ
作成手段は、遷移条件を考慮して、シナリオを作成する
構成を採用することが考えられる(請求項5)。このよ
うにすれば、遷移条件によって対話の流れを適切に変え
ることができる。
In particular, assuming the latter configuration, it is possible to insert transition conditions corresponding to a plurality of transition positions, and the scenario creating means may adopt a configuration for creating a scenario in consideration of the transition conditions. It is considered (Claim 5). By doing so, the flow of the dialogue can be appropriately changed depending on the transition condition.

【0013】ところで、シナリオ作成手段は、予め存在
するシナリオへの追加記述を行って、シナリオを作成で
きるようにしてもよい(請求項6)。つまり、本発明で
は、ユーザ側入力情報の記述位置を指定するため、既存
のシナリオを拡張することも簡単に実現できるのであ
る。これによって、既存シナリオへの記述追加によるシ
ナリオの拡張が可能となる。
By the way, the scenario creating means may add a description to a pre-existing scenario so that the scenario can be created. That is, according to the present invention, since the description position of the input information on the user side is designated, it is possible to easily realize the extension of the existing scenario. This allows the scenario to be expanded by adding a description to the existing scenario.

【0014】なお、上述したユーザ側入力情報は、ユー
ザの発話情報であることが考えられる(請求項7)。こ
の場合、ユーザの音声によるシステム制御が可能とな
る。対話システムは、ユーザの発話情報を対話用認識辞
書を用いて判断するようになっていることがある。そこ
で、シナリオ作成手段は、対話シナリオ仕様表に従っ
て、対話用認識辞書を作成するようにしてもよい(請求
項8)。この場合、シナリオだけでなく対話用認識辞書
をも自動作成するためユーザにとって便利である。
The above-mentioned user-side input information may be user's utterance information (claim 7). In this case, system control by the user's voice becomes possible. The dialogue system may be adapted to judge the utterance information of the user by using the dialogue recognition dictionary. Therefore, the scenario creating means may create the dialog recognition dictionary according to the dialog scenario specification table (claim 8). In this case, not only the scenario but also the interactive recognition dictionary is automatically created, which is convenient for the user.

【0015】また、上述したシステム側出力情報は、対
話システムの発話情報であることが考えられる(請求項
9)。この場合、対話システムからの情報出力も音声を
用いて行われる。対話システムは、対話システムの発話
情報を、当該発話情報の記述された発話リストに従って
出力するようになっていることがある。そこで、シナリ
オ作成手段は、対話シナリオ仕様表に従って、発話リス
トを作成する構成を採用するとよい(請求項10)。こ
の場合、シナリオだけでなく発話リストをも自動作成す
るためユーザにとって便利である。
Further, it is conceivable that the above-mentioned output information on the system side is speech information of the dialogue system (claim 9). In this case, information output from the dialogue system is also performed using voice. The dialogue system may output the utterance information of the dialogue system according to the utterance list in which the utterance information is described. Therefore, it is preferable that the scenario creating means adopts a configuration for creating the utterance list according to the dialogue scenario specification table (claim 10). In this case, not only the scenario but also the utterance list is automatically created, which is convenient for the user.

【0016】ところで、対話システムによっては、声質
や抑揚といった発話音声に関する情報を設定できるもの
もある。そこで、本発明においても、シナリオ作成手段
は、発話音声に関する情報が設定されると、当該情報を
反映させて、シナリオを作成可能にするとよい(請求項
11)。これによって、シナリオにおける対話システム
の設定記述が自動的に生成される。
By the way, depending on the dialogue system, there is also a dialogue system in which information about a spoken voice such as voice quality and intonation can be set. Therefore, also in the present invention, when the information about the uttered voice is set, the scenario creating means may reflect the information to enable the scenario to be created (claim 11). By this, the setting description of the interactive system in the scenario is automatically generated.

【0017】なお、システム側出力情報には、対話シス
テム側の動作情報が含まれるようにしてもよい(請求項
12)。ここでいう動作情報は、対話システムの制御情
報や対話システムから起動するアプリケーションの指定
情報であることが考えられる。このようにすれば、例え
ば「ニュースが見たい」というユーザ側の音声入力に対
し、ニュース映像を再生するといった動作、すなわちシ
ナリオに基づく対話システムを介した機器制御が実現で
きる。
The output information on the system side may include operation information on the interactive system side (claim 12). It is considered that the operation information here is control information of the dialogue system or designation information of an application started from the dialogue system. By doing so, for example, in response to a voice input on the user side such as "I want to see the news", an operation of reproducing a news image, that is, device control via a dialogue system based on a scenario can be realized.

【0018】ところで、シナリオ作成手段は、対話シナ
リオ仕様表に従って、複数のシナリオを作成可能として
もよい(請求項13)。複数のシナリオで構成される対
話シナリオ群は、ルートシナリオを最上位階層として、
いくつかのサブシナリオで構成される。したがって、こ
のようなシナリオ間の階層構造も、シナリオ内部の階層
構造と同様に、一つの対話シナリオ仕様表から作成する
のである。このようにすれば、階層構造を有した対話シ
ナリオ群の作成が簡単になる。
Incidentally, the scenario creating means may be capable of creating a plurality of scenarios according to the dialogue scenario specification table (claim 13). In the dialogue scenario group consisting of multiple scenarios, the root scenario is the top layer,
It consists of several sub-scenarios. Therefore, the hierarchical structure between such scenarios is created from one dialogue scenario specification table, like the hierarchical structure inside the scenario. This makes it easy to create a dialogue scenario group having a hierarchical structure.

【0019】各情報を挿入するという形式で、対話シナ
リオ仕様表が作成されることは既に述べた。このとき、
キーボードなどを介してユーザが直接的に情報入力を行
うことが考えられるが、入力を簡単にするという観点か
らは、次のような構成を採用してもよい。
It has already been described that the dialogue scenario specification table is created in the form of inserting each information. At this time,
The user may directly input information via a keyboard or the like, but the following configuration may be adopted from the viewpoint of simplifying the input.

【0020】すなわち、ユーザ側入力情報の記述位置及
び遷移位置を少なくとも表現する図形情報を入力するた
めの図形エディタを備える構成を採用することが考えら
れる。この場合、入力手段は、図形エディタにて入力さ
れた図形情報に基づいて、対話シナリオ仕様表を作成可
能とする(請求項14)。図形情報を用いてユーザ側入
力情報の記述位置及び遷移位置を表現すれば、シナリオ
間やシナリオ内部の階層構造がユーザにとって把握し易
く、対話シナリオ仕様表に直接的に情報入力を行うより
も、階層構造の記述が簡単になる。なお、このとき、ユ
ーザ側入力情報やシステム側出力情報も、図形情報の一
部として入力できるようにしてもよい。
That is, it is conceivable to adopt a configuration including a graphic editor for inputting graphic information that expresses at least the description position and the transition position of the input information on the user side. In this case, the input means can create the dialog scenario specification table based on the graphic information input by the graphic editor (claim 14). If the description position and transition position of the input information on the user side are expressed using the graphic information, it is easy for the user to understand the hierarchical structure between scenarios and the inside of the scenario, rather than directly inputting information to the dialogue scenario specification table. It is easy to describe the hierarchical structure. At this time, the user side input information and the system side output information may be input as part of the graphic information.

【0021】このように図形情報を用いるとユーザにと
ってシナリオの階層構造が把握し易いため、図形情報を
用いて、対話処理全体の階層構造を指示できるように
し、入力手段が、指示された階層構造を反映させて対話
シナリオ仕様表を作成するようにしてもよい(請求項1
5)。この技術思想は、対話処理の流れを図形情報を用
いることによって包括的に表現することができることに
着目し、対話処理全体の階層構造を対話シナリオ仕様表
に反映させるというものである。
Since the user can easily understand the hierarchical structure of the scenario by using the graphic information in this way, the graphic information can be used to instruct the hierarchical structure of the entire dialogue processing, and the input means can specify the hierarchical structure. May be reflected to create the dialogue scenario specification table (claim 1
5). This technical idea focuses on the fact that the flow of dialogue processing can be comprehensively expressed by using graphic information, and reflects the hierarchical structure of the whole dialogue processing in the dialogue scenario specification table.

【0022】また、図形エディタにて入力された図形情
報を用いて、該当する対話シナリオ仕様表を読み出して
修正できるようにしてもよい(請求項16)。このよう
にすれば、対話シナリオ仕様表の部分的な修正が容易に
なる。なお、図形情報による入力以外に、入力手段は、
一連の入力項目が記述されたスロット情報が入力される
と、対話シナリオ仕様表を作成可能としてもよい(請求
項17)。スロット情報とは、例えばナビゲーション装
置での目的地設定という処理において用意される、目的
地の名称、目的地のある都道府県、目的地への到着希望
時刻といった一連の入力項目の記述をいう。このような
スロット情報からは、「どこを目的地としますか」、
「そこは何県ですか」、「何時までに到着したいです
か」などのシステム側の発話や、入力順序などが決定で
きる。したがって、スロット情報に基づいて対話シナリ
オ仕様表を作成できるようにすれば、入力項目に関する
一連の対話処理を実現するためのシナリオを半自動的に
作成できて便利である。
Further, the corresponding dialogue scenario specification table may be read and modified by using the figure information input by the figure editor (claim 16). This makes it easy to partially edit the dialogue scenario specification table. In addition to input by graphic information, the input means is
When the slot information describing a series of input items is input, the dialogue scenario specification table may be created (claim 17). The slot information is a description of a series of input items such as the name of the destination, the prefecture in which the destination is located, and the desired arrival time at the destination, which is prepared in the process of setting the destination in the navigation device. From such slot information, "where do you want to go?",
It is possible to determine the utterances on the system side such as "What prefecture is there?" And "By what time do you want to arrive?" Therefore, if it is possible to create the dialogue scenario specification table based on the slot information, it is convenient to be able to semi-automatically create a scenario for realizing a series of dialogue processing regarding input items.

【0023】以上は、対話シナリオ仕様表に基づいてシ
ナリオを作成するという点に着目してなされた構成であ
ったが、さらに、対話システムを備える構成とすること
もできる。すなわち、対話システムを備え、シナリオ作
成手段にて作成されたシナリオに基づく、対話処理を実
行できるようにしてもよい(請求項18)。このように
すれば、作成されたシナリオに基づく対話処理を実際に
チェックできることになり、結果として、チェック結果
に基づくシナリオの追加・修正が可能になる。
Although the above is the configuration that focuses on the point that a scenario is created based on the dialog scenario specification table, it is also possible to have a configuration that further includes a dialog system. That is, an interactive system may be provided so that interactive processing can be executed based on the scenario created by the scenario creating means (claim 18). By doing so, the interactive processing based on the created scenario can be actually checked, and as a result, the scenario can be added or modified based on the check result.

【0024】例えば、ユーザ側入力情報が記述されたテ
ストファイルを対話システムに入力し、対話処理を実行
できるようにすることが考えられる(請求項19)。こ
のようなテストファイルを用いて対話処理を実行できれ
ば、わざわざユーザが音声によるテストを行う必要がな
く、便利である。
For example, it is conceivable that a test file in which user-side input information is described is input to the interactive system so that interactive processing can be executed (claim 19). If the interactive process can be executed by using such a test file, it is convenient because the user does not need to perform a voice test.

【0025】そして、このとき、対話処理の実行の履歴
を記録できるようにするとよい(請求項20)。チェッ
ク結果の確認が容易になるからである。また、上述した
ような図形エディタにて入力された図形情報を用いて、
該当するシナリオに基づく対話処理を実行できるように
してもよい(請求項21)。このように図形情報を用い
て部分的なチェックを可能とすれば、比較的大規模なシ
ナリオのチェックも簡単に実現できる。
At this time, it is preferable that the history of the execution of the interactive processing can be recorded (claim 20). This is because it is easy to confirm the check result. In addition, using the graphic information input in the graphic editor as described above,
The dialogue processing based on the corresponding scenario may be executed (claim 21). If partial checking is possible using the graphic information in this way, it is possible to easily check a relatively large-scale scenario.

【0026】以上、シナリオ作成支援装置の発明として
説明してきたが、シナリオ作成支援装置としての機能
は、コンピュータによって実現することができる。この
意味で、本発明は、コンピュータを機能させるプログラ
ムの発明として実現することができる(請求項22)。
The invention of the scenario creation support device has been described above, but the function of the scenario creation support device can be realized by a computer. In this sense, the present invention can be realized as an invention of a program that causes a computer to function (claim 22).

【0027】このようなプログラムの場合、例えば、F
D、MO、DVD、CD−ROM、ハードディスク等の
コンピュータ読み取り可能な記録媒体に記録し、必要に
応じてコンピュータにロードして起動することにより用
いることができる。この他、ROMやバックアップRA
Mをコンピュータ読み取り可能な記録媒体としてプログ
ラムを記録しておき、このROMあるいはバックアップ
RAMをコンピュータに組み込んで用いてもよい。
In the case of such a program, for example, F
It can be used by recording it on a computer-readable recording medium such as D, MO, DVD, CD-ROM, hard disk, etc., loading it to a computer and starting it as necessary. In addition, ROM and backup RA
The program may be recorded by using M as a computer-readable recording medium, and this ROM or backup RAM may be incorporated into a computer for use.

【0028】[0028]

【発明の実施の形態】以下、本発明を具体化した一実施
例を図面を参照して説明する。図1は、実施例のシナリ
オ作成支援装置の概略構成を示す機能ブロック図であ
る。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below with reference to the drawings. FIG. 1 is a functional block diagram showing a schematic configuration of the scenario creation support device of the embodiment.

【0029】本シナリオ作成支援装置は、周知のコンピ
ュータシステムであり、ユーザインタフェース10と、
入力部20と、シナリオ作成部30と、対話システム部
40と、図形エディタ50とを備えている。ユーザイン
タフェース10は、ユーザとの間で情報交換を行うため
の構成であり、入出力機構を備えている。この入出力機
構は、キーボードやディスプレイといった手段のみなら
ず、音声による情報の入出力も可能にし、このための音
声認識機能や音声合成機能を備えている。
The scenario creation support device is a well-known computer system, and includes a user interface 10 and
An input unit 20, a scenario creation unit 30, a dialogue system unit 40, and a graphic editor 50 are provided. The user interface 10 is a configuration for exchanging information with the user and includes an input / output mechanism. This input / output mechanism enables not only means such as a keyboard and a display but also input / output of information by voice, and has a voice recognition function and a voice synthesis function for this purpose.

【0030】入力部20では、対話シナリオ仕様表21
が、ユーザインタフェース10を介して入力される情報
によって作成される。また、図形エディタ50からの図
形情報によって、対話シナリオ仕様表21を作成するこ
ともできる。シナリオ作成部30は、入力部20にて作
成された対話シナリオ仕様表21に基づいて、シナリ
オ、対話用認識辞書、及び、発話リストを作成する。
In the input section 20, the dialogue scenario specification table 21
Is created by the information input via the user interface 10. Further, the dialogue scenario specification table 21 can be created based on the figure information from the figure editor 50. The scenario creating unit 30 creates a scenario, a dialog recognition dictionary, and an utterance list based on the dialog scenario specification table 21 created by the input unit 20.

【0031】対話システム部40は、図2に示すよう
に、シナリオを解析して対話処理を実行するシナリオ・
インタープリタを備え、このシナリオ・インタープリタ
が、シナリオ(対話シナリオ群)、対話用認識辞書、及
び、発話リストに基づいて、対話処理を実行する。
As shown in FIG. 2, the dialogue system unit 40 analyzes a scenario and executes a dialogue process.
The scenario interpreter is equipped with an interpreter, and executes a dialogue process based on a scenario (a dialogue scenario group), a dialogue recognition dictionary, and an utterance list.

【0032】次に、対話シナリオ仕様表21について説
明する。図3に対話シナリオ仕様表21の一例を示し
た。図3から分かるように、対話シナリオ仕様表21は
「入力」と「出力」とに分けられており、入力側には
「番号」、「入力単語」及び「追加するシナリオ名」の
欄が設けられ、出力側には「番号」、「発話文章」及び
「遷移するシナリオ名」の欄が設けられている。
Next, the dialogue scenario specification table 21 will be described. FIG. 3 shows an example of the dialogue scenario specification table 21. As can be seen from FIG. 3, the dialogue scenario specification table 21 is divided into “input” and “output”, and columns of “number”, “input word” and “scenario name to be added” are provided on the input side. On the output side, columns of “number”, “uttered sentence” and “transition scenario name” are provided.

【0033】ここでいう入力単語が、上述した対話用認
識辞書に記述される語句であり、これが「ユーザ側入力
情報」に相当する。また、追加するシナリオ名は、入力
単語による処理を記述する記述位置を示すものであり、
これが「ユーザ側入力情報の記述位置」に相当する。発
話文章は、発話リストに記述されるものであり、入力単
語に基づくパフォーマンスの実行によって、読み出され
て出力される。これが「システム側出力情報」に相当す
る。そして、遷移するシナリオ名が「遷移位置」に相当
する。
The input word mentioned here is a phrase described in the above-mentioned dialogue recognition dictionary, and this corresponds to "user side input information". Also, the scenario name to be added indicates the description position for describing the processing by the input word,
This corresponds to the "description position of the input information on the user side". The utterance sentence is described in the utterance list, and is read and output by performing the performance based on the input word. This corresponds to "system side output information". Then, the scenario name of the transition corresponds to the "transition position".

【0034】なお、ここには追加するシナリオ名や遷移
するシナリオ名としたが、シナリオ内の遷移を表現する
ために、アクト名やシーン名が記述されることもある。
図3に示す「Question」はシーン名であるもの
とする。また、番号はいずれも、入力単語や発話文章に
対して自動的に割り振られるものであり、対話用認識辞
書とシナリオとの間を、また、発話リストとシナリオと
の間を対応付ける情報である。
Although the scenario name to be added and the scenario name to be transitioned are described here, an act name and a scene name may be described in order to represent the transition in the scenario.
“Question” shown in FIG. 3 is assumed to be a scene name. All numbers are automatically assigned to input words and utterance sentences, and are information for associating a dialogue recognition dictionary with a scenario and a utterance list with a scenario.

【0035】次に、本実施例のシナリオ作成支援装置に
て実行されるシナリオ作成処理を、図4のフローチャー
トに基づいて説明する。まず最初のステップ(以下、ス
テップを単に記号Sで示す。)100において、入力情
報を挿入する。入力情報は、ユーザインタフェース10
を介してユーザから与えられることが考えられる。この
処理は、図3で言えば、入力単語の挿入に対応する。例
えば「眼」という単語を挿入するという具合である。
Next, the scenario creation processing executed by the scenario creation support apparatus of this embodiment will be described with reference to the flowchart of FIG. In the first step (hereinafter, step is simply indicated by symbol S) 100, input information is inserted. The input information is the user interface 10
It may be given from the user via. This process corresponds to the insertion of the input word in FIG. For example, inserting the word "eye".

【0036】続くS110では、記述位置を挿入する。
この処理は、図3で言えば、追加するシナリオ名の挿入
に対応する。入力単語「眼」に対応させてシーン名「Q
uestion」を挿入するという具合である。次のS
120では、出力情報を挿入する。この処理は、図3で
言えば、発話文章の挿入に対応する。入力単語「眼」に
対応させて発話文章「眼は2つあるよ。」を挿入すると
いう具合である。
At S110, the description position is inserted.
This process corresponds to the insertion of the scenario name to be added in FIG. The scene name "Q" is associated with the input word "eye".
"Ustion" is inserted. Next S
At 120, output information is inserted. This process corresponds to the insertion of the uttered sentence in FIG. The utterance sentence “There are two eyes.” Is inserted in correspondence with the input word “eye”.

【0037】続くS130では、遷移位置を挿入する。
この処理は、図3で言えば、遷移するシナリオ名の挿入
に対応する。入力単語「眼」に対応させてシーン名「Q
uestion」を挿入するという具合である。そして
次のS140では、入力が完了したか否かを判断する。
この判断処理は、ユーザからの入力に基づいて行われ
る。ここで対話シナリオ仕様表21の入力が完了したと
判断すると(S140:YES)、S150へ移行す
る。一方、入力が完了していないうちは(S140:N
O)S100からの処理を繰り返す。
At S130, the transition position is inserted.
This process corresponds to the insertion of the transition scenario name in FIG. The scene name "Q" is associated with the input word "eye".
"Ustion" is inserted. Then, in the next S140, it is determined whether or not the input is completed.
This determination process is performed based on the input from the user. When it is determined that the input of the dialogue scenario specification table 21 is completed (S140: YES), the process proceeds to S150. On the other hand, while the input is not completed (S140: N
O) The processing from S100 is repeated.

【0038】S100〜S140の処理を繰り返すこと
により、図3に示す対話シナリオ仕様表21の「入力単
語」、「追加するシナリオ名」、「発話文章」及び「遷
移するシナリオ名」の欄が順次挿入されていくことにな
る。なお、ここでは、入力単語→追加するシナリオ名→
発話文章→遷移するシナリオ名という順序で挿入してい
くものとしたが、入力順序は特に限定されない。また、
入力単語、発話文章、遷移するシナリオ名について一つ
の欄に複数記述できるようにしてもよい。より自然な対
話処理を実現できるからである。
By repeating the processing of S100 to S140, the columns of "input word", "scenario to be added", "uttered sentence" and "transition scenario name" in the dialogue scenario specification table 21 shown in FIG. It will be inserted. Here, input word → scenario name to be added →
It is assumed that the utterance sentences are inserted in the order of the transition scenario name, but the input order is not particularly limited. Also,
A plurality of input words, spoken sentences, and transition scenario names may be described in one column. This is because more natural dialogue processing can be realized.

【0039】S150では、作成情報を入力する。例え
ば図5に示すように、発話音声、キャラクタ、遷移の条
件、図形入力、シナリオ内の構成といった選択項目を用
意することが考えられる。ユーザは、設定したい項目に
ついてマウスなどのポインティングデバイスにて指示す
ることにより、指示した項目についての設定が可能とな
る。
In S150, the creation information is input. For example, as shown in FIG. 5, it is conceivable to prepare selection items such as uttered voice, character, transition condition, graphic input, and configuration in scenario. The user can set the instructed item by instructing the item to be set with a pointing device such as a mouse.

【0040】例えば発話音声、キャラクタ、及び遷移の
条件が指示された場合には、図6に示すような画面表示
を行い、ユーザに対して各項目についての設定を促すこ
とが考えられる。具体的には図6に示すように、発話音
声については、声の種類、声質、高さ、抑揚、トーン、
速度、及び音量などの設定を促す。声の種類は、男声又
は女声を選択するようになっており、その他の情報につ
いては、「1」〜「5」の5段階で設定できるようにな
っている。
For example, when the uttered voice, the character, and the transition condition are instructed, a screen display as shown in FIG. 6 may be displayed to prompt the user to set each item. Specifically, as shown in FIG. 6, for the uttered voice, the type of voice, voice quality, pitch, intonation, tone,
Prompt for settings such as speed and volume. For the type of voice, male voice or female voice is selected, and other information can be set in five levels from "1" to "5".

【0041】また、キャラクタについては、お兄さん、
お姉さん、お坊ちゃん、お嬢ちゃん、おじいさん、おば
あさん、ロボットの中から選択できるようになってい
る。遷移条件とは、対話シナリオ仕様表21の中に記述
される遷移位置が複数になった場合の遷移の条件を指定
するものであり、回数、言語、経路、その他といった遷
移条件が選択できる。このような遷移条件の設定によっ
て、適切に対話処理の流れを変えることができる。
Regarding the character,
You can choose from older sister, priest, young lady, grandfather, grandmother, and robot. The transition condition designates a transition condition when there are a plurality of transition positions described in the dialogue scenario specification table 21, and the transition condition such as the number of times, language, route, etc. can be selected. By setting such transition conditions, it is possible to appropriately change the flow of the interactive processing.

【0042】なお、図5中の図形入力が選択された場合
には、後述する図形処理を実行し、図形エディタ50か
らの情報によって対話シナリオ仕様表21を作成する。
さらに、シナリオ内の構成が選択された場合は、シナリ
オ内の詳細な項目設定ができる。
When the figure input in FIG. 5 is selected, the figure processing described later is executed and the dialogue scenario specification table 21 is created based on the information from the figure editor 50.
Further, when the configuration in the scenario is selected, detailed item setting in the scenario can be performed.

【0043】そして、対話シナリオ仕様表21に対する
一連の情報入力が終了すると、対話シナリオ仕様表21
の「番号」の欄に自動的に番号が割り振られる。図4中
のS160では、対話シナリオ仕様表21に基づいて、
シナリオを作成する。図3に示した対話シナリオ仕様表
21から作成されたシナリオを示すのが、図7の説明図
である。
When a series of information is input to the dialogue scenario specification table 21, the dialogue scenario specification table 21
A number is automatically assigned in the "Number" column of. In S160 of FIG. 4, based on the dialogue scenario specification table 21,
Create a scenario. The scenario created from the dialogue scenario specification table 21 shown in FIG. 3 is an explanatory diagram of FIG. 7.

【0044】図3に示した入力単語は全て、シーン名
「Question」が記述位置となっている。したが
って、図7に示すように、シーン名「Questio
n」の中にラベル定義によって記述される。図7では、
「EYE」、「HEAD」、「LANGUAGE」、
「YES」、「NO」というラベル定義がなされてい
る。
In all the input words shown in FIG. 3, the scene name "Question" is the description position. Therefore, as shown in FIG. 7, the scene name “Questio
n ”is described by the label definition. In Figure 7,
"EYE", "HEAD", "LANGUAGE",
Label definitions of "YES" and "NO" are made.

【0045】そして、入力側の番号「101,1」、
「101,2」、・・・が、各ラベルと共に「def−
branch−label」という分岐命令の引数とし
て記述される(記号a)。また、各ラベルの中には、発
話文章の出力命令「static−phrase」が記
述される。例えば、ラベル「EYE」には、「stat
ic−phrase(1)」という記述がなされている
が(記号b)、この引数の「1」は、出力側番号に対応
するものである。
Then, the input side number "101,1",
“101,2”, ...
It is described as an argument of the branch instruction "branch-label" (symbol a). Further, in each label, an output command “static-phrase” of the utterance sentence is described. For example, the label "EYE" contains "stat
Although the description "ic-phase (1)" is made (symbol b), "1" of this argument corresponds to the output side number.

【0046】さらに、各ラベルの中には、遷移命令「g
oto」が記述される。例えば、ラベル「EYE」の中
には、遷移するシーン名に対応して「goto−sce
ne(Question)」という記述がなされている
(記号c)。これはscene(Question)へ
の遷移を示す。
Further, in each label, the transition command "g
"oto" is described. For example, in the label “EYE”, “goto-sce” is associated with the transition scene name.
The description is "ne (Question)" (symbol c). This indicates a transition to scene (Question).

【0047】また、ラベル「LANGUAGE」の配下
には、ラベル「SPEAK」、「UNDERSTAN
D」が階層構造として記述される(記号d,e,f)。
これは、図3に示した対話シナリオ仕様表21の入力単
語「言葉」の配下に「話せる」、「理解する」が記述さ
れているからである。
Under the label "LANGUAGE", the labels "SPEAK" and "UNDERSTAN" are placed.
"D" is described as a hierarchical structure (symbols d, e, f).
This is because "speakable" and "understand" are described under the input word "word" in the dialogue scenario specification table 21 shown in FIG.

【0048】図4中のS170では、対話用認識辞書を
作成する。対話用認識辞書は、対話シナリオ仕様表21
の入力側の番号、入力単語、及び、入力単語の読みを対
応させたものである。図3に示す対話シナリオ仕様表2
1からは、図8に示すような対話用認識辞書が作成され
る。
In S170 of FIG. 4, a dialogue recognition dictionary is created. The dialogue recognition dictionary is the dialogue scenario specification table 21.
The input side number, the input word, and the reading of the input word are associated with each other. Dialog scenario specification table 2 shown in FIG.
From 1, a dialogue recognition dictionary as shown in FIG. 8 is created.

【0049】続くS180では、発話リストを作成す
る。発話リストは、対話シナリオ仕様表21の出力側の
番号、及び、発話文章を対応させたものである。図3に
示す対話シナリオ仕様表21からは、図9に示すような
発話リストが作成される。そして、S180の処理終了
後、本シナリオ作成処理を終了する。
In subsequent S180, an utterance list is created. The utterance list corresponds to the numbers on the output side of the dialogue scenario specification table 21 and the utterance sentences. An utterance list as shown in FIG. 9 is created from the dialogue scenario specification table 21 shown in FIG. Then, after the processing of S180 ends, the scenario creation processing ends.

【0050】このようにして作成されたシナリオ、対話
用認識辞書、発話リストに基づいて対話システム部40
が対話処理を実行することになる。この対話処理は、ユ
ーザインタフェース10を介してテストファイルを入力
することによって実行される。テストファイルは、ユー
ザの発話に相当するテキストファイルである。
Based on the scenario, the recognition dictionary for dialogue, and the utterance list created in this way, the dialogue system unit 40
Will execute the interactive process. This interactive process is executed by inputting a test file through the user interface 10. The test file is a text file corresponding to the user's utterance.

【0051】まず、図7に示すシナリオが実行されてシ
ーン名「Question」に入ると、分岐命令「de
f−branch−label」が実行される。このと
き、ユーザインタフェース10を介して取得されるテス
トファイルの中の語句を対話用認識辞書で検索し、その
検索結果に従ってシナリオ内のラベルへの分岐を行う。
例えば語句が「眼」であれば、検索結果が番号「10
1,1」として出力されるため、対応するラベル「EY
E」へ分岐する。すると、発話文章の出力命令「sta
tic−phrase(1)」を解析して、発話リスト
より番号「1」に対応する発話文章「眼は2つある
よ。」を読み出し、ユーザインタフェース10にて音声
合成して出力する。その後、遷移命令「goto−sc
ene(Question)を実行し、再び、分岐命令
「def−branch−label」を実行する。こ
のとき、対話処理の実行の履歴も記録する。
First, when the scenario shown in FIG. 7 is executed and the scene name "Question" is entered, the branch instruction "de"
f-branch-label "is executed. At this time, the interactive recognition dictionary is searched for a word or phrase in the test file acquired via the user interface 10, and a branch is made to a label in the scenario according to the search result.
For example, if the phrase is “eye”, the search result is the number “10
Since it is output as "1,1", the corresponding label "EY"
Branch to "E". Then, the utterance sentence output command “sta
tic-phrase (1) "is analyzed, the utterance sentence" there are two eyes "corresponding to the number" 1 "is read from the utterance list, and the user interface 10 synthesizes and outputs the voice. After that, the transition command "goto-sc
ene (Question) is executed, and the branch instruction "def-branch-label" is executed again. At this time, the history of the execution of the interactive processing is also recorded.

【0052】なお、シナリオは、ルートシナリオと、サ
ブシナリオ1、2、3、・・・、Nに分けられる。ここ
ではシナリオ内部の遷移を示したが、ルートシナリオか
らサブシナリオ1〜Nへの、あるいは、サブシナリオ1
〜N間のシナリオを跨いだ遷移も同様に実現される。そ
して、このような対話処理が繰り返されることにより、
対話システム部40による自然な対話が実現される。
The scenario is divided into a root scenario and sub-scenarios 1, 2, 3, ..., N. The transition inside the scenario is shown here, but from the root scenario to sub-scenarios 1 to N, or sub-scenario 1
Transitions across scenarios between ~ N are similarly realized. Then, by repeating such interactive processing,
A natural dialogue is realized by the dialogue system unit 40.

【0053】次に、図10のフローチャートに基づき、
図形エディタ50を介した図形処理について説明する。
まず最初のS200において、図形エディタ50を介し
た図形情報の入力が行われる。この図形情報は、例え
ば、シナリオ階層構造のシナリオの記述位置や遷移位置
を示すものとすることが考えられる。図11に示す如く
である。ここには、ルートシナリオと、15個のサブシ
ナリオA,B,C,D,E,F,G,H,I,J,K,
L,M,N,Oを示した。このとき、サブシナリオA〜
Cの配下にサブシナリオD〜Iが位置づけられ、さらに
その配下に、サブシナリオJ〜Oが位置づけられてい
る。そして実線で結ばれたシナリオは、上位のシナリオ
から下位のシナリオに遷移することを示す。例えばサブ
シナリオDとサブシナリオJとが実線で結ばれているが
(記号a)、これは上位のサブシナリオDから下位のサ
ブシナリオJへ遷移することを示している。なお、ここ
ではシナリオの記述位置や遷移位置を示すものを例示し
たが、入力単語や発話文章などの情報を図形情報の中に
記述できるようにしてもよい。
Next, based on the flowchart of FIG.
Graphic processing via the graphic editor 50 will be described.
First, in step S200, graphic information is input via the graphic editor 50. It is conceivable that this graphic information indicates, for example, the description position or transition position of the scenario in the scenario hierarchical structure. As shown in FIG. Here, the root scenario and 15 sub-scenarios A, B, C, D, E, F, G, H, I, J, K,
L, M, N and O are shown. At this time, sub-scenario A ~
Sub-scenarios D to I are located under C, and sub-scenarios J to O are further located under it. Then, the scenario connected by the solid line indicates that the upper scenario transits to the lower scenario. For example, the sub-scenario D and the sub-scenario J are connected by a solid line (symbol a), but this indicates that the upper sub-scenario D makes a transition to the lower sub-scenario J. It should be noted that although the description position and transition position of the scenario are shown here as an example, information such as an input word or a spoken sentence may be described in the graphic information.

【0054】S210では、図形情報の入力が終了した
か否かを判断する。この判断処理はユーザからの入力に
よってなされる。ここで図形情報の入力が終了したと判
断した場合(S210:YES)、S220へ移行す
る。一方、図形情報の入力が終了していないうちは(S
210:NO)、S200からの処理を繰り返す。
At S210, it is determined whether the input of the graphic information is completed. This determination process is performed by input from the user. When it is determined that the input of the graphic information is completed (S210: YES), the process proceeds to S220. On the other hand, if the input of the graphic information is not completed (S
210: NO), the process from S200 is repeated.

【0055】S220では、図形情報から対話シナリオ
仕様表21を作成する。続くS230では、入力完了か
否かを判断する。対話シナリオ仕様表21に全ての情報
が挿入されている場合には、ここで肯定判断される。入
力完了であると判断された場合(S230:YES)、
図4中のS150へ移行する。この場合には、シナリ
オ、対話用認識辞書及び発話リストが作成されることに
なる(図4中のS160〜S180)。一方、入力が完
了していない場合には(S230:NO)、S240へ
移行する。
In S220, the dialogue scenario specification table 21 is created from the graphic information. In subsequent S230, it is determined whether or not the input is completed. When all the information is inserted in the dialogue scenario specification table 21, a positive determination is made here. When it is determined that the input is completed (S230: YES),
The process proceeds to S150 in FIG. In this case, a scenario, a dialogue recognition dictionary, and a speech list are created (S160 to S180 in FIG. 4). On the other hand, when the input is not completed (S230: NO), the process proceeds to S240.

【0056】S240では、修正指示があるか否かを判
断する。この修正指示は、図形エディタ50を介した図
形情報のクリックでなされる。ここで修正指示があった
と判断された場合(S240:YES)、S250にて
対話シナリオ仕様表21を読み出し、その後、図4中の
S100へ移行する。一方、修正指示がない場合には
(S240:NO)、S250の処理を実行せずに図4
中のS100へ移行する。例えば図11において、サブ
シナリオJがクリックされた場合(記号b)、サブシナ
リオJに対応する対話シナリオ仕様表が読み出されるこ
とになる(S250)。
In S240, it is determined whether or not there is a correction instruction. This correction instruction is made by clicking the graphic information via the graphic editor 50. If it is determined that the correction instruction has been given (S240: YES), the dialogue scenario specification table 21 is read in S250, and then the process proceeds to S100 in FIG. On the other hand, when there is no correction instruction (S240: NO), the process of S250 is not executed and the process of FIG.
The process proceeds to S100 inside. For example, in FIG. 11, when the sub-scenario J is clicked (symbol b), the dialogue scenario specification table corresponding to the sub-scenario J is read (S250).

【0057】ところで、本実施例においては、対話シス
テム部40が、テストファイルに基づいて自動的に対話
処理の検証を行うことは既に述べた。これに関連して、
本実施例では、図形エディタ50を介して図形情報の一
部を選択した場合、その部分に対応する対話処理の検証
を行うことができる。例えば、図11で言えば、破線で
示すシナリオの一部(記号c)が選択された場合、ルー
トシナリオと、サブシナリオB,C,F,Gに対応する
対話処理を実行する。
By the way, in the present embodiment, it has already been described that the dialogue system section 40 automatically verifies the dialogue processing based on the test file. In this connection
In this embodiment, when a part of the graphic information is selected via the graphic editor 50, the interactive process corresponding to the selected part can be verified. For example, referring to FIG. 11, when a part of the scenario (symbol c) indicated by the broken line is selected, the interactive processing corresponding to the root scenario and the sub-scenarios B, C, F and G is executed.

【0058】次に、本実施例のシナリオ作成支援装置が
発揮する効果を説明する。本実施例では、対話システム
部40で実行されるシナリオの記述が、ユーザ側の入力
単語、それに対応するシステム側の発話文章、及び、次
のシナリオの遷移位置を少なくとも含むことに着目し、
対話シナリオ仕様表21を用いてシナリオの自動生成を
行う。対話シナリオ仕様表21は、入力単語、追加する
シナリオ名、発話文章、及び遷移するシナリオ名を含む
ものとし、各情報の対応関係を表現する。すなわち、自
然な対話処理を実現するために階層構造とその構造内の
遷移記述によって複雑となるシナリオを、対話の単位毎
に対話シナリオ仕様表21で表現することにより、必要
情報の入力を簡素化した。
Next, the effect of the scenario creation support device of this embodiment will be described. In the present embodiment, focusing on that the description of the scenario executed by the dialogue system unit 40 includes at least the input word on the user side, the utterance sentence on the system side corresponding thereto, and the transition position of the next scenario,
A scenario is automatically generated using the dialogue scenario specification table 21. The dialogue scenario specification table 21 includes an input word, a scenario name to be added, an uttered sentence, and a transition scenario name, and expresses a correspondence relationship of each information. That is, a scenario that becomes complicated by a hierarchical structure and a transition description in the structure for realizing a natural dialogue process is expressed in the dialogue scenario specification table 21 for each dialogue unit, thereby simplifying the input of necessary information. did.

【0059】これによって、シナリオの記述形式を修得
していない場合でも、簡単にシナリオを作成することが
でき、シナリオ作成工数の削減に寄与できる。また、本
実施例では、図3に示すように、「追加するシナリオ
名」を記述位置として指定するため、既存のシナリオを
拡張することも簡単に実現できる。さらに、対話システ
ム部40にて必要となる対話用認識辞書や発話リスト
も、対話シナリオ仕様表21から作成する(図4中のS
170,S180)。これにより、ユーザ自らが対話用
認識辞書や発話リストを作成する手間がなく、便利であ
る。
As a result, even if the description format of the scenario is not acquired, the scenario can be easily created, which contributes to the reduction of the scenario creation man-hour. Further, in the present embodiment, as shown in FIG. 3, since the "scenario name to be added" is designated as the description position, it is possible to easily realize the extension of the existing scenario. Furthermore, the dialogue recognition dictionary and the utterance list required in the dialogue system unit 40 are also created from the dialogue scenario specification table 21 (S in FIG. 4).
170, S180). This is convenient because there is no need for the user to create the recognition dictionary for dialogue and the utterance list.

【0060】さらにまた、本実施例では、シナリオの作
成情報も入力でき(図4中のS150)、この作成情報
を反映してシナリオが作成される(S160)。これに
よって、シナリオにおける対話システムの設定記述が自
動的に生成される。また、本実施例では、図形エディタ
50を備えており、図形情報に基づいて対話シナリオ仕
様表21を作成したり、修正したりできる。これによっ
て、ユーザは階層構造を容易に把握でき、対話シナリオ
仕様表21の部分的な修正も容易になる。
Furthermore, in this embodiment, scenario creation information can also be input (S150 in FIG. 4), and a scenario is created by reflecting this creation information (S160). By this, the setting description of the interactive system in the scenario is automatically generated. Further, in the present embodiment, the graphic editor 50 is provided, and the dialogue scenario specification table 21 can be created or modified based on the graphic information. As a result, the user can easily understand the hierarchical structure, and the partial correction of the dialogue scenario specification table 21 also becomes easy.

【0061】さらにまた、本実施例では、対話システム
部40を備えることにより、作成されたシナリオに基づ
く対話処理が実行でき、そのチェックができる。このと
き、ユーザの発話に代わるテストファイルを対話システ
ム部40に入力して対話処理を実行できるため、ユーザ
が音声によるテストをわざわざ行う必要がなく、便利で
ある。また、対話処理の実行の履歴が記録できるため、
チェック結果の確認が容易になっている。さらに、図形
情報を用いた部分的なチェックができるため、比較的大
規模なシナリオのチェックも簡単である。
Furthermore, in this embodiment, by including the dialogue system section 40, the dialogue processing based on the created scenario can be executed and the check can be performed. At this time, a test file in place of the user's utterance can be input to the dialogue system unit 40 to execute the dialogue processing, which is convenient because the user does not need to bother performing the voice test. Also, since the history of the execution of dialogue processing can be recorded,
Check results can be easily confirmed. Furthermore, since it is possible to perform a partial check using graphic information, it is easy to check a relatively large-scale scenario.

【0062】なお、本実施例における入力部20が「入
力手段」に相当し、シナリオ作成部30が「シナリオ作
成手段」に相当し、対話システム部40が「対話システ
ム」に相当し、図形エディタ50が「図形エディタ」に
相当する。以上、本発明はこのような実施例に何等限定
されるものではなく、本発明の主旨を逸脱しない範囲に
おいて種々なる形態で実施し得る。
In the present embodiment, the input section 20 corresponds to "input means", the scenario creating section 30 corresponds to "scenario creating section", the dialogue system section 40 corresponds to "dialogue system", and a graphic editor. 50 corresponds to a "graphic editor". As described above, the present invention is not limited to such embodiments and can be implemented in various forms without departing from the gist of the present invention.

【0063】(イ)上記実施例では、対話シナリオ仕様
表21には発話文章を入力していたが、図12に示すよ
うに、システム側の動作情報を挿入できるようにしても
よい。このようにすれば、「ニュース」、「見たい」と
いうユーザ側の音声入力に対し、ニュース映像を再生す
るといった動作、すなわちシナリオに基づく対話システ
ムを介した機器制御が実現できる。
(A) In the above embodiment, the utterance sentence is input to the dialogue scenario specification table 21. However, as shown in FIG. 12, operation information on the system side may be inserted. In this way, it is possible to realize an operation of reproducing a news image in response to a user's voice input of “news” or “want to see”, that is, device control via a dialogue system based on a scenario.

【0064】(ロ)上記実施例では、図形情報を用いた
対話シナリオ仕様表21の作成に言及したが、このよう
に図形情報を用いるとユーザにとってシナリオの階層構
造が把握し易い。そこで、対話処理全体の階層構造を図
形情報で指示できるようにして、入力部20が、指示さ
れた階層構造を反映させて対話シナリオ仕様表21を作
成するようにしてもよい。
(B) In the above embodiment, the creation of the dialogue scenario specification table 21 using graphic information was mentioned, but using graphic information in this way makes it easier for the user to understand the hierarchical structure of the scenario. Therefore, the hierarchical structure of the entire dialogue processing may be designated by the graphic information, and the input unit 20 may create the dialogue scenario specification table 21 by reflecting the designated hierarchical structure.

【0065】(ハ)また、図形情報による入力以外に、
一連の入力項目が記述されたスロット情報が入力された
場合に、入力部20により、対話シナリオ仕様表21を
作成できるようにすることも考えられる。スロット情報
とは、例えばナビゲーション装置での目的地設定という
処理において用意される、目的地の名称、目的地のある
都道府県、目的地への到着希望時刻といった一連の入力
項目の記述をいう。このようなスロット情報からは、
「どこを目的地としますか」、「そこは何県ですか」、
「何時までに到着したいですか」などのシステム側の発
話や、入力順序などが決定できる。スロット情報から対
話シナリオ仕様表が作成できれば、入力項目に関する一
連の対話処理を実現するためのシナリオを半自動的に作
成できて便利である。
(C) In addition to the input by the graphic information,
When the slot information in which a series of input items is described is input, it may be possible to create the dialogue scenario specification table 21 by the input unit 20. The slot information is a description of a series of input items such as the name of the destination, the prefecture in which the destination is located, and the desired arrival time at the destination, which is prepared in the process of setting the destination in the navigation device. From such slot information,
"Where do you want to go?", "How many prefectures are there?",
It is possible to determine the utterance on the system side such as "By what time do you want to arrive?" And the input order. If a dialogue scenario specification table can be created from slot information, it is convenient to be able to semi-automatically create a scenario for realizing a series of dialogue processing regarding input items.

【図面の簡単な説明】[Brief description of drawings]

【図1】実施例のシナリオ作成支援装置の概略構成を示
す機能ブロック図である。
FIG. 1 is a functional block diagram showing a schematic configuration of a scenario creation support device according to an embodiment.

【図2】対話システム部の概略構成を示す説明図であ
る。
FIG. 2 is an explanatory diagram showing a schematic configuration of a dialogue system unit.

【図3】対話シナリオ仕様表を例示する説明図である。FIG. 3 is an explanatory diagram illustrating a dialogue scenario specification table.

【図4】シナリオ作成処理を示すフローチャートであ
る。
FIG. 4 is a flowchart showing a scenario creating process.

【図5】作成情報としての選択項目を例示する説明図で
ある。
FIG. 5 is an explanatory diagram illustrating a selection item as creation information.

【図6】選択項目に対する設定項目を例示する説明図で
ある。
FIG. 6 is an explanatory diagram exemplifying setting items for selection items.

【図7】作成されたシナリオの記述を示す説明図であ
る。
FIG. 7 is an explanatory diagram showing a description of a created scenario.

【図8】作成された対話用認識辞書の内容を示す説明図
である。
FIG. 8 is an explanatory diagram showing the contents of a created recognition dictionary for dialogue.

【図9】作成された発話リストの内容を示す説明図であ
る。
FIG. 9 is an explanatory diagram showing the contents of the created utterance list.

【図10】図形処理を示すフローチャートである。FIG. 10 is a flowchart showing graphic processing.

【図11】図形エディタで作成される図形情報を例示する
説明図である。
FIG. 11 is an explanatory diagram illustrating an example of graphic information created by a graphic editor.

【図12】対話シナリオ仕様表への動作情報の挿入を示す
説明図である。
FIG. 12 is an explanatory diagram showing insertion of operation information into a dialogue scenario specification table.

【図13】シナリオの概要とパフォーマンスの内容を示す
説明図である。
FIG. 13 is an explanatory diagram showing an outline of a scenario and contents of performance.

【符号の説明】 10…ユーザインタフェース 20…入力部 21…対話シナリオ仕様表 30…シナリオ作成部 40…対話システム部 50…図形エディタ[Explanation of symbols] 10 ... User interface 20 ... Input section 21… Dialog scenario specification table 30 ... Scenario creation section 40 ... Dialog system section 50 ... Graphic editor

フロントページの続き (72)発明者 村瀬 文彦 愛知県刈谷市昭和町1丁目1番地 株式会 社デンソー内 Fターム(参考) 5D015 KK02 LL10 LL11 5D045 AB30 Continued front page    (72) Inventor Fumihiko Murase             1-1, Showa-cho, Kariya city, Aichi stock market             Inside the company DENSO F-term (reference) 5D015 KK02 LL10 LL11                 5D045 AB30

Claims (22)

【特許請求の範囲】[Claims] 【請求項1】対話処理を実行する対話システムに用いら
れる、対話処理の遷移を実現するためのシナリオを作成
するシナリオ作成支援装置であって、 前記シナリオには、ユーザから入力されるユーザ側入力
情報が記述されると共に、当該ユーザ側入力情報が入力
された場合に前記対話システムからの出力となるシステ
ム側出力情報及び次に実行されるシナリオの遷移位置が
記述されることを前提として、 前記ユーザ側入力情報、前記ユーザ側入力情報の記述位
置、前記システム側出力情報、及び、前記遷移位置を、
それぞれの情報の対応関係を表現する対話シナリオ仕様
表への挿入という形式で入力する入力手段と、 前記入力手段を介して作成された対話シナリオ仕様表に
従って、前記シナリオを作成するシナリオ作成手段とを
備えていること特徴とするシナリオ作成支援装置。
1. A scenario creation support device for use in an interactive system for executing interactive processing, for creating a scenario for realizing a transition of interactive processing, wherein the scenario has a user-side input input by a user. Assuming that the information is described and the system-side output information that is output from the interactive system when the user-side input information is input and the transition position of the scenario to be executed next are described. User side input information, the description position of the user side input information, the system side output information, and the transition position,
Input means for inputting in the form of insertion into a dialogue scenario specification table expressing the correspondence of each information, and scenario creating means for creating the scenario according to the dialogue scenario specification table created via the input means. A scenario creation support device characterized by being provided.
【請求項2】請求項1に記載のシナリオ作成支援装置に
おいて、 前記対話シナリオ仕様表における一つの対応関係に対し
て、複数のユーザ側入力情報を挿入可能であることを特
徴とするシナリオ作成支援装置。
2. The scenario creation support apparatus according to claim 1, wherein a plurality of user-side input information can be inserted into one correspondence relationship in the dialogue scenario specification table. apparatus.
【請求項3】請求項1又は2に記載のシナリオ作成支援
装置において、 前記対話シナリオ仕様表における一つの対応関係に対し
て、複数のシステム側出力情報を挿入可能であることを
特徴とするシナリオ作成支援装置。
3. The scenario creation support apparatus according to claim 1, wherein a plurality of system-side output information can be inserted into one correspondence relationship in the dialogue scenario specification table. Creation support device.
【請求項4】請求項1〜3のいずれかに記載のシナリオ
作成支援装置において、 前記対話シナリオ仕様表における一つの対応関係に対し
て、複数の遷移位置を挿入可能であることを特徴とする
シナリオ作成支援装置。
4. The scenario creation support device according to claim 1, wherein a plurality of transition positions can be inserted into one correspondence relationship in the dialogue scenario specification table. Scenario creation support device.
【請求項5】請求項4に記載のシナリオ作成支援装置に
おいて、 前記複数の遷移位置に対応する遷移条件を挿入可能であ
り、 前記シナリオ作成手段は、前記遷移条件を考慮して、前
記シナリオを作成することを特徴とするシナリオ作成支
援装置。
5. The scenario creation support device according to claim 4, wherein transition conditions corresponding to the plurality of transition positions can be inserted, and the scenario creation unit considers the transition conditions and sets the scenario A scenario creation support device characterized by creating.
【請求項6】請求項1〜5のいずれかに記載のシナリオ
作成支援装置において、 前記シナリオ作成手段は、予め存在するシナリオへの追
加記述を行って、前記シナリオを作成可能であることを
特徴とするシナリオ作成支援装置。
6. The scenario creation support device according to claim 1, wherein the scenario creation unit can create the scenario by making an additional description to a preexisting scenario. Scenario creation support device.
【請求項7】請求項1〜6のいずれかに記載のシナリオ
作成支援装置において、 前記ユーザ側入力情報は、ユーザの発話情報であること
を特徴とするシナリオ作成支援装置。
7. The scenario creation support apparatus according to any one of claims 1 to 6, wherein the user-side input information is user utterance information.
【請求項8】請求項7に記載のシナリオ作成支援装置に
おいて、 前記対話システムは、ユーザの発話情報を対話用認識辞
書を用いて判断するようになっており、 前記シナリオ作成手段は、前記対話シナリオ仕様表に従
って、前記対話用認識辞書を作成することを特徴とする
シナリオ作成支援装置。
8. The scenario creation support apparatus according to claim 7, wherein the dialog system is configured to judge the utterance information of the user by using a dialog recognition dictionary, and the scenario creating unit is configured to execute the dialog. A scenario creation support device which creates the dialog recognition dictionary according to a scenario specification table.
【請求項9】請求項1〜8のいずれかに記載のシナリオ
作成支援装置において、 前記システム側出力情報は、前記対話システムの発話情
報であることを特徴とするシナリオ作成支援装置。
9. The scenario creation support device according to claim 1, wherein the system-side output information is utterance information of the dialogue system.
【請求項10】請求項9に記載のシナリオ作成支援装置
において、 前記対話システムは、前記対話システムの発話情報を、
当該発話情報の記述された発話リストに従って出力する
ようになっており、 前記シナリオ作成手段は、前記対話シナリオ仕様表に従
って、前記発話リストを作成することを特徴とするシナ
リオ作成支援装置。
10. The scenario creation support apparatus according to claim 9, wherein the dialogue system stores utterance information of the dialogue system,
The scenario creation support device is configured to output according to the utterance list in which the utterance information is described, and the scenario creating means creates the utterance list according to the dialogue scenario specification table.
【請求項11】請求項1〜10のいずれかに記載のシナ
リオ作成支援装置において、 前記シナリオ作成手段は、発話音声に関する情報が設定
されると、当該情報を反映させて、前記シナリオを作成
可能であることを特徴とするシナリオ作成支援装置。
11. The scenario creation support device according to any one of claims 1 to 10, wherein when the information on the uttered voice is set, the scenario creation means can create the scenario by reflecting the information. A scenario creation support device characterized by:
【請求項12】請求項1〜11のいずれかに記載のシナ
リオ作成支援装置において、 前記システム側出力情報には、前記対話システム側の動
作情報が含まれていることを特徴とするシナリオ作成支
援装置。
12. The scenario creation support apparatus according to claim 1, wherein the system-side output information includes operation information on the interactive system side. apparatus.
【請求項13】請求項1〜12のいずれかに記載のシナ
リオ作成支援装置において、 前記シナリオ作成手段は、前記対話シナリオ仕様表に従
って、複数のシナリオを作成可能であることを特徴とす
るシナリオ作成支援装置。
13. The scenario creation support apparatus according to claim 1, wherein the scenario creation means is capable of creating a plurality of scenarios in accordance with the dialogue scenario specification table. Support device.
【請求項14】請求項1〜13のいずれかに記載のシナ
リオ作成支援装置において、 前記ユーザ側入力情報の記述位置及び前記遷移位置を少
なくとも表現する図形情報を入力するための図形エディ
タを備え、 前記入力手段は、前記図形エディタにて入力された図形
情報に基づいて、前記対話シナリオ仕様表を作成可能で
あることを特徴とするシナリオ作成支援装置。
14. The scenario creation support apparatus according to claim 1, further comprising: a graphic editor for inputting graphic information that expresses at least the description position of the user-side input information and the transition position, The scenario creation support device, wherein the input means can create the dialogue scenario specification table based on the graphic information input by the graphic editor.
【請求項15】請求項14に記載のシナリオ作成支援装
置において、 前記図形情報を用いて、対話処理全体の階層構造を指示
できるようにし、 前記入力手段が、指示された階層構造を反映させて前記
対話シナリオ仕様表を作成することを特徴とするシナリ
オ作成支援装置。
15. The scenario creation support device according to claim 14, wherein the graphic information is used to instruct a hierarchical structure of the entire dialogue process, and the input means reflects the instructed hierarchical structure. A scenario creation support device for creating the dialog scenario specification table.
【請求項16】請求項14又は15に記載のシナリオ作
成支援装置において、 前記図形エディタにて入力された図形情報を用いて、該
当する対話シナリオ仕様表を読み出して修正可能である
ことを特徴とするシナリオ作成支援装置。
16. The scenario creation support apparatus according to claim 14 or 15, wherein the corresponding dialogue scenario specification table can be read and modified by using the graphic information input by the graphic editor. Scenario creation support device.
【請求項17】請求項1〜16のいずれかに記載のシナ
リオ作成支援装置において、 前記入力手段は、一連の入力項目が記述されたスロット
情報が入力されると、当該スロット情報に基づいて前記
対話シナリオ仕様表を作成可能であることを特徴とする
シナリオ作成支援装置。
17. The scenario creation support apparatus according to any one of claims 1 to 16, wherein when the slot information in which a series of input items is described is input, the input means is based on the slot information. A scenario creation support device capable of creating a dialog scenario specification table.
【請求項18】請求項1〜17のいずれかに記載のシナ
リオ作成支援装置において、 前記対話システムを備え、 前記シナリオ作成手段にて作成されたシナリオに基づ
く、対話処理を実行可能であることを特徴とするシナリ
オ作成支援装置。
18. The scenario creation support apparatus according to claim 1, further comprising the dialog system, wherein the dialog processing can be executed based on the scenario created by the scenario creating means. Characteristic scenario creation support device.
【請求項19】請求項18に記載のシナリオ作成支援装
置において、 前記ユーザ側入力情報に基づきユーザの発話情報が記述
されたテストファイルを前記対話システムに入力する
と、当該テストファイルに基づいて対話処理を実行する
ことを特徴とするシナリオ作成支援装置。
19. The scenario creation support apparatus according to claim 18, wherein when a test file in which utterance information of the user is described based on the input information on the user side is input to the interactive system, interactive processing is performed based on the test file. A scenario creation support device characterized by executing.
【請求項20】請求項18又は19に記載のシナリオ作
成支援装置において、 前記対話処理の実行の履歴を記録可能であることを特徴
とするシナリオ作成支援装置。
20. The scenario creation support apparatus according to claim 18 or 19, wherein a history of execution of the dialog processing can be recorded.
【請求項21】請求項18〜20のいずれかに記載のシ
ナリオ作成支援装置において、 前記ユーザ側入力情報の記述位置及び前記遷移位置を少
なくとも表現する図形情報を入力するための図形エディ
タを備えることを前提として、 前記図形エディタにて指定された図形情報を用いて、該
当するシナリオに基づく対話処理を実行可能であること
を特徴とするシナリオ作成支援装置。
21. The scenario creation support apparatus according to claim 18, further comprising: a graphic editor for inputting graphic information that expresses at least the description position of the user-side input information and the transition position. On the premise that the scenario creation support device is capable of executing interactive processing based on a corresponding scenario by using the graphic information designated by the graphic editor.
【請求項22】請求項1〜21のいずれかに記載のシナ
リオ作成支援装置の各手段としてコンピュータを機能さ
せるプログラム。
22. A program for causing a computer to function as each unit of the scenario creation support apparatus according to any one of claims 1 to 21.
JP2002078411A 2002-03-20 2002-03-20 Scenario creation supporting device and program for the same Pending JP2003280687A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002078411A JP2003280687A (en) 2002-03-20 2002-03-20 Scenario creation supporting device and program for the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002078411A JP2003280687A (en) 2002-03-20 2002-03-20 Scenario creation supporting device and program for the same

Publications (1)

Publication Number Publication Date
JP2003280687A true JP2003280687A (en) 2003-10-02

Family

ID=29228371

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002078411A Pending JP2003280687A (en) 2002-03-20 2002-03-20 Scenario creation supporting device and program for the same

Country Status (1)

Country Link
JP (1) JP2003280687A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100850904B1 (en) 2006-04-28 2008-08-08 주식회사 올리브나인 Unmanned Conversation System for a Story-Teller Program Supporting Creation
JP2011108083A (en) * 2009-11-19 2011-06-02 Fujitsu Advanced Engineering Ltd Voice scenario generation program and voice scenario generation device
JP2013225036A (en) * 2012-04-23 2013-10-31 Scsk Corp Automatic interactive scenario creation support device and automatic interactive scenario creation support program
CN103674012A (en) * 2012-09-21 2014-03-26 高德软件有限公司 Voice customizing method and device and voice identification method and device
JP2018185561A (en) * 2017-04-24 2018-11-22 株式会社日立製作所 Dialogue support system, dialogue support method, and dialogue support program
JP2020042184A (en) * 2018-09-11 2020-03-19 株式会社デンソーアイティーラボラトリ Interaction plan creation support device, interaction plan creation support method and program
EP3663940A4 (en) * 2017-08-04 2020-07-29 Sony Corporation Information processing device and information processing method

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100850904B1 (en) 2006-04-28 2008-08-08 주식회사 올리브나인 Unmanned Conversation System for a Story-Teller Program Supporting Creation
JP2011108083A (en) * 2009-11-19 2011-06-02 Fujitsu Advanced Engineering Ltd Voice scenario generation program and voice scenario generation device
JP2013225036A (en) * 2012-04-23 2013-10-31 Scsk Corp Automatic interactive scenario creation support device and automatic interactive scenario creation support program
CN103674012A (en) * 2012-09-21 2014-03-26 高德软件有限公司 Voice customizing method and device and voice identification method and device
JP2018185561A (en) * 2017-04-24 2018-11-22 株式会社日立製作所 Dialogue support system, dialogue support method, and dialogue support program
EP3663940A4 (en) * 2017-08-04 2020-07-29 Sony Corporation Information processing device and information processing method
JP2020042184A (en) * 2018-09-11 2020-03-19 株式会社デンソーアイティーラボラトリ Interaction plan creation support device, interaction plan creation support method and program
JP7117951B2 (en) 2018-09-11 2022-08-15 株式会社デンソーアイティーラボラトリ Dialogue plan creation support device, dialogue plan creation support method, and program

Similar Documents

Publication Publication Date Title
US7292980B1 (en) Graphical user interface and method for modifying pronunciations in text-to-speech and speech recognition systems
US10037758B2 (en) Device and method for understanding user intent
US9424833B2 (en) Method and apparatus for providing speech output for speech-enabled applications
JP7204690B2 (en) Tailor interactive dialog applications based on author-provided content
US8825486B2 (en) Method and apparatus for generating synthetic speech with contrastive stress
US6587822B2 (en) Web-based platform for interactive voice response (IVR)
US4831654A (en) Apparatus for making and editing dictionary entries in a text to speech conversion system
US20070239455A1 (en) Method and system for managing pronunciation dictionaries in a speech application
EP1096472A2 (en) Audio playback of a multi-source written document
JP2002117026A (en) Method and system for filtration and selection from candidate list generated by probabilistic input method
US9984689B1 (en) Apparatus and method for correcting pronunciation by contextual recognition
US8571870B2 (en) Method and apparatus for generating synthetic speech with contrastive stress
US7742924B2 (en) System and method for updating information for various dialog modalities in a dialog scenario according to a semantic context
JP6150268B2 (en) Word registration apparatus and computer program therefor
US7099828B2 (en) Method and apparatus for word pronunciation composition
JP2003280687A (en) Scenario creation supporting device and program for the same
JP2010169973A (en) System and program for supporting foreign language learning
JP2005031150A (en) Apparatus and method for speech processing
JP2009116107A (en) Information processing device and method
JP2003162524A (en) Language processor
JP2008257116A (en) Speech synthesis system
JP2000330588A (en) Method and system for processing speech dialogue and storage medium where program is stored
JP2003202886A (en) Device, method, and program for text input processing
JP6340839B2 (en) Speech synthesizer, synthesized speech editing method, and synthesized speech editing computer program
JP2005316247A (en) Voice dialog system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040420

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060801

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060808

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20061205