JP2008145769A - Interaction scenario creation system, its method, and program - Google Patents

Interaction scenario creation system, its method, and program Download PDF

Info

Publication number
JP2008145769A
JP2008145769A JP2006333484A JP2006333484A JP2008145769A JP 2008145769 A JP2008145769 A JP 2008145769A JP 2006333484 A JP2006333484 A JP 2006333484A JP 2006333484 A JP2006333484 A JP 2006333484A JP 2008145769 A JP2008145769 A JP 2008145769A
Authority
JP
Japan
Prior art keywords
information
dialogue
user
rule
scenario
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006333484A
Other languages
Japanese (ja)
Inventor
Hirohiko Sagawa
浩彦 佐川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2006333484A priority Critical patent/JP2008145769A/en
Publication of JP2008145769A publication Critical patent/JP2008145769A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To efficiently create an interaction scenario which is required for a natural language interaction system for carrying out operation for a device and a computer program based on user's request. <P>SOLUTION: The interaction scenario is formed from a document in which functions and operation methods of the device and the computer program are described in natural language. First, in a document item extraction section 106, only object items are extracted from the document according to a predetermined rule. Then, in an extraction item analysis section 108, a content of the extracted item is analyzed and required information is extracted, according to an expression rule which is specific to an object document. A command and a parameter corresponding to the extracted information are obtained from a developer. In an interactive scenario creation section 110, the interactive scenario is created, based on the information extracted from the document, the information obtained from the developer, and the rule which is provided beforehand. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は,自然言語対話によってユーザとやり取りを行い,機器の操作をユーザに代わって行うことやユーザにサービスの提供を行う自然言語対話システムにおいて,ユーザとのやり取りに関する情報が記述された対話シナリオを自然言語対話システムの開発者が容易に作成するための技術に関する。   The present invention relates to a dialogue scenario in which information related to interaction with a user is described in a natural language dialogue system in which a user interacts with the user through a natural language dialogue to operate a device on behalf of the user or provide a service to the user. This is related to a technique for easily creating a natural language dialogue system developer.

自然言語によりユーザと対話を行い,ユーザが要求する情報やサービスを提供する自然言語対話システムに関する技術は多数提案されている。   A number of technologies related to a natural language dialogue system have been proposed that interact with a user in natural language and provide information and services required by the user.

自然言語対話システムでは,ユーザとシステムとのやり取りに関する情報を対話シナリオと呼ばれるデータベースとして格納し,対話シナリオに従ってユーザからの質問に対する応答の生成やサービスの提供を行う。しかし,多様なサービスを提供するとともに,システムとユーザとの柔軟な対話を実現するためには,数多くの状況を想定する必要があるため,質の良い対話シナリオを効率的に構築する手段が必要となる。   In a natural language dialogue system, information related to the interaction between the user and the system is stored as a database called a dialogue scenario, and a response to a question from the user is generated and a service is provided according to the dialogue scenario. However, in order to provide a variety of services and realize a flexible dialogue between the system and the user, it is necessary to assume a number of situations. Therefore, there is a need for a means to efficiently build a good-quality dialogue scenario. It becomes.

特許文献1では,ハイパーテキストデータから表部分に対応するテキストデータを抽出し,抽出した表データをシナリオテンプレートに挿入することにより,音声対話シナリオを生成する。   In Patent Document 1, text data corresponding to a table portion is extracted from hypertext data, and the extracted table data is inserted into a scenario template to generate a voice conversation scenario.

また,特許文献2では,擬似人格との対話サービスを対象とし,対象とする人物のメール,著作物等における発言や対話の内容に基づいて,ユーザの質問を受け付け,返答するための情報となる対話用の基本文書を生成する。   Further, in Patent Document 2, it is intended for a dialogue service with a pseudo personality, and is information for accepting and responding to a user's question based on the content of the speech or dialogue of the subject person's mail, copyrighted work, etc. Generate a basic document for interaction.

一方,特許文献3では,音声認識や音声合成等の機能を容易に結びつけることが可能なツールを用意することにより,人手により音声インタフェースを構築する際の作業効率向上,作業負荷軽減を図っている。   On the other hand, Patent Document 3 aims to improve work efficiency and reduce work load when constructing a speech interface manually by preparing tools that can easily combine functions such as speech recognition and speech synthesis. .

特開2004−334369号公報JP 2004-334369 A 特開2005−196356号公報JP 2005-196356 A 特開平06−161704号公報JP-A-06-161704

従来技術では,ユーザと自然言語対話システムとの基本的なやり取りに関する情報がテンプレートとして与えられる,あるいはユーザの発言や対話の記録といった対話シナリオに親和性の高い情報があらかじめ取得できるという前提に基づいている。   In the prior art, information on basic interaction between the user and the natural language dialogue system is given as a template, or based on the premise that information that is highly compatible with dialogue scenarios such as user speech and dialogue recording can be acquired in advance. Yes.

一方,ユーザから要求を受け付け,自然言語対話システムがユーザに代わって情報家電のような機器やコンピュータプログラムの操作を行うことを想定した場合,ユーザと自然言語対話システムのやり取りは,操作対象とする機器やコンピュータプログラムの種類によってさまざまな形態となるため,あらかじめ全ての状況を想定してテンプレート化しておくことは困難となる。また,ユーザが他の人物に機器やコンピュータプログラムの操作を依頼するという状況におけるやり取りは,一般的に少なく,さらに,それを記録することに至っては殆どないため,ユーザの発言や対話の内容に基づいて対話シナリオを構築することは非常に困難である。   On the other hand, when a request is received from a user and it is assumed that the natural language dialogue system operates a device such as an information appliance or a computer program on behalf of the user, the exchange between the user and the natural language dialogue system is an operation target. Since it takes various forms depending on the type of device or computer program, it is difficult to create a template in advance assuming all situations. In addition, there are generally few exchanges in the situation where a user asks another person to operate a device or a computer program, and since it is rarely recorded, the content of the user's remarks and dialogues It is very difficult to build a dialogue scenario based on it.

さらに,従来技術では,人手で対話シナリオを生成する際の作業効率化のための技術も示されているが,近年開発される機器やコンピュータプログラムは,その機能が多岐に渡るため,個々の機能毎にユーザとのやり取りの詳細な状況を想定し,対話シナリオとして記述することは,効率的なツールを用いた場合においても,人手での作業には多大な労力を必要とし,対話シナリオを作成し忘れる機能が生じる可能性も高くなると考えられる。   In addition, the prior art also shows a technique for improving work efficiency when manually generating a conversation scenario. However, recently developed devices and computer programs have a wide variety of functions, so individual functions Assuming the detailed situation of interaction with the user every time and describing it as a dialogue scenario, even if an efficient tool is used, it requires a lot of labor for manual work and creates a dialogue scenario It is considered that there is a high possibility that a function to forget will occur.

本発明は,以上の問題を解決し,機器やコンピュータプログラムが提供する多様なサービスに対するユーザ要求に柔軟に対応可能な自然言語対話システムを実現できる対話シナリオを効率的に構築するため,機器やコンピュータプログラムの開発者や提供者がユーザ向けに提供する操作マニュアルや取り扱い説明書等の文書から対話シナリオを構築する技術を提供する。   The present invention solves the above problems and efficiently constructs a dialogue scenario capable of realizing a natural language dialogue system capable of flexibly responding to user requests for various services provided by the device and computer program. A technology for constructing dialogue scenarios from documents such as operation manuals and instruction manuals provided to users by program developers and providers.

本発明では,上記の課題を達成し対話シナリオを構築するため,まず,ユーザ向けに提供される文書から,あらかじめ定められたルールに従って,対話シナリオに関連する項目のみを抽出する。抽出する項目は,ユーザからの要求に対応する項目や,ユーザからの要求を実行するために必要となる詳細なやり取りに対応する項目であり,操作の内容を表す見出しや箇条書きされている項目,操作手順を表す項目がそれに相当する。   In the present invention, in order to achieve the above-described problem and construct a dialogue scenario, first, only items related to the dialogue scenario are extracted from a document provided for the user according to a predetermined rule. The items to be extracted are the items corresponding to the user's request and the items corresponding to the detailed exchange required to execute the user's request, and the items that are listed in the heading or item that indicate the contents of the operation The item representing the operation procedure corresponds to this.

次に,操作マニュアルや取り扱い説明書等のユーザ向けに提供される文書において用いられる特有の表現形態に従って,抽出した項目の内容を分析し,ユーザからの要求に対応する単位やそれらの関係,ユーザから情報を取得する必要がある項目や操作対象および操作の内容に関する情報を抽出する。表現形態の分析のためには,あらかじめ表現形態に関するルールを用意しておく。   Next, the contents of the extracted items are analyzed according to the specific expression used in documents provided for users, such as operation manuals and instruction manuals, and the units corresponding to user requests, their relationships, Extract information about items, operation targets, and operation contents for which information needs to be acquired. For the analysis of the expression form, a rule regarding the expression form is prepared in advance.

機器やコンピュータプログラムを自然言語対話システムが操作する際には,自然言語対話システムが機器やコンピュータプログラムが解釈可能なコマンドおよびそれに付随するパラメータを送信する必要がある。コマンドやパラメータは,文書から抽出された操作の内容や操作対象,ユーザから入力される情報に対応するが,通常,ユーザに提供される文書には記載されない。このため,文書から抽出された操作内容や操作対象,ユーザから入力される情報に対応するコマンドやパラメータは開発者が補足入力するためのインタフェースを用意する。また,自然言語対話システムがユーザから情報を入力させる場合,機器やコンピュータプログラムが対応している項目が限られるため,複数の選択肢から選択させる場合がある。この場合の選択肢に関する情報はユーザ用に提供される文書に記載されていない場合がある。このため,このような情報も含めて上記のインタフェースでは開発者が入力可能とする。   When a natural language dialogue system operates a device or a computer program, it is necessary for the natural language dialogue system to transmit a command that can be interpreted by the device or the computer program and parameters associated therewith. The commands and parameters correspond to the contents of the operation extracted from the document, the operation target, and information input from the user, but are not usually described in the document provided to the user. For this reason, an interface is provided for the developer to supplementally input commands and parameters corresponding to the operation content and operation target extracted from the document and information input from the user. In addition, when the natural language dialogue system allows the user to input information, there are cases where selection is made from a plurality of options because the items supported by the device and the computer program are limited. Information about options in this case may not be described in the document provided for the user. For this reason, it is possible for the developer to input the above interface including such information.

文書から抽出した項目と開発者が補足した情報,さらに,あらかじめ用意された対話シナリオ生成用のルールに基づいて,対話シナリオを生成する。対話シナリオの生成では,文書から抽出された情報をルールに基づいて修正・補足することにより対話の基本的なやり取りに関する情報を生成し,さらに,応答文の生成および音声認識用文法の生成を行うことにより,対話シナリオを生成する。   A dialog scenario is generated based on the items extracted from the document, information supplemented by the developer, and rules for generating a dialog scenario prepared in advance. In dialog scenario generation, information related to basic interaction in the dialog is generated by correcting and supplementing information extracted from the document based on rules, and further, response sentences and speech recognition grammar are generated. As a result, a dialogue scenario is generated.

操作マニュアルや取り扱い説明書等のユーザ向けに提供される文書に記載されているユーザが行う操作の内容を表す記述,例えば,テレビの操作の場合「テレビをつける」等は,ユーザの基本的な要求を表していると考えることができる。また,これらの文書には,ユーザが機器を使う,あるいはサービスを受けるために行う基本的な操作が全て記述されている。このため,ユーザ向けの文書の内容に基づいて対話シナリオを生成することにより,機器やコンピュータプログラムが提供する多様なサービスへのユーザ要求に柔軟に対応可能な自然言語対話システムを実現できる対話シナリオの効率的な構築が可能となる。   A description indicating the contents of the operation performed by the user described in a document provided for the user such as an operation manual or an instruction manual, for example, “turn on TV” in the case of a TV operation, It can be thought of as representing a request. In addition, these documents describe all the basic operations that a user performs to use a device or receive a service. For this reason, by generating a conversation scenario based on the contents of a document for users, a conversation scenario that can realize a natural language conversation system that can flexibly respond to user requests for various services provided by devices and computer programs. Efficient construction is possible.

以下,本発明の実施例を図1〜図42を用いて詳述する。   Hereinafter, embodiments of the present invention will be described in detail with reference to FIGS.

図1は第一の実施例に係わる対話シナリオ生成システムとそれを用いた自然言語対話システムの構成を示す概念ブロック図である。図1において,101は対話シナリオ生成システムを示す。102は,対話シナリオ生成システム101が対話シナリオを生成するために使用する操作対象関連文書である。操作対象関連文書102には,情報家電等の機器やコンピュータプログラムの操作マニュアルや取り扱い説明書等,機器やコンピュータプログラムの開発者や提供者がユーザ向けに提供する文書が含まれる。103は,本実施例による対話シナリオ生成システム101によって生成された対話シナリオである。104は対話シナリオ103の内容に基づいて,ユーザと自然言語による対話を行い,ユーザ要求に基づいて,操作対象の操作を行ったり,操作対象によるサービスをユーザに提供するための自然言語対話システムであり,音声認識機能や音声合成機能,テキスト表示機能等の各種入出力機能とそれらを用いてユーザとの対話を実現する対話制御機能等から構成される。このような音声認識や音声出力を行う入出力部を有し,自然言語によってユーザと対話を行い,ユーザからの要求に基づいて操作対象となる機器やコンピュータプログラムの操作を代行する自然言語対話システムとしては既に知られている技術,例えば,特開2001−188668号公報「会話処理装置および方法,情報処理装置,会話処理システム,並びに記録媒体」に開示された技術を用いることができる。   FIG. 1 is a conceptual block diagram showing a configuration of a dialogue scenario generation system and a natural language dialogue system using the dialogue scenario generation system according to the first embodiment. In FIG. 1, reference numeral 101 denotes a dialogue scenario generation system. An operation target related document 102 is used by the dialog scenario generation system 101 to generate a dialog scenario. The operation target related document 102 includes documents provided to users by developers and providers of devices and computer programs such as operation manuals and instruction manuals for devices such as information appliances and computer programs. Reference numeral 103 denotes a dialogue scenario generated by the dialogue scenario generation system 101 according to the present embodiment. 104 is a natural language dialogue system for performing a dialogue with a user in a natural language based on the contents of the dialogue scenario 103, performing an operation on an operation target based on a user request, and providing a service based on the operation target to the user. There are various input / output functions such as a voice recognition function, a voice synthesis function, and a text display function, and a dialog control function for realizing a dialog with a user using them. A natural language dialogue system that has an input / output unit that performs voice recognition and voice output, interacts with the user in natural language, and acts as an operation target device or computer program based on the user's request For example, a technique already known, for example, a technique disclosed in Japanese Patent Application Laid-Open No. 2001-188668 “Conversation processing apparatus and method, information processing apparatus, conversation processing system, and recording medium” can be used.

また,図1における操作対象105は,自然言語対話システム104によって操作される情報家電等の機器やコンピュータプログラムであり,テレビやビデオレコーダ,ワードプロセッサ等を想定している。自然言語対話システム104と操作対象105は,有線あるいは無線のネットワークや赤外線リモコン等,操作対象を操作するために一般的に用いられている手段を使用して接続される。   Further, the operation target 105 in FIG. 1 is a device such as an information home appliance or a computer program operated by the natural language dialogue system 104, and assumes a television, a video recorder, a word processor, or the like. The natural language dialogue system 104 and the operation target 105 are connected using means generally used for operating the operation target, such as a wired or wireless network or an infrared remote controller.

図1の対話シナリオ生成システム101において,文書項目抽出部106は,文書構造解析ルール107に基づいて,操作対象関連文書102の構造を解析し,対話シナリオ103の生成に必要な項目を抽出する。文書構造解析ルール107には,文書のフォーマットに関する情報や必要な項目を表すキーワード等が記述される。抽出項目分析部108は,文書項目抽出部106によって抽出された項目の内容を表現解析ルール109に基づいて分析し,ユーザと自然言語対話システム104の対話に必要となる情報を抽出する。表現解析ルール109には,抽出した項目を分類したり,操作内容や操作対象等の情報を抽出するためのキーワードやルールが記述される。対話シナリオ生成部110は,抽出項目分析部108で行われた分析の結果と対話シナリオ生成ルール111に基づいて,対話シナリオ103を生成する。対話シナリオ生成ルール111には,抽出項目分析部108における分析で得られた情報を対話シナリオに変換するために必要となるルールや情報を捕捉するためのルールが記述される。また,情報入出力部112は,対話シナリオを生成する際に,自然言語対話システムの開発者が不足している情報を補うために使用する。   In the dialogue scenario generation system 101 of FIG. 1, the document item extraction unit 106 analyzes the structure of the operation target related document 102 based on the document structure analysis rule 107 and extracts items necessary for generating the dialogue scenario 103. The document structure analysis rule 107 describes information relating to the document format, keywords representing necessary items, and the like. The extracted item analysis unit 108 analyzes the contents of the items extracted by the document item extraction unit 106 based on the expression analysis rules 109, and extracts information necessary for the dialogue between the user and the natural language dialogue system 104. In the expression analysis rule 109, keywords and rules for classifying the extracted items and extracting information such as operation contents and operation targets are described. The dialogue scenario generation unit 110 generates the dialogue scenario 103 based on the result of the analysis performed by the extraction item analysis unit 108 and the dialogue scenario generation rule 111. In the dialogue scenario generation rule 111, a rule necessary for converting information obtained by analysis in the extraction item analysis unit 108 into a dialogue scenario and a rule for capturing information are described. In addition, the information input / output unit 112 is used to supplement the information lacked by the developer of the natural language dialog system when generating the dialog scenario.

図2は本実施例による対話シナリオ生成システム101を一般的に使用される計算機上で実現した場合の構成図である。図2における201は,対話シナリオ生成に必要な各種のプログラムを実行するための情報処理部であり,通常のCPU(Central Processing Unit)を含む。202は,図1における情報入出力部112において,自然言語対話システムの開発者が必要な情報を入力するための入力部であり,キーボードやマウス等の良く知られた装置を用いることができる。表示部203は,図1における情報入出力部112において,対話シナリオ生成に必要となる情報の入力を自然言語対話システムの開発者に促したり,入力した情報の確認等を行うための出力部としての表示装置であり,モニタ等の良く知られた装置を用いることができる。   FIG. 2 is a configuration diagram when the dialogue scenario generation system 101 according to the present embodiment is realized on a commonly used computer. Reference numeral 201 in FIG. 2 denotes an information processing unit for executing various programs necessary for generating a dialogue scenario, and includes a normal CPU (Central Processing Unit). Reference numeral 202 denotes an input unit for inputting information required by the developer of the natural language dialogue system in the information input / output unit 112 in FIG. 1, and a well-known device such as a keyboard or a mouse can be used. In the information input / output unit 112 in FIG. 1, the display unit 203 serves as an output unit for prompting the developer of the natural language dialogue system to input information necessary for generating a dialogue scenario, and confirming the input information. A well-known device such as a monitor can be used.

図2において204は,対話シナリオ生成に必要な各種のプログラムや処理の途中経過に関する情報を格納するための記憶部である。また205は,図1における文書項目抽出部106に対応する処理を行うための文書項目抽出プログラム,206は,同じく抽出項目分析部108に対応する処理を行うための抽出項目分析プログラム,207は,対話シナリオ生成部110と情報入出力部112に対応する処理を行うための対話シナリオ生成プログラムであり,それぞれ記憶部204に記憶され,情報処理部201などで実行される。更に,操作対象関連文書208,文書構造解析ルール209,表現解析ルール210,対話シナリオ生成ルール211,対話シナリオ212はそれぞれ,図1における102,107,109,111,103に対応し,システムが構成される計算機の記憶部に格納される。そのため,各種プログラムを記憶する記憶部204に,これらを記憶・格納する記憶部・格納部を含めたものを情報記憶部と呼ぶことがある。   In FIG. 2, reference numeral 204 denotes a storage unit for storing various programs necessary for generating a dialogue scenario and information on the progress of processing. 205 is a document item extraction program for performing processing corresponding to the document item extraction unit 106 in FIG. 1, 206 is an extraction item analysis program for performing processing corresponding to the extraction item analysis unit 108, and 207 is This is a dialogue scenario generation program for performing processing corresponding to the dialogue scenario generation unit 110 and the information input / output unit 112, and is stored in the storage unit 204 and executed by the information processing unit 201 or the like. Further, the operation target related document 208, the document structure analysis rule 209, the expression analysis rule 210, the dialog scenario generation rule 211, and the dialog scenario 212 correspond to 102, 107, 109, 111, and 103 in FIG. Stored in the storage unit of the computer. Therefore, the storage unit 204 that stores various programs and the storage unit / storage unit that stores and stores them may be referred to as an information storage unit.

図3に本実施例で想定している操作対象関連文書の一例を示す。図3はテレビの操作マニュアルの一部を例示しており,「テレビを見る(301)」ための操作として,「テレビをつける(303)」,「音量を調整する(310)」,「音声を切り換える(315)」の3種類の操作が可能であり,それぞれの具体的な操作の手順が項目毎に記述されている(304,306,307,309,311,316,321)。また,操作や手順に対しては,302,305,308,312,313,314,317,318,319,320,322に示すような補足情報が記述される。図3は文字のみによって記述された操作マニュアルの例であるが,より一般的な操作マニュアルは図や表等も交えて操作の手順が記述されている。しかし,基本的な構成は図3に示す例とほぼ同様である。   FIG. 3 shows an example of the operation target related document assumed in this embodiment. FIG. 3 exemplifies a part of a TV operation manual. As operations for “watch TV (301)”, “turn on TV (303)”, “adjust volume” (310), “sound” Switching operation (315) "is possible, and the specific operation procedure is described for each item (304, 306, 307, 309, 311, 316, 321). Further, supplemental information as described in 302, 305, 308, 312, 313, 314, 317, 318, 319, 320, and 322 is described for operations and procedures. FIG. 3 is an example of an operation manual described only by characters, but a more general operation manual describes an operation procedure with figures and tables. However, the basic configuration is almost the same as the example shown in FIG.

図4に対話シナリオ生成システム101の文書構造解析ルール107の構成を示す。図4において,フォーマット情報401は,操作対象関連文書102中の対話シナリオを生成するために必要な項目に関するフォーマットを表す。すなわち,文書項目抽出部106では,フォーマット情報401に記述されているフォーマットに該当する項目を操作対象関連文書102より抽出する。   FIG. 4 shows the configuration of the document structure analysis rule 107 of the dialogue scenario generation system 101. In FIG. 4, format information 401 represents a format related to items necessary for generating a dialogue scenario in the operation target related document 102. That is, the document item extraction unit 106 extracts items corresponding to the format described in the format information 401 from the operation target related document 102.

図5に,フォーマット情報401に記述される情報を示す。図5において,階層番号501は,抽出した項目が文書の階層構造中のどの階層の項目であるかを表す番号である。例えば,図3において,「2.テレビを見る(301)」は一番上の階層であるため,階層番号501は「1」となる。また,「(1)リモコンのボタンを押す(304)」は,「2.テレビを見る(301)」や「2.1 テレビをつける(303)」の下の階層であるため,階層番号は「3」となる。図5における種類502は,該当する項目の種類を表す。「見出し」は,「2.テレビを見る(301)」や「2.1 テレビをつける(303)」等の操作の分類を表す項目を示し,「手順」は,「(1)リモコンのボタンを押す(304)」等の具体的な操作手順を表す項目を示す。項目の種類としては,操作対象関連文書102の構造に応じて,他の種類を追加することができる。開始フォーマット503および終了フォーマット504は,操作対象関連文書102中の項目を抽出するかどうかを判定するための条件であり,項目の開始部分に開始フォーマット503の記述が含まれ,且つ,終了部分に終了フォーマット504の記述が含まれている場合,操作対象関連文書102中の項目を抽出対象とする。   FIG. 5 shows information described in the format information 401. In FIG. 5, a hierarchy number 501 is a number that indicates which hierarchy item in the hierarchical structure of the document the extracted item is. For example, in FIG. 3, “2. Watch TV (301)” is the highest hierarchy, and the hierarchy number 501 is “1”. Since “(1) Press the button on the remote control (304)” is a layer below “2. Watch TV (301)” and “2.1 Turn on TV (303)”, the layer number is “3”. The type 502 in FIG. 5 represents the type of the corresponding item. “Heading” indicates an item indicating an operation classification such as “2. Watch TV (301)” or “2.1 Turn on TV (303)”, and “Procedure” indicates “(1) Remote control button An item representing a specific operation procedure such as “Press (304)” is shown. Other types of items can be added according to the structure of the operation target related document 102. The start format 503 and the end format 504 are conditions for determining whether or not an item in the operation target related document 102 is to be extracted. The description of the start format 503 is included in the start part of the item, and the end part is included in the end part. When the description of the end format 504 is included, the items in the operation target related document 102 are extracted.

図5の505で示される行の場合,項目の開始部分に「/NO/.」という表記が含まれている場合,抽出対象となる。ここで,「/NO/」という表記は任意の数字を表すとする。また,「−」はフォーマットを定めないことを表すとする。この結果,505の条件により「2.テレビを見る(301)」が抽出対象となる。同様に,506の条件では「2.1 テレビをつける(303)」等が,507の条件では,「(1)リモコンのボタンを押す(304)」等が抽出対象となる。   In the case of the line indicated by 505 in FIG. 5, if the notation “/ NO /.” Is included in the start part of the item, it becomes an extraction target. Here, the notation “/ NO /” represents an arbitrary number. In addition, “−” indicates that the format is not defined. As a result, “2. Watch TV (301)” is an extraction target under the condition 505. Similarly, in the condition 506, “2.1 Turn on the television (303)” or the like is selected, and in the condition 507, “(1) Press the button on the remote controller (304)” or the like becomes the extraction target.

また,図4における項目除外用キーワード402は,フォーマット情報401で抽出された項目中で,例外的に除外すべき項目に含まれるキーワードを記述する。図6に,項目除外用キーワード402に記述されるキーワードの一例を示す。図6に示す例の場合,「はじめに(601)」や「付録(602)」といったキーワードが項目中に含まれている場合は,フォーマット情報401に記述されている条件に該当する場合でも抽出対象としない。   Further, an item exclusion keyword 402 in FIG. 4 describes a keyword included in an item to be excluded exceptionally among the items extracted by the format information 401. FIG. 6 shows an example of keywords described in the item exclusion keyword 402. In the case of the example shown in FIG. 6, when keywords such as “Introduction (601)” and “Appendix (602)” are included in the item, even if the condition described in the format information 401 is satisfied, the extraction target And not.

図7に,表現解析ルール109の構成の一例を示す。表現解析ルール109は,操作内容抽出ルール701,条件抽出ルール702,操作種類判定ルール703,操作対象抽出ルール704,選択肢検出ルール705から構成される。   FIG. 7 shows an example of the configuration of the expression analysis rule 109. The expression analysis rule 109 includes an operation content extraction rule 701, a condition extraction rule 702, an operation type determination rule 703, an operation object extraction rule 704, and an option detection rule 705.

図8に操作内容抽出ルール701のフォーマットの一例を示す。操作内容抽出ルール701は,操作対象関連文書から抽出された項目から「押す」や「入力する」等の,どのような操作であるかを表す表現(操作内容)を検出するためのルールである。図8において801で示される欄には,操作対象関連文書から抽出された項目中に現れる操作内容を表す表現のパターンが記述される。また,802の欄には操作内容の抽出方法が記述される。例えば803に示すパターンにおいて,「*」は任意の表現が記述されることを示し,「(動詞)」と言う記述により,その部分に動詞である何らかの単語が記述されることを表す。これにより,803のパターンでは文末が動詞で終了している場合に,操作内容が含まれると判断されることになる。また,803の操作内容の記述では,803のパターンによって検出された動詞を操作内容として検出することを意味している。よって,操作対象関連文書から抽出された項目が,
「2.テレビを見る」
である場合,動詞である「見る」が操作内容として検出されることになる。図8における804のパターンでは,同様にして,文末が「(動詞)+機能」という表現,例えば,「見る機能」の場合に,動詞「見る」が操作内容として検出される。また,805,806では,「録画」や「再生」等のサ変名詞が対象となっており,805の場合は「予約して録画」,806の場合は「録画機能」というような表現の場合,操作内容が含まれると判断される。さらに,805および806では,右側の欄の記述に従い,「録画する」が操作内容として検出されることになる。図8に示した操作内容抽出ルールでは,具体的な表現と品詞をパターンに含めているが,さらに活用形の種類等を含めるようにしても良い。
FIG. 8 shows an example of the format of the operation content extraction rule 701. The operation content extraction rule 701 is a rule for detecting an expression (operation content) representing an operation such as “push” or “input” from items extracted from the operation target related document. . In the column indicated by reference numeral 801 in FIG. 8, a pattern of expression representing the operation content appearing in the item extracted from the operation target related document is described. In the column 802, an operation content extraction method is described. For example, in the pattern shown in 803, “*” indicates that an arbitrary expression is described, and the description “(verb)” indicates that a word that is a verb is described in that portion. As a result, in the pattern 803, when the sentence ends with a verb, it is determined that the operation content is included. Further, in the description of the operation content 803, it means that a verb detected by the pattern 803 is detected as the operation content. Therefore, the item extracted from the operation target related document is
“2. Watch TV”
In this case, the verb “see” is detected as the operation content. In the pattern 804 in FIG. 8, the verb “see” is detected as the operation content when the sentence ends with the expression “(verb) + function”, for example, “view function”. Also, in 805 and 806, sub-nouns such as “recording” and “playback” are targeted. In the case of 805, “reserve and record” and in the case of 806 “recording function”. , It is determined that the operation content is included. Further, in 805 and 806, “record” is detected as the operation content in accordance with the description in the right column. In the operation content extraction rule shown in FIG. 8, specific expressions and parts of speech are included in the pattern.

図9に条件抽出ルール702のフォーマットの一例を示す。条件抽出ルールは,操作対象関連文書から抽出された項目から操作を実行する条件を表す箇所を検出するためのルールである。また,類似のフォーマットで記載される場合が多いため,操作手順を表す項目から,ユーザが要求として自然言語対話システムに依頼する内容(ユーザ要求)に対応する箇所の抽出を行うためのルールも含む。図9に示すルールでは,開始キーワード901と終了キーワード902で挟まれる箇所を条件として検出すると想定している。キーワードが「−」の場合は,該当するキーワードが存在しないことを示す。また,903には条件を表す部分に該当するか,ユーザ要求に対応する部分かを表す情報が記述される。図9において,「条件」は前者,「ユーザ要求」は後者に対応する。各キーワードには,図8に示す操作内容抽出ルールと同様に,品詞と特定の語との組み合わせをパターンとして記述することができる。例えば,操作対象関連文書から抽出された項目が
「音声を切り替える[BSの場合]」
である場合,904に示すルールにより「BSの場合」の部分が条件を表す箇所として検出される。また,操作対象関連文書から抽出された項目が
「地上波の場合は,[主音声/副音声/主副音声]ボタンを押す」
の場合,「地上波の場合は」の部分が905に示すルール「(名詞)+の場合は」に適合し,「地上波」の部分が条件を表す箇所として検出されることになる。ここで,条件を表す箇所として抽出される部分は,ルールに適合した箇所の内,開始キーワードおよび終了キーワードにおける特定のキーワード以外の部分とする。すなわち,前記の例ではルール中の「(品詞)」に適合する「地上波」を抽出対象とする。また,抽出する箇所は,開始キーワードと終了キーワードを含めて検出するようにしても良い。
FIG. 9 shows an example of the format of the condition extraction rule 702. The condition extraction rule is a rule for detecting a part representing a condition for executing an operation from items extracted from the operation target related document. In addition, since it is often described in a similar format, it also includes rules for extracting the part corresponding to the content (user request) requested by the user as a request from the item representing the operation procedure. . In the rule shown in FIG. 9, it is assumed that a portion between the start keyword 901 and the end keyword 902 is detected as a condition. When the keyword is “−”, it indicates that the corresponding keyword does not exist. In 903, information indicating whether the part corresponds to a part indicating a condition or a part corresponding to a user request is described. In FIG. 9, “condition” corresponds to the former, and “user request” corresponds to the latter. In each keyword, a combination of a part of speech and a specific word can be described as a pattern as in the operation content extraction rule shown in FIG. For example, the item extracted from the operation target related document is “Switch voice [in case of BS]”
In this case, the “in case of BS” part is detected as a part representing a condition according to the rule shown at 904. Also, if the item extracted from the operation target related document is “If it is terrestrial, press the [Main Audio / Sub Audio / Main Sub Audio] button”
In this case, the part “in the case of terrestrial wave” conforms to the rule “in the case of (noun) +” shown in 905, and the part “terrestrial wave” is detected as a part representing a condition. Here, the part extracted as the part representing the condition is a part other than the specific keyword in the start keyword and the end keyword among the parts that match the rule. That is, in the above example, “terrestrial waves” that match “(part of speech)” in the rule are extracted. Further, the extracted part may be detected including the start keyword and the end keyword.

図10に操作種類判定ルール703のフォーマットの一例を示す。操作種類判定ルール703は,操作対象関連文書から抽出された項目から検出された操作内容の種類を判定するためのルールであり,操作内容を「自動実行」または「選択肢」のいずれかに分類する。ここで,「自動実行」はユーザからの要求があった場合に無条件に実行可能な操作であることを表し,特定のボタンを押す操作等がこれに当たる。「選択肢」は,複数の選択肢からユーザが何れかを選択した後,あるいは文字列や記号列等の何らかの入力をユーザが行った後でなければ実行できない操作であることを表す。図10において,1001で示す欄には操作内容を表すキーワードが,1002にはそれぞれのキーワードに対する種類が記述される。1003,1004,1005に示すルールには「自動実行」に分類される操作内容が,1006,1007,1008に示すルールには「選択肢」に分類される操作内容が記述されている。   FIG. 10 shows an example of the format of the operation type determination rule 703. The operation type determination rule 703 is a rule for determining the type of operation content detected from items extracted from the operation target related document, and classifies the operation content as either “automatic execution” or “option”. . Here, “automatic execution” represents an operation that can be executed unconditionally when requested by the user, such as an operation of pressing a specific button. “Option” represents an operation that can be executed only after the user selects one of a plurality of options or after the user performs some input such as a character string or a symbol string. In FIG. 10, keywords indicating operation contents are described in a column 1001, and types for the respective keywords are described in 1002. The rules 1003, 1004, and 1005 describe the operation contents classified as “automatic execution”, and the rules 1006, 1007, and 1008 describe the operation contents classified as “options”.

図11に操作対象抽出ルール704のフォーマットの一例を示す。操作対象抽出ルール704は,操作対象関連文書から抽出された項目からボタンやアイコン等の操作対象を表す箇所を検出するためのルールである。図11に示すルールは,図9に示す条件抽出ルールと同様に,開始キーワード1101と終了キーワード1102に挟まれる箇所を操作対象として検出するルールとなっている。例えば,操作対象関連文書から抽出された項目が,
「BSまたはCSの場合は,[音声]ボタンを押す」
である場合は,図11に示すルール1103,1104,1105,1106の中から1104が適用され,「音声」あるいは「[音声]ボタン」が操作対象として検出されることになる。
FIG. 11 shows an example of the format of the operation target extraction rule 704. The operation target extraction rule 704 is a rule for detecting a part representing an operation target such as a button or an icon from items extracted from the operation target related document. The rule shown in FIG. 11 is a rule for detecting a place between the start keyword 1101 and the end keyword 1102 as an operation target, like the condition extraction rule shown in FIG. For example, if the item extracted from the operation target related document is
“Press BS button for BS or CS”
In this case, 1104 is applied from the rules 1103, 1104, 1105, and 1106 shown in FIG. 11, and “voice” or “[voice] button” is detected as an operation target.

図12に選択肢検出ルール705のフォーマットの一例を示す。選択肢検出ルール705は,操作対象が複数存在する場合にそれらを選択肢と見なして全ての選択肢を操作対象関連文書から抽出された項目から検出するためのルールである。図12におけるルールでは,操作対象関連文書から抽出された項目中に操作対象が複数存在する場合の表現のパターンが記述される。また,図12において,($1)や($2),($n)という記述は,その部分に何らかの操作対象が記述されていることを示しており,数字は含まれる操作対象につけられた通し番号である。また,($1)や($2)等に該当する部分が選択肢となる操作対象として検出される。例えば,操作対象関連文書から抽出された項目が,
「 [地上]ボタン,[BS]ボタン,[CS]ボタンのどれかを押す」
である場合,図12に示すルール1201,1202,1203の中の1201が適用され,「[地上]ボタン」,「[BS]ボタン」,「[CS]ボタン」が選択してとして検出されることになる。
FIG. 12 shows an example of the format of the option detection rule 705. The option detection rule 705 is a rule for detecting all the options from items extracted from the operation target related document by regarding them as options when there are a plurality of operation targets. The rule in FIG. 12 describes a pattern of expression when there are a plurality of operation targets in items extracted from the operation target related document. In FIG. 12, the description ($ 1), ($ 2), or ($ n) indicates that some operation target is described in that part, and the numbers are assigned to the included operation targets. It is a serial number. In addition, a portion corresponding to ($ 1), ($ 2), or the like is detected as an operation target to be an option. For example, if the item extracted from the operation target related document is
“Press any of the [Ground] button, [BS] button, [CS] button”
, 1201 among the rules 1201, 1202, and 1203 shown in FIG. 12 is applied, and the “[ground] button”, “[BS] button”, and “[CS] button” are selected and detected. It will be.

図13に対話シナリオ生成ルール111のフォーマットを示す。図13において,1301には対話シナリオ生成ルール中に記述されるルールの種類を表す文字列や記号を記述する。図13において想定しているルールの種類は「応答文」,「対話ステップ」,「文法生成」の3種類である。「応答文」は自然言語対話システムからユーザへの質問や情報提示等を表すメッセージとなる文を生成する際に必要となるルールを表す。「対話ステップ」は,後述する対話シナリオに含まれる対話ステップを修正・追加するために必要となるルールである。また,「文法」はユーザから自然言語対話システムへの発話を自然言語対話システム内の音声認識機能により認識する際に必要となる音声認識用文法を生成する際に必要となるルールである。図13の1302にはそれぞれのルールの詳細が記述される。1303,1304および1305には種類が「応答文」であるルールが記述されている。1306,1307および1308には種類が「対話ステップ」であるルールが記述されている。1309,1310,1311および1312には種類が「文法」であるルールが記述されている。図13では,説明を容易にするために,ルールを日本語文により記述しているが,後述する各種情報を条件とする記述や,良く知られた形態素解析技術や文法解析技術の結果得られる情報,また,単純な文字列変換に対応した記述のみに留めているため,それらを計算機が理解可能な形式のルールとして記述することや,計算機が実行可能なプログラムとして記載することは容易に行うことができる。図13に記載されているルールがどのように使用されるかは,後述する。   FIG. 13 shows the format of the dialogue scenario generation rule 111. In FIG. 13, 1301 describes a character string or a symbol representing the type of rule described in the dialogue scenario generation rule. The types of rules assumed in FIG. 13 are three types: “response sentence”, “dialogue step”, and “grammar generation”. The “response sentence” represents a rule required when generating a sentence that becomes a message indicating a question or information presentation to the user from the natural language dialogue system. The “dialogue step” is a rule necessary for correcting / adding an interactive step included in an after-mentioned dialogue scenario. The “grammar” is a rule that is necessary when generating a speech recognition grammar that is necessary for recognizing an utterance from a user to a natural language dialogue system by a voice recognition function in the natural language dialogue system. Details of each rule are described in 1302 of FIG. In 1303, 1304, and 1305, a rule whose type is “response sentence” is described. In 1306, 1307 and 1308, a rule whose type is “dialogue step” is described. In 1309, 1310, 1311 and 1312, a rule whose type is “grammar” is described. In FIG. 13, the rules are described in Japanese for ease of explanation. However, the description is based on various information described later, and information obtained as a result of well-known morphological analysis techniques and grammatical analysis techniques. Also, since only descriptions corresponding to simple character string conversion are included, it is easy to describe them as rules in a format that can be understood by a computer, or as a program that can be executed by a computer. Can do. How the rules described in FIG. 13 are used will be described later.

図14に対話シナリオ103のフォーマットを示す。図14で示される対話シナリオは,「テレビをつける」や「音量を調整する」等のユーザ要求毎に作成され,その中には,それぞれのユーザ要求に対応する操作を実行するために必要なユーザとの対話に関する情報が格納される。図14において,対話名1401は,それぞれの対話シナリオに割りあてられる固有の識別子であり,任意の文字列や記号列,数字等を利用することができる。対話名1401は,図1における自然言語対話システム104中で,対話シナリオ103を管理するために利用される。実行判定式1402は,ユーザ要求によって対話シナリオが選択された場合に,選択された対話を実行するかどうかを判定するための条件式である。機器やコンピュータプログラムによって提供される機能やサービスは,特定の状況でのみ実行可能な場合があるため,対話の開始前に実行可否を判定することはユーザビリティ向上のために望ましい。実行判定式1402はこれを実現するための情報であり,自然言語対話システムや操作対象内で使用される変数の値に関する条件を記述することができる。記述するフォーマットとしては,自然言語対話システムや対象機器で使用される変数や変数の参照方法に従ったフォーマットを使用すれば良い。例えば,自然言語対話システム内で「STATUS」という名称の変数が使用され,その値が「true」である場合に対話が実行可能であるとすると,実行判定式1402としては,
$STATUS == “true”
というような記述を使用することができる。ここで,「$STATUS」は「STATUS」という変数の値を参照することを示し,記号「==」は値が等しい場合に条件を満たすことを示すと想定している。
FIG. 14 shows the format of the dialogue scenario 103. The dialogue scenario shown in FIG. 14 is created for each user request such as “Turn on TV” or “Adjust volume”. Among them, it is necessary to execute an operation corresponding to each user request. Stores information about user interaction. In FIG. 14, a dialogue name 1401 is a unique identifier assigned to each dialogue scenario, and an arbitrary character string, symbol string, number, or the like can be used. The dialogue name 1401 is used to manage the dialogue scenario 103 in the natural language dialogue system 104 in FIG. The execution determination formula 1402 is a conditional expression for determining whether or not to execute the selected dialog when a dialog scenario is selected by a user request. Since functions and services provided by devices and computer programs may be executable only in specific situations, it is desirable to determine whether or not they can be executed before the start of the dialogue in order to improve usability. The execution determination formula 1402 is information for realizing this, and can describe a condition regarding the value of a variable used in a natural language dialogue system or an operation target. As a format to be described, a format according to a variable used in a natural language dialogue system or a target device and a method of referring to the variable may be used. For example, if a variable named “STATUS” is used in a natural language dialogue system and its value is “true”, the dialogue can be executed.
$ STATUS == “true”
Such a description can be used. Here, “$ STATUS” indicates that the value of the variable “STATUS” is referred to, and the symbol “==” indicates that the condition is satisfied when the values are equal.

図14における音声認識用文法名1403は,自然言語対話システム104を構成する音声認識機能で使用される音声認識用文法が格納されたファイルの名称あるいは格納場所を指し示す名称を表す文字列が格納される。音声認識用文法には,ユーザが自然言語対話システムに対して要求を行う場合にユーザが自然言語対話システムに対して発話する内容に関する情報が格納される。音声認識用文法も,文書から抽出される情報に基づいて生成される。図14における対話ステップ数1404は,対話シナリオを構成する対話ステップの数を示す数値である。ここで対話ステップは,ユーザと自然言語対話システムとのやり取りの基本単位と定義し,1405から1406に,具体的な対話ステップの内容が記述される。   The speech recognition grammar name 1403 in FIG. 14 stores a character string representing a name of a file storing a speech recognition grammar used by the speech recognition function constituting the natural language dialogue system 104 or a name indicating a storage location. The The speech recognition grammar stores information about the content of the user's utterance to the natural language dialogue system when the user makes a request to the natural language dialogue system. A speech recognition grammar is also generated based on information extracted from a document. The number of dialog steps 1404 in FIG. 14 is a numerical value indicating the number of dialog steps constituting the dialog scenario. Here, the dialog step is defined as a basic unit of interaction between the user and the natural language dialog system, and specific contents of the dialog step are described in 1405 to 1406.

図15に対話ステップのフォーマットを示す。対話ステップは,自然言語対話システムからユーザへの質問や確認,情報提示等を行うための応答文,ユーザから自然言語対話システムに入力される情報(音声認識機能がユーザの発話を認識した結果中において,ユーザが発話した内容が格納される変数の名称)を表す入力変数名,ユーザからの情報に基づいて機器やコンピュータプログラムを操作するためのコマンドを基本要素とする。また,状況に基づいて,実行可能な対話ステップと実行不可能な対話ステップが存在するため,実行可否の判定を行うための実行判定式も含まれる。図15において,1501には実行判定式が記述される。実行判定式のフォーマットは,図14における実行判定式1402のフォーマットにおいて説明したものと同様のフォーマットを使用することができる。1502は,対話ステップ中に記述されている応答文,入力変数名,コマンドのいずれを対話ステップ中で利用するかを表す対話ステップ種類である。対話ステップ種類としては,「オペレーション」,「スロット」,「確認」,「ガイダンス」の4種類を想定する。対話ステップ種類が「オペレーション」の場合,応答文とコマンドが使用される。「スロット」の場合は応答文,入力変数名,コマンドが使用される。「確認」の場合は応答文とコマンドが使用される。「ガイダンス」の場合は,応答文のみが使用される。   FIG. 15 shows a dialog step format. The dialogue step consists of a response sentence for question and confirmation, information presentation, etc. to the user from the natural language dialogue system, information input from the user to the natural language dialogue system (the result of the speech recognition function recognizing the user's utterance). The basic element is an input variable name indicating the name of the variable in which the content of the user's utterance is stored) and a command for operating a device or a computer program based on information from the user. Moreover, since there are executable dialog steps and non-executable dialog steps based on the situation, an execution determination formula for determining whether or not execution is possible is also included. In FIG. 15, 1501 describes an execution determination formula. As the format of the execution determination formula, the same format as that described in the format of the execution determination formula 1402 in FIG. 14 can be used. Reference numeral 1502 denotes a dialog step type indicating which one of a response sentence, an input variable name, and a command described in the dialog step is used in the dialog step. As the dialog step types, four types of “operation”, “slot”, “confirmation”, and “guidance” are assumed. When the interaction step type is "Operation", a response statement and a command are used. In the case of “slot”, the response text, input variable name, and command are used. In the case of “confirmation”, a response sentence and a command are used. In the case of “guidance”, only the response text is used.

図15において,応答文1503には応答文を表す文字列を記述する。また,自然言語対話システムや操作対象で使用される変数の値を参照する応答文を記述することもできる。例えば,
「$CHANNELチャンネルでよろしいですか?」
という応答文を使用することができる。ここで,「CHANNEL」は,テレビのチャンネル番号を格納する変数とし,「$CHANNEL」という表記により変数CHANNELの内容を参照することを表し,CHANNELの値が「1」であるとすると,前記の例によりユーザに提示される応答文は,
「1チャンネルでよろしいですか?」
となる。また,図15における入力変数名1504は,ユーザから自然言語対話システムに情報を入力した際,ユーザが入力した情報が格納される変数の名称を表す文字列である。この場合,音声認識機能等の入力手段から得られるユーザからの情報を変数に代入する必要があるが,パーソナルコンピュータ等において一般的に用いられている音声認識機能では,ユーザが入力した音声の認識結果中に含まれる情報を該当する変数名とその値という形で出力することが容易に実現できるため,その機能を利用すれば良い。さらに,図15における1505には,操作対象を操作するためのコマンドを表す文字列が記述される。コマンドのフォーマットとしては操作対象が直接解釈可能な形式を利用することになる。また,応答文で説明したフォーマットと同様に,自然言語対話システムや操作対象で使用される変数の値への参照を含むコマンドを記述するようにすることもできる。
In FIG. 15, a response statement 1503 describes a character string representing the response statement. It is also possible to write a response statement that refers to the value of a variable used in a natural language dialog system or operation target. For example,
"Are you sure you want to use $ CHANNEL channel?"
Can be used. Here, “CHANNEL” is a variable for storing the channel number of the TV, and represents that the content of the variable CHANNEL is referred to by the notation “$ CHANNEL”, and the value of CHANNEL is “1”. The response sentence presented to the user by example is
"Are you sure you want one channel?"
It becomes. Further, an input variable name 1504 in FIG. 15 is a character string representing the name of a variable in which information input by the user when information is input from the user to the natural language dialogue system. In this case, it is necessary to substitute the information from the user obtained from the input means such as the voice recognition function into a variable. However, in the voice recognition function generally used in a personal computer or the like, the voice input by the user is recognized. Since the information contained in the result can be easily output in the form of the corresponding variable name and its value, the function can be used. Further, in 1505 in FIG. 15, a character string representing a command for operating the operation target is described. As the command format, a format that can be directly interpreted by the operation target is used. Similarly to the format described in the response sentence, a command including a reference to a value of a variable used in a natural language dialogue system or an operation target can be described.

図16および図17を用いて,文書項目抽出部106で行われる処理を説明する。文書項目抽出部106は,文書構造解析ルール107に基づいて,操作対象関連文書102を解析し,対話シナリオの生成に必要な項目を抽出する。ここでの説明では,操作対象関連文書102として図3に示す例を,文書構造解析ルール107として図5および図6に示す例を用いる。図16は,文書項目抽出部106で行われる処理の流れを表した図である。図16のステップ1601において,操作対象関連文書102から一行を読み込む。図3に示す操作対象関連文書の場合,最初に,
「2.テレビを見る(301)」
が読み込まれる。ステップ1602において,ステップ1601における行の読み込みが成功したかどうかの判定を行い,成功した場合,すなわち,操作対象関連文書中に読み込み可能な行が残っていた場合は,ステップ1603に進む。ステップ1601において行の読み込みに失敗した場合は,操作対象関連文書中の全ての行に対して処理を実行したと見なして終了する。ステップ1603では,文章構造解析ルール中のフォーマット情報に基づいて,ステップ1601で読み込んだ行の階層番号と種類を判定する。例えば,図3における「2.テレビを見る(301)」の場合,図5に示すフォーマット情報を適用すると,505に示すルールにより,階層番号は「1」,種類は「見出し」と判定されることになる。また,フォーマット情報により該当する階層番号および種類が存在しなかった行については,対象外と判定される。ステップ1604では,ステップ1603において対象外と判定された場合,および,該当する階層番号および種類が存在したが項目除外用キーワードが含まれていた場合は,その行に対する処理を中断し,ステップ1601に戻り,次の行に対する処理に移る。そうでない場合は,ステップ1605に進む。例えば「2.テレビを見る(301)」の場合は,該当する階層番号および種類が存在し,図6に示す項目除外用キーワードが含まれないため,ステップ1605に進む。ステップ1605では,行に句点「。」あるいは「.」が含まれている場合,複数の行に分割する処理を行う。情報家電等の機器やコンピュータプログラムの操作マニュアル等では,特に,操作手順の記述において,複数の文が一行中に含まれている場合が見られる。例えば,図3に示す例において,316および322に示す操作手順は,別々の手順として記載されているが,
「地上波の場合は,[主音声/副音声/主副音声]ボタンを押す。BSまたはCSの場合は,[音声]ボタンを押す。」
というような記述が行われる場合もある。ステップ1605では,前記の例に示すような行を複数の文に分割する。この処理は,行中の句点「。」あるいは「.」を検索し,句点「。」あるいは「.」の箇所で行を分割することにより容易に行うことができる。分割後の各文に対応する階層番号および種類は,元の行に対応する階層番号および種類と同様となる。さらにステップ1606では,ステップ1605の処理を行った後の行とそれに対する階層番号および種類を抽出項目分析部108で使用するための情報として図2の記憶部204等に一時的に記憶領域を確保し,格納する。あるいは,ファイルとして格納しても良い。
Processing performed in the document item extraction unit 106 will be described with reference to FIGS. 16 and 17. The document item extraction unit 106 analyzes the operation target related document 102 based on the document structure analysis rule 107 and extracts items necessary for generating a dialogue scenario. In the description here, the example shown in FIG. 3 is used as the operation target related document 102, and the examples shown in FIGS. 5 and 6 are used as the document structure analysis rule 107. FIG. 16 is a diagram showing the flow of processing performed by the document item extraction unit 106. In step 1601 in FIG. 16, one line is read from the operation target related document 102. In the case of the operation target related document shown in FIG.
“2. Watching TV (301)”
Is read. In step 1602, it is determined whether or not the line has been successfully read in step 1601. If the line has been successfully read, that is, if a readable line remains in the operation target related document, the process proceeds to step 1603. If reading of a line fails in step 1601, it is assumed that processing has been executed for all lines in the operation target related document, and the process ends. In step 1603, the layer number and type of the line read in step 1601 are determined based on the format information in the sentence structure analysis rule. For example, in the case of “2. Watch TV (301)” in FIG. 3, if the format information shown in FIG. 5 is applied, the hierarchy number is determined to be “1” and the type is “heading” according to the rule shown in 505. It will be. In addition, a line for which the corresponding hierarchy number and type do not exist according to the format information is determined to be excluded. In step 1604, if it is determined in step 1603 that it is not applicable, and if the corresponding hierarchy number and type exist but an item exclusion keyword is included, the processing for that line is interrupted, and step 1601 is entered. Return to the next line. Otherwise, go to step 1605. For example, in the case of “2. Watch TV (301)”, since the corresponding hierarchy number and type exist and the item exclusion keyword shown in FIG. 6 is not included, the process proceeds to step 1605. In step 1605, when a line includes a punctuation mark “.” Or “.”, A process of dividing the line into a plurality of lines is performed. In the case of equipment such as information appliances and operation manuals for computer programs, there are particularly cases where a plurality of sentences are included in one line in the description of the operation procedure. For example, in the example shown in FIG. 3, the operation procedures shown in 316 and 322 are described as separate procedures.
“For terrestrial waves, press the [Main Audio / Sub Audio / Main Sub Audio] button. For BS or CS, press the [Audio] button.”
In some cases, such a description is made. In step 1605, a line as shown in the above example is divided into a plurality of sentences. This processing can be easily performed by searching for the phrase “.” Or “.” In the line and dividing the line at the point “.” Or “.”. The hierarchy number and type corresponding to each sentence after division are the same as the hierarchy number and type corresponding to the original line. Further, in step 1606, a storage area is temporarily secured in the storage unit 204 or the like of FIG. 2 as information to be used by the extraction item analysis unit 108 for the row after the processing in step 1605 and the hierarchy number and type for the row. And store. Alternatively, it may be stored as a file.

図17に,図5に示すフォーマット情報および図6に示す項目除外用キーワードを用いて図3に示す操作対象関連情報から抽出した項目を示す。図17において,1701は階層番号を,1702は項目の種類を,1703は抽出した項目の内容を表す。また,図17における1704は図3における301に,1705は303に,1706は304に,1707は306に,1708は307に,1709は309に,1710は310に,1711は311に,1712は315に,1713は316に,1714は321に,それぞれ対応する。   FIG. 17 shows items extracted from the operation target related information shown in FIG. 3 using the format information shown in FIG. 5 and the item exclusion keyword shown in FIG. In FIG. 17, reference numeral 1701 denotes a hierarchical number, 1702 denotes an item type, and 1703 denotes extracted item contents. Further, 1704 in FIG. 17 is 301 in FIG. 3, 1705 is 303, 1706 is 304, 1707 is 306, 1708 is 307, 1709 is 309, 1710 is 310, 1711 is 311 and 1712 is 315, 1713 corresponds to 316, and 1714 corresponds to 321.

図18に,抽出項目分析部108で行われる処理の流れを示す。抽出項目分析部108では,ステップ1801において,文書項目抽出部106で抽出された項目における「見出し」と分類された項目(以下,見出し)に対する分析処理を行い,その後,ステップ1802において,「手順」と分類された項目(以下,操作手順)に対する分析処理を行う。また,項目の分類として,「見出し」,「手順」以外の種類がある場合は,階層構造の順序関係に基づいて,適宜,それぞれの種類毎に分析処理を追加すれば良い。抽出項目分析部108で行われる処理により,図17に示すようなフォーマットの情報から,ユーザ要求や操作内容,操作対象,実行条件等に関する情報が抽出され,ユーザ要求毎に図19に示すようなフォーマットで格納される。格納方法としては,図2の記憶部204等に一時的に記憶領域を確保する方法や,あるいはファイルとして格納する方法を使用することができる。   FIG. 18 shows the flow of processing performed by the extraction item analysis unit 108. In the extracted item analysis unit 108, in step 1801, an analysis process is performed on items (hereinafter referred to as “headings”) classified as “headings” in the items extracted by the document item extraction unit 106. After that, in step 1802, “procedure” Analysis processing is performed on items classified as (hereinafter referred to as operation procedures). In addition, when there are types other than “Heading” and “Procedure” as item classifications, analysis processing may be appropriately added for each type based on the hierarchical order relation. Through the processing performed by the extraction item analysis unit 108, information on the user request, the operation content, the operation target, the execution condition, etc. is extracted from the information in the format as shown in FIG. 17, and as shown in FIG. 19 for each user request. Stored in format. As a storage method, a method of temporarily securing a storage area in the storage unit 204 of FIG. 2 or a method of storing as a file can be used.

図19において,ユーザ要求内容1901はユーザ要求の内容を表す文字列である。実行条件1902は,1901で示されるユーザ要求が実行される条件を表す文字列である。操作手順数1903には,1901で示されるユーザ要求を実行するための操作手順の数を表す数値が記述される。1904から1905には,具体的な操作手順の内容が記述される。   In FIG. 19, a user request content 1901 is a character string representing the content of the user request. The execution condition 1902 is a character string representing a condition for executing a user request indicated by 1901. In the operation procedure number 1903, a numerical value representing the number of operation procedures for executing the user request indicated by 1901 is described. In 1904 to 1905, the content of a specific operation procedure is described.

図20に,操作手順1904から1905に記述される情報のフォーマットを示す。図20において,実行条件2001は,操作手順を実行するための条件を表す文字列である。操作手順種類2002は操作手順の種類を表す記号あるいは文字列が記述される。操作手順の種類としては,特定のボタンを押す操作等,ユーザからの要求があった場合に無条件に実行可能な操作であることを表す「自動実行」と,複数の選択肢からユーザがいずれかを選択した後,あるいは文字列や記号列等の何らかの入力をユーザが行った後でなければ実行できない操作であることを表す「選択肢」のいずれかとする。操作内容2003には,操作の内容を表す文字列を記述する。操作対象2004は,ボタンやメニュー等の操作の対象を表す。選択肢数2005は,複数の操作対象からユーザがいずれかの操作対象を選択する操作である場合に,その選択肢の数を表す。選択肢2005から2006には,具体的な選択肢の内容を記述する。   FIG. 20 shows a format of information described in the operation procedures 1904 to 1905. In FIG. 20, an execution condition 2001 is a character string representing a condition for executing an operation procedure. The operation procedure type 2002 describes a symbol or a character string representing the type of operation procedure. The type of operation procedure includes “automatic execution” that indicates that the operation can be executed unconditionally when requested by the user, such as pressing a specific button, and the user can select one of multiple options. Or “option” indicating that the operation can only be executed after the user has made some input such as a character string or symbol string. In the operation content 2003, a character string representing the content of the operation is described. An operation target 2004 represents an operation target such as a button or a menu. The number of options 2005 represents the number of options when the user selects an operation target from a plurality of operation targets. In the options 2005 to 2006, the contents of specific options are described.

図21に,見出しに対する分析処理の流れを示す。図21におけるステップ2101では,処理対象となる見出しが残っているかどうかをチェックする。残っていない場合は,処理を終了する。処理対象となる見出しが残っている場合は,ステップ2102において,見出しを一つ選択し,処理対象とする。ステップ2103では,条件抽出ルール702を適用して,対象とする見出しから実行条件を表す部分の抽出を行う。ステップ2104では,対象とする見出し中の実行条件を表す部分以外に対して操作内容抽出ルール701を適用する。操作内容抽出ルールを適用した結果,操作内容を表すパターンに適合した場合,ステップ2105に進み,対象とする見出しを新たなユーザ要求として,図19のフォーマットで表される情報の格納領域を作成し,情報を格納する。格納においては,対象とする見出しから抽出した実行条件を図19における1902として,対象とする見出しから実行条件を除いた部分をユーザ要求内容1901として格納する。それ以外の情報は,この段階では0あるいは空白とする。ステップ2104において,操作内容を表すパターンに適合しない場合は,対象外の見出しと見なし,ステップ2101に戻る。図17に示す例における項目に,図8に示す操作内容抽出ルールを適用した場合,見出し1704,1705,1710,1712は,図8における803に示すルールに適合するため,それぞれに対して図19に示すフォーマットの情報が作成され,格納される。   FIG. 21 shows the flow of analysis processing for a headline. In step 2101 in FIG. 21, it is checked whether or not a heading to be processed remains. If not, the process ends. If there is a heading to be processed, one heading is selected in step 2102 and set as a processing target. In step 2103, the condition extraction rule 702 is applied to extract a portion representing the execution condition from the target heading. In step 2104, the operation content extraction rule 701 is applied to portions other than the portion representing the execution condition in the target heading. As a result of applying the operation content extraction rule, if it matches the pattern representing the operation content, the process proceeds to step 2105 to create a storage area for information represented in the format of FIG. 19 with the target heading as a new user request. , Store information. In the storage, the execution condition extracted from the target heading is stored as 1902 in FIG. 19, and the part excluding the execution condition from the target heading is stored as the user request content 1901. Other information is 0 or blank at this stage. In step 2104, if the pattern does not match the operation content, it is regarded as a non-target heading and the process returns to step 2101. When the operation content extraction rule shown in FIG. 8 is applied to the items in the example shown in FIG. 17, the headings 1704, 1705, 1710, and 1712 conform to the rule shown in 803 in FIG. Information in the format shown in Fig. 6 is created and stored.

図22に,操作手順に対する分析処理の流れを示す。図22において,ステップ2201では処理対象となる操作手順が残っているかどうかをチェックする。残っていない場合は処理を終了する。処理対象となる操作手順が残っている場合は,ステップ2202において,操作手順を一つ選択し,処理対象とする。ステップ2203では,条件抽出ルール702を適用して,対象とする操作手順から実行条件を表す部分の抽出を行う。この際,対象とする操作手順が,すぐ上位にある見出しに対する最初の操作手順であり,且つ,同じ見出しに対する次の操作手順中に実行条件が含まれない場合は,抽出した実行条件をすぐ上位にある見出しから生成された図19で示されるフォーマットの情報における実行条件1902として格納する。例えば,図17における1713の操作手順からは,図9におけるルール905により,実行条件として「地上波」が検出される。さらに,次の操作手順である1714からも同様に実行条件として「BSまたはCS」が検出されるため,1713から抽出される実行条件「地上波」は,1713で示される操作手順の実行条件として格納される。一方,1714が無い場合は,実行条件「地上波」は,1713のすぐ上位にある見出し1712の実行条件として格納する。ステップ2204では,対象とする操作手順中の実行条件を表す部分以外に対して,再度,実行条件抽出ルールを適用し,ユーザ要求になり得る箇所を検索し,ユーザ要求になり得る箇所が存在する場合は,図19で示されるフォーマットの情報を格納する領域を新たに生成し,該当する箇所をユーザ要求として格納すると共に,対象とする操作手順中の残りの部分を新たに生成されたユーザ要求に対する操作手順として格納する。例えば,図17における1709の場合,「テレビを消す場合は」の部分は図9におけるルール907により,「ユーザ要求」と判定されるため,「テレビを消す」が新たなユーザ要求として生成され,残りの「もう一度[電源]ボタンを押す」の部分が「テレビを消す」の操作手順として格納される。また,新たに生成されるユーザ要求の階層番号は,元の操作手順のすぐ上位にある「ユーザ要求」より下位であることを示す値になるように設定する。例えば,図17の1709の場合,元の操作手順のすぐ上位にあるユーザ要求1705の階層番号は「2」であるため,それより1大きい値である「3」を「テレビを消す」の階層番号として登録すれば良い。ステップ2205では,対象とする操作手順中から条件となる箇所およびユーザ要求となる箇所を除いた部分に,複数の操作に関する記述が含まれている場合に,個々の操作に分割を行う。この処理は,処理対象から他の句を修飾していない動詞句を抽出し,動詞句がある箇所で処理対象を分割することにより容易に行うことができる。動詞句の抽出および他の句との修飾関係の解析は,良く知られた形態素解析プログラムや文法解析プログラムを用いれば,容易に実現することができる。また,ステップ2203において実行条件が抽出された場合は,分割されたそれぞれの操作に同じ実行条件を付加する。例えば,図17における1708の場合,「入力して」と「選ぶ」が動詞句として抽出される。それぞれ動詞句で1708を分割し,接続助詞を除く等の整形を行うことにより,
「希望のチャンネル番号を入力する」
「チャンネルを選ぶ」
の2種類の操作手順が得られることになる。表現の整形も,形態素解析プログラムや文法解析プログラムの結果から得られる単語の情報を用いることにより容易に行うことができる。また,分割の結果得られた操作手順中の最後の操作手順に対して操作種類判定ルール704を適用し,ルール中のキーワードが含まれているかどうかをチェックする。含まれている場合はステップ2206に進む。含まれていない場合は,図19で示されるフォーマットの情報を格納する領域を新たに生成し,分割の結果得られた操作手順の最後の操作手順を新たなユーザ要求として格納すると共に,後述の2206以降の処理により,残りの操作手順から抽出される情報を新たなユーザ要求に対応する操作手順として格納する。1708から抽出された前記の操作手順の場合,「チャンネルを選ぶ」は図10におけるルールに適合しないため,「チャンネルを選ぶ」がユーザ要求として登録され,「希望のチャンネル番号を入力する」から抽出される情報が「チャンネルを選ぶ」に対する操作手順として格納される。ステップ2206では,分割した結果得られた操作手順全てに対してステップ2207以降の処理が行われたかどうかを判定し,行われたと判定された場合はステップ2201に戻る。行われていないと判定された場合は,ステップ2207に進み,処理対象となる操作手順を一つ選択する。ステップ2208では,選択された操作手順に操作種類判定ルール704を適用し,操作手順の種類が「自動実行」あるいは「選択肢」に分類されるかどうかを判定する。いずれにも分類されない場合はステップ2206に戻る。いずれかに分類された場合は,ステップ2209において,対象となる操作手順から操作種類判定ルール704に適合したキーワードを除く。さらに,残りの部分から名詞を抽出すると共に,操作対象抽出ルール705および選択肢検出ルール706を適用することにより,ボタンやメニュー等の具体的な操作対象を操作手順中から抽出する。例えば,図17における1706では,図11に示す操作対象抽出ルールにより「[電源]ボタン」が操作対象として検出される。また,図17における1707では,「[地上]ボタン」,「[BS]ボタン」,「[CS]ボタン」が操作対象として検出され,さらに図12に示す選択肢検出ルールにより,これら全ての操作対象が選択肢と見なされる。ステップ2210では,対象とする操作手順のすぐ上位の見出しに対応するユーザ要求の操作手順として,以上の処理により得られた実行条件,操作手順の種類,操作対象,選択肢をそれぞれ図20における2001,2002,2004および2005から2006として格納する。また,対象とする操作手順の内容を図20における2003として格納する。この際,操作種類判定ルール704により「自動実行」と分類された操作手順において,選択肢が検出された場合や,操作対象抽出ルール705により操作対象として検出されなかった名詞が操作種類判定ルール704に該当するキーワードの直前に記述されている場合は,操作手順種類2002を「選択肢」に変更して格納を行う。例えば,操作手順が
「[地上]ボタン,[BS]ボタン,[CS]ボタンのどれかを選択する」
である場合,図10に示す操作種類判定ルールにより「自動実行」と判定されるが,図12に示す選択肢検出ルールにより選択肢も検出されるため,「選択肢」と分類する。また,
「番組名を選択する」
の場合も,図10に示す操作種類判定ルールにより「自動実行」と判定されるが,「番組名」という名詞は図11に示す操作対象抽出ルールには該当しないため,「選択肢」と分類する。
FIG. 22 shows the flow of analysis processing for the operation procedure. In FIG. 22, in step 2201, it is checked whether or not there is an operation procedure to be processed. If not, the process is terminated. If there remains an operation procedure to be processed, one operation procedure is selected in step 2202 and set as a processing target. In step 2203, the condition extraction rule 702 is applied to extract a portion representing the execution condition from the target operation procedure. At this time, if the target operation procedure is the first operation procedure for the heading immediately above and the execution condition is not included in the next operation procedure for the same heading, the extracted execution condition is set immediately above. Are stored as execution conditions 1902 in the format information shown in FIG. For example, from the operation procedure 1713 in FIG. 17, “terrestrial” is detected as an execution condition by the rule 905 in FIG. Furthermore, since “BS or CS” is similarly detected as an execution condition from the next operation procedure 1714, the execution condition “terrestrial wave” extracted from 1713 is used as the execution condition of the operation procedure indicated by 1713. Stored. On the other hand, when there is no 1714, the execution condition “terrestrial” is stored as the execution condition of the heading 1712 immediately above 1713. In step 2204, the execution condition extraction rule is applied again to a part other than the part representing the execution condition in the target operation procedure, a part that can become a user request is searched, and a part that can become a user request exists. In this case, an area for storing the information of the format shown in FIG. 19 is newly generated, the corresponding portion is stored as a user request, and the remaining part in the target operation procedure is newly generated. Stored as the operation procedure for. For example, in the case of 1709 in FIG. 17, the “when TV is turned off” portion is determined as a “user request” by the rule 907 in FIG. 9, so “turn off TV” is generated as a new user request, The remaining “Press the [Power] button again” portion is stored as the “turn off TV” operation procedure. In addition, the hierarchy number of the newly generated user request is set to a value indicating that it is lower than the “user request” immediately above the original operation procedure. For example, in the case of 1709 in FIG. 17, the layer number of the user request 1705 immediately above the original operation procedure is “2”, so that “3”, which is 1 larger than that, is the “turn off TV” layer. Register as a number. In step 2205, when a description of a plurality of operations is included in a portion excluding a portion that becomes a condition and a portion that becomes a user request in the target operation procedure, the operation is divided into individual operations. This processing can be easily performed by extracting a verb phrase that does not modify other phrases from the processing target and dividing the processing target at a position where the verb phrase exists. Extraction of verb phrases and analysis of modification relations with other phrases can be easily realized by using well-known morphological analysis programs and grammatical analysis programs. If the execution condition is extracted in step 2203, the same execution condition is added to each divided operation. For example, in the case of 1708 in FIG. 17, “input” and “select” are extracted as verb phrases. By dividing 1708 by each verb phrase and removing the connected particles, etc.,
"Enter the desired channel number"
"Select a channel"
Two types of operation procedures will be obtained. Expression shaping can be easily performed by using word information obtained from the results of a morphological analysis program and a grammar analysis program. Further, the operation type determination rule 704 is applied to the last operation procedure in the operation procedure obtained as a result of the division, and it is checked whether or not the keyword in the rule is included. If it is included, the process proceeds to step 2206. If it is not included, an area for storing the information of the format shown in FIG. 19 is newly generated, and the last operation procedure of the operation procedure obtained as a result of the division is stored as a new user request. Information extracted from the remaining operation procedures is stored as an operation procedure corresponding to a new user request by the processing from 2206 onward. In the case of the operation procedure extracted from 1708, “select channel” does not conform to the rules in FIG. 10, and therefore “select channel” is registered as a user request and extracted from “enter desired channel number”. Information to be stored is stored as an operation procedure for “select channel”. In step 2206, it is determined whether or not the processing from step 2207 has been performed on all the operation procedures obtained as a result of the division. If it is determined that the processing has been performed, the process returns to step 2201. If it is determined that it has not been performed, the process proceeds to step 2207, and one operation procedure to be processed is selected. In step 2208, the operation type determination rule 704 is applied to the selected operation procedure to determine whether the operation procedure type is classified as “automatic execution” or “option”. If it is not classified into any of these, the process returns to step 2206. If it is classified into any of the above, in step 2209, the keyword that matches the operation type determination rule 704 is removed from the target operation procedure. Further, by extracting the noun from the remaining part and applying the operation object extraction rule 705 and the option detection rule 706, specific operation objects such as buttons and menus are extracted from the operation procedure. For example, in 1706 in FIG. 17, the “[power] button” is detected as the operation target by the operation target extraction rule shown in FIG. In addition, in 1707 in FIG. 17, “[ground] button”, “[BS] button”, and “[CS] button” are detected as operation targets, and all these operation targets are detected by the option detection rule shown in FIG. Is considered an option. In step 2210, as the user-requested operation procedure corresponding to the heading immediately above the target operation procedure, the execution condition, operation procedure type, operation target, and options obtained by the above processing are respectively shown in FIG. Store as 2002, 2004 and 2005-2006. Further, the contents of the target operation procedure are stored as 2003 in FIG. At this time, when an option is detected in the operation procedure classified as “automatic execution” by the operation type determination rule 704, or a noun that is not detected as an operation target by the operation target extraction rule 705 is displayed in the operation type determination rule 704. If it is described immediately before the corresponding keyword, the operation procedure type 2002 is changed to “option” and stored. For example, the operation procedure is “Select one of the [Ground] button, [BS] button, [CS] button”.
In this case, it is determined as “automatic execution” by the operation type determination rule shown in FIG. 10, but the option is also detected by the option detection rule shown in FIG. Also,
"Select program name"
In this case, the operation type determination rule shown in FIG. 10 determines “automatic execution”, but the noun “program name” does not correspond to the operation target extraction rule shown in FIG. .

図23から図25に,図17における1705から1709に対して抽出項目分析部108で処理を行った結果の一例を示す。図23は,見出し1705を処理した結果格納されたユーザ要求であり,2301にユーザ要求内容である「テレビをつける」が記述されている。1705に実行条件となる箇所は含まれていないため,実行条件2302は空白を示す「−」が記述される。図17において,見出し1705に対する操作手順は1706から1709までの4つが存在しているが,1708は図22におけるステップ2205,また,1709は図22におけるステップ2204により,新たなユーザ要求として格納されるため,1706および1707に対応する操作手順のみが「テレビをつける」に対する操作手順として登録されるため,操作手順数2303は「2」となっている。2304には1706に対応する操作手順,2305には1707に対応する操作手順が記述される。図24に,1706に対応する操作手順に関する情報を示す。図17における1706には,条件となる箇所が含まれていないため,実行条件2401は空白を示す「−」が記述される。また,ステップ2208において「自動実行」と判定されることにより,操作手順種類2402には「自動実行」と記述される。操作手順内容2403には,1706の行の内容がそのまま記述される。操作対象2404には,ステップ2209で抽出された「[電源]ボタン」が格納される。また,1706では選択肢に該当する箇所は存在しないため,選択肢数2405は「0」となり,選択肢に関する情報は記述されない。図25は,1707に対応する操作手順に関する情報を表す。図17における1707にも,条件となる箇所が含まれていないため,実行条件2501は空白を示す「−」が記述される。また,ステップ2208においは「自動実行」と判定されるが,ステップ2209において選択肢が検出されるため,操作手順種類2502は「選択肢」と記述される。操作手順内容2503には,1707の行の内容がそのまま記述される。ステップ2209では選択肢のみが抽出されるため,操作対象2504には空白を示す「−」が記述される。ステップ2209において,選択肢として「[地上]ボタン」,「[BS]ボタン」および「[CS]ボタン」が検出されるため,選択肢数2505は「3」となり,それぞれの選択肢が2506,2507および2508に記述される。   FIG. 23 to FIG. 25 show an example of results obtained by processing the extraction item analysis unit 108 on 1705 to 1709 in FIG. FIG. 23 shows a user request stored as a result of processing the heading 1705, and the user request content “Turn on TV” is described in 2301. Since 1705 does not include a portion that becomes an execution condition, “-” indicating a blank is described in the execution condition 2302. In FIG. 17, there are four operation procedures 1706 to 1709 for the heading 1705. 1708 is stored as a new user request in step 2205 in FIG. 22, and 1709 is stored in step 2204 in FIG. Therefore, since only the operation procedure corresponding to 1706 and 1707 is registered as the operation procedure for “turn on TV”, the operation procedure number 2303 is “2”. An operation procedure corresponding to 1706 is described in 2304, and an operation procedure corresponding to 1707 is described in 2305. FIG. 24 shows information regarding the operation procedure corresponding to 1706. Since 1706 in FIG. 17 does not include a condition part, “-” indicating a blank is described in the execution condition 2401. Further, when “automatic execution” is determined in step 2208, “automatic execution” is described in the operation procedure type 2402. In the operation procedure contents 2403, the contents of the line 1706 are described as they are. The operation target 2404 stores the “[power] button” extracted in step 2209. In addition, since there is no portion corresponding to the option in 1706, the number of options 2405 is “0”, and information regarding the option is not described. FIG. 25 shows information regarding the operation procedure corresponding to 1707. Since 1707 in FIG. 17 also does not include a condition part, “-” indicating a blank is described in the execution condition 2501. In step 2208, “automatic execution” is determined, but since an option is detected in step 2209, the operation procedure type 2502 is described as “option”. In the operation procedure content 2503, the content of the line 1707 is described as it is. Since only options are extracted in step 2209, “-” indicating a blank is described in the operation target 2504. In Step 2209, since “[Ground] button”, “[BS] button”, and “[CS] button” are detected as options, the number of options 2505 is “3”, and the options 2506, 2507, and 2508 are respectively selected. Described in

図26に,対話シナリオ生成部110において行われる処理の流れ図を示す。対話シナリオ生成部110では,抽出項目分析部108の処理の結果,図19および図20で示されるフォーマットで格納された情報と対話シナリオ生成ルール111,および情報入出力部112により自然言語対話システムの開発者が入力した情報に基づいて,図14および図15で示されるフォーマットの対話シナリオを生成する。対話シナリオは,ユーザ要求毎,すなわち図19に示すフォーマットで格納される情報を単位として生成される。図26のステップ2601では,全てのユーザ要求に対して対話シナリオの生成を行ったかどうかをチェックする。全てのユーザ要求に対して処理を行った場合は,終了する。そうでない場合は,ステップ2602において,処理の対象とするユーザ要求を一つ選択する。ステップ2603では,新たな対話シナリオを格納する領域を確保し,ユーザ要求内容1901から対話名1401を生成し,登録する。対話名としてはユーザ要求内容を表す文字列をそのまま使用することができる。あるいは,ユーザ要求内容に対応する任意の文字列や記号列,番号等を使用しても良い。ステップ2604では,実行条件1902が空白で無い場合,情報入出力部112により,実行条件の内容を自然言語対話システムの開発者に提示し,開発者から実行条件に対応し自然言語対話システムが解釈可能な判定式を取得し,それを実行判定式1402として登録する。あるいは,実行条件の内容が既知であれば,実行条件と実行判定式との対応表を用意し,それを参照することにより,自動的に実行条件から実行判定式への変換を行い,対話シナリオ中に登録するようにしても良い。ステップ2605では,対象としているユーザ要求における全ての操作手順に対して,ステップ2606およびステップ2607に示す処理を行ったかどうかをチェックし,行ったと判定された場合はステップ2608に進む。そうでない場合は,ステップ2606に進み,情報入出力部112により,操作手順に関する情報を自然言語対話システムの開発者に提示し,開発者から自然言語対話システムが解釈可能な実行判定式,入力変数名,コマンドおよび選択肢に関する補足情報を取得する。入力変数名については,対話シナリオ中で一意となる名称を自動的に生成し,登録することもできる。ステップ2606において開発者より取得した情報および対話シナリオ生成ルール111に基づいて,ステップ2607において操作手順を対話ステップに変換し対話シナリオ中に登録した後,ステップ2605に戻る。あるいは,操作手順に関する情報,すなわち実行条件や操作対象,選択肢が既知の場合,それらと,実行判定式,入力変数名およびコマンドとの対応表を用意し,それを参照することにより,自動的に操作手順に関する情報から実行判定式,入力変数名およびコマンドへの変換を行い,対話シナリオ中に登録するようにしても良い。   FIG. 26 shows a flowchart of processing performed in the dialogue scenario generation unit 110. In the dialogue scenario generation unit 110, as a result of the processing of the extraction item analysis unit 108, the information stored in the format shown in FIGS. Based on the information input by the developer, an interactive scenario having the format shown in FIGS. 14 and 15 is generated. The dialogue scenario is generated for each user request, that is, in units of information stored in the format shown in FIG. In step 2601 in FIG. 26, it is checked whether or not a dialogue scenario has been generated for all user requests. If processing is performed for all user requests, the process ends. Otherwise, in step 2602, one user request to be processed is selected. In step 2603, an area for storing a new dialogue scenario is secured, and a dialogue name 1401 is generated from the user request content 1901 and registered. As the dialog name, a character string representing the user request content can be used as it is. Alternatively, any character string, symbol string, number, or the like corresponding to the user request content may be used. In step 2604, if the execution condition 1902 is not blank, the information input / output unit 112 presents the contents of the execution condition to the developer of the natural language dialogue system, and the natural language dialogue system interprets the execution condition corresponding to the execution condition. A possible determination formula is acquired and registered as an execution determination formula 1402. Alternatively, if the content of the execution condition is known, a correspondence table between the execution condition and the execution judgment expression is prepared, and by referring to it, the execution condition is automatically converted into the execution judgment expression, and the interactive scenario. You may make it register inside. In step 2605, it is checked whether or not the processing shown in step 2606 and step 2607 has been performed for all the operation procedures in the target user request, and if it is determined that the processing has been performed, the processing proceeds to step 2608. If not, the process proceeds to step 2606, where the information input / output unit 112 presents information on the operation procedure to the developer of the natural language dialogue system, and the execution judgment expression and input variables that the natural language dialogue system can interpret from the developer. Acquires supplementary information about names, commands, and options. As for the input variable name, a unique name in the dialogue scenario can be automatically generated and registered. Based on the information acquired from the developer in step 2606 and the dialog scenario generation rule 111, the operation procedure is converted into a dialog step in step 2607 and registered in the dialog scenario, and then the process returns to step 2605. Alternatively, if information about operation procedures, that is, execution conditions, operation targets, and options are known, prepare a correspondence table with them, an execution judgment expression, an input variable name, and a command. Information related to the operation procedure may be converted into an execution judgment formula, input variable name, and command and registered in the dialogue scenario.

図27に,ステップ2604およびステップ2606で,自然言語対話システムの開発者から情報を取得するためのユーザインタフェースの一例を示す。ステップ2604およびステップ2606では,ユーザ要求における実行判定式の入力と操作手順に関する情報の入力を別々に行っているが,図27に示すユーザインタフェースでは,両者を合わせて行うことができるような形態となっている。また,図27では,ハッチングされた欄は,自然言語対話システムの開発者が修正することはできない情報であることを示す。図27において,2701に示す一覧は,抽出項目分析部108における処理の結果生成されたユーザ要求の一覧であり,各ユーザ要求におけるユーザ要求内容1901が一覧に表示されている。2701の一覧中のユーザ要求をマウス等により選択すると,一覧の右側に,選択したユーザ要求に関する詳細な情報が表示される。2702は,ユーザ要求に対する実行条件であり,操作対象関連文書中の該当する項目から抽出された実行条件が表示される。2703は,2702に示す実行条件に対して,自然言語対話システムの開発者が,自然言語対話システムが解釈可能な実行判定式を入力するための欄である。2704は,選択されたユーザ要求における操作手順の一覧である。一覧中には,操作手順における操作内容2003が表示される。2704の一覧中の操作内容をマウス等により選択すると,一覧の下に,選択した操作手順に関する詳細な情報が表示される。2705は,操作手順に対する実行条件であり,操作対象関連文書中の該当する項目から抽出された実行条件が表示される。2706は,2705に示す実行条件に対して,自然言語対話システムの開発者が,自然言語対話システムが解釈可能な実行判定式を入力するための欄である。2707は操作手順種類2002を,2708は操作対象2004の内容を示す。2708に表示される操作対象の内容は,自然言語対話システムの開発者が修正することもできる。2709は,操作手順に対して操作対象である機器やコンピュータプログラムで実行されるコマンドを自然言語対話システムの開発者が入力するための欄である。2710は,操作手順の種類が「選択肢」である場合に,音声認識機能がユーザの発話を認識した結果中において,ユーザが発話した内容が格納される変数の名称である入力変数名を自然言語対話システムの開発者が入力するための欄である。入力変数名としては,対話シナリオ中で一意となる任意の文字列を自動的に登録するようにしても良い。2711は,操作対象関連文書中の該当する項目から抽出された選択肢の一覧である。各選択肢の内容は,自然言語対話システムの開発者が修正することができる。2710および2711は,操作手順種類が「自動実行」である場合は必要ないため,「自動実行」の場合,表示し内容にすることもできる。さらに,図27のユーザインタフェースでは,ユーザ要求毎に登録する情報と,操作手順毎に登録する情報を一つの画面上で行うことができるようになっているが,別々の画面で行えるようにしても良い。また,図27のユーザインタフェースにおいて,必要の無いユーザ要求や操作手順を削除することや,新たなユーザ要求や操作手順を追加できるようにしても良い。   FIG. 27 shows an example of a user interface for acquiring information from the developer of the natural language dialogue system in Step 2604 and Step 2606. In step 2604 and step 2606, the execution determination formula in the user request and the information related to the operation procedure are input separately, but the user interface shown in FIG. It has become. Further, in FIG. 27, the hatched fields indicate information that cannot be corrected by the developer of the natural language dialogue system. In FIG. 27, a list 2701 is a list of user requests generated as a result of processing in the extraction item analysis unit 108, and user request contents 1901 in each user request are displayed in the list. When a user request in the list 2701 is selected with a mouse or the like, detailed information regarding the selected user request is displayed on the right side of the list. Reference numeral 2702 denotes an execution condition for the user request, which displays an execution condition extracted from the corresponding item in the operation target related document. Reference numeral 2703 denotes a field for the natural language dialogue system developer to input an execution determination expression that can be interpreted by the natural language dialogue system for the execution conditions shown in 2702. Reference numeral 2704 denotes a list of operation procedures in the selected user request. In the list, operation contents 2003 in the operation procedure are displayed. When an operation content in the list 2704 is selected with a mouse or the like, detailed information regarding the selected operation procedure is displayed below the list. 2705 is an execution condition for the operation procedure, and the execution condition extracted from the corresponding item in the operation target related document is displayed. Reference numeral 2706 denotes a field for the developer of the natural language dialogue system to input an execution judgment expression that can be interpreted by the natural language dialogue system for the execution condition shown in 2705. 2707 indicates the operation procedure type 2002 and 2708 indicates the contents of the operation target 2004. The contents of the operation target displayed in 2708 can be corrected by the developer of the natural language dialogue system. Reference numeral 2709 denotes a field for a natural language dialogue system developer to input a command to be executed by a device or a computer program that is an operation target for the operation procedure. 2710: When the type of operation procedure is “option”, the input variable name, which is the name of the variable in which the content uttered by the user is stored in the result of the speech recognition function recognizing the user's utterance, is This is a field for input by the dialog system developer. As the input variable name, an arbitrary character string that is unique in the dialogue scenario may be automatically registered. 2711 is a list of options extracted from the corresponding items in the operation target related document. The content of each option can be modified by the developer of the natural language dialogue system. Since 2710 and 2711 are not necessary when the operation procedure type is “automatic execution”, they can be displayed and changed in the case of “automatic execution”. Further, in the user interface of FIG. 27, information registered for each user request and information registered for each operation procedure can be performed on one screen, but can be performed on separate screens. Also good. In the user interface of FIG. 27, unnecessary user requests and operation procedures may be deleted, or new user requests and operation procedures may be added.

図26のステップ2607で行われる処理の流れ図を図28に示す。図28において,ステップ2801では,操作手順種類が「選択肢」かどうかのチェックを行う。「選択肢」である場合はステップ2802に進み,そうでない場合はステップ2804に進む。ステップ2802では,対象としている操作手順に対応する対話ステップ種類1502を「スロット」に設定する。ステップ2803では,情報入出力部112により,自然言語対話システムの開発者から取得した実行判定式,入力変数名,コマンドを図15に示す対話ステップの実行判定式1501,入力変数名1504およびコマンド1505に登録する。ステップ2803では,自然言語対話システムの開発者から取得した選択肢の補足情報を用いて選択肢の修正・追加も行い,後述のステップ2608の処理において利用する。ステップ2804では,対象としている操作手順に対応する対話ステップ種類1502を「オペレーション」に設定する。ステップ2805では,情報入出力部112により,自然言語対話システムの開発者から取得した実行判定式およびコマンドを図15に示す対話ステップの実行判定式1501およびコマンド1505に登録する。ステップ2806では,対話シナリオ生成ルール111中に記載されている「応答文」という種類のルールを対象とする操作手順の操作内容2003に適用することにより,応答文1503を生成する。例えば,図24に示す操作手順に図13に示す対話シナリオ生成ルールを適用した場合,図23に示すユーザ要求の最初の操作手順であるため,1303に示すルールが適用され,ユーザ要求内容である「テレビをつける(2301)」を変更した「テレビをつけます」が図24に示す操作手順に対する応答文として追加される。また,図25に示す操作手順の場合は,1304に示されるルールが適用される。ここでルール中の「(選択肢の項目)」には全ての選択肢が列挙されることを表すとし,さらに2506から2508に記述されている選択肢に対して「[」と「]ボタン」を削除するように開発者により修正が行われたとすると,応答文は「地上,BS,CSのどれがよろしいですか?」となる。また,図13における1305に示されるルールが適用される場合は,操作手順に関する情報が図29に示すような内容である場合である。図29に1305に示されるルールを適用すると,操作対象2901を使用して,「チャンネル番号をお話し下さい」が応答文として生成される。以上の処理により,図23に示すユーザ要求は図30に示す対話シナリオに,図24および図25に示す操作手順はそれぞれ図31および32に示す対話ステップに変換される。この時点では,音声認識用文法名3001は記述されていない。また,コマンド3101および3202,変数名3201は自然言語対話システムの開発者によって入力されたものとする。また,「$VAL0001」という記述は,変数VAL0001の値を参照することを表すものとする。   FIG. 28 shows a flowchart of the processing performed in step 2607 of FIG. In FIG. 28, in step 2801, it is checked whether or not the operation procedure type is “option”. If it is “option”, the process proceeds to step 2802; otherwise, the process proceeds to step 2804. In step 2802, the dialogue step type 1502 corresponding to the target operation procedure is set to “slot”. In step 2803, the execution judgment formula, input variable name, and command acquired from the natural language dialogue system developer by the information input / output unit 112 are the dialogue step execution judgment formula 1501, input variable name 1504, and command 1505 shown in FIG. Register with. In step 2803, the option is corrected and added using the supplementary information of the option acquired from the developer of the natural language dialogue system, and used in the processing of step 2608 described later. In step 2804, the dialogue step type 1502 corresponding to the target operation procedure is set to “operation”. In step 2805, the information input / output unit 112 registers the execution determination formula and the command acquired from the developer of the natural language dialog system in the dialog step execution determination formula 1501 and the command 1505 shown in FIG. In step 2806, a response sentence 1503 is generated by applying the rule “response sentence” type described in the dialogue scenario generation rule 111 to the operation content 2003 of the operation procedure. For example, when the dialog scenario generation rule shown in FIG. 13 is applied to the operation procedure shown in FIG. 24, it is the first operation procedure of the user request shown in FIG. “Turn on TV” changed from “Turn on TV (2301)” is added as a response to the operation procedure shown in FIG. In the case of the operation procedure shown in FIG. 25, the rule shown at 1304 is applied. Here, “(option item)” in the rule represents that all options are listed, and “[” and “] buttons” are deleted for the options described in 2506 to 2508. Thus, if the modification is made by the developer, the response sentence will be "Which is the ground, BS, or CS?" Further, the case where the rule indicated by 1305 in FIG. 13 is applied is a case where the information regarding the operation procedure has the contents as shown in FIG. When the rule 1305 shown in FIG. 29 is applied, “Please tell me the channel number” is generated as a response sentence using the operation target 2901. Through the above processing, the user request shown in FIG. 23 is converted into the dialog scenario shown in FIG. 30, and the operation procedure shown in FIGS. 24 and 25 is converted into the dialog steps shown in FIGS. At this time, the speech recognition grammar name 3001 is not described. It is assumed that commands 3101 and 3202, and variable name 3201 are input by the developer of the natural language dialogue system. Further, the description “$ VAL0001” represents that the value of the variable VAL0001 is referred to.

図28のステップ2807では,対話シナリオ生成ルール111中に記載されている「対話ステップ」という種類のルールを対象とする操作手順から生成された対話ステップに適用することにより,対話ステップの内容の修正あるいは対話ステップの追加を行う。例えば,図32に示される対話ステップには1306に示されるルールが適用されることにより,図33に示される対話ステップへと修正が行われ,さらに図34および図35に示す対話ステップが図33に示される対話ステップの後に追加される。図33では,コマンド3301が削除され,図35の対話ステップ中のコマンド3501に移動されている。図34に示す対話ステップは種類が「確認」の対話ステップであり,入力変数の内容を確認する応答文をユーザに提示し,ユーザからの応答を取得する。図35の対話ステップはユーザからの入力変数である「YESNO(3402)」の値が「yes」である場合に,コマンド3501を実行する。また,図13における1307に示されるルールは常に適用され,図36に示すような対話ステップが各対話シナリオの最後の対話ステップとして追加される。図36の3601に記述されている変数「RET」は,コマンドの実行結果を示す共通の変数を表すものとする。また,応答文をユーザに提示するのみであるため,対話ステップ種類3602は「ガイダンス」となっている。応答文はユーザ要求内容より生成する。例えば,「(ユーザ要求内容)+ことができません」というようなルールを適用することにより,3603に示す「テレビをつけることができません」という応答文を生成することができる。また,図17における1704から対話シナリオを生成した場合,1704に対応する操作手順が存在しないため,図13における1308に示すルールが適用される。この結果,例えば,図37に示すような対話ステップを生成する。この例における応答文は,階層が一つ下のユーザ要求の内容のみを列挙することにより生成されている。さらに,対象とするユーザ要求より階層が下位のユーザ要求の内容を全て列挙するようにしても良い。   In step 2807 of FIG. 28, the content of the dialog step is corrected by applying the “dialog step” type rule described in the dialog scenario generation rule 111 to the dialog step generated from the operation procedure. Alternatively, an interactive step is added. For example, the rules shown in 1306 are applied to the dialog steps shown in FIG. 32, so that the dialog steps shown in FIG. 33 are modified, and the dialog steps shown in FIG. 34 and FIG. Added after the interaction step shown in. In FIG. 33, the command 3301 is deleted and moved to the command 3501 in the dialog step of FIG. The dialogue step shown in FIG. 34 is a dialogue step of the type “confirmation”, presents a response sentence for confirming the contents of the input variable to the user, and obtains a response from the user. The dialog step in FIG. 35 executes a command 3501 when the value of “YESNO (3402)” that is an input variable from the user is “yes”. Also, the rule indicated by 1307 in FIG. 13 is always applied, and the dialog step as shown in FIG. 36 is added as the last dialog step of each dialog scenario. A variable “RET” described in 3601 in FIG. 36 represents a common variable indicating a command execution result. Further, since only the response sentence is presented to the user, the dialogue step type 3602 is “guidance”. The response sentence is generated from the user request contents. For example, by applying a rule such as “(user request content) + cannot be done”, a response sentence “Cannot turn on TV” shown in 3603 can be generated. In addition, when a dialogue scenario is generated from 1704 in FIG. 17, since there is no operation procedure corresponding to 1704, the rule indicated by 1308 in FIG. 13 is applied. As a result, for example, a dialog step as shown in FIG. 37 is generated. The response sentence in this example is generated by enumerating only the contents of the user request one level below. Furthermore, all the contents of user requests at lower levels than the target user request may be listed.

図26におけるステップ2608では,対象となっているユーザ要求から生成された対話シナリオを実行するために必要となる音声認識用文法の生成を行う。図38に,ステップ2608で行われる処理の流れ図を示す。図38において,ステップ3801では,音声認識用文法を格納するためのファイルの名称である音声認識用文法名(図14における1403)を生成し,対話シナリオに登録する。音声認識用文法名としては,他の対話シナリオにおける音声認識用文法名と同一でなければ,任意の文字列あるいは記号列を使用することができる。例えば,対話名(図14における1401)に任意の拡張子を追加した名称を利用すれば良い。ステップ3802では,対話シナリオに記述される対話を開始するためのユーザからの発話を受け付けるための音声認識用文法を生成する。この文法は,対話シナリオの元になったユーザ要求中のユーザ要求内容(図19における1901)に対して,対話シナリオ生成ルール中の「文法」という種類のルールを適用することにより生成する。例えば,図17の1705から生成されるユーザ要求に対するユーザ要求内容は「テレビをつける」であるが,これに図13に示す対話シナリオ生成ルールを適用すると,まず,1309に示すルールが適用され,その結果,
「テレビをつける」
「テレビのスイッチを入れる」
の2つの文が生成される。さらに,1312に示すルールが適用され,
「テレビをつけて下さい」
「テレビをつけたい」
「テレビをつけて」
「テレビのスイッチを入れて下さい」
「テレビのスイッチを入れたい」
「テレビのスイッチを入れて」
という6つの文が生成される。ここで,1312に示すルール中の,「動詞(基本形)」という記述は,その箇所に基本形の動詞が存在する,ということを表すものとする。「動詞(連用形)」の場合は,同様に,連用形の動詞が存在することを示す。これらの文をよく知られた形態素解析プログラム等を使用して単語単位に区切る等の処理を行った後,音声認識用文法に変換する。音声認識用文法のフォーマットは,使用する音声認識機能が解釈可能な形式を使用すればよい。生成した音声認識用文法は,ステップ3801で生成した音声認識用文法名で示されるファイルに格納する。ステップ3803では,種類が「スロット」である対話ステップにおいて,選択肢を入力するためのユーザの発話を認識する文法を生成する。この文法は,対話ステップの元になった操作手順に記述されている選択肢の情報に自然言語対話システムの開発者が修正・追加を行った後の情報を用いて生成する。例えば,図25に示す操作手順に含まれる選択肢に対して「[]と「」ボタン」を削除するように開発者により修正が行われたとすると,ステップ3803で対象となる選択肢の内容は,「地上」,「BS」,「CS」となる。選択肢に対しては,1311に示すルールが適用されるため,
「地上」
「地上です」
「地上にして」
「BS」
「BSです」
「BSにして」
「CS」
「CSです」
「CSにして」
という9つの文が生成される。ここで,1311に示すルール中の「(選択肢)」という記述は,その箇所を選択肢の各内容で置き換えることを表すものとする。ステップ3802の場合と同様に,これらの文をよく知られた形態素解析プログラム等を使用して,単語単位に区切る等の処理を行った後,音声認識用文法に変換する。また,選択肢に対する音声認識用文法では,ユーザが発話した選択肢の内容を入力変数名1504に対応付けた結果を音声認識機能が自然言語対話システムに通知できるようにする必要がある。パーソナルコンピュータ等において一般的に用いられている音声認識機能では,ユーザが発話した音声の認識結果中に含まれる情報を該当する変数名とその値という形で出力することが容易に実現できるため,その機能を利用可能とするようなフォーマットで文法を生成すれば良い。以上の説明では,ユーザ要求から生成される音声認識用文法と操作手順から生成した音声認識用文法を一つの記憶領域あるいはファイルに格納するようにしているが,対話ステップ毎に使用する音声認識用文法を切り換えることが可能な自然言語対話システムを使用する場合,ユーザ要求および各操作手順から生成される音声認識用文法を別々の記憶領域あるいはファイルに格納するようにしても良い。また,以上説明したユーザ要求および操作手順から生成される音声認識用文法は,ユーザが要求する対話を起動した後,必要な選択肢をユーザに対して順に入力を促すタイプの対話を想定しているが,自然言語対話システムの中には,起動する対話とその中で必要な選択肢の情報を含むユーザの発話を認識し,対象となる対話の起動と選択肢の設定(すなわち入力変数への代入)を同時に行うことができる自然言語対話システムも存在する。このような自然言語対話システムで利用可能な音声認識用文法は,対話シナリオ生成ルール中に,ユーザ要求内容と選択肢の内容を含む文を生成するルールを記述することにより,容易に生成することができる。また,対話シナリオを開始するための音声認識用文法に,ユーザが要求可能な機能に関して問合せを行うため文法を追加するようにしても良い。例えば,図37に示す対話ステップが追加された対話シナリオを起動する音声認識用文法に,「テレビを見るための機能には何がありますか?」というような文に対する文法を生成し,追加することができる。この文法の生成は,前記で説明した対話シナリオ生成ルールと同様に,ユーザ要求内容等の文末を変更するルールを用意することにより,容易に実現することができる。これにより,機器やコンピュータプログラムの操作をユーザが依頼するだけでなく,機器やコンピュータプログラムが実行可能な機能をユーザが問合せを行うことが可能となる。
In step 2608 in FIG. 26, a grammar for speech recognition necessary for executing the dialogue scenario generated from the target user request is generated. FIG. 38 shows a flowchart of processing performed in step 2608. In FIG. 38, in step 3801, a speech recognition grammar name (1403 in FIG. 14), which is the name of a file for storing speech recognition grammar, is generated and registered in the dialogue scenario. As the speech recognition grammar name, an arbitrary character string or symbol string can be used as long as it is not the same as the speech recognition grammar name in another dialogue scenario. For example, a name obtained by adding an arbitrary extension to the dialog name (1401 in FIG. 14) may be used. In step 3802, a speech recognition grammar for accepting an utterance from a user for starting a dialogue described in the dialogue scenario is generated. This grammar is generated by applying a rule of the type “grammar” in the dialog scenario generation rule to the user request content (1901 in FIG. 19) in the user request that is the basis of the dialog scenario. For example, the user request content for the user request generated from 1705 in FIG. 17 is “turn on TV”, but when the dialog scenario generation rule shown in FIG. 13 is applied to this, the rule shown in 1309 is applied first. as a result,
"Turn on TV"
"Turn on the TV"
Are generated. Furthermore, the rules shown in 1312 are applied,
"Turn on the TV"
"I want to turn on TV"
"Turn on the TV"
"Turn on the TV"
"I want to turn on the TV"
"Turn on the TV"
6 sentences are generated. Here, the description “verb (basic form)” in the rule shown at 1312 represents that a basic form verb exists at that location. In the case of “verb (continuous form)”, it indicates that there is a verb in the same way. These sentences are processed into words by using a well-known morphological analysis program or the like, and then converted into a speech recognition grammar. As the format of the grammar for speech recognition, a format that can be interpreted by the speech recognition function to be used may be used. The generated speech recognition grammar is stored in a file indicated by the speech recognition grammar name generated in step 3801. In step 3803, a grammar for recognizing the user's utterance for inputting an option is generated in the dialog step of the type “slot”. This grammar is generated by using the information after the developer of the natural language dialog system modifies and adds to the option information described in the operation procedure that is the basis of the dialog step. For example, if the developer modifies the options included in the operation procedure shown in FIG. 25 so as to delete the “[] and“ ”buttons”, the contents of the target options in step 3803 are “ “Ground”, “BS”, “CS”. Since the rules shown in 1311 apply to the options,
"Ground"
"It's on the ground"
"On the ground"
"BS"
"This is BS"
“To BS”
"CS"
"It is CS"
"CS"
Nine sentences are generated. Here, the description “(option)” in the rule shown in 1311 represents that the place is replaced with each content of the option. As in the case of step 3802, these sentences are processed into words using a well-known morphological analysis program or the like, and then converted into a speech recognition grammar. In the speech recognition grammar for the options, it is necessary that the speech recognition function can notify the natural language dialogue system of the result of associating the contents of the options spoken by the user with the input variable name 1504. The speech recognition function commonly used in personal computers can easily output the information contained in the recognition result of speech uttered by the user in the form of the corresponding variable name and its value. It is only necessary to generate the grammar in a format that allows the function to be used. In the above description, the speech recognition grammar generated from the user request and the speech recognition grammar generated from the operation procedure are stored in one storage area or file, but the speech recognition grammar used for each dialog step is used. When a natural language dialogue system capable of switching grammars is used, the speech recognition grammar generated from the user request and each operation procedure may be stored in a separate storage area or file. In addition, the speech recognition grammar generated from the user request and operation procedure described above assumes a type of dialog that prompts the user to input necessary options in order after starting the dialog requested by the user. However, in a natural language dialogue system, the user's utterance including information about the dialogue to be activated and the necessary choices is recognized, and the dialogue is activated and the choices are set (ie, assigned to input variables). There is also a natural language dialogue system that can be used simultaneously. Such a speech recognition grammar that can be used in a natural language dialogue system can be easily generated by describing a rule that generates a sentence including user request contents and option contents in a dialog scenario generation rule. it can. In addition, a grammar for inquiring about functions that can be requested by the user may be added to the grammar for speech recognition for starting a conversation scenario. For example, a grammar for a sentence such as “What is a function for watching TV?” Is added to the grammar for speech recognition that starts the dialogue scenario with the dialogue step shown in FIG. 37 added. be able to. The generation of this grammar can be easily realized by preparing a rule for changing the end of a sentence such as the contents of a user request in the same way as the dialog scenario generation rule described above. As a result, not only the user can request the operation of the device or the computer program, but also the user can inquire about a function that can be executed by the device or the computer program.

以上述べた処理を行うことにより,情報家電等の機器やコンピュータプログラムの操作マニュアルや取り扱い説明書等の操作対象関連文書から,自然言語対話システムが利用可能な対話シナリオへの変換を行うことが可能となる。   By performing the processing described above, it is possible to convert the operation target related documents such as operation manuals and instruction manuals of information appliances and computer programs to dialog scenarios that can be used by natural language dialog systems. It becomes.

第二の実施例を図39〜図41を用いて説明する。   A second embodiment will be described with reference to FIGS.

実施例1では,ユーザが自然言語対話システムに音声等により要求を行い,その内容に基づいて自然言語対話システムが操作対象である情報家電等の機器やコンピュータプログラムを操作するために必要な対話シナリオの生成を行う場合の実施例について説明したが,ユーザが自然言語対話システムに機器やコンピュータプログラムの機能を使用する方法を問合せ,自然言語対話システムがユーザに操作方法の指示を順に指示する形態での対話シナリオを生成するようにすることもできる。   In the first embodiment, the user makes a request to the natural language dialogue system by voice or the like, and based on the contents, the dialogue scenario necessary for operating the device or computer program such as information home appliances on which the natural language dialogue system is the operation target In this embodiment, the user inquires about the method of using the function of the device or the computer program in the natural language dialogue system, and the natural language dialogue system sequentially instructs the user about the operation method. It is also possible to generate an interactive scenario.

これを行うためには,例えば,実施例1で説明した例において,図39に示すような対話シナリオ生成ルールを用意する。図39に示す対話シナリオ生成ルールを図23,図24および図25に示すユーザ要求および操作手順に適用して対話シナリオを生成する場合,まず3901に示すルールが適用されることにより,図24に示す操作手順に対応する操作ステップの応答文には,
「テレビをつける方法を説明します」
という文が追加されることになる。次に,3902に示すルールが適用されることにより,図24および図25に示す操作内容2403および2503から,それぞれ次のような応答文が生成される。
「リモコンの[電源]ボタンを押して下さい」
「[地上]ボタン,[BS]ボタン,[CS]ボタンのどれかを押して下さい」
3902に示すルールでは,操作内容から応答文を生成しているが,操作内容から抽出した操作対象や選択肢を用いて,独自の表現による応答文を生成するルールを用意し,応答文を生成することもできる。また,3903および3904に示すルールが適用されることにより,図24に示す操作手順から図40および図41に示す対話ステップが生成される。
In order to do this, for example, in the example described in the first embodiment, a dialogue scenario generation rule as shown in FIG. 39 is prepared. When the dialog scenario generation rule shown in FIG. 39 is applied to the user request and operation procedure shown in FIG. 23, FIG. 24 and FIG. 25 to generate a dialog scenario, first, the rule shown in 3901 is applied. The response text of the operation step corresponding to the operation procedure shown is
“I will explain how to turn on the TV”
Will be added. Next, by applying the rules shown in 3902, the following response sentences are generated from the operation contents 2403 and 2503 shown in FIGS.
"Press the [Power] button on the remote control"
"Press any of the [Ground] button, [BS] button, [CS] button"
In the rule shown in 3902, a response sentence is generated from the operation content, but a rule for generating a response sentence with a unique expression is prepared using the operation target and options extracted from the operation content, and the response sentence is generated. You can also Also, by applying the rules shown in 3903 and 3904, the dialog steps shown in FIGS. 40 and 41 are generated from the operation procedure shown in FIG.

図40において,対話ステップ種類4001は,3903に示すルールにより「ガイダンス」が登録される。同時にコマンド4003は空白となる。また,応答文4002は3901および3902が適用された内容となる。また,図41は,3904に示すルールが適用された結果生成される対話ステップであり,図40に示す対話ステップの直後に挿入される。図41に示す対話ステップの内容は,図40に示す対話ステップにより指示を受けたユーザが,指示を実行したかどうかを確認するためのものであり,「はい」,「次は?」等,直前の指示を完了したことを示す発話がユーザから入力された場合,次の対話ステップに進むことになる。ここで,変数YESNOは,自然言語対話システムからの確認に対するユーザの発話の認識結果が代入される変数の名称である。また,音声認識用文法は,3905に示すルールにより,ユーザ要求内容からのみ生成され,操作手順に関する情報から生成しない。図23に示すユーザ要求のユーザ要求内容に3905に示すルールを適用すると,
「テレビをつける方法を教えて下さい」
「テレビをつけるにはどうしたら良いですか?」
というような文が生成され,これらの文が音声認識用文法に変換される。あるいは,操作対象や選択肢等に対するユーザからの質問文,例えば,
「[BS]ボタンはどこにありますか?」
等の質問文に対する音声認識用文法とそれらに対する対話シナリオも,必要な対話シナリオ生成ルールを用意することにより生成することができる。
In FIG. 40, “guidance” is registered in the dialog step type 4001 according to the rule 3903. At the same time, the command 4003 is blank. The response sentence 4002 has contents to which 3901 and 3902 are applied. FIG. 41 shows a dialog step generated as a result of applying the rule shown in 3904, and is inserted immediately after the dialog step shown in FIG. The contents of the dialogue step shown in FIG. 41 are for confirming whether or not the user who has received the instruction in the dialogue step shown in FIG. 40 has executed the instruction. “Yes”, “What is next?”, Etc. When the user inputs an utterance indicating that the previous instruction has been completed, the process proceeds to the next dialog step. Here, the variable YESNO is the name of the variable into which the recognition result of the user's utterance for the confirmation from the natural language dialogue system is substituted. Further, the grammar for speech recognition is generated only from the user request contents according to the rule shown in 3905, and is not generated from the information regarding the operation procedure. When the rule shown in 3905 is applied to the user request content of the user request shown in FIG.
"Tell me how to turn on the TV"
"How can I turn on the TV?"
Are generated, and these sentences are converted into a speech recognition grammar. Or, a question sentence from the user regarding the operation target and options, for example,
“Where is the [BS] button?”
A speech recognition grammar for a question sentence such as, and a dialogue scenario for them can also be generated by preparing necessary dialogue scenario generation rules.

以上により,機器やコンピュータプログラムの機能や操作方法の説明を行うユーザとの対話を実現するための対話シナリオも,機器やコンピュータプログラムの操作マニュアルや取り扱い説明書等の操作対象関連文書から生成することが可能となる。   Based on the above, dialogue scenarios for realizing dialogues with users explaining the functions and operation methods of devices and computer programs should also be generated from operation target related documents such as operation manuals and instruction manuals for devices and computer programs. Is possible.

第三の実施例を図42を用いて説明する。   A third embodiment will be described with reference to FIG.

実施例1および実施例2における対話シナリオ生成システムでは,対話シナリオ生成部は,抽出項目分析部108での処理結果,対話シナリオ生成ルール111および情報入出力部112より入力される自然言語対話システムの開発者からの情報に基づいて,対話シナリオ103を生成する。一方,操作対象となる機器やコンピュータプログラムの中には,実行可能なコマンドに関する情報や利用可能なパラメータ(操作手順における選択肢に該当する情報)を外部から取得可能な場合が存在する。このような操作対象を使用する場合,対話シナリオ生成の際に,操作対象から取得可能な情報も利用することができる。   In the dialogue scenario generation system according to the first embodiment and the second embodiment, the dialogue scenario generation unit includes a processing result of the extraction item analysis unit 108, a dialogue scenario generation rule 111, and a natural language dialogue system input from the information input / output unit 112. A dialogue scenario 103 is generated based on information from the developer. On the other hand, there are cases in which information on executable commands and available parameters (information corresponding to options in the operation procedure) can be acquired from the outside among devices and computer programs to be operated. When such an operation target is used, information that can be acquired from the operation target can also be used when generating a dialogue scenario.

図42に,第三の実施例による対話シナリオ生成システムの構成を示す概念ブロック図を示す。図42において,対話シナリオ生成システムの構成要素は,図1に示す実施例1の場合と同様である。図1と図42との差異は,対話シナリオ生成部110が操作対象105と接続されていることである。対話シナリオ生成部110は,操作対象105に対して実行可能なコマンドや利用可能なパラメータに関する情報の送付を要求し,取得された情報を用いて対話シナリオの生成を行う。操作対象105から取得された情報は,例えば,図26に示した流れ図のステップ2604において,自然言語対話システムの開発者に実行判定式の入力を要求する際,操作対象105から取得した実行可能なコマンドの一覧を候補として開発者に提示し,一覧から開発者が必要なコマンドを選択できるようにすることができる。また,ステップ2606において,自然言語対話システムの開発者に実行判定式やコマンド,選択肢の修正・追加情報の入力を要求する際,操作対象105から取得した実行可能なコマンドの一覧や利用可能なパラメータの一覧を候補として開発者に提示し,一覧から開発者が必要なコマンドやパラメータを選択できるようにすることができる。さらに,操作対象となる機器やコンピュータプログラムが実行可能なコマンドや利用可能なパラメータに関する情報は,図示されていないネットワーク等で接続された他のサーバやファイルシステムから取得するようにしても良い。   FIG. 42 is a conceptual block diagram showing the configuration of a dialogue scenario generation system according to the third embodiment. 42, the components of the dialogue scenario generation system are the same as those in the first embodiment shown in FIG. The difference between FIG. 1 and FIG. 42 is that the dialogue scenario generation unit 110 is connected to the operation target 105. The dialogue scenario generation unit 110 requests the operation target 105 to send information relating to executable commands and available parameters, and uses the acquired information to generate a dialogue scenario. The information acquired from the operation target 105 is, for example, the executable information acquired from the operation target 105 when the developer of the natural language dialogue system is requested to input the execution determination formula in step 2604 of the flowchart shown in FIG. A list of commands can be presented to the developer as candidates, and the developer can select a required command from the list. In step 2606, when a developer of the natural language dialogue system is requested to input an execution determination formula, a command, and option correction / additional information, a list of executable commands acquired from the operation target 105 and available parameters are obtained. Can be presented to the developer as candidates, and the developer can select the necessary commands and parameters from the list. Further, information on commands that can be executed by devices and computer programs to be operated and parameters that can be used may be acquired from other servers or file systems connected via a network (not shown).

これにより,対話シナリオを生成するために必要となる開発者の作業を軽減し,効率的に対話シナリオの生成が行うことが可能となる。   As a result, it is possible to reduce the developer's work required to generate a dialogue scenario and to efficiently generate a dialogue scenario.

以上,種々の実施例を用いて詳述してきた自然言語対話システムは,情報家電等の各種機器やコンピュータプログラムの操作性を向上させるためのインタフェースとして期待できる。本発明による対話シナリオ生成システムは,自然言語対話システムの利用範囲拡大を容易にすることができるため,ユーザインタフェースを有するさまざまな分野の製品への適用が可能である。   As described above, the natural language dialogue system described in detail using various embodiments can be expected as an interface for improving the operability of various devices such as information appliances and computer programs. The dialogue scenario generation system according to the present invention can easily expand the range of use of the natural language dialogue system, and thus can be applied to products in various fields having a user interface.

第一の実施例における対話シナリオ生成システムとそれを用いた自然言語対話システムの構成を示す概念ブロック図。The conceptual block diagram which shows the structure of the dialogue scenario generation system in a 1st Example, and the natural language dialogue system using the same. 第一の実施例における対話シナリオ生成システムを計算机上で実現した場合の構成図。The block diagram at the time of implement | achieving the dialogue scenario production | generation system in a 1st Example on a computer. 第一の実施例における想定している操作対象関連文書の一例を示す図。The figure which shows an example of the operation target related document assumed in the 1st Example. 第一の実施例における文書構造解析ルールの構成を示す図。The figure which shows the structure of the document structure analysis rule in a 1st Example. 第一の実施例における文書構造解析ルールにおけるフォーマット情報の内容を表す図。The figure showing the content of the format information in the document structure analysis rule in a 1st Example. 第一の実施例における文書構造解析ルールにおける項目除外キーワードの内容を表す図。The figure showing the content of the item exclusion keyword in the document structure analysis rule in a 1st Example. 第一の実施例における表現解析ルールの構成を示す図。The figure which shows the structure of the expression analysis rule in a 1st Example. 第一の実施例における表現解析ルールに含まれる操作内容抽出ルールのフォーマットを示す図。The figure which shows the format of the operation content extraction rule contained in the expression analysis rule in a 1st Example. 第一の実施例における表現解析ルールに含まれる条件抽出ルールのフォーマットを示す図。The figure which shows the format of the condition extraction rule contained in the expression analysis rule in a 1st Example. 第一の実施例における表現解析ルールに含まれる操作種類判定ルールのフォーマットを示す図。The figure which shows the format of the operation kind determination rule contained in the expression analysis rule in a 1st Example. 第一の実施例における表現解析ルールに含まれる操作対象抽出ルールのフォーマットを示す図。The figure which shows the format of the operation target extraction rule contained in the expression analysis rule in a 1st Example. 第一の実施例における表現解析ルールに含まれる選択肢検出ルールのフォーマットを示す図。The figure which shows the format of the choice detection rule contained in the expression analysis rule in a 1st Example. 第一の実施例における対話シナリオ生成ルールのフォーマットを示す図。The figure which shows the format of the dialogue scenario production | generation rule in a 1st Example. 第一の実施例における対話シナリオのフォーマットを示す図。The figure which shows the format of the dialogue scenario in a 1st Example. 第一の実施例における対話シナリオにおける対話ステップのフォーマットを示す図。The figure which shows the format of the dialogue step in the dialogue scenario in a 1st Example. 第一の実施例における文書項目抽出部において行われる処理の流れを説明する図。The figure explaining the flow of the process performed in the document item extraction part in a 1st Example. 第一の実施例における文書項目抽出部において行われた処理結果の一例を示す図。The figure which shows an example of the process result performed in the document item extraction part in a 1st Example. 第一の実施例における抽出項目分析部で行われる処理の流れを説明する図。The figure explaining the flow of the process performed in the extraction item analysis part in a 1st Example. 第一の実施例における抽出項目分析部で行われた処理の結果得られた情報を格納するフォーマットを示す図。The figure which shows the format which stores the information obtained as a result of the process performed in the extraction item analysis part in a 1st Example. 第一の実施例における抽出項目分析部で行われた処理の結果得られた情報に含まれる操作手順を格納するフォーマットを示す図。The figure which shows the format which stores the operation procedure contained in the information obtained as a result of the process performed in the extraction item analysis part in a 1st Example. 抽出項目分析部における,「見出し」と分類された項目に対する分析処理の流れを示す図。The figure which shows the flow of the analysis process with respect to the item classified as "Heading" in the extraction item analysis part. 第一の実施例における抽出項目分析部における,「手順」と分類された項目に対する分析処理の流れを示す図。The figure which shows the flow of the analysis process with respect to the item classified as "procedure" in the extraction item analysis part in a 1st Example. 第一の実施例における抽出項目分析部で行われた処理結果の一例を示す図。The figure which shows an example of the processing result performed in the extraction item analysis part in a 1st Example. 第一の実施例における抽出項目分析部で行われた処理結果の一例を示す図。The figure which shows an example of the processing result performed in the extraction item analysis part in a 1st Example. 第一の実施例における抽出項目分析部で行われた処理結果の一例を示す図。The figure which shows an example of the processing result performed in the extraction item analysis part in a 1st Example. 第一の実施例における対話シナリオ生成部で行われる処理の流れを示す図。The figure which shows the flow of the process performed in the dialogue scenario production | generation part in a 1st Example. 第一の実施例における情報入出力部で使用される画面の一例を示す図。The figure which shows an example of the screen used by the information input / output part in a 1st Example. 第一の実施例における対話シナリオ生成部で行われる処理において,操作手順を対話ステップに変換する処理の流れを示す図。The figure which shows the flow of the process which converts an operation procedure into a dialog step in the process performed in the dialog scenario production | generation part in a 1st Example. 第一の実施例における操作手順に関する情報の一例を示す図。The figure which shows an example of the information regarding the operation procedure in a 1st Example. 第一の実施例における対話シナリオ生成部で行われる処理の途中経過の一例を示す図。The figure which shows an example of the middle progress of the process performed in the dialogue scenario production | generation part in a 1st Example. 第一の実施例における対話シナリオ生成部で行われる処理の途中経過の一例を示す図。The figure which shows an example of the middle progress of the process performed in the dialogue scenario production | generation part in a 1st Example. 第一の実施例における対話シナリオ生成部で行われる処理の途中経過の一例を示す図。The figure which shows an example of the middle progress of the process performed in the dialogue scenario production | generation part in a 1st Example. 第一の実施例における対話シナリオ生成部で行われた処理の結果の一例を示す図。The figure which shows an example of the result of the process performed in the dialogue scenario production | generation part in a 1st Example. 第一の実施例における対話シナリオ生成部で行われた処理の結果の一例を示す図。The figure which shows an example of the result of the process performed in the dialogue scenario production | generation part in a 1st Example. 第一の実施例における対話シナリオ生成部で行われた処理の結果の一例を示す図。The figure which shows an example of the result of the process performed in the dialogue scenario production | generation part in a 1st Example. 対第一の実施例における話シナリオ生成部で行われた処理の結果の一例を示す図。The figure which shows an example of the result of the process performed in the talk scenario production | generation part in a 1st Example. 第一の実施例における対話シナリオ生成部で行われた処理の結果の一例を示す図。The figure which shows an example of the result of the process performed in the dialogue scenario production | generation part in a 1st Example. 第一の実施例における対話シナリオ生成部において,音声認識用文法を生成する処理の流れを示す図。The figure which shows the flow of the process which produces | generates the grammar for speech recognition in the dialogue scenario production | generation part in a 1st Example. 第二の実施例において使用される対話シナリオ生成ルールを示す図。The figure which shows the dialogue scenario production | generation rule used in a 2nd Example. 第二の実施例において生成された対話シナリオの一例を示す図。The figure which shows an example of the dialogue scenario produced | generated in the 2nd Example. 第二の実施例において生成された対話シナリオの一例を示す図。The figure which shows an example of the dialogue scenario produced | generated in the 2nd Example. 第三の実施例における対話シナリオ生成システムの構成を示す概念ブロック図。The conceptual block diagram which shows the structure of the dialogue scenario production | generation system in a 3rd Example.

符号の説明Explanation of symbols

101…対話シナリオ生成システム,102…操作対象関連文書,103…対話シナリオ,104…自然言語対話システム,105…操作対象,106…文書項目抽出部,107…文書構造解析ルール,108…抽出項目分析部,109…表現解析ルール,110…対話シナリオ生成部,111…対話シナリオ生成ルール,112…情報入出力部。   DESCRIPTION OF SYMBOLS 101 ... Dialog scenario generation system, 102 ... Operation object related document, 103 ... Dialog scenario, 104 ... Natural language dialog system, 105 ... Operation object, 106 ... Document item extraction part, 107 ... Document structure analysis rule, 108 ... Extraction item analysis 109: Expression analysis rule, 110 ... Dialog scenario generation unit, 111 ... Dialog scenario generation rule, 112 ... Information input / output unit.

Claims (17)

自然言語によってユーザと対話を行い,ユーザからの要求に基づいて操作対象となる機器やコンピュータプログラムの操作を代行する自然言語対話システムに必要となる対話シナリオを生成する対話シナリオ生成システムであって,
前記操作対象が有する機能や操作方法を自然言語により記述した操作対象関連文書を格納する文書格納部と,
前記操作対象関連文書の構造を解析するために必要となるルールである文書構造解析ルールを格納する文書構造解析ルール格納部と,
前記文書構造解析ルールに基づいて前記操作対象関連文書の構造を解析し,必要な項目を前記操作対象関連文書から選択する文書項目抽出部と,
選択された前記項目の内容から,ユーザとの対話において必要となる情報を抽出するためのルールである表現解析ルールを格納する表現解析ルール格納部と,
選択された前記項目を前記表現解析ルールに基づいて解析し,前記ユーザとの対話において必要となる情報を抽出する抽出項目分析部と,
前記対話シナリオを生成するためのルールである対話シナリオ生成ルールを格納する対話シナリオ生成ルール格納部と,
前記自然言語対話システムの開発者に対して情報入力を促すと共に,前記開発者からの情報を取得するための情報入出力部と,
前記抽出項目分析部において抽出された情報と,前記対話シナリオ生成ルール,および前記開発者から取得した情報とに基づいて,前記対話シナリオを生成する対話シナリオ生成部と,
を有する対話シナリオ生成システム。
A dialogue scenario generation system that generates a dialogue scenario necessary for a natural language dialogue system that interacts with a user in a natural language and performs operation of a device or a computer program to be operated based on a request from the user.
A document storage unit for storing an operation target related document in which a function or an operation method of the operation target is described in a natural language;
A document structure analysis rule storage unit for storing a document structure analysis rule that is a rule necessary for analyzing the structure of the operation target related document;
A document item extraction unit that analyzes the structure of the operation target related document based on the document structure analysis rule, and selects necessary items from the operation target related document;
An expression analysis rule storage unit for storing an expression analysis rule, which is a rule for extracting information necessary for dialogue with the user from the content of the selected item;
An extracted item analysis unit that analyzes the selected item based on the expression analysis rule and extracts information necessary for the dialog with the user;
An interaction scenario generation rule storage unit for storing an interaction scenario generation rule that is a rule for generating the interaction scenario;
An information input / output unit for prompting the developer of the natural language dialogue system to input information and acquiring information from the developer;
A dialog scenario generation unit that generates the dialog scenario based on the information extracted in the extraction item analysis unit, the dialog scenario generation rule, and information acquired from the developer;
A dialogue scenario generation system having:
請求項1記載の対話シナリオ生成システムにおいて,
前記文書構造解析ルールは,
章や節の先頭に記述されている見出し,
箇条書きされている項目,
操作手順が記述された項目,
の内のいずれか一つ以上の,前記操作対象関連文書中におけるフォーマットに関する情報と項目間の階層関係に関する情報を含み,
前記文書項目抽出部は,前記操作対象関連文書中から,前記フォーマットに該当する項目と前記操作対象関連文書中における項目間の階層関係とを合わせて抽出する
対話シナリオ生成システム。
In the dialogue scenario generation system according to claim 1,
The document structure analysis rule is:
A heading at the beginning of a chapter or section,
Bulleted items,
Items that describe the operating procedure,
Including information related to the format in the operation target related document and information related to the hierarchical relationship between the items.
The document item extraction unit is a dialog scenario generation system that extracts items corresponding to the format and a hierarchical relationship between items in the operation target related document from the operation target related document.
請求項1記載の対話シナリオ生成システムにおいて,
前記表現解析ルールは,
どのような操作を行うか(操作内容)を表す表現を抽出する操作内容抽出ルール,
操作を実行するための前提条件(実行条件)となる表現を抽出するための条件抽出ルール,
操作の種類を判定するための操作種類判定ルール,
何に対して操作を行うか(操作対象)を示す表現を抽出するための操作対象抽出ルール,
複数の操作対象が選択肢となっている場合に選択肢を抽出するための選択肢抽出ルール,
の内のいずれか一つ以上を含み,
前記抽出項目分析部は,前記表現解析ルールに基づいて,前記文書項目抽出部から抽出された項目から,
実行条件の抽出,
操作内容の抽出,
操作対象の抽出,
選択肢の抽出,
操作の種類の判定,
の内のいずれか一つ以上を行う
対話シナリオ生成システム。
In the dialogue scenario generation system according to claim 1,
The expression analysis rule is:
Operation content extraction rules that extract expressions representing what operations (operation content) to perform,
Condition extraction rules for extracting expressions that are prerequisites (execution conditions) for executing operations,
An operation type determination rule for determining the type of operation,
An operation target extraction rule for extracting an expression indicating what operation is performed (operation target),
Choice extraction rules for extracting choices when multiple operation targets are choices,
Including any one or more of
The extracted item analysis unit, based on the expression analysis rule, from items extracted from the document item extraction unit,
Extraction of execution conditions,
Extraction of operations,
Extraction of operation target,
Choice extraction,
Determining the type of operation,
Dialog scenario generation system that performs any one or more of the above.
請求項1記載の対話シナリオ生成システムにおいて,
前記対話シナリオ生成ルールは,
前記自然言語対話システムからユーザに対して質問や確認,説明等を行うためのメッセージである応答文を生成するためのルール,
ユーザと前記自然言語対話システムとの対話におけるやり取りの単位である対話ステップを生成,修正および追加するためのルール,
ユーザから入力される音声を認識するための情報である音声認識用文法を生成するためのルール,
の内のいずれか一つ以上を含み,
前記対話シナリオ生成部は,前記対話シナリオ生成ルールと,前記開発者から取得した情報とに基づいて,前記抽出項目分析部における処理の結果から,
応答文の生成,
対話ステップの生成,修正および追加,
音声認識用文法の生成,
の内のいずれか一つ以上を行う
対話シナリオ生成システム。
In the dialogue scenario generation system according to claim 1,
The dialog scenario generation rule is:
Rules for generating a response sentence that is a message for asking a question, confirmation, explanation, etc. to the user from the natural language dialogue system;
Rules for generating, modifying and adding dialogue steps which are units of interaction in dialogue between the user and the natural language dialogue system;
Rules for generating a speech recognition grammar, which is information for recognizing speech input by the user,
Including any one or more of
Based on the result of the process in the extraction item analysis unit, the dialogue scenario generation unit, based on the dialogue scenario generation rule and the information acquired from the developer,
Response sentence generation,
Creating, modifying and adding interactive steps,
Generation of grammar for speech recognition,
Dialog scenario generation system that performs any one or more of the above.
請求項1記載の対話シナリオ生成システムにおいて,
前記対話シナリオ生成部は,前記対話シナリオとして,
ユーザからの要求に基づいて,前記操作対象の操作を代行するための対話シナリオ,
ユーザからの要求に基づいて,前記操作対象が実行可能な機能をユーザに提示するための対話シナリオ,
ユーザからの要求に基づいて,前記操作対象の実行方法をユーザに教示するための対話シナリオ,
の内のいずれか一つ以上を生成する
対話シナリオ生成システム。
In the dialogue scenario generation system according to claim 1,
The dialogue scenario generation unit, as the dialogue scenario,
A dialogue scenario for substituting the operation to be operated based on a request from the user;
A dialogue scenario for presenting the user with a function executable by the operation target based on a request from the user;
A dialogue scenario for teaching the user how to execute the operation target based on a request from the user;
Dialog scenario generation system that generates one or more of the above.
請求項4記載の対話シナリオ生成システムにおいて,
前記対話シナリオ生成部は,
前記抽出項目分析部における処理の結果得られる情報を前記開発者に提示し,提示された情報に対して前記開発者が,前記情報入出力部から入力した,前記操作対象が実行するコマンドを前記対話シナリオ中に登録する,
前記抽出項目分析部における処理の結果得られる情報と,前記操作対象が実行するコマンドとの対応関係を表す情報をあらかじめ格納し,前記対応関係を表す情報と前記抽出項目分析部における処理の結果得られる情報とから,コマンドを前記対話シナリオ中に登録する,
の内のいずれか一つ以上を行う
対話シナリオ生成システム。
In the dialogue scenario generation system according to claim 4,
The dialogue scenario generation unit
Information obtained as a result of processing in the extraction item analysis unit is presented to the developer, and the developer inputs a command executed by the operation target input from the information input / output unit to the presented information by the developer. Register during conversation scenario,
The information obtained as a result of the processing in the extraction item analysis unit and the information indicating the correspondence relationship between the command to be executed by the operation target are stored in advance, and the information indicating the correspondence relationship and the processing result obtained in the extraction item analysis unit are obtained. Register the command in the dialogue scenario from the information
Dialog scenario generation system that performs any one or more of the above.
請求項4記載の対話シナリオ生成システムにおいて,
前記対話シナリオ生成部は,
前記操作対象となる機器やコンピュータプログラム,
ネットワーク上に設置されているサーバやファイルシステム,
の内いずれか一つ以上を用いて,前記操作対象が実行可能なコマンドやパラメータに関する情報を取得し,取得した当該情報を用いて前記対話シナリオを生成する
対話シナリオ生成システム。
In the dialogue scenario generation system according to claim 4,
The dialogue scenario generation unit
A device or computer program to be operated;
Servers and file systems installed on the network,
A dialog scenario generation system that acquires information on commands and parameters that can be executed by the operation target using any one or more of the above, and generates the dialog scenario using the acquired information.
情報処理部と情報記憶部と情報入出力部とを有し,自然言語によるユーザからの要求に基づいて操作対象となる機器や他のコンピュータプログラムの操作を代行する自然言語対話システムに用いる対話シナリオを生成するシステムにおける対話シナリオ生成方法であって,
前記情報処理部が,
前記情報記憶部に記憶された,前記操作対象が有する機能や操作方法を自然言語により記述した操作対象関連文書と,前記操作対象関連文書の構造を解析するための文書構造解析ルールと,前記操作対象関連文書から選択した項目の内容からユーザとの対話において必要となる情報を抽出するための表現解析ルールと,前記対話シナリオを生成するための対話シナリオ生成ルールとを用い,
前記文書構造解析ルールに基づいて前記操作対象関連文書の構造を解析し,前記操作対象関連文書から必要な項目を選択し,
選択された前記項目を前記表現解析ルールに基づいて解析し,前記ユーザとの対話において必要となる情報を抽出し,
前記情報入出力部を用いて,前記自然言語対話システムの開発者に対して情報入力を促し,前記開発者から情報を取得し,
前記抽出された情報と,前記開発者から取得した情報および前記対話シナリオ生成ルールとに基づいて,前記対話シナリオを生成する
対話シナリオ生成方法。
A dialogue scenario used in a natural language dialogue system that has an information processing unit, an information storage unit, and an information input / output unit, and performs operations of devices and other computer programs to be operated based on requests from users in natural language A dialogue scenario generation method in a system for generating
The information processing unit is
An operation target related document describing functions and operation methods of the operation target stored in the information storage unit in a natural language, a document structure analysis rule for analyzing the structure of the operation target related document, and the operation Using expression analysis rules for extracting information necessary for dialogue with the user from the contents of the item selected from the target related document, and dialogue scenario generation rules for generating the dialogue scenario,
Analyzing the structure of the operation target related document based on the document structure analysis rule, and selecting a necessary item from the operation target related document;
Analyzing the selected item based on the expression analysis rule, extracting information necessary for dialogue with the user,
Using the information input / output unit, prompting the developer of the natural language dialogue system to input information, obtaining information from the developer,
A dialog scenario generation method for generating the dialog scenario based on the extracted information, information acquired from the developer, and the dialog scenario generation rule.
請求項8記載の対話シナリオ生成方法において,
前記文書構造解析ルールは,
前記操作対象関連文書中におけるフォーマットに関する情報と項目間の階層関係に関する情報を含み,
前記情報処理部は,
前記文書構造解析ルールに基づいて,前記操作対象関連文書から必要な項目を選択する際,前記フォーマットに該当する項目と前記操作対象関連文書中における項目間の階層関係とを合わせて選択する
対話シナリオ生成方法。
The dialog scenario generation method according to claim 8,
The document structure analysis rule is:
Including information on the format in the operation target related document and information on the hierarchical relationship between items,
The information processing unit
When selecting necessary items from the operation target related document based on the document structure analysis rule, an interactive scenario for selecting the items corresponding to the format and the hierarchical relationship between items in the operation target related document. Generation method.
請求項8記載の対話シナリオ生成方法において,
前記表現解析ルールは,
どのような操作を行うか(操作内容)を表す表現を抽出する操作内容抽出ルール,
操作を実行するための前提条件(実行条件)となる表現を抽出するための条件抽出ルール,
操作の種類を判定するための操作種類判定ルール,
何に対して操作を行うか(操作対象)を示す表現を抽出するための操作対象抽出ルール,
複数の操作対象が選択肢となっている場合に選択肢を抽出するための選択肢抽出ルール,
の内のいずれか一つ以上を含み,
前記情報処理部は,
前記表現解析ルールに基づいて抽出された情報から,
実行条件の抽出,
操作内容の抽出,
操作対象の抽出,
選択肢の抽出,
操作の種類の判定,
の内のいずれか一つ以上を行う
対話シナリオ生成方法。
The dialog scenario generation method according to claim 8,
The expression analysis rule is:
Operation content extraction rules that extract expressions representing what operations (operation content) to perform,
Condition extraction rules for extracting expressions that are prerequisites (execution conditions) for executing operations,
An operation type determination rule for determining the type of operation,
An operation target extraction rule for extracting an expression indicating what operation is performed (operation target),
Choice extraction rules for extracting choices when multiple operation targets are choices,
Including any one or more of
The information processing unit
From the information extracted based on the expression analysis rule,
Extraction of execution conditions,
Extraction of operations,
Extraction of operation target,
Choice extraction,
Determining the type of operation,
Dialog scenario generation method for performing any one or more of the above.
請求項8記載の対話シナリオ生成方法において,
前記対話シナリオ生成ルールは,
前記自然言語対話システムからユーザに対して質問や確認,説明等を行うためのメッセージである応答文を生成するためのルール,
ユーザと前記自然言語対話システムとの対話におけるやり取りの単位である対話ステップを生成,修正および追加するためのルール,
ユーザから入力される音声を認識するための情報である音声認識用文法を生成するためのルール,
の内のいずれか一つ以上を含み,
前記情報処理部は,
前記対話シナリオ生成ルールと,前記開発者から取得した情報とに基づいて,抽出された前記ユーザとの対話において必要となる情報から,
応答文の生成,
対話ステップの生成,修正および追加,
音声認識用文法の生成,
の内のいずれか一つ以上を行う
対話シナリオ生成方法。
The dialog scenario generation method according to claim 8,
The dialog scenario generation rule is:
Rules for generating a response sentence that is a message for asking a question, confirmation, explanation, etc. to the user from the natural language dialogue system;
Rules for generating, modifying and adding dialogue steps which are units of interaction in dialogue between the user and the natural language dialogue system;
Rules for generating a speech recognition grammar, which is information for recognizing speech input by the user,
Including any one or more of
The information processing unit
Based on the dialogue scenario generation rule and the information acquired from the developer, from the information necessary for the dialogue with the extracted user,
Response sentence generation,
Creating, modifying and adding interactive steps,
Generation of grammar for speech recognition,
Dialog scenario generation method for performing any one or more of the above.
請求項8記載の対話シナリオ生成方法において,
前記情報処理部は,前記対話シナリオとして,
ユーザからの要求に基づいて,前記処理対象の操作を代行するための対話シナリオ,
ユーザからの要求に基づいて,前記処理対象が実行可能な機能をユーザに提示するための対話シナリオ,
ユーザからの要求に基づいて,前記処理対象の実行方法をユーザに教示するための対話シナリオ,
の内のいずれか一つ以上を生成する
対話シナリオ生成方法。
The dialog scenario generation method according to claim 8,
The information processing unit, as the dialogue scenario,
A dialogue scenario for performing the processing target operation on the basis of a request from the user;
An interactive scenario for presenting to the user a function that can be executed by the processing target based on a request from the user;
A dialogue scenario for teaching the user how to execute the processing target based on a request from the user;
A dialogue scenario generation method for generating any one or more of the above.
請求項11記載の対話シナリオ生成方法において,
前記情報処理部は,
前記ユーザとの対話において必要となる情報を,前記開発者に提示し,提示された情報に対して前記開発者が,前記操作対象が実行するコマンドを入力し,入力されたコマンドを対話シナリオ中に登録する,
前記ユーザとの対話において必要となる情報と,前記処理対象が実行するコマンドとの対応関係を表す情報をあらかじめ格納し,前記対応関係を表す情報と前記ユーザとの対話において必要となる情報とから,コマンドを前記対話シナリオ中に登録する,
の内のいずれか一つ以上を行う
対話シナリオ生成方法。
The dialogue scenario generation method according to claim 11,
The information processing unit
Information necessary for dialogue with the user is presented to the developer, and the developer inputs a command to be executed by the operation target with respect to the presented information, and the entered command is displayed in the dialogue scenario. Register with
The information necessary for the dialogue with the user and the information representing the correspondence relationship between the commands executed by the processing target are stored in advance, and the information representing the correspondence relationship and the information necessary for the dialogue with the user are stored. Register the command in the dialog scenario,
Dialog scenario generation method for performing any one or more of the above.
情報処理部と情報記憶部と情報入出力部とから構成され,自然言語によるユーザからの要求に基づいて操作対象となる機器やコンピュータプログラムの操作を代行する自然言語対話システムに必要となる対話シナリオを生成する対話シナリオ生成システムのためのプログラムであって,
前記情報記憶部に記憶された,前記操作対象が有する機能や操作方法を自然言語により記述した操作対象関連文書と,前記操作対象関連文書の構造を解析するために必要となる文書構造解析ルールと,ユーザとの対話において必要となる情報を抽出するための表現解析ルールと,前記対話シナリオを生成するためのルールである対話シナリオ生成ルールとを用い,
前記情報処理部に,
前記文書構造解析ルールに基づいて前記操作対象関連文書の構造を解析し,前記操作対象関連文書から必要な項目を選択するステップと,
選択した前記項目を前記表現解析ルールに基づいて解析し,前記ユーザとの対話において必要となる情報を抽出するステップと,
前記情報入出力部を用い,前記自然言語対話システムの開発者に対して情報入力を促すと共に,前記開発者から情報を取得するステップと,
前記抽出された情報と,前記開発者から取得した情報と,前記対話シナリオ生成ルールとに基づいて,前記対話シナリオを生成するステップと,
を実行させる
対話シナリオ生成プログラム。
A dialogue scenario required for a natural language dialogue system that consists of an information processing unit, an information storage unit, and an information input / output unit, and acts as an operation target device or computer program based on a user request in natural language A program for a dialogue scenario generation system for generating
An operation target related document describing functions and operation methods of the operation target stored in the information storage unit in a natural language, and a document structure analysis rule necessary for analyzing the structure of the operation target related document; , Using an expression analysis rule for extracting information necessary for the dialog with the user and a dialog scenario generation rule that is a rule for generating the dialog scenario,
In the information processing unit,
Analyzing the structure of the operation target related document based on the document structure analysis rule, and selecting a necessary item from the operation target related document;
Analyzing the selected item on the basis of the expression analysis rule, and extracting information necessary for the dialogue with the user;
Using the information input / output unit to prompt the developer of the natural language dialogue system to input information and obtaining information from the developer;
Generating the dialogue scenario based on the extracted information, the information obtained from the developer, and the dialogue scenario generation rule;
Interactive scenario generation program that executes
請求項14記載の対話シナリオ生成プログラムにおいて,
前記文書構造解析ルールは,
章や節の先頭に記述されている見出し,
箇条書きされている項目,
操作手順が記述された項目,
の内のいずれか一つ以上の,前記操作対象関連文書中におけるフォーマットに関する情報と項目間の階層関係に関する情報を含み,
前記情報処理部に,
前記文書構造解析ルールに基づいて,前記操作対象関連文書から必要な項目を選択する際,前記フォーマットに該当する項目と前記操作対象関連文書中における項目間の階層関係とを合わせて選択させる
対話シナリオ生成プログラム。
In the dialogue scenario generation program according to claim 14,
The document structure analysis rule is:
A heading at the beginning of a chapter or section,
Bulleted items,
Items that describe the operating procedure,
Including information related to the format in the operation target related document and information related to the hierarchical relationship between the items.
In the information processing unit,
An interactive scenario in which, when selecting a necessary item from the operation target related document based on the document structure analysis rule, an item corresponding to the format and a hierarchical relationship between items in the operation target related document are selected together. Generation program.
請求項14記載の対話シナリオ生成プログラムにおいて,
前記対話シナリオ生成ルールは,
前記自然言語対話システムからユーザに対して質問や確認,説明等を行うためのメッセージである応答文を生成するためのルール,
ユーザと前記自然言語対話システムとの対話におけるやり取りの単位である対話ステップを生成,修正および追加するためのルール,
ユーザから入力される音声を認識するための情報である音声認識用文法を生成するためのルール,
の内のいずれか一つ以上を含み,
前記情報処理部に,
前記対話シナリオ生成ルールと,前記開発者から取得した情報とに基づいて,抽出された前記ユーザとの対話において必要となる情報から,
応答文の生成,
対話ステップの生成,修正および追加,
音声認識用文法の生成,
の内のいずれか一つ以上を実行させる
対話シナリオ生成プログラム。
In the dialogue scenario generation program according to claim 14,
The dialog scenario generation rule is:
Rules for generating a response sentence that is a message for asking a question, confirmation, explanation, etc. to the user from the natural language dialogue system;
Rules for generating, modifying and adding dialogue steps which are units of interaction in dialogue between the user and the natural language dialogue system;
Rules for generating a speech recognition grammar, which is information for recognizing speech input by the user,
Including one or more of
In the information processing unit,
Based on the dialogue scenario generation rule and the information acquired from the developer, from the information necessary for the dialogue with the extracted user,
Response sentence generation,
Creating, modifying and adding interactive steps,
Generation of grammar for speech recognition,
A dialogue scenario generation program for executing one or more of the above.
請求項16記載の対話シナリオ生成プログラムにおいて,
前記情報処理部に,
前記ユーザとの対話において必要となる情報を,前記開発者に提示し,提示された情報に対して前記開発者が,前記操作対象が実行するコマンドを入力し,入力されたコマンドを対話シナリオ中に登録する,
前記ユーザとの対話において必要となる情報と,前記処理対象が実行するコマンドとの対応関係を表す情報をあらかじめ格納し,前記対応関係を表す情報と前記ユーザとの対話において必要となる情報とから,コマンドを前記対話シナリオ中に登録する,
の内のいずれか一つ以上を実行させる
対話シナリオ生成プログラム。
In the dialogue scenario generation program according to claim 16,
In the information processing unit,
Information necessary for dialogue with the user is presented to the developer, and the developer inputs a command to be executed by the operation target with respect to the presented information, and the entered command is displayed in the dialogue scenario. Register with
The information necessary for the dialogue with the user and the information representing the correspondence relationship between the commands executed by the processing target are stored in advance, and the information representing the correspondence relationship and the information necessary for the dialogue with the user are stored. Register the command in the dialog scenario,
A dialogue scenario generation program for executing one or more of the above.
JP2006333484A 2006-12-11 2006-12-11 Interaction scenario creation system, its method, and program Pending JP2008145769A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006333484A JP2008145769A (en) 2006-12-11 2006-12-11 Interaction scenario creation system, its method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006333484A JP2008145769A (en) 2006-12-11 2006-12-11 Interaction scenario creation system, its method, and program

Publications (1)

Publication Number Publication Date
JP2008145769A true JP2008145769A (en) 2008-06-26

Family

ID=39606016

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006333484A Pending JP2008145769A (en) 2006-12-11 2006-12-11 Interaction scenario creation system, its method, and program

Country Status (1)

Country Link
JP (1) JP2008145769A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009023404A1 (en) 2008-06-03 2010-05-20 Nec Electronics Corp. Electrical fuse, semiconductor device and method for disconnecting an electrical fuse
JP2016057728A (en) * 2014-09-08 2016-04-21 日本電信電話株式会社 Operation procedure recording device, operation procedure recording method, and operation procedure recording program
JP2018005637A (en) * 2016-07-04 2018-01-11 富士通株式会社 Retrieval program, retrieval method and retrieval device
JP2019519870A (en) * 2016-04-28 2019-07-11 アムリ, マスードAMRI, Masoud Language controlled system
JP2020080025A (en) * 2018-11-13 2020-05-28 株式会社日立製作所 Question and answer data generation device and question and answer data generation method
JP2021117743A (en) * 2020-01-27 2021-08-10 株式会社日立製作所 Business support system and business support method
CN114356860A (en) * 2022-01-06 2022-04-15 支付宝(杭州)信息技术有限公司 Dialog generation method and device

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009023404A1 (en) 2008-06-03 2010-05-20 Nec Electronics Corp. Electrical fuse, semiconductor device and method for disconnecting an electrical fuse
JP2016057728A (en) * 2014-09-08 2016-04-21 日本電信電話株式会社 Operation procedure recording device, operation procedure recording method, and operation procedure recording program
JP2019519870A (en) * 2016-04-28 2019-07-11 アムリ, マスードAMRI, Masoud Language controlled system
JP7023008B2 (en) 2016-04-28 2022-02-21 マスード アムリ, Language controlled system
JP2018005637A (en) * 2016-07-04 2018-01-11 富士通株式会社 Retrieval program, retrieval method and retrieval device
JP2020080025A (en) * 2018-11-13 2020-05-28 株式会社日立製作所 Question and answer data generation device and question and answer data generation method
JP7163143B2 (en) 2018-11-13 2022-10-31 株式会社日立製作所 Question and answer data generation device and question and answer data generation method
JP2021117743A (en) * 2020-01-27 2021-08-10 株式会社日立製作所 Business support system and business support method
CN114356860A (en) * 2022-01-06 2022-04-15 支付宝(杭州)信息技术有限公司 Dialog generation method and device

Similar Documents

Publication Publication Date Title
US9361282B2 (en) Method and device for user interface
JP4090040B2 (en) Method and system for creating a two-way multimodal dialogue and related browsing mechanism
KR101683943B1 (en) Speech translation system, first terminal device, speech recognition server device, translation server device, and speech synthesis server device
US20060123358A1 (en) Method and system for generating input grammars for multi-modal dialog systems
KR100549482B1 (en) Information processing apparatus, information processing method, and computer readable storage medium for storing a program
JP2008090545A (en) Voice interaction device and method
JP2007171809A (en) Information processor and information processing method
JP2005092504A (en) Information processor and its control method and program
KR20170014353A (en) Apparatus and method for screen navigation based on voice
JP2008145769A (en) Interaction scenario creation system, its method, and program
JP2001209393A (en) Method and device for inputting natural language
US20140028780A1 (en) Producing content to provide a conversational video experience
JP2016061954A (en) Interactive device, method and program
EP1662363A2 (en) User interface desiiign apparatus and method
JP2003263188A (en) Voice command interpreter with dialog focus tracking function, its method and computer readable recording medium with the method recorded
CN109782997B (en) Data processing method, device and storage medium
JP2004021791A (en) Method for describing existing data by natural language and program for the method
JP2015523623A (en) Building multilingual processes from existing monolingual processes
JP3542578B2 (en) Speech recognition apparatus and method, and program
JP2008203516A (en) Information processor and information processing method
JP2013137584A (en) Electronic device, display method and program
KR102527107B1 (en) Method for executing function based on voice and electronic device for supporting the same
WO2003079188A1 (en) Method for operating software object using natural language and program for the same
JP2019197084A (en) Sign language cg interpretation and edit system, and program
JP2006236037A (en) Voice interaction content creation method, device, program and recording medium