JP2002073662A - Information presenting device and recording medium with information presenting program recorded thereon - Google Patents
Information presenting device and recording medium with information presenting program recorded thereonInfo
- Publication number
- JP2002073662A JP2002073662A JP2000268778A JP2000268778A JP2002073662A JP 2002073662 A JP2002073662 A JP 2002073662A JP 2000268778 A JP2000268778 A JP 2000268778A JP 2000268778 A JP2000268778 A JP 2000268778A JP 2002073662 A JP2002073662 A JP 2002073662A
- Authority
- JP
- Japan
- Prior art keywords
- information
- presentation
- template
- pattern
- sentence
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、コンピュータを利
用して映像を含む情報を提示する情報提示装置に係り、
特に、情報提示装置の動作及び制御技術と、情報提示装
置に操作情報を入力するための自然言語処理技術とに関
する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an information presenting apparatus for presenting information including video using a computer.
In particular, the present invention relates to an operation and control technology of the information presentation device and a natural language processing technology for inputting operation information to the information presentation device.
【0002】[0002]
【従来の技術】従来、コンピュータを利用した映像検索
装置、すなわち、映像データベースなどの情報提示装置
では、利用者が、検索キーワードをキーボードから入力
し、或いは、情報提示装置によって示された分類や情報
をキーボードやマウスなどの入力装置を使用して選択す
ることによって情報提示装置に操作情報を入力し、入力
された操作情報に対応した情報が情報提示装置の画面に
表示される。このような入力作業を伴う情報提示装置
は、検索などに不慣れな利用者にとって使いにくいもの
となる。2. Description of the Related Art Conventionally, in a video search device using a computer, that is, an information presentation device such as a video database, a user inputs a search keyword from a keyboard, or displays a classification or information indicated by the information presentation device. Is selected by using an input device such as a keyboard or a mouse to input operation information to the information presentation device, and information corresponding to the input operation information is displayed on the screen of the information presentation device. Such an information presenting device that involves an input operation is difficult to use for a user unfamiliar with search or the like.
【0003】また、従来の情報提示装置から利用者に提
示される情報は、複数の映像、説明の音声、画面内に表
示する文字などの素材が事前に一つの映像としてまとめ
られてファイル化され、データベースに蓄積され、利用
者からの要求に応じてデータベースから取り出された映
像ファイルが利用者に提示される。[0003] In addition, information presented to a user from a conventional information presenting apparatus is a file in which materials such as a plurality of images, audio for explanation, and characters to be displayed on a screen are combined as one image in advance. The video files stored in the database and retrieved from the database in response to a request from the user are presented to the user.
【0004】一方、コンピュータと人間との対話を目的
とした自然言語処理システムに関して、Stuart C. Shap
iroほか、大須賀節雄監訳、”人工知能大辞典“、丸
善、(1991)に記載されているように、ELIZAなど
の多くの研究がなされている。On the other hand, regarding a natural language processing system for the purpose of dialogue between a computer and a human, Stuart C. Shap
Many studies have been conducted on ELIZA and others, as described in iro et al., translated by Setsuo Osuka, "A Dictionary of Artificial Intelligence", Maruzen, (1991).
【0005】従来の自然言語処理システムの多くは、構
文解析、意味解析を伴うため、処理が複雑であり、構文
や意味の解析処理が書き言葉を中心にしたモデルに基づ
くため、非文法的な発話、あるいは、断片的な発話への
対応が課題とされている。この点に関しては、熊本、
“自然言語対話システムにおける協調応答の生成”、人
工知能学会誌、Vol.14、No.1、pp.3-10(1999)に記載
されている。[0005] Many conventional natural language processing systems involve syntactic analysis and semantic analysis, so the processing is complex. Since the syntax and semantic analysis processing is based on a model centered on written words, non-grammatical utterances are used. Or, it is an issue to deal with fragmentary utterances. In this regard, Kumamoto,
“Generating Cooperative Responses in Natural Language Dialogue Systems”, Journal of the Japanese Society for Artificial Intelligence, Vol. 14, No. 1, pp. 3-10 (1999).
【0006】[0006]
【発明が解決しようとする課題】従来の映像データベー
スでは、検索システムに不慣れな利用者が検索を行う場
合に、検索語の入力や選択が容易ではないので、なかな
か希望する映像を得ることが難しいという問題点があ
る。この問題点を改良するため、画面に表示された分類
や情報を利用者が選択することにより検索条件を入力す
る映像データベースも提案されているが、情報が大量に
なると共に操作が煩雑化し、希望する情報に到達するま
でに相当の操作が必要となるという問題点ある。In a conventional video database, when a user unfamiliar with the search system performs a search, it is difficult to input or select a search word, and it is difficult to obtain a desired video. There is a problem. In order to improve this problem, a video database in which a user inputs search conditions by selecting a classification or information displayed on a screen has been proposed. However, a large amount of information is required, and the operation becomes complicated. There is a problem that a considerable operation is required until reaching the information to be performed.
【0007】また、従来の一般的な情報提示装置では、
利用者に対する情報の提示は個別の映像や文字を単独に
提示する形で行われ、映像、文字などを組み合わせて効
果的な演出を行うような情報の提示ができない。しか
し、映像だけで効果的な演出を得るためには多種多様な
映像を制作する必要があり、膨大なコストが発生するの
で実際的ではない。また、情報量が増加すると共に、提
示すべき情報を制作する作業量が増大するので、利用者
の希望や嗜好に応じた情報を提供することが困難にな
り、情報が固定化し、その結果として、利用者の興味を
失わせることになる。In a conventional general information presentation device,
Information is presented to the user in such a manner that individual images and characters are presented alone, and information that can be effectively rendered by combining images and characters cannot be presented. However, in order to obtain an effective effect using only images, it is necessary to produce a wide variety of images, and this is not practical because a huge cost is generated. Also, as the amount of information increases, the amount of work to produce the information to be presented increases, so it becomes difficult to provide information according to the user's wishes and preferences, and the information is fixed, and as a result, , Which would cause the user to lose interest.
【0008】したがって、本発明は、利用者による要求
情報の入力作業が簡便化され、利用者に対し効果的な情
報を効率的に提示することができる情報提示装置の提供
を目的とする。Accordingly, an object of the present invention is to provide an information presenting apparatus which simplifies a task of inputting required information by a user and can efficiently present effective information to the user.
【0009】また、本発明は、利用者による要求情報の
入力作業が簡便化され、利用者に対し効果的な情報を効
率的に提示することができる情報提示プログラムを記録
した記録媒体の提供を目的とする。Further, the present invention provides a recording medium in which an information presenting program is recorded in which an operation of inputting request information by a user is simplified and effective information can be efficiently presented to the user. Aim.
【0010】[0010]
【課題を解決するための手段】上記目的を達成するた
め、本発明の情報提示装置は、コンピュータとの対話に
よって、利用者が通常使用する言語による入力によって
情報を要求し、利用者から要求された情報が映像や文
字、音声などのわかり易い形で利用者に提示する。In order to achieve the above object, an information presenting apparatus of the present invention requests information by inputting in a language normally used by a user through dialogue with a computer, and requests the information by a user. The information is presented to the user in an easy-to-understand format such as video, text, and audio.
【0011】図1は本発明の原理構成図である。請求項
1に係る発明は、図1に示されるように、要求情報が自
然言語で表された質問文を受け、上記質問文を解析し、
上記解析された質問文に対応した応答制御情報を取得す
る要求情報入力手段10と、上記質問文に応答するた
め、上記取得された応答制御情報に従って、素材情報を
組み合わせて提示情報を制作する提示情報制作手段20
とを有することを特徴とする要求情報に応じた提示情報
を提供する情報提示装置1である。FIG. 1 is a diagram showing the principle of the present invention. As shown in FIG. 1, the invention according to claim 1 receives a question sentence in which request information is expressed in a natural language, analyzes the question sentence,
Request information input means 10 for acquiring response control information corresponding to the analyzed question sentence; and presentation for producing presentation information by combining material information according to the acquired response control information for responding to the question sentence. Information production means 20
An information presentation device 1 that provides presentation information according to request information, characterized by having:
【0012】図2は、本発明の情報提示装置1の要求情
報入力手段10の構成図である。請求項2に係る発明に
よれば、上記要求情報入力手段10は、上記質問文を受
け、上記質問文を形態素解析し、上記質問文に対応した
単語パターンを作成する入力文解析手段12と、上記要
求情報に対応したテンプレートパターンと、上記質問文
中に上記テンプレートパターンが出現したときに行われ
る処理を記述した会話制御スクリプトとを蓄積した会話
制御スクリプト蓄積手段11とを有し、上記入力文解析
手段12は、上記会話制御スクリプト蓄積手段11から
上記作成された単語パターンに対応したテンプレートパ
ターンを検出し、上記検出されたテンプレートパターン
に対応して蓄積された会話制御スクリプトを上記応答制
御情報として取得することを特徴とする。FIG. 2 is a configuration diagram of the request information input means 10 of the information presentation device 1 of the present invention. According to the invention of claim 2, the request information input means 10 receives the question sentence, morphologically analyzes the question sentence, and creates a word pattern corresponding to the question sentence, And a conversation control script storing means for storing a template pattern corresponding to the request information and a conversation control script describing a process to be performed when the template pattern appears in the question sentence. The means 12 detects a template pattern corresponding to the created word pattern from the conversation control script storage means 11, and acquires the conversation control script stored corresponding to the detected template pattern as the response control information. It is characterized by doing.
【0013】請求項3に係る発明は、要求情報に応じた
提示情報を提供する情報提示プログラムを記録したコン
ピュータが読み取り可能な記録媒体であって、上記プロ
グラムは、情報を要求する自然言語で表された質問文を
形態素解析させるプロセスと、上記形態素解析により得
られた上記質問文の単語から単語パターンを作成させる
プロセスと、予め蓄積されたテンプレートパターンの中
から上記単語パターンと一致するテンプレートパターン
を検出させるプロセスと、上記検出されたテンプレート
パターンに対応した蓄積され、上記テンプレートパター
ンが質問文中に出現したときに行われる処理を記述した
会話制御スクリプトを取得させるプロセスと、上記会話
制御スクリプトを質問文に対する返答文と、上記質問文
に対し提示さされる提示情報を指定する提示制御命令と
に分割させるプロセスと、上記提示制御命令に従って組
み合わされた素材情報と、上記返答文とを含む上記提示
情報を制作させるプロセスとを有することを特徴とす
る、記録媒体である。According to a third aspect of the present invention, there is provided a computer-readable recording medium recording an information presentation program for providing presentation information according to request information, wherein the program is expressed in a natural language requesting the information. A morphological analysis of the question sentence, a process of creating a word pattern from the words of the question sentence obtained by the morphological analysis, and a template pattern that matches the word pattern from template patterns stored in advance. A process for detecting, a process for acquiring a conversation control script that is stored corresponding to the detected template pattern and describes a process to be performed when the template pattern appears in the question message; And a response to the question Recording, comprising: a process of dividing presentation information into presentation control instructions specifying the presentation information; and a process of producing the presentation information including the material information combined in accordance with the presentation control instructions and the reply sentence. Medium.
【0014】請求項1乃至3に係る発明によれば、自然
言語対話による情報要求入力機能と、要求された情報に
関する返答文と、映像、音声、画像などの付加的な情報
とを統一的に提示制御する機能とが得られる。そのた
め、利用者は、情報提示装置との対話によって、必要と
する情報を利用者が通常使用している言葉を用いて入力
することが可能になり、利用者に対する応答は、映像や
文字、音声などを使用してわかり易い形で提示されるよ
うになる。According to the first to third aspects of the present invention, the information request input function by the natural language dialogue, the response sentence relating to the requested information, and the additional information such as video, audio, and image are unified. A function of controlling presentation is obtained. Therefore, the user can input necessary information by using a dialogue with the information presenting device by using words that the user normally uses, and the response to the user is performed by video, characters, audio, or the like. Will be presented in an easy-to-understand form.
【0015】上記本発明の特徴は、以下の説明によって
より明瞭になる。The features of the present invention will be more apparent from the following description.
【0016】図3は、本発明の情報提示装置1の提示情
報制作手段20の構成図である。上記提示情報制作手段
20は、上記素材情報を蓄積する情報蓄積手段22と、
上記要求情報入力手段10からの上記応答制御情報に従
って、上記情報蓄積手段22から上記素材情報を取り出
し、上記取り出された素材情報を組み合わせて上記提示
情報を制作し、上記質問文に対する返答文と共に出力す
る提示制御手段21とを有することを特徴とする。FIG. 3 is a block diagram of the presentation information producing means 20 of the information presentation device 1 of the present invention. The presentation information producing unit 20 includes an information storage unit 22 that stores the material information,
According to the response control information from the request information input means 10, the material information is extracted from the information storage means 22, and the extracted material information is combined to produce the presentation information, which is output together with a response to the question sentence. And a presentation control means 21 for performing the operation.
【0017】図4は、本発明の情報提示装置1によって
実施される情報提示方法の説明図である。この要求情報
に応じた提示情報を提供する情報提示方法は、情報を要
求する自然言語で表された質問文を入力するステップ1
と、上記入力された質問文を形態素解析するステップ2
と、上記形態素解析により得られた上記質問文の単語か
ら単語パターンを作成するステップ3と、予め蓄積され
たテンプレートパターンの中から上記単語パターンと一
致するテンプレートパターンを検出するステップ4と、
上記検出されたテンプレートパターンに対応した蓄積さ
れ、上記テンプレートパターンが質問文中に出現したと
きに行われる処理を記述した会話制御スクリプトを取得
するステップ5と、上記会話制御スクリプトを質問文に
対する返答文と、上記質問文に対し提示さされる提示情
報を指定する提示制御命令とに分割するステップ6と、
上記提示制御命令に従って素材情報を組み合わせて上記
提示情報を制作し、上記返答文と共に出力するステップ
7とを有することを特徴とする。FIG. 4 is an explanatory diagram of an information presentation method implemented by the information presentation device 1 of the present invention. The information presentation method for providing presentation information according to the request information includes a step 1 of inputting a question sentence expressed in a natural language requesting the information.
And a step 2 for morphologically analyzing the input question sentence
Step 3 of creating a word pattern from the words of the question sentence obtained by the morphological analysis, Step 4 of detecting a template pattern that matches the word pattern from template patterns stored in advance,
Acquiring a conversation control script corresponding to the detected template pattern and describing a process to be performed when the template pattern appears in the question message; and 5; Step 6 of dividing the information into presentation control instructions that specify presentation information to be presented in response to the question sentence;
Step 7 of producing the presentation information by combining the material information in accordance with the presentation control command and outputting the presentation information together with the reply sentence.
【0018】図5は、本発明の情報提示装置1を含む情
報提示システムの構成図である。本情報提示システム
は、音声を入力するマイク81、上記マイク81に接続
され、入力された音声を認識し文字列データを生成する
音声認識装置82及び文字列データを直接入力できる補
助入力装置83を有し、質問文を入力する入力装置8
と、映像、画像及び文字などの表示情報を表示する表示
装置91、文字列データを受け、音声信号に変換する音
声合成器92及び上記音声合成器に接続され、上記音声
信号を音声として出力するスピーカー93を有する出力
装置9と、上記入力装置8及び上記出力装置9に接続さ
れ、上記入力装置8から受け取った文字列データによっ
て表された要求情報に対応した提示情報を制作し、上記
制作された提示情報を上記出力装置9に供給する情報提
示装置1とを含む情報提示システムであって、上記情報
提示装置1は、上記要求情報に対応したテンプレートパ
ターンと、上記質問文中に上記テンプレートパターンが
出現したときに行われる処理を記述した会話制御スクリ
プトとを蓄積した会話制御スクリプト蓄積手段11と、
上記入力装置8から上記要求情報が自然言語で表された
質問文を受け、上記質問文を形態素解析し、上記質問文
に対応した単語パターンを作成し、上記会話制御スクリ
プト蓄積手段11から上記作成された単語パターンに対
応したテンプレートパターンを検出し、上記検出された
テンプレートパターンに対応して蓄積された会話制御ス
クリプトを取得する入力文解析手段12と、視聴可能な
素材情報を蓄積する情報蓄積手段22と、上記入力文解
析手段12及び上記情報蓄積手段22に接続され、上記
入力文解析手段12からの上記会話制御スクリプトに従
って、上記情報蓄積手段22から上記素材情報を取り出
し、上記取り出された素材情報を組み合わせて上記提示
情報を制作し、上記質問文に対する返答文と共に上記提
示情報を上記出力装置に供給する提示制御手段21とを
有することを特徴とする。FIG. 5 is a configuration diagram of an information presentation system including the information presentation device 1 of the present invention. The information presentation system includes a microphone 81 for inputting voice, a voice recognition device 82 connected to the microphone 81 for recognizing the input voice and generating character string data, and an auxiliary input device 83 for directly inputting character string data. Input device 8 for inputting a question sentence
And a display device 91 for displaying display information such as video, images and characters, a speech synthesizer 92 for receiving and converting character string data into an audio signal, and the audio synthesizer, and outputting the audio signal as audio. An output device 9 having a speaker 93, and the input device 8 and the presentation device are connected to the output device 9 and produce presentation information corresponding to the request information represented by the character string data received from the input device 8; An information presentation device that supplies the presentation information to the output device 9, wherein the information presentation device 1 includes a template pattern corresponding to the request information and a template pattern in the question text. Conversation control script storage means 11 for storing a conversation control script describing processing to be performed when the message appears,
A question sentence in which the request information is expressed in a natural language is received from the input device 8, a morphological analysis is performed on the question sentence, a word pattern corresponding to the question sentence is created, and the word pattern is created from the conversation control script storage unit 11. Input sentence analyzing means 12 for detecting a template pattern corresponding to the detected word pattern and obtaining a conversation control script stored corresponding to the detected template pattern, and an information storing means for storing viewable material information 22 and connected to the input sentence analysis means 12 and the information storage means 22, and extracts the material information from the information storage means 22 according to the conversation control script from the input sentence analysis means 12. Combine the information to produce the presentation information and output the presentation information together with the response to the question And having a presentation control unit 21 supplies the location.
【0019】本情報提示システムは、要求情報入力の際
に、利用者の要求をシステムに入力する装置として、自
然言語を処理できる入力装置を具備しているので、利用
者は、普段使用している言語を用いて質問文をシステム
に与えることができる。システムは、質問文を解析し
て、利用者が要求する情報のキーワードや制御命令を抽
出し、提示情報を制作するための制御を行える。これに
より、利用者は、情報検索や情報提示要求の入力のよう
なシステムの操作を容易に行えるようになる。The information presentation system includes an input device capable of processing a natural language as a device for inputting a user's request to the system when inputting request information. Questions can be given to the system using any language. The system analyzes the question sentence, extracts keywords and control commands of information requested by the user, and can perform control for producing presentation information. As a result, the user can easily perform system operations such as information search and input of an information presentation request.
【0020】また、提示情報の制作の際に、映像、音
声、文字などの素材を独立して蓄積しておき、要求情報
に応じてそれらの情報を組み合わせて提示する機能を付
加することで、単一な素材からの情報よりもわかり易
く、効果的な情報の提示を行えるようになる。また、提
示制御を、質問文の解析によって得られた情報に基づい
てきめ細かく行うことによって、たとえば、提示情報を
個人化することも可能である。In addition, when producing presentation information, a function of separately accumulating materials such as video, audio, and characters, and presenting such information in combination according to request information is added. It is easier to understand than information from a single material, and it is possible to present effective information. Further, by performing the presentation control in detail based on the information obtained by analyzing the question text, it is possible to personalize the presentation information, for example.
【0021】[0021]
【発明の実施の形態】以下、本発明の実施例について詳
細に説明する。DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of the present invention will be described in detail.
【0022】図6は、本発明の第1実施例による情報提
示システムの構成図である。情報提示システムは、入力
装置8と、出力装置9と、情報提示装置1とにより構成
される。入力装置9及び出力装置9は、それぞれ、種々
の形態で情報提示装置1に接続され得る。この接続形態
として、たとえば、バス結合、シリアルラインによる接
続、LAN接続、インターネットのような通信網を介した
接続などが考えられる。FIG. 6 is a configuration diagram of the information presentation system according to the first embodiment of the present invention. The information presentation system includes an input device 8, an output device 9, and the information presentation device 1. The input device 9 and the output device 9 can be connected to the information presentation device 1 in various forms, respectively. As this connection form, for example, a bus connection, a connection by a serial line, a LAN connection, a connection via a communication network such as the Internet, and the like are considered.
【0023】情報提示装置1は、会話制御スクリプト蓄
積部11と、入力文解析部12と、提示制御部21と、
情報蓄積部22とを有する。The information presentation device 1 includes a conversation control script storage unit 11, an input sentence analysis unit 12, a presentation control unit 21,
And an information storage unit 22.
【0024】入力解析部12は、入力装置8に接続され
る。入力装置8は、マイク81と音声認識装置82と、
マウス・キーボードのような補助入力装置83とを含
み、利用者が要求を音声又はテキストなどの形でシステ
ムに入力するために使用される。入力解析部12は、会
話制御スクリプト蓄積部11に接続され、会話制御スク
リプト蓄積部11に随時蓄積された制御スクリプトを読
み出すことができる。The input analyzer 12 is connected to the input device 8. The input device 8 includes a microphone 81, a voice recognition device 82,
And an auxiliary input device 83 such as a mouse / keyboard, which is used by a user to input a request into the system in the form of voice or text. The input analysis unit 12 is connected to the conversation control script storage unit 11 and can read out the control script stored in the conversation control script storage unit 11 as needed.
【0025】情報蓄積部22は、提示するための各種の
情報を蓄積する。提示制御部22は、制御スクリプトに
記述された命令に従って、蓄積された各種の情報を効果
的に提示する。The information storage section 22 stores various information to be presented. The presentation control unit 22 effectively presents various types of accumulated information according to instructions described in the control script.
【0026】提示制御部21には、実際に利用者に情報
を提示するための出力装置9が接続され、出力装置9
は、音声合成装置92と、スピーカー93と、表示装置
91とを有する。An output device 9 for actually presenting information to a user is connected to the presentation control unit 21.
Has a speech synthesizer 92, a speaker 93, and a display device 91.
【0027】情報提示装置1の動作について、図7に示
された本発明の第1実施例による入力文解析部の動作フ
ローチャートを参照して更に詳細に説明する。The operation of the information presenting apparatus 1 will be described in more detail with reference to the operation flowchart of the input sentence analyzing unit according to the first embodiment of the present invention shown in FIG.
【0028】マイク81を通して入力された利用者の音
声は、音声認識装置82によって文字列データに変換さ
れる。たとえば、 ひまわりの映像を探してください (a) という質問文が入力された場合を考える。The user's voice input through the microphone 81 is converted by the voice recognition device 82 into character string data. For example, consider a case where a question sentence "Please search for a sunflower image (a)" is input.
【0029】入力文解析部12は、この文字列データを
受け取り(ステップ11)、形態素解析し(ステップ1
2)、単語レベルの単語パターンを生成する(ステップ
13)。なお、単語パターンを生成する際には、形態素
解析で得られた単語を基本形に変換しておく。たとえ
ば、文字列データ(a)に対して得られる単語パターン
は、 ひまわり の 映像 を 探す ください (b) である。[探して]という単語は、「探す」という基本
形に変換されている。The input sentence analysis unit 12 receives the character string data (step 11) and performs morphological analysis (step 1).
2) Generate a word pattern at the word level (step 13). When generating a word pattern, words obtained by morphological analysis are converted into basic forms. For example, the word pattern obtained for the character string data (a) is to search for a sunflower image (b). The word "search" has been converted to the basic form "search".
【0030】次に、入力文解析部12は、単語の出現パ
ターンが記述されている会話制御スクリプト蓄積部11
からテンプレートパターンを読み出し、単語パターンが
読み出したテンプレートパターンと一致するかどうかを
判定する(ステップ14)。Next, the input sentence analyzing unit 12 stores the conversation control script storing unit 11 in which the word appearance pattern is described.
, And determines whether the word pattern matches the read template pattern (step 14).
【0031】ここで、会話制御スクリプト蓄積部11に
蓄積されている制御スクリプトについて説明する。会話
制御スクリプト蓄積部11は、入力文解析部12が単語
パターンとの一致を判定するために使用されるテンプレ
ートパターンと、その対応した(会話)制御スクリプト
を蓄積する。Here, the control script stored in the conversation control script storage unit 11 will be described. The conversation control script storage unit 11 stores a template pattern used by the input sentence analysis unit 12 to determine a match with a word pattern, and a corresponding (conversation) control script.
【0032】テンプレートパターンは、たとえば、 * ひまわり * [探す|見せる] * (c) のような形式の単語列である。記号*は、任意の単語が
当てはまることを表し、[探す|見せる]は、「探す」
又は「見せる」のいずれかを意味する。The template pattern is, for example, a word string in the form of * sunflower * [search | show] * (c). The symbol * indicates that an arbitrary word applies, and [Search | Show] means "Search"
Or "show".
【0033】このテンプレートパターンは、「ひまわ
り」と「探す」、又は、「ひまわり」と「見せる」がこ
の順番で出現するパターンを表している。This template pattern represents a pattern in which "sunflower" and "search" or "sunflower" and "show" appear in this order.
【0034】一方、テンプレートパターンに対応して蓄
積されている制御スクリプトは、質問文中にテンプレー
トパターンと一致している単語パターンが出現した場合
に、情報提示装置1において行われる処理を記述した命
令である。より具体的には、制御スクリプトは、質問文
に対して提示される返答文と、この返答文と同時に提示
されるべき情報及び提示制御部のための制御命令を含む
提示制御命令とにより構成される。たとえば、質問中に
含まれる単語パターンが、テンプレートパターン(c)
と一致した場合、返答文として、 ひまわりの映像はこれだけありました (d) が蓄積され、提示制御命令として、 <Search Video ひまわり;Explain ひまわり> (e) が蓄積されている。これは、「ひまわり」に関する映像
と説明文を検索させる命令である。On the other hand, the control script stored corresponding to the template pattern is an instruction that describes a process to be performed in the information presentation device 1 when a word pattern that matches the template pattern appears in a question sentence. is there. More specifically, the control script is composed of a response sentence presented to the question sentence, and a presentation control instruction including information to be presented simultaneously with the response sentence and a control instruction for the presentation control unit. You. For example, if the word pattern included in the question is a template pattern (c)
If it matches, the answer sentence contains only the sunflower video (d), and the presentation control instruction <Search Video sunflower; Explain sunflower> (e). This is an instruction to search for a video and a description about “sunflower”.
【0035】入力文解析部12は、ステップ14におい
て、単語パターンがテンプレートパターンと一致した場
合、たとえば、上記の例では、単語パターン(b)「ひ
まわり の 映像 を 探す ください」がテンプレー
トパターン(c)「* ひまわり * [探す|見せ
る] *」と一致した場合、入力文解析部12は、一致
したテンプレートパターンに対応した制御スクリプト、
たとえば、返答文(d)及び提示制御命令(e)を含む
制御スクリプトを取得し(ステップ15)、処理を終了
する。If the word pattern matches the template pattern in step 14, for example, in the above example, the input sentence analysis unit 12 converts the word pattern (b) “Please search for sunflower video” into the template pattern (c). If it matches “* sunflower * [search | show] *”, the input sentence analysis unit 12 outputs a control script corresponding to the matched template pattern,
For example, a control script including a reply sentence (d) and a presentation control command (e) is obtained (step 15), and the process is terminated.
【0036】一致しない場合、入力部解析部12は、会
話制御スクリプト蓄積部11にまだ読み出していないテ
ンプレートパターンがあるかどうかを判定する(ステッ
プ16)。未だ読み出していないテンプレートパターン
が存在する場合、処理はステップ14に戻り、更なるテ
ンプレートパターンを読み出し、単語パターンと一致し
ているかどうかが判定される。If they do not match, the input unit analysis unit 12 determines whether there is a template pattern that has not been read yet in the conversation control script storage unit 11 (step 16). If there is a template pattern that has not been read yet, the process returns to step 14 to read another template pattern and determine whether or not it matches the word pattern.
【0037】全てのテンプレートパターンが読み出され
た場合、単語パターンと一致したテンプレートパターン
は存在しないので、入力部解析部12は、質問文に対応
したテンプレートパターンが存在しないこと、すなわ
ち、質問文に対応した提示情報が存在しないことを提示
するための制御スクリプトを取得して(ステップ1
7)、処理を終了する。When all the template patterns have been read, there is no template pattern that matches the word pattern, so the input unit analysis unit 12 determines that there is no template pattern corresponding to the question sentence, that is, Acquire a control script for presenting that there is no corresponding presentation information (step 1
7), the process ends.
【0038】尚、上記実施例の説明では、単語パターン
と最初に一致したテンプレートパターンが選択されてい
るが、テンプレートパターンに重要度の属性を付加し、
全てのテンプレートパターンに対し一致するかどうかを
判定し、一致したテンプレートパターンの中で重要度の
最も高いテンプレートパネルを選択するように構成する
ことが可能である。In the description of the above embodiment, the template pattern that first matches the word pattern is selected. However, an attribute of importance is added to the template pattern.
It is possible to determine whether or not all template patterns match, and select the template panel with the highest importance among the matched template patterns.
【0039】提示制御部21は、入力文解析部12から
制御スクリプトを取得し、出力装置に対し提示情報を供
給する。図8は本発明の第1実施例による提示制御部2
1の動作フローチャートである。以下、図8を参照し
て、提示制御部21の動作を説明する。The presentation control unit 21 acquires a control script from the input sentence analysis unit 12 and supplies presentation information to an output device. FIG. 8 shows a presentation control unit 2 according to the first embodiment of the present invention.
3 is an operation flowchart of FIG. Hereinafter, the operation of the presentation control unit 21 will be described with reference to FIG.
【0040】提示制御部21は、入力文解析部12から
返答文及び提示制御命令を含む制御スクリプトを受ける
(ステップ21)。次に、提示制御部21は、制御スク
リプトを返答文と提示制御命令、たとえば、返答文
(d)「ひまわりの映像はこれだけありました。」と提
示制御命令(e)「<Search Video ひまわり;Expla
inひまわり>」とに分割する(ステップ22)。The presentation control unit 21 receives a response script and a control script including a presentation control command from the input sentence analysis unit 12 (step 21). Next, the presentation control unit 21 converts the control script into a response sentence and a presentation control instruction, for example, a response sentence (d) "This is the only image of the sunflower" and a presentation control instruction (e) "<Search Video sunflower; Expla
in sunflower>"(step 22).
【0041】提示制御部21は、返答文を音声メッセー
ジ及び画面表示メッセージの形式で利用者に提示するた
め、返答文を出力装置9の音声合成器92及び表示装置
91に与える(ステップ23)。The presentation control section 21 gives the reply message to the voice synthesizer 92 and the display device 91 of the output device 9 in order to present the reply message to the user in the form of a voice message and a screen display message (step 23).
【0042】提示制御部21は、提示制御命令を解析
し、提示すべきデータのラベルと、そのデータを提示す
るタイミング、位置などを抽出し、タイミング及び位置
などの制御情報を出力装置9の表示装置91に渡す(ス
テップ24)。The presentation control unit 21 analyzes the presentation control command, extracts the label of the data to be presented, and the timing and position at which the data is presented, and displays the control information such as the timing and the position on the output device 9. It is passed to the device 91 (step 24).
【0043】提示命令(e)において、「search」は制
御命令であり、「Video ひまわり」は、ひまわりとい
う情報ラベルをもつ映像データを意味し、「Explain
ひまわり」は、ひまわりという情報ラベルをもつ説明文
(文字データ)を意味する。その他、提示命令には、デ
ータの提示タイミングや画面上での提示位置を指定する
ための命令を付加してもよい。In the presentation command (e), "search" is a control command, "Video sunflower" means video data having an information label of sunflower, and "Explain".
"Sunflower" means an explanatory note (character data) having an information label of sunflower. In addition, a command for designating the data presentation timing and the presentation position on the screen may be added to the presentation command.
【0044】次に、提示制御部21は、提示データを表
示装置91を介して利用者に提示するため、提示制御命
令に記述された提示すべき情報のラベルを用いて情報蓄
積部22から映像データ、画像データ、或いは、文字デ
ータを読み出し、表示装置91に渡す(ステップ2
5)。Next, in order to present the presentation data to the user via the display device 91, the presentation control unit 21 uses the label of the information to be presented described in the presentation control command to transmit the image data from the information storage unit 22. The data, image data, or character data is read and passed to the display device 91 (step 2).
5).
【0045】上記説明では、ステップ23とステップ2
4を順次に処理しているが、ステップ23とステップ2
4は同時、又は、ステップ24をステップ23よりも前
に処理しても構わない。In the above description, step 23 and step 2
4 are processed sequentially, but steps 23 and 2
4 may be performed simultaneously or step 24 may be performed before step 23.
【0046】このように、提示制御部21は、制御スク
リプトを返答文と提示制御命令に分割し、返答文を音声
合成器と表示装置を用いて利用者に対し画面と音声で提
示すると共に、提示制御命令に記述された提示すべき情
報のラベルを用いて情報蓄積部22から映像や画像、文
字情報を読み出し、表示装置91を通じて利用者に提示
する。As described above, the presentation control unit 21 divides the control script into a reply sentence and a presentation control command, and presents the reply sentence to the user using the speech synthesizer and the display device in a screen and voice. The video, image, and character information are read from the information storage unit 22 using the label of the information to be presented described in the presentation control command, and presented to the user through the display device 91.
【0047】情報蓄積部22には、利用者からの問い合
わせなどに答えるため、予め想定された問い合わせ分野
(たとえば、動物や植物の生態など)の映像、音声、画
像、文字などがラベル付きの取り出しやすい形で蓄積さ
れている。The information storage unit 22 retrieves, with a label, video, audio, image, text, etc. of a presumed inquiry field (for example, ecology of animals and plants) in order to answer an inquiry from a user. It is stored in an easy form.
【0048】たとえば、情報蓄積部22が、 映像データ:ひまわり 映像データ:あさがお 映像データ:ゆり 画像データ:ひまわり 画像データ:あさがお 画像データ:ゆり 文字データ:ひまわり(説明文) 文字データ:あさがお(説明文) 文字データ:ゆり(説明文) を蓄積している場合を考える。このとき、提示制御部2
1が提示制御命令(e)「<Search Video ひまわ
り;Explain ひまわり>」を実行した場合、 映像データ:ひまわり 文字データ:ひまわり が提示情報として取得される。For example, when the information storage unit 22 stores video data: sunflower video data: Asagao video data: Yuri image data: Sunflower image data: Asagao image data: Yuri Character data: Sunflower (explanatory text) Character data: Asagao (explanatory text) ) Character data: Consider the case where lilies (explanatory text) are stored. At this time, the presentation control unit 2
When 1 executes the presentation control instruction (e) “<Search Video sunflower; Explain sunflower>”, video data: sunflower character data: sunflower is acquired as presentation information.
【0049】尚、上記本発明の第1実施例では、自然言
語として日本語を例として説明を行ったが、本発明は使
用される言語によって制限されない。たとえば、音声認
識装置及び音声合成器が処理する言語と、入力文解析部
の形態素解析処理などの自然言語処理部分で扱われる言
語と、提示情報を表記する言語を英語などの日本語以外
の言語に変更することによって、種々の言語に対応した
情報提示装置、情報提示システムを構成することができ
る。Although the first embodiment of the present invention has been described using Japanese as an example of the natural language, the present invention is not limited by the language used. For example, a language processed by a speech recognition device and a speech synthesizer, a language handled in a natural language processing part such as a morphological analysis process of an input sentence analysis unit, and a language for presenting presentation information in a language other than Japanese such as English By changing to, the information presentation device and the information presentation system corresponding to various languages can be configured.
【0050】図9は、本発明の第2実施例による情報提
示システムの構成図である。本発明の第2実施例は、第
1実施例の会話制御スクリプト蓄積部11が置き換えら
れている点で第1実施例と相違する。FIG. 9 is a configuration diagram of an information presentation system according to a second embodiment of the present invention. The second embodiment of the present invention differs from the first embodiment in that the conversation control script storage unit 11 of the first embodiment is replaced.
【0051】本発明の第2実施例では、会話制御スクリ
プトが質問応答の分野に応じて複数種類用意される。た
とえば、会話制御スクリプトを、動物、植物の分野で分
け、さらに、動物の分野を恐竜、哺乳類、爬虫類等に分
けて別々に記述する。そして、質問応答の分野に応じて
会話制御スクリプトを切り替えて利用するように会話制
御スクリプト蓄積部31を構成することによって、会話
制御スクリプトの個々のファイルを小さくすることによ
って検索のスピードを高めると共に、他分野の同音異義
語を取得するような誤った処理が回避される。In the second embodiment of the present invention, a plurality of types of conversation control scripts are prepared according to the question answering field. For example, the conversation control script is divided into the fields of animals and plants, and the field of animals is further divided into dinosaurs, mammals, reptiles, and the like, and separately described. Then, by configuring the conversation control script storage unit 31 to switch and use the conversation control script according to the field of the question and answer, the search speed can be increased by reducing the size of each file of the conversation control script, Erroneous processing such as obtaining homonyms in other fields is avoided.
【0052】図10は、本発明の第3実施例による情報
提示システムの構成図である。本発明の第3実施例で
は、利用者の希望、嗜好、或いは、年齢などの利用者情
報に応じて、利用者に提示される情報を選別或いは制限
する情報提示システムが実現される。FIG. 10 is a configuration diagram of an information presentation system according to a third embodiment of the present invention. In the third embodiment of the present invention, an information presentation system that selects or restricts information presented to a user according to user information such as the user's desire, preference, or age is realized.
【0053】そのため、利用者が情報の入力を開始する
ときに、性別、年齢、或いは、嗜好などの利用者情報を
入力する。利用者情報は、入力文解析部12で解析され
た後、利用者情報蓄積部31に蓄積される。Therefore, when the user starts inputting information, the user inputs user information such as gender, age, or preference. After the user information is analyzed by the input sentence analysis unit 12, the user information is stored in the user information storage unit 31.
【0054】会話制御スクリプト蓄積部11では、会話
制御スクリプトに、応答文や提示情報を利用者情報に応
じて選択して出力する制御命令を付加する。そして、提
示制御部21は、会話制御スクリプト蓄積部11から読
み出した制御スクリプトに利用者情報に応じた選択を行
うべき命令が付加されているときには、利用者情報蓄積
部31から現在の利用者の利用者情報を取得して、提示
情報に制限を加えるように構成される。The conversation control script storage unit 11 adds, to the conversation control script, a control command for selecting and outputting a response sentence or presentation information according to user information. Then, when an instruction to make a selection according to the user information is added to the control script read from the conversation control script storage unit 11, the presentation control unit 21 reads the current user's current user information from the user information storage unit 31. It is configured to acquire user information and to limit the presentation information.
【0055】これにより、利用者の希望に合致した提示
情報の提供や、年少者に対する提示情報の制限を行うこ
とができる。As a result, it is possible to provide presentation information that meets the user's wishes and to limit the presentation information to young people.
【0056】図11は、本発明の第4実施例による映像
検索システムの構成図である。以下、図11を参照し
て、映像検索システムの実施例について説明する。映像
検索システムは、概略的に、自然言語処理部100と、
情報提示部200と、映像データベース部300とによ
り構成される。利用者は、キーボード/マウス230及
び音声認識/合成部240を使って、ウェブ・ブラウザ
220を介してウェブ・サーバー210に質問を送り、
自然言語処理プログラム110によって質問が解析さ
れ、その質問に対する返答と映像がCGIプログラムなど
を利用して提示される。映像検索システムが提示するコ
ンテンツ群(映像、静止画)などは、ローカル・ウェブ
・サーバー210の映像データベース部300に蓄積さ
れ、利用者からの要求に応じて提示される。また、エー
ジェント、たとえば、MS Agentを用いることによって情
報の提示がより効果的に行われる。FIG. 11 is a block diagram of a video search system according to a fourth embodiment of the present invention. Hereinafter, an embodiment of the video search system will be described with reference to FIG. The video search system generally includes a natural language processing unit 100,
It comprises an information presentation unit 200 and a video database unit 300. The user sends a question to the web server 210 via the web browser 220 using the keyboard / mouse 230 and the voice recognition / synthesis unit 240,
The question is analyzed by the natural language processing program 110, and a response to the question and a video are presented using a CGI program or the like. The content group (video, still image) and the like presented by the video search system are stored in the video database unit 300 of the local web server 210 and presented in response to a request from a user. In addition, the use of an agent, for example, MS Agent, enables more effective presentation of information.
【0057】なお、ウェブ・ブラウザ220とウェブ・
サーバー210は、イーサネット(登録商標)、インタ
ーネットなど種々の形態で接続可能であり、本発明は、
接続形態によって限定されない。Note that the web browser 220 and the web browser 220
The server 210 can be connected in various forms such as Ethernet (registered trademark) and the Internet.
It is not limited by the connection form.
【0058】本システムの自然言語処理システムは、上
述のELIZAのパターンマッチング手法を拡張したパター
ンマッチングを採用する。すなわち、会話文中の語の出
現パターンをいくつかのメタキャラクタと共に指定し、
入力会話文とのマッチングにより会話処理を進める。ま
た、バッファメモリを使用した変数による条件制御が可
能であり、より高度な会話パターンが構成できる。The natural language processing system of the present system employs pattern matching which is an extension of the above-described ELIZA pattern matching method. That is, the appearance pattern of a word in a conversation sentence is specified along with some metacharacters,
Conversation processing is advanced by matching with the input conversation sentence. Further, it is possible to control conditions using variables using a buffer memory, and a more advanced conversation pattern can be configured.
【0059】これにより、本システムの自然言語処理シ
ステムは、話し言葉の特徴である非文法的な文章や、語
の欠落、断片的な語による会話などをある程度許容でき
るようになり、情報入力時に、特に音声認識による質問
の入力を行う際の非文法的な入力に対する頑強性と速い
レスポンスとが実現される点を特徴とする。As a result, the natural language processing system of the present system can tolerate to some extent non-grammatical sentences that are features of spoken words, missing words, and conversations using fragmentary words. Particularly, it is characterized in that robustness and fast response to nongrammatical input when a question is input by voice recognition are realized.
【0060】また、出現パターンは、簡単なテンプレー
トにより記述できるので、会話データの記述も容易に行
える。Further, since the appearance pattern can be described using a simple template, conversation data can be easily described.
【0061】以下、自然言語処理プログラム111につ
いて詳細に説明する。本実施例の自然言語対話処理プロ
グラムは、FIPA実証プロジェクトで実験を行ったエージ
ェントテレビ(Audio-Visual Entertainment and Broadc
asting: AVEB)で使用される対話用自然言語処理プログ
ラム(以下NLIと略記する)を日本語化したシステムで
ある。エージェントテレビについては、村崎ほか、“エ
ージェントを応用した次世代テレビエンターテイメント
システム”、電子情報通信学会技術報告、OFS2000-23、
(2000)に記載されている。Hereinafter, the natural language processing program 111 will be described in detail. The natural language dialogue processing program of this embodiment is the agent TV (Audio-Visual Entertainment and Broadc
This is a Japanese language system of a natural language processing program for conversation (hereinafter abbreviated as NLI) used in asting: AVEB). Regarding agent TV, Murasaki et al., “Next-generation TV entertainment system using agents”, IEICE Technical Report, OFS2000-23,
(2000).
【0062】NLIは、エージェントテレビにおいて、ユ
ーザーとの対話を通して、ユーザーのプロファイル(名
前や嗜好など)の獲得とシステムの制御を行うものであ
る。本実施例では、このNLIを応用して、映像検索対象
及び問い合わせ情報の抽出を行う。The NLI obtains a user's profile (name, preference, etc.) and controls the system through dialogue with the user on the agent television. In the present embodiment, video search targets and inquiry information are extracted by applying this NLI.
【0063】NLIでの言語処理は、一般の対話処理シス
テムとは異なり、形態素解析レベルにとどめられてい
る。そして、抽出された形態素群と設定したパターンと
のマッチングを取り、マッチした場合に、決められた処
理(返答など)を行う。The language processing in NLI is different from a general interactive processing system and is limited to a morphological analysis level. Then, matching is performed between the extracted morpheme group and the set pattern, and when a match is found, predetermined processing (such as a response) is performed.
【0064】語の表面的な分析により、検索語を抽出す
るアプローチ、たとえば、高野ほか、“自然言語を用い
た対話形式による文書検索における辞典情報の利用”、
電子情報通信学会技術報告、NLC2000-7、pp49−54、(20
00)に記載されているアプローチは、自然言語による利
用者からの入力が検索条件や要求を的確に表現していな
い場合に適するものと考えられる。Approaches to extract search terms by surface analysis of words, for example, Takano et al., “Use of Dictionary Information in Interactive Document Search Using Natural Language”
IEICE Technical Report, NLC2000-7, pp49-54, (20
The approach described in (00) is considered to be suitable when the input from the user in the natural language does not accurately express the search condition or the request.
【0065】形態素レベルに分割した単語とそれらの出
現パターンを抽象的に表現するメタキャラクタとを含む
文字列でテンプレートを定義する。そして、利用者から
の問い合わせ文(質問文)と、定義されたテンプレート
とが一致するかどうかを比較し、一致した場合に、テン
プレートに関連して記述されている動作を実行する。こ
のテンプレートを複数集めたものがテンプレート辞書フ
ァイル121、122である。テンプレート辞書ファイ
ルは、対話処理の知識情報に相当する。テンプレート辞
書ファイルは、対話のテーマによって切り替えて使用で
きるように複数のテンプレート辞書ファイルを設けても
よい。さらに、同義語辞書124、単語辞書123、変
数定義ファイル125などを使用して対話処理が制御さ
れる。A template is defined by a character string including words divided into morpheme levels and metacharacters that abstractly represent their appearance patterns. Then, an inquiry sent from the user (question sentence) is compared with the defined template to determine whether they match, and if they match, the operation described in relation to the template is executed. A collection of a plurality of these templates is the template dictionary files 121 and 122. The template dictionary file corresponds to the knowledge information of the interactive processing. A plurality of template dictionary files may be provided so that the template dictionary files can be switched and used depending on the theme of the conversation. Further, the interactive processing is controlled using the synonym dictionary 124, the word dictionary 123, the variable definition file 125, and the like.
【0066】次に、対話処理を行うためNLIによって使
用される各ファイルについて詳述する。Next, each file used by the NLI for performing the interactive processing will be described in detail.
【0067】(1)テンプレート辞書ファイル テンプレート内で用いられる規則要素には、以下の(i)
乃至(iv)の要素がある。また、図12は、テンプレート
パターンの構成を説明する図である。要素(i)乃至(iv)
を利用することにより図12に示されたテンプレートパ
ターンの構成を実現することができる。(1) Template dictionary file The rule elements used in the template include the following (i)
To (iv). FIG. 12 is a diagram illustrating the configuration of the template pattern. Elements (i) to (iv)
Can be used to realize the configuration of the template pattern shown in FIG.
【0068】(i)パターン 図13はメタキャラクタを説明する図表である。この図
表に記載されたメタキャラクタを組み合わせることによ
りテンプレートパターンが構成される。このテンプレー
ト内で使用される語も形態素解析され、問い合わせ文の
形態素解析後のパターンと比較される。(I) Pattern FIG. 13 is a table for explaining metacharacters. A template pattern is formed by combining the metacharacters described in this chart. The words used in this template are also morphologically analyzed and compared with the morphologically analyzed pattern of the query sentence.
【0069】(ii)変数 これは、バッファメモリを使用する変数を表す。以下に
説明するコンディションとアクションで使用される。(Ii) Variable This represents a variable that uses the buffer memory. Used in the conditions and actions described below.
【0070】(iii)コンディション 条件式の左辺と右辺を比較し、真であれば、アクション
を実行する。条件式には、等号==と不等号!=とが使
用される。また、論理演算and、orを組み合わせて、複
数の条件を記述することが可能である。 (例) c.abc==value (iv)アクション 左辺の変数に右辺の値を代入する。 (例) a.abc=値 特殊なアクションとしてgotoとcontorolがある。(Iii) Condition The left and right sides of the conditional expression are compared, and if true, the action is executed. In the conditional expression, equal sign == and inequality sign! = And are used. A plurality of conditions can be described by combining logical operations and and or. (Example) c.abc == value (iv) Action Assign the value on the right side to the variable on the left side. (Example) a.abc = value Goto and control are special actions.
【0071】gotoは、図14のgotoによるテンプレート
切り替えの説明図に示されるように、テンプレート辞書
ファイルを切り替えるため複数のテンプレート辞書フィ
ル間で移動を行うものである。As shown in the explanatory diagram of template switching by goto in FIG. 14, goto moves between a plurality of template dictionary files to switch template dictionary files.
【0072】controlは、他のプログラムからNLI処理系
が呼び出されている場合に、contorolに代入された文字
列をプログラムに送信するアクションである。Control is an action for transmitting a character string assigned to control to a program when the NLI processing system is called from another program.
【0073】(v)重要度 テンプレートパターンの重要度を数値で記述する。数値
が大きいほど重要度が高く、同じテンプレートでも優先
的に一致する。重要度が記述されていない場合は、0と
して扱う。また、複数のパターンがマッチした場合、パ
ターン長が長い方を優先する。 (例) w.7 (iv)返答文(と制御) これは、パターンが一致したときに返される文字列であ
り、システムが答える文章となる。また、後述の情報提
示部に対する映像提示やCGキャラクターの動作制御コマ
ンドを含めることができる。 (例)回答文<play Video video1 100 200 400 200> (2)単語辞書ファイル テンプレート内で多くの語を並列的に記述するのを防ぐ
ため、語群を@WordFileNameで示す単語辞書ファイル内
に以下のように記述することができる。 (例) ファイル名:fishName アユ サケ マス テンプレート内では、その語群を代表するものてして@W
ordFileNameで指定する。(V) Importance The importance of the template pattern is described numerically. The higher the numerical value, the higher the importance, and the same template is preferentially matched. If the importance is not described, it is treated as 0. If a plurality of patterns match, the one with the longer pattern length is prioritized. (Example) w.7 (iv) Response sentence (and control) This is the character string returned when the pattern matches, and is the sentence that the system answers. In addition, it can include a video presentation to an information presentation unit described later and an operation control command of a CG character. (Example) Answer sentence <play Video video1 100 200 400 200> (2) Word dictionary file In order to prevent writing many words in the template in parallel, the word group is written in the word dictionary file indicated by @WordFileName as follows. Can be described as follows. (Example) File name: fishName In the Ayu salmon trout template, the word group is represented as @W
Specify with ordFileName.
【0074】* @fishName * 食べられる * (3)同義語(シノニム)辞書ファイル 同じ意味を持つ複数の語の表記を統一するためのファイ
ルで以下の構造を持つ。 (例) アユ ← あゆ:鮎:香魚 同義語処理は、解析の最初に行われ、コロンで区切られ
た語のリストの2番目以降と同じものがあれば、リスト
先頭の語と置き換えられて言語処理が続けられる。* @FishName * Can be eaten * (3) Synonym dictionary file This file is used to unify the notation of a plurality of words having the same meaning and has the following structure. (Example) Ayu ← Ayu: Ayu: Perfume Synonym processing is performed at the beginning of the analysis, and if there is the same thing as the second and subsequent words in the colon-separated word list, it is replaced with the first word in the list and the language Processing continues.
【0075】(4)変数定義ファイル テンプレート内で使用する変数を宣言するファイルであ
る。(4) Variable definition file This is a file for declaring variables used in the template.
【0076】次に、検索用インタフェースについて説明
する。Next, the search interface will be described.
【0077】本実施例の映像検索学習用のユーザインタ
フェースシステムは、上述の自然言語処理プログラムを
用いて構成される。このユーザインタフェースシステム
の基本的な機能は、利用者から入力された文章を処理
し、マッチしたテンプレートに記述されたアクション、
具体的には、映像検索や情報の提示を行うことである。The user interface system for video search learning of this embodiment is configured using the above-described natural language processing program. The basic function of this user interface system is to process text input by the user, and to write the actions described in the matching template,
Specifically, it is to perform video search and information presentation.
【0078】たとえば、「ユリカモメはどんな鳥?」と
いう問い合わせ要求が入力されたとき、「ユリカモメ」
を検索キーワードとして映像と情報を検索し、その結果
を利用者にWebコンテンツとして提示する。キーワード
を抽出した後に行われるべき処理は、自然言語処理部の
返答文に定義され得る。For example, when an inquiry request "What kind of bird is a gull?"
Search for video and information using as a search keyword, and present the results to users as Web content. The processing to be performed after the keyword is extracted can be defined in the response sentence of the natural language processing unit.
【0079】本実施例では、図11に示されるように、
情報提示部200において、検索結果の動画、静止画、
文字を表示するためウェブ・ブラウザ220を利用す
る。In this embodiment, as shown in FIG.
In the information presenting unit 200, moving images, still images,
A web browser 220 is used to display characters.
【0080】基本的な表示データ(HTML, CGI)は、研究
中の番組制作システムDTPP(Desk-TopProgram Productio
n)で使用される番組情報(番組の構造や映像のキャプシ
ョン、アナウンスコメントが構造化されて記述されてい
る)を変換して利用する。なお、番組制作システムDTPP
に関しては、住吉ほか、”階層化番組制作手法における
番組情報構造“、電子情報通信学会総合大会、SMD-2、
(1998)に記載されている。DTPPでは、番組を構造的に
設計し、編集することができる。この番組情報をXML化
し、ページを表示するHTMLデータに変換する。図15
は、このようにして生成されたHTMLデータを用いて表示
されたユーザインタフェース画面の概念図である。編集
時に映像に付加されたキャプション情報は、映像の説明
文として表示されると共に、検索用のデータとしても利
用される。The basic display data (HTML, CGI) is stored in the program production system under study DTPP (Desk-Top Program Productio).
The program information (program structure, video captions, and announcement comments) used in n) are converted and used. The program production system DTPP
Sumiyoshi et al., "Program Information Structure in Hierarchical Program Production Method", IEICE General Conference, SMD-2,
(1998). With DTPP, programs can be designed and edited structurally. This program information is converted into XML and converted into HTML data for displaying a page. FIG.
FIG. 4 is a conceptual diagram of a user interface screen displayed using the HTML data generated in this manner. The caption information added to the video at the time of editing is displayed as a description of the video and is also used as search data.
【0081】情報提示部200は、利用者から入力され
た質問文223を自然言語処理部100に送り、その結
果の返答文224を画面に表示すると共に、エージェン
ト(たとえば、MS Agent)222と音声合成ソフト24
0とを制御して、返答文の発話を行い、また、映像、画
像情報のポインティングなどにより情報の提示を効果的
に行う。The information presenting unit 200 sends the question sentence 223 input by the user to the natural language processing unit 100, displays the resulting answer sentence 224 on the screen, and communicates with the agent (for example, MS Agent) 222 by voice. Synthetic software 24
By controlling 0, a response sentence is uttered, and information is effectively presented by pointing video and image information.
【0082】エージェント222は、CGIスクリプト中
に特定のパターンのエージェント動作プログラムを組み
込み、それを呼び出すプログラムを自然言語処理部10
0のテンプレート辞書ファイル121、122に記述す
ることによって、エージェントが説明をするときに、同
時に映像を指し示したりするように制御される。The agent 222 incorporates an agent operation program of a specific pattern into the CGI script, and calls a program that calls the program into the natural language processing unit 10.
By describing them in the template dictionary files 121 and 122 of “0”, when the agent gives an explanation, it is controlled so as to simultaneously point to an image.
【0083】映像データベース部300は、種々の方法
で構成することが可能であるが、本実施例では、簡単の
ため、JavaScriptを利用したウェブ・ページの表示制御
機能を利用する。The video database unit 300 can be configured by various methods. In this embodiment, a display control function of a web page using JavaScript is used for simplicity.
【0084】ウェブ・ページに埋め込まれた、画面に表
示される映像へのキャプションを検索用インデックスデ
ータとし、自然言語処理部100で検索用インデックス
データとし、自然言語処理部100で検索キーワードと
して抽出された語を含むかどうかが比較され、検索キー
ワードを含むキャプションに対応した映像だけが、検索
結果として画面に表示される。The caption to the video displayed on the screen, embedded in the web page, is used as search index data, extracted as search index data by the natural language processing unit 100, and extracted as a search keyword by the natural language processing unit 100. The search is performed to determine whether or not the image includes the search term, and only the video corresponding to the caption including the search keyword is displayed on the screen as the search result.
【0085】[0085]
【実施例】最後に、本発明の第4実施例による映像検索
システムの適用例について説明する。本適用例では、辞
書ファイル(テンプレート群)は、会話を想定して手入
力によって作成された。[Embodiment] Finally, an application example of a video search system according to a fourth embodiment of the present invention will be described. In this application example, the dictionary file (template group) was created by manual input assuming a conversation.
【0086】想定した会話は、興味のある対象の映像を
検索し、映像及びそれに関連する情報があれば、その対
象に関する情報を対話的に提示するものである。具体的
には、川の生き物に関する映像の対話的な検索と、その
映像に関連する各種情報を説明的に提示するものであ
る。対象が動物であれば、どこに住んでいるのか、何を
食べるのか、などの情報が提示される。The assumed conversation is for retrieving an image of an object of interest and, if there is an image and information related thereto, interactively presenting information about the object. More specifically, it interactively searches for images related to river creatures and presents various information related to the images in an explanatory manner. If the subject is an animal, information such as where it lives and what it eats is presented.
【0087】たとえば、ユリカモメの映像を検索する場
合、検索の前後に検索対象となるユリカモメに関する情
報を対話的に提示する。このとき、想定される問い合わ
せは、以下のとおりである。 ・ユリカモメはどんな鳥? ・ユリカモメは、どこに住んでいるのか? ・ユリカモメの映像が見たい。For example, when searching for a black-headed gull video, information about the black-headed gull to be searched is presented interactively before and after the search. At this time, the supposed inquiry is as follows.・ What kind of bird is the black-headed gull?・ Where do black gulls live?・ I want to see an image of a black-headed gull.
【0088】システムから利用者に提示する内容は、想
定された問い合わせに対応した以下のような情報を用意
する。 ・名前;正式名 ・科目:何科、何目 ・特徴:形、色、大きさ ・生息地:地域、場所、環境 ・食物:なにを これらの情報は、生息地や食物などに関して、一度入力
されたユリカモメという主題語は省略した問い合わせに
も応じられるようにテンプレートが作成された。The contents presented to the user from the system prepare the following information corresponding to the assumed inquiry.・ Name; Official name ・ Subject: What subject, What item ・ Feature: Shape, color, size ・ Habitat: Area, place, environment ・ Food: What These information is once about habitat and food A template was created to respond to inquiries in which the entered subject term "black gull" was omitted.
【0089】たとえば、[ユリカモメはどんな鳥?]と
いう質問を想定したテンプレート:* ユリカモメ *
鳥 * に入力文がマッチした場合、システムは、この質問に返
答すると同時に,バッファメモリsubjectに「ユリカモ
メ」を記憶させて、現在の話題、すなわち、マッチした
テンプレートの想定する話題を保持する。For example, [What kind of bird is a black-headed gull? ] Template: * Black-headed gull *
When the input sentence matches the bird *, the system replies to this question, and at the same time, stores “Black Gull” in the buffer memory subject, and holds the current topic, that is, the topic assumed by the matched template.
【0090】この質問に連続して行われた質問が「どこ
に住んでいるのか?」という質問である場合には、対象
は、現在の話題であると想定し、話題語の変数である$$
subjectのチェックを行い、以下のテンプレートをマッ
チさせる。If the question consecutively followed by this question is “Where do you live?”, It is assumed that the target is the current topic, and the variable of the topic word is $$$.
Check the subject and match the following template.
【0091】* どこ * 住む * c.$$subject==ユリカモメ 一方、最初に、「どこに住んでいるの?」という質問が
入力されたときには、変数questionに「どこに住む」を
設定し、「なにが?」という質問を利用者に返す。これ
に対する返事として、「ユリカモメ」を想定して、次の
テンプレートを用意し、回答させる。* Where * live * c. $$ subject == Black-headed gull On the other hand, when the question "Where do you live?" Is input first, the variable question is set to "Where do you live?" Is returned to the user. As a response to this, the following template is prepared assuming "black-headed gulls" and made to answer.
【0092】* ユリカモメ * c.$$question==どこに住む >ユリカモメは○○に住んでいます。* Black-headed gull * c. $$ question == Where you live> Black-headed gulls live in XX.
【0093】このように話題を質問の主題と仮定し、会
話文で起き易い主語の欠落に対処させる。また、語順の
入れ替わりにも複数のテンプレートを登録することによ
って対処する。話題が他の話題に移った場合には、変数
subject、questionをクリアする。As described above, the topic is assumed to be the subject of the question, and the lack of the subject which is likely to occur in the conversation sentence is dealt with. Also, the replacement of the word order is dealt with by registering a plurality of templates. If the topic moves to another topic, the variable
Clear subject and question.
【0094】会話データとなるテンプレート辞書は、簡
単に構成することができるが、まとまった会話をさせる
ためには、かなりの記述量に達し、また、システムに関
する知識が必要とされる。Although the template dictionary serving as conversation data can be easily constructed, a large amount of description is required to have a comprehensive conversation, and knowledge of the system is required.
【0095】そのため、手辞する情報を分類して所定の
形式で入力することによって、この情報に関する想定会
話に対応できるテンプレート群の生成が可能になる。Therefore, by classifying the information to be resigned and inputting it in a predetermined format, it becomes possible to generate a template group that can cope with an assumed conversation relating to this information.
【0096】動物に関する映像データベースのような情
報であれば、対象が持つ情報、問い合わせ文は、共に、
限定することができるので、これらを利用して主語の省
略や語順の変更などに対応できるテンプレート群を必要
な情報を与えるだけで生成することができる。この技術
は、用途の限られた映像データベースの情報を補足する
対話処理に有効である。In the case of information such as a video database relating to animals, the information and inquiry sentence of the object are both
Since they can be limited, a template group that can cope with the abbreviation of the subject or the change of the word order can be generated by simply giving necessary information. This technique is effective for interactive processing for supplementing information of a video database with limited use.
【0097】上記の本発明の実施例による情報提示シス
テムは、上記の実施例で説明された例に限定されること
なく、システム内の入出力デバイス、通信デバイス、コ
ンピュータのCPUやメモリなどのハードウェア部分を
除く部分は、同等の機能を実現するソフトウェア(プロ
グラム)で構築し、ディスク装置等に記録しておき、必
要に応じてコンピュータにインストールし、或いは、ネ
ットワーク経由でコンピュータにダウンロードして情報
提示サービスを行うことも可能である。さらに、構築さ
れたプログラムをフロッピー(登録商標)ディスク、メ
モリカード、CD−ROM等の可搬記録媒体に格納し、
このようなサービスを用いる場面で汎用的に使用するこ
とも可能である。The information presenting system according to the embodiment of the present invention is not limited to the example described in the above embodiment, but may be an input / output device in the system, a communication device, or a hardware such as a CPU or a memory of a computer. The parts other than the hardware part are constructed with software (programs) that realize the same functions, recorded on a disk device or the like, and installed on a computer as needed, or downloaded to a computer via a network to obtain information. It is also possible to provide a presentation service. Further, the constructed program is stored in a portable recording medium such as a floppy (registered trademark) disk, a memory card, a CD-ROM, and the like.
Such a service can be used for general purposes in a scene where the service is used.
【0098】以上、本発明の代表的な実施例を説明した
が、本発明は、上記の実施例に限定されることなく、特
許請求の範囲内において、種々変更・応用が可能であ
る。Although the representative embodiments of the present invention have been described above, the present invention is not limited to the above embodiments, and various modifications and applications are possible within the scope of the claims.
【0099】[0099]
【発明の効果】以上の説明の通り、本発明によれば、自
然言語による情報提示要求の入力が解析され、求められ
ている情報と提示方法とが抽出され、それにより、情報
の検索表示が行われるので、従来の技術よりも利用者に
とって簡易な操作が実現されるので、映像検索などのコ
ンピュータを利用した映像提示装置の操作性を改善する
ことができる。As described above, according to the present invention, the input of the information presentation request in the natural language is analyzed, and the required information and the presentation method are extracted. Since this operation is performed, a simpler operation is realized for the user than in the related art, so that it is possible to improve the operability of a video presenting apparatus using a computer such as a video search.
【0100】また、本発明によれば、情報提示の制御を
命令群として記述し、多種の素材情報と組み合わせて提
示することで、表現の自由度が高められ、より多様な提
示方法を取ることができると共に、蓄積すべき情報量が
削減するという利点が得られる。Further, according to the present invention, the control of information presentation is described as a group of instructions, and is presented in combination with various types of material information, so that the degree of freedom of expression is enhanced and a more diverse presentation method can be adopted. And the amount of information to be stored is reduced.
【0101】さらに、本発明は、デジタル放送と組み合
わせることにより顕著な効果を奏する。なぜならば、デ
ジタル放送のデータチャネルは、映像と共に、映像を説
明する文章情報、画像及び映像情報を放送することがで
きるからである。また、これらの放送された情報を一括
して蓄積するホームサーバーを利用することによって,
情報を容易に再視聴することができる。また、放送局に
蓄積されている膨大な量の映像が映像データベース化す
ることにより、ホームサーバーのような端末側に蓄積さ
れた情報だけではなく、ネットワークを通じて放送局側
に保管された情報や映像を端末から検索できるようにな
る。Furthermore, the present invention has a remarkable effect when combined with digital broadcasting. This is because a digital broadcast data channel can broadcast text, text information describing the video, image, and video information together with the video. Also, by using a home server that collectively stores these broadcast information,
Information can be easily re-viewed. In addition, the huge amount of video stored in the broadcasting station is converted into a video database, so that not only information stored on the terminal side such as a home server but also information and video stored on the broadcasting station side through a network Can be searched from the terminal.
【0102】本発明による自然言語対話による情報提示
システムは、このような技術を背景として新しいコンテ
ンツサービス、たとえば、自発的な調査・学習を支援す
る映像データベースを用いた学習アプリケーションを構
築することができる。The information presentation system based on natural language dialogue according to the present invention can construct a new content service, for example, a learning application using a video database that supports spontaneous research and study, with such technology as the background. .
【0103】特に、映像データベースとして、科学や歴
史を中心とする映像情報の蓄積を行い、利用者が興味の
ある問題、対象物について自分の力で調査し、さらに調
査結果を利用して映像作品に仕上げ、発表する作業過程
を通じて学習を行う環境を想定する。このような環境で
映像データベースを利用する場面を考えた場合、従来の
ような単純なキーワードインデックスによる検索ツール
を提供するだけでは、学習があまり効果的に進まない。
本発明により提供されるユーザインタフェースは、この
ような場面に適用できるユーザインタフェースであっ
て、学習者が興味を持った対象に関する問い合わせ、質
問或いは映像検索などの作業を自然言語対話により行い
ながら,映像内容や付随する各種の知識を取得でき、検
索時には、映像だけではなく、その映像に関する各種の
情報を提示することで学習がより高められる。In particular, as a video database, video information centering on science and history is accumulated, and users investigate their own interests and problems with their own powers. Suppose you have an environment where you can learn through the work process of finishing and presenting. Considering a situation where a video database is used in such an environment, learning does not proceed very effectively only by providing a conventional search tool using a simple keyword index.
The user interface provided by the present invention is a user interface that can be applied to such a scene, in which a learner performs an operation such as an inquiry, a question, or a video search for an object of interest by using a natural language dialogue. The content and various accompanying knowledge can be acquired, and at the time of retrieval, learning is further enhanced by presenting not only the video but also various information related to the video.
【図1】本発明の原理構成図である。FIG. 1 is a principle configuration diagram of the present invention.
【図2】本発明の情報提示装置の要求情報入力手段の構
成図である。FIG. 2 is a configuration diagram of request information input means of the information presentation device of the present invention.
【図3】本発明の情報提示装置の提示情報制作手段の構
成図である。FIG. 3 is a configuration diagram of presentation information creation means of the information presentation device of the present invention.
【図4】本発明の情報提示装置によって実施される情報
提示方法の説明図である。FIG. 4 is an explanatory diagram of an information presentation method performed by the information presentation device of the present invention.
【図5】本発明の情報提示装置を含む情報提示システム
の構成図である。FIG. 5 is a configuration diagram of an information presentation system including the information presentation device of the present invention.
【図6】本発明の第1実施例による情報提示システムの
構成図である。FIG. 6 is a configuration diagram of the information presentation system according to the first embodiment of the present invention.
【図7】本発明の第1実施例による入力文解析部の動作
フローチャートである.FIG. 7 is an operation flowchart of the input sentence analyzing unit according to the first embodiment of the present invention.
【図8】本発明の第1実施例による提示制御部の動作フ
ローチャートである。FIG. 8 is an operation flowchart of the presentation control unit according to the first embodiment of the present invention.
【図9】本発明の第2実施例による情報提示システムの
構成図である。FIG. 9 is a configuration diagram of an information presentation system according to a second embodiment of the present invention.
【図10】本発明の第3実施例による情報提供システム
の構成図である。FIG. 10 is a configuration diagram of an information providing system according to a third embodiment of the present invention.
【図11】本発明の第4実施例による映像検索システム
の構成図である。FIG. 11 is a configuration diagram of a video search system according to a fourth embodiment of the present invention.
【図12】本発明の第4実施例によるテンプレートパタ
ーンの構成の説明図である。FIG. 12 is an explanatory diagram of a configuration of a template pattern according to a fourth embodiment of the present invention.
【図13】本発明の第4実施例によるメタキャラクタの
説明図表である。FIG. 13 is an explanatory diagram of metacharacters according to a fourth embodiment of the present invention.
【図14】本発明の第4実施例によるテンプレート切り
替えの説明図である。FIG. 14 is an explanatory diagram of template switching according to a fourth embodiment of the present invention.
【図15】本発明の第4実施例によるユーザインタフェ
ース画面の例である。FIG. 15 is an example of a user interface screen according to a fourth embodiment of the present invention.
1 情報提示システム 8 入力装置 9 出力装置 11 会話制御スクリプト蓄積手段 12 入力文制御手段 21 提示制御手段 22 情報蓄積手段 81 マイク 82 音声認識装置 83 補助入力装置 91 表示装置 92 音声合成器 93 スピーカー DESCRIPTION OF SYMBOLS 1 Information presentation system 8 Input device 9 Output device 11 Conversation control script storage means 12 Input sentence control means 21 Presentation control means 22 Information storage means 81 Microphone 82 Voice recognition device 83 Auxiliary input device 91 Display device 92 Voice synthesizer 93 Speaker
───────────────────────────────────────────────────── フロントページの続き (72)発明者 金 淵培 東京都世田谷区砧一丁目10番11号 日本放 送協会 放送技術研究所内 (72)発明者 柴田 正啓 東京都世田谷区砧一丁目10番11号 日本放 送協会 放送技術研究所内 (72)発明者 井上 誠喜 東京都世田谷区砧一丁目10番11号 日本放 送協会 放送技術研究所内 (72)発明者 小西 宏和 東京都世田谷区砧一丁目10番11号 日本放 送協会 放送技術研究所内 (72)発明者 松村 欣司 東京都世田谷区砧一丁目10番11号 日本放 送協会 放送技術研究所内 Fターム(参考) 5B075 ND16 NK32 PP02 PP03 PP07 PP24 PQ02 5E501 AA01 AC25 AC33 BA03 BA05 BA17 CA02 CA08 CB02 CB09 CB15 EA21 FA13 FA14 FA32 ──────────────────────────────────────────────────続 き Continuing on the front page (72) Inventor: Kana Fuchi, 1-10-11 Kinuta, Setagaya-ku, Tokyo Japan Broadcasting Corporation Research Institute (72) Inventor: Masahiro Shibata, 1-10 Kinuta, Setagaya-ku, Tokyo No. 11 Japan Broadcasting Corporation Broadcasting Research Laboratory (72) Inventor Seiki Inoue 1-1-10 Kinuta, Setagaya-ku, Tokyo Japan Broadcasting Corporation Broadcasting Research Laboratory (72) Inventor Hirokazu Konishi 1-kinuta, Setagaya-ku, Tokyo 10-11 Japan Broadcasting Corporation Broadcasting Research Institute (72) Kinji Matsumura Inventor 1-10-11 Kinuta, Setagaya-ku, Tokyo Japan Broadcasting Research Institute F-term (reference) 5B075 ND16 NK32 PP02 PP03 PP07 PP24 PQ02 5E501 AA01 AC25 AC33 BA03 BA05 BA17 CA02 CA08 CB02 CB09 CB15 EA21 FA13 FA14 FA32
Claims (3)
受け、上記質問文を解析し、上記解析された質問文に対
応した応答制御情報を取得する要求情報入力手段と、 上記質問文に応答するため、上記取得された応答制御情
報に従って、素材情報を組み合わせて提示情報を制作す
る提示情報制作手段とを有することを特徴とする要求情
報に応じた提示情報を提供する情報提示装置。Request information input means for receiving a question sentence in which request information is expressed in a natural language, analyzing the question sentence, and acquiring response control information corresponding to the analyzed question sentence; And a presentation information producing means for producing presentation information by combining material information according to the acquired response control information to respond to the request information.
問文に対応した単語パターンを作成する入力文解析手段
と、 上記要求情報に対応したテンプレートパターンと、上記
質問文中に上記テンプレートパターンが出現したときに
行われる処理を記述した会話制御スクリプトとを蓄積し
た会話制御スクリプト蓄積手段とを有し、 上記入力文解析手段は、上記会話制御スクリプト蓄積手
段から上記作成された単語パターンに対応したテンプレ
ートパターンを検出し、上記検出されたテンプレートパ
ターンに対応して蓄積された会話制御スクリプトを上記
応答制御情報として取得することを特徴とする請求項1
記載の情報提示装置。2. The request information input means receives the question sentence, morphologically analyzes the question sentence, and creates a word pattern corresponding to the question sentence, and a template corresponding to the request information. A conversation control script storing unit that stores a pattern and a conversation control script describing a process to be performed when the template pattern appears in the question sentence; wherein the input sentence analysis unit stores the conversation control script. 2. The method according to claim 1, further comprising: detecting a template pattern corresponding to the created word pattern from the means; and acquiring a conversation control script stored corresponding to the detected template pattern as the response control information.
Information presentation device as described.
報提示プログラムを記録したコンピュータが読み取り可
能な記録媒体であって、 上記プログラムは、 情報を要求する自然言語で表された質問文を形態素解析
させるプロセスと、 上記形態素解析により得られた上記質問文の単語から単
語パターンを作成させるプロセスと、 予め蓄積されたテンプレートパターンの中から上記単語
パターンと一致するテンプレートパターンを検出させる
プロセスと、 上記検出されたテンプレートパターンに対応した蓄積さ
れ、上記テンプレートパターンが質問文中に出現したと
きに行われる処理を記述した会話制御スクリプトを取得
させるプロセスと、 上記会話制御スクリプトを質問文に対する返答文と、上
記質問文に対し提示さされる提示情報を指定する提示制
御命令とに分割させるプロセスと、 上記提示制御命令に従って組み合わされた素材情報と、
上記返答文とを含む上記提示情報を制作させるプロセス
とを有することを特徴とする、記録媒体。3. A computer-readable recording medium storing an information presentation program for providing presentation information according to request information, wherein the program is configured to convert a question sentence expressed in a natural language requesting information into a morpheme. Analyzing, a process of creating a word pattern from the words of the question sentence obtained by the morphological analysis, a process of detecting a template pattern that matches the word pattern from template patterns stored in advance, A process of acquiring a conversation control script that is stored corresponding to the detected template pattern and describes a process to be performed when the template pattern appears in the question message; Specify the presentation information that is presented for the question sentence The material information combined according to the presentation control instruction,
A process for producing the presentation information including the response sentence.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000268778A JP2002073662A (en) | 2000-09-05 | 2000-09-05 | Information presenting device and recording medium with information presenting program recorded thereon |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000268778A JP2002073662A (en) | 2000-09-05 | 2000-09-05 | Information presenting device and recording medium with information presenting program recorded thereon |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2002073662A true JP2002073662A (en) | 2002-03-12 |
Family
ID=18755504
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000268778A Pending JP2002073662A (en) | 2000-09-05 | 2000-09-05 | Information presenting device and recording medium with information presenting program recorded thereon |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2002073662A (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007301272A (en) * | 2006-05-15 | 2007-11-22 | Sony Computer Entertainment Inc | Game device and game control method |
JP2007301271A (en) * | 2006-05-15 | 2007-11-22 | Sony Computer Entertainment Inc | Game apparatus, game control method and game control program |
JP2008262541A (en) * | 2007-02-13 | 2008-10-30 | Internatl Business Mach Corp <Ibm> | Method, device, and computer program which improve processing of expression |
CN1773495B (en) * | 2005-09-30 | 2010-05-05 | 兰州大学 | Method for generating certificate stencil combined from different literals and images |
JP2012003701A (en) * | 2010-06-21 | 2012-01-05 | Nomura Research Institute Ltd | Discourse summary generation system and discourse summary generation program |
JP2019091416A (en) * | 2017-11-16 | 2019-06-13 | バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド | Method and device for constructing artificial intelligence application |
US11494354B2 (en) | 2019-11-08 | 2022-11-08 | Fujifilm Business Innovation Corp. | Information management apparatus, information processing apparatus, and non-transitory computer readable medium |
-
2000
- 2000-09-05 JP JP2000268778A patent/JP2002073662A/en active Pending
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1773495B (en) * | 2005-09-30 | 2010-05-05 | 兰州大学 | Method for generating certificate stencil combined from different literals and images |
JP2007301272A (en) * | 2006-05-15 | 2007-11-22 | Sony Computer Entertainment Inc | Game device and game control method |
JP2007301271A (en) * | 2006-05-15 | 2007-11-22 | Sony Computer Entertainment Inc | Game apparatus, game control method and game control program |
JP2008262541A (en) * | 2007-02-13 | 2008-10-30 | Internatl Business Mach Corp <Ibm> | Method, device, and computer program which improve processing of expression |
US8381201B2 (en) | 2007-02-13 | 2013-02-19 | International Business Machines Corporation | Processing of expressions |
JP2012003701A (en) * | 2010-06-21 | 2012-01-05 | Nomura Research Institute Ltd | Discourse summary generation system and discourse summary generation program |
JP2019091416A (en) * | 2017-11-16 | 2019-06-13 | バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド | Method and device for constructing artificial intelligence application |
US11494354B2 (en) | 2019-11-08 | 2022-11-08 | Fujifilm Business Innovation Corp. | Information management apparatus, information processing apparatus, and non-transitory computer readable medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111191078B (en) | Video information processing method and device based on video information processing model | |
CN115082602B (en) | Method for generating digital person, training method, training device, training equipment and training medium for model | |
CN110430476B (en) | Live broadcast room searching method, system, computer equipment and storage medium | |
CN110046227B (en) | Configuration method, interaction method, device, equipment and storage medium of dialogue system | |
CN106662920B (en) | Interactive video generation | |
US12108114B2 (en) | Systems and methods for generating dynamic annotations | |
US11128910B1 (en) | Systems and methods for generating dynamic annotations | |
CN109600646B (en) | Voice positioning method and device, smart television and storage medium | |
CN109326284A (en) | The method, apparatus and storage medium of phonetic search | |
CN116701669A (en) | Method, device, equipment and storage medium for generating multimedia content | |
CN103888799B (en) | Control method and control device | |
CN116737883A (en) | Man-machine interaction method, device, equipment and storage medium | |
JP2002073662A (en) | Information presenting device and recording medium with information presenting program recorded thereon | |
CN116701811B (en) | Webpage processing method, device, equipment and computer readable storage medium | |
CN117873433A (en) | Descriptive file acquisition method and device, electronic equipment and storage medium | |
CN117436414A (en) | Presentation generation method and device, electronic equipment and storage medium | |
CN110347379B (en) | Processing method, device and storage medium for combined crowdsourcing questions | |
CN110297965B (en) | Courseware page display and page set construction method, device, equipment and medium | |
CN113542797A (en) | Interaction method and device in video playing and computer readable storage medium | |
KR101113940B1 (en) | Foreign language learning system based on user selected words in user defined situation and method thereof | |
CN110990632A (en) | Video processing method and device | |
CN106648130A (en) | Emoticon input method and system | |
KR102414993B1 (en) | Method and ststem for providing relevant infromation | |
CN113438532A (en) | Video processing method, video playing method, video processing device, video playing device, electronic equipment and storage medium | |
JP7539094B1 (en) | Program, method, information processing device, and system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050308 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080507 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080625 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080805 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20081202 |