JP2000207214A - Interaction device - Google Patents

Interaction device

Info

Publication number
JP2000207214A
JP2000207214A JP11011662A JP1166299A JP2000207214A JP 2000207214 A JP2000207214 A JP 2000207214A JP 11011662 A JP11011662 A JP 11011662A JP 1166299 A JP1166299 A JP 1166299A JP 2000207214 A JP2000207214 A JP 2000207214A
Authority
JP
Japan
Prior art keywords
information
response
user
emotion
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP11011662A
Other languages
Japanese (ja)
Other versions
JP4465730B2 (en
Inventor
Tsukimi Wakabayashi
つきみ 若林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Victor Company of Japan Ltd
Original Assignee
Victor Company of Japan Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Victor Company of Japan Ltd filed Critical Victor Company of Japan Ltd
Priority to JP01166299A priority Critical patent/JP4465730B2/en
Publication of JP2000207214A publication Critical patent/JP2000207214A/en
Application granted granted Critical
Publication of JP4465730B2 publication Critical patent/JP4465730B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide the interaction device which not only decides the feelings of a user and generates an answer to them, but also properly answers according to individual information of each user, the current state and the contents of interaction. SOLUTION: An interacting process means 17 determines the meaning structure and answer pattern of an answer output, on the basis of an input meaning structure and a feeling decision and extracts information needed to answer. When the input meaning structure clearly requests information, the information is obtained by referring to a knowledge base 12, an information server 10 and an individual information storage means 9. The obtained information is applied to a feeling inference rule, and the feelings of the user is estimated with the information according to the individual taste in an individual profile 9a. Based on the basis of the predicted user's feelings and the current feelings of the user, a proper answer pattern is selected to generate an output meaning structure.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は対話装置に係り、特
にユーザとコンピュータが音声あるいは表情等を通じて
対話する対話装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an interactive device, and more particularly to an interactive device in which a user and a computer interact with each other through voice or facial expression.

【0002】[0002]

【従来の技術】従来より、ユーザの感情に応じてコンピ
ュータ側の応答を制御する対話装置が知られている(特
開平8−339446号公報)。この従来の対話装置
は、ユーザの行動或いは動作に応じる複数の入力手段
と、入力手段から入力された入力信号の特徴を抽出する
特徴抽出手段と、特徴抽出手段により抽出された複数の
信号特徴から前記ユーザの感情を判定する感情判定手段
と、感情判定手段により判定された感情に基づき、コン
ピュータの応答内容を生成する応答生成手段とから構成
されている。
2. Description of the Related Art Conventionally, there has been known an interactive device for controlling a response on a computer side according to a user's emotion (Japanese Patent Laid-Open No. 8-339446). This conventional dialogue device includes a plurality of input means corresponding to a user's action or action, a feature extraction means for extracting features of an input signal input from the input means, and a plurality of signal features extracted by the feature extraction means. The apparatus includes an emotion determination unit that determines the emotion of the user, and a response generation unit that generates a response content of the computer based on the emotion determined by the emotion determination unit.

【0003】この従来の対話装置によれば、ユーザの感
情に応じてコンピュータ側から応答するように制御する
ことができるので、より親しみの持てる対話装置を提供
できる。
According to this conventional interactive device, it is possible to control the computer to respond according to the emotion of the user, so that a more familiar interactive device can be provided.

【0004】[0004]

【発明が解決しようとする課題】しかるに、上記の従来
の対話装置では、予め格納された特徴データによるユー
ザの感情判定のみに基づいてコンピュータが応答生成す
るに止まり、対話の内容を反映した応答特徴とならな
い。また、感情の原因や、適切な応答の仕方は、ユーザ
により、また、その時々の状況により一定ではないが、
上記の従来の対話装置では表面的な入力信号の特徴で判
定した感情によってのみ応答を決定するため、これらの
状況に対応して適切な応答をするには至っていない。
However, in the above-described conventional dialogue apparatus, the computer only generates a response based on the judgment of the user's emotion based on the previously stored feature data, and the response feature reflecting the content of the dialogue. Does not. In addition, the cause of the emotion and the manner of appropriate response are not fixed by the user and the situation at the time,
In the above-described conventional interactive device, the response is determined only by the emotion determined based on the characteristics of the superficial input signal, and an appropriate response has not been achieved in response to these situations.

【0005】本発明は以上の点に鑑みなされたもので、
ユーザの感情を判定しこれによって応答生成するのみで
なく、各ユーザの個人情報やその時々の状況、対話の内
容に応じて適切な応答を行い得る対話装置を提供するこ
とを目的とする。
[0005] The present invention has been made in view of the above points,
It is an object of the present invention to provide a dialogue device that can not only determine a user's emotion and generate a response based on the emotion, but also perform an appropriate response according to personal information of each user, a situation at that time, and the content of the dialogue.

【0006】[0006]

【課題を解決するための手段】本発明は上記の目的を達
成するため、ユーザにより入力された音声あるいは前記
ユーザの表情等を通じて、ユーザと対話する対話装置に
おいて、ユーザの発する音声、顔画像及び言語情報を少
なくとも入力する入力手段と、入力手段から入力された
情報の特徴を抽出する特徴抽出手段と、特徴抽出手段に
より抽出された特徴と、予め格納されている感情判定用
データとからユーザの感情を判定する感情判定手段と、
入力手段から入力された言語情報を解析し、意味構造を
抽出する入力文解析手段と、話題に関連する情報を検索
・取得する情報取得手段と、ユーザ毎の個人情報を格納
している個人情報格納手段と、客観的事柄と感情とを関
連付ける推論規則を格納している感情推論規則格納手段
と、複数の応答パターンのインデックスを保持する応答
パターン格納手段と、入力文解析手段により解析された
入力言語情報の意味構造と、感情判定手段により判定さ
れたユーザの感情と、情報取得手段から取得した関連情
報と、個人情報格納手段から取得した個人情報と、感情
推論規則格納手段から取得した感情推論規則を参照し
て、応答パターン格納手段から適切な応答パターンを選
択し、応答文の意味構造を作成する対話処理手段と、対
話処理手段により作成された意味構造から出力文を生成
する出力文生成手段と、応答パターンに対応した応答特
徴を格納している応答特徴格納手段と、出力文生成手段
により生成された出力文と、対話処理手段により選択さ
れた応答パターンに応じて応答特徴格納手段から取得し
た応答特徴とに基づき、応答内容を生成する応答生成手
段と、応答生成手段で生成した応答内容を出力する出力
手段とを有する構成としたものである。
SUMMARY OF THE INVENTION In order to achieve the above object, the present invention provides a dialogue device for interacting with a user through a voice input by the user or a facial expression of the user. An input unit for inputting at least linguistic information; a feature extraction unit for extracting a feature of the information input from the input unit; a feature extracted by the feature extraction unit; An emotion determining means for determining an emotion;
Input sentence analysis means for analyzing linguistic information input from the input means and extracting a semantic structure, information acquisition means for searching and acquiring information related to a topic, and personal information storing personal information for each user Storage means, emotion inference rule storage means for storing inference rules for associating objective matters with emotions, response pattern storage means for holding an index of a plurality of response patterns, and input analyzed by the input sentence analysis means The semantic structure of the linguistic information, the user's emotion determined by the emotion determination means, the related information obtained from the information obtaining means, the personal information obtained from the personal information storage means, and the emotion inference obtained from the emotion inference rule storage means The dialog processing means for selecting an appropriate response pattern from the response pattern storage means with reference to the rules and creating the semantic structure of the response sentence, Output sentence generation means for generating an output sentence from the generated semantic structure, response feature storage means for storing a response feature corresponding to the response pattern, output sentence generated by the output sentence generation means, and interactive processing means A configuration is provided that includes a response generation unit that generates a response content based on the response feature obtained from the response characteristic storage unit according to the selected response pattern, and an output unit that outputs the response content generated by the response generation unit. Things.

【0007】本発明では、ユーザの感情を入力手段から
の入力情報に基づいて判定すると共に、各ユーザの個人
情報を蓄積し、蓄積された情報と情報取得手段からの情
報とから、感情推論規則を用いて、各ユーザの嗜好やそ
の時々の状況、話題に応じて感情の原因を推し量り、応
答に対するユーザの感情を予測して、適切な応答を作成
して出力するようにしたため、親しみ易く、ユーザに適
応した対話装置を提供できる。
According to the present invention, the emotion of the user is determined based on the input information from the input means, the personal information of each user is accumulated, and the emotion inference rule is determined from the accumulated information and the information from the information acquisition means. By using, to estimate the cause of the emotion according to each user's preference, the situation at that time, the topic, predict the user's emotion to the response, create and output an appropriate response, it is easy to get familiar , An interactive device adapted to the user can be provided.

【0008】[0008]

【発明の実施の形態】次に本発明の実施の実施の形態に
ついて、図面と共に説明する。図1は本発明になる対話
装置の一実施の形態のブロック図を示す。同図に示すよ
うに、この実施の形態は、音声、顔画像等ユーザからの
複数の入力に対応する入力手段1と、各入力手段1の入
力信号から特徴抽出する特徴抽出手段2と、各入力信号
の感情に対応する特徴を格納する感情特徴格納手段3
と、感情特徴格納手段3の格納データを元にユーザの入
力から得られる信号の特徴からユーザの感情を判定する
感情判定手段4と、感情に応じた応答を作成するための
出力データを格納する応答特徴格納手段5と、応答内容
を生成する応答生成手段6と、生成されたデータを出力
する出力手段7は従来の対話装置と同様の構成とされて
いる。
Embodiments of the present invention will now be described with reference to the drawings. FIG. 1 is a block diagram showing an embodiment of a dialogue apparatus according to the present invention. As shown in FIG. 1, this embodiment includes an input unit 1 corresponding to a plurality of inputs from a user such as a voice and a face image, a feature extraction unit 2 for extracting a feature from an input signal of each input unit 1, Emotion feature storage means 3 for storing features corresponding to the emotion of the input signal
And emotion determination means 4 for determining the user's emotion from the characteristics of the signal obtained from the user's input based on the data stored in the emotion characteristic storage means 3, and output data for creating a response corresponding to the emotion. The response feature storing means 5, the response generating means 6 for generating the response content, and the output means 7 for outputting the generated data have the same configuration as the conventional interactive device.

【0009】本実施の形態ではこれら従来装置の構成に
加え、入力手段1から入力された言葉情報を解析し意味
構造を抽出する入力文解析手段8と、ユーザの個人情報
を格納する個人情報格納手段9と、話題に関連する情報
を検索・取得するための情報サーバ10及び情報検索・
通信手段11並びに知識ベース12からなる情報取得手
段13と、客観的事柄とユーザの感情を関連付ける推論
規則を格納する感情推論規則格納手段14と、コンピュ
ータの応答パターンのインデックスを保持する応答パタ
ーン格納手段15と、対話の履歴を格納する対話履歴格
納手段16と、入力の意味構造とユーザの感情と情報取
得手段13から取得した関連情報と個人情報と感情推論
規則を参照して適切な応答パターンを選択し、応答文の
意味構造を作成する対話処理手段17と、意味構造から
出力の言葉を生成する出力文生成手段18からなる構成
を追加したものである。
In this embodiment, in addition to the configuration of the conventional apparatus, an input sentence analyzing means 8 for analyzing word information inputted from the input means 1 and extracting a meaning structure, and a personal information storage for storing personal information of a user. Means 9, an information server 10 for searching and acquiring information related to a topic, and an information searching and
Information acquisition means 13 comprising a communication means 11 and a knowledge base 12, emotion inference rule storage means 14 for storing inference rules for associating objective matters with user's emotions, and response pattern storage means for holding an index of a response pattern of a computer 15, a dialog history storage unit 16 for storing a dialog history, an input semantic structure, a user's emotion, related information acquired from the information acquisition unit 13, personal information, and an emotion inference rule to determine an appropriate response pattern. In this embodiment, a dialog processing unit 17 for selecting and creating a semantic structure of a response sentence and an output sentence generating unit 18 for generating an output word from the semantic structure are added.

【0010】個人情報格納手段9には個人プロファイル
9aが格納されている。別の実施の形態で示すようにス
ケジュール情報9bを格納することもできる。本実施の
形態で示す対話装置の用途としては、スケジュール管
理、情報検索・収集等、秘書的役割を果たすものや各種
情報適用装置が挙げられるが、これら以外の用途に用い
ることもできる。
The personal information storing means 9 stores a personal profile 9a. Schedule information 9b can be stored as shown in another embodiment. Examples of the use of the dialogue device described in the present embodiment include a device serving as a secretary, such as schedule management, information search and collection, and various information application devices. However, the dialogue device can be used for other purposes.

【0011】入力手段1は、音声、顔画像、手話等、ユ
ーザからの複数の入力に対応した、複数の入力手段を備
えることができる。特徴抽出手段2は、各入力手段1の
入力信号から特徴を抽出する。この特徴としては、顔画
像の表情に関連する特徴、声のピッチ等が挙げられる。
感情特徴格納手段3には、感情を判定するためのデータ
として各入力信号の感情に対応する特徴を格納する。感
情判定手段4は感情特徴格納手段3のデータを基にユー
ザの入力から得られる入力信号の特徴からユーザの感情
を判定する。
The input means 1 can include a plurality of input means corresponding to a plurality of inputs from a user such as voice, face image, sign language, and the like. The feature extracting unit 2 extracts a feature from an input signal of each input unit 1. These features include features related to the facial expression of the face image, voice pitch, and the like.
The emotion feature storage unit 3 stores a feature corresponding to the emotion of each input signal as data for determining the emotion. The emotion determination unit 4 determines the user's emotion from the characteristics of the input signal obtained from the user's input based on the data in the emotion characteristic storage unit 3.

【0012】入力文解析手段8は、ユーザの入力の内、
音声による発話、キーボードやペンによる文字入力、手
話入力等、言葉として入力される情報を解析し、入力意
味構造を作成する。会話中省略されている部分は対話履
歴格納手段16を参照し文脈から補って作成する。
The input sentence analyzing means 8 includes:
It analyzes information input as words, such as voice utterance, character input using a keyboard or pen, and sign language input, and creates an input meaning structure. The part omitted during the conversation is created by referring to the conversation history storage means 16 and supplementing the context.

【0013】個人情報格納手段9には、対話の過程で得
られる個人情報をユーザ毎に蓄積する。個人プロファイ
ル9aには、ユーザのプロファイルを蓄積する。氏名・
住所・年令・性別・家族構成・所属・身分等の他、趣味
・嗜好に関する情報も対話を通じ蓄積される。
The personal information storage means 9 stores personal information obtained in the course of the dialog for each user. The user profile is stored in the personal profile 9a. Full name·
In addition to address, age, gender, family composition, affiliation, status, etc., information on hobbies and preferences is accumulated through dialogue.

【0014】感情推論規則格納手段14には、感情に関
する因果関係の推論規則が格納されている。推論規則
は、例えば図2に示すように、好きな物・人が利益を得
る(成功する)という条件で推論される感情「喜び」
(パターン1)、好きな物・人が損失を被る(失敗す
る)という条件で推論される感情「落胆」(パターン
2)、嫌いな物・人が利益を得る(成功する)という条
件で推論される感情「怒り」(パターン3)、嫌いな物
・人が損失を被る(失敗する)という条件で推論される
感情「満足」(パターン4)がある。感情の振幅や嗜好
の程度は個人差があるが、これらは個人プロファイル9
a中の情報を用いる。ある事象が条件に当てはまる程度
は知識ベース12中の情報を参照して評価する。
The emotion inference rule storage means 14 stores inference rules for causal relations regarding emotions. The inference rule is, for example, as shown in FIG. 2, the emotion "joy" inferred on the condition that a favorite thing or person gains profit (success).
(Pattern 1), emotion "disappointment" inferred on the condition that a favorite thing or person suffers a loss (failure), and inference on the condition that a disliked object or person gains (success) There is an emotion “anger” (pattern 3), and an emotion “satisfaction” (pattern 4) that is inferred on the condition that a disliked object or person suffers a loss (fails). There are individual differences in the amplitude of emotion and the degree of preference, but these are the individual profiles 9
The information in a is used. The degree to which a certain event satisfies the condition is evaluated with reference to information in the knowledge base 12.

【0015】知識ベース12は一般的な知識・常識に関
するデータベースである。情報サーバ10は分散環境に
あり情報を提供するサーバである。目的により複数の情
報サーバ10を利用することが考えられる。この情報サ
ーバ10としては、特定分野のデータベースや音楽・映
像等のマルチメディア情報、ニュース・天気予報等の最
新情報供給が挙げられる。情報検索・通信手段11は、
対話処理手段17からの検索依頼を受けて情報サーバ1
0を選択・接続して情報を検索・取得する。
The knowledge base 12 is a database relating to general knowledge and common sense. The information server 10 is a server that provides information in a distributed environment. It is conceivable to use a plurality of information servers 10 depending on the purpose. Examples of the information server 10 include a database of a specific field, multimedia information such as music and video, and the latest information supply such as news and weather forecast. The information search / communication means 11
The information server 1 receives a search request from the dialog processing means 17.
Select / connect 0 to search / acquire information.

【0016】応答パターン格納手段15ではコンピュー
タの応答パターンを格納する。応答パターンは、応答内
容、言葉遣い、各種応答特徴のインデックスを選択でき
る。対話履歴格納手段16では、ユーザとコンピュータ
の対話の履歴を蓄積する手段であり、これはユーザの話
し言葉の中で省略が用いられた場合でも、対話の履歴を
参照して意味を補い適切な入力意味構造を作成するため
に必要である。また、対話履歴格納手段16は、対話の
流れを踏まえて次の応答を作成するために対話処理手段
17によって参照される。
The response pattern storage means 15 stores the response pattern of the computer. The response pattern can select a response content, a wording, and an index of various response characteristics. The conversation history storage means 16 is a means for accumulating the history of the conversation between the user and the computer. Even if the abbreviation is used in the user's spoken language, the conversation history storage means 16 refers to the conversation history to supplement the meaning and to make appropriate input. Required to create a semantic structure. Further, the dialog history storage unit 16 is referred to by the dialog processing unit 17 to create the next response based on the flow of the dialog.

【0017】対話処理手段17は、入力意味構造及び感
情判定を基に応答出力の意味構造、応答パターンを決定
し、応答のために必要な情報を取り出す。入力意味構造
が明示的に情報を要求していれば、知識ベース12、情
報サーバ10、個人情報格納手段9を参照し、情報を取
得する。取得した情報を感情推論規則に当てはめ、個人
プロファイル9a中の個人の嗜好と合わせてこの情報に
よるユーザの感情を推定する。この予想されるユーザの
感情、及び、現在のユーザの感情を基に適切な応答パタ
ーンを選択し、出力意味構造を作成する。
The dialog processing means 17 determines the semantic structure and response pattern of the response output based on the input semantic structure and emotion determination, and extracts information necessary for a response. If the input semantic structure explicitly requests information, the information is acquired by referring to the knowledge base 12, the information server 10, and the personal information storage unit 9. The acquired information is applied to the emotion inference rule, and the user's emotion based on this information is estimated together with the personal preference in the personal profile 9a. An appropriate response pattern is selected based on the expected user's emotion and the current user's emotion, and an output semantic structure is created.

【0018】入力意味構造が明示的な情報要求でない場
合、入力意味構造がユーザの個人情報を示していれば、
対話処理手段17は個人情報格納手段9にその個人情報
を格納する。入力意味構造と感情判定を基に個人プロフ
ァイル9aと感情推論規則を用い、必要に応じて知識ベ
ース12又は情報サーバ10から関連する情報を取得し
てユーザの感情の原因を推定する。対話処理手段17
は、個人プロファイル9a中の個人の嗜好と感情推論規
則から、これらの取得した情報によるユーザの感情を推
定し、出力する情報及び応答パターンを選択し、出力意
味構造を作成する。
If the input semantic structure is not an explicit information request, and if the input semantic structure indicates the user's personal information,
The dialog processing means 17 stores the personal information in the personal information storage means 9. Using the personal profile 9a and the emotion inference rules based on the input semantic structure and the emotion determination, related information is acquired from the knowledge base 12 or the information server 10 as necessary to estimate the cause of the user's emotion. Dialogue processing means 17
Estimates the user's emotion based on the acquired information from the personal preference and emotion inference rules in the personal profile 9a, selects information to output and a response pattern, and creates an output semantic structure.

【0019】出力文生成手段18は、対話処理手段17
から得た出力意味構造を基に、応答文を生成する。応答
文は、テキスト、音声、手話等の内、ユーザの希望する
方法で表現される。応答特徴格納手段5には、応答パタ
ーンに応じた応答の特徴データが格納されている。応答
の特徴は応答画面のキャラクターの表情や身振り、応答
音声のトーン等が挙げられる。応答生成手段6は、指定
された応答パターンに基づき応答特徴格納手段5より応
答特徴のデータを取り出し応答出力を生成する。出力手
段7はモニタ画面・スピーカ等に応答を出力する。
The output sentence generating means 18 includes the interactive processing means 17
A response sentence is generated based on the output semantic structure obtained from. The response sentence is expressed by a method desired by the user among text, voice, sign language, and the like. Response characteristic storage means 5 stores response characteristic data corresponding to the response pattern. The characteristics of the response include the expression and gesture of the character on the response screen, the tone of the response voice, and the like. The response generation means 6 extracts response characteristic data from the response characteristic storage means 5 based on the specified response pattern and generates a response output. The output means 7 outputs a response to a monitor screen, a speaker, or the like.

【0020】次に、本発明の実施の形態による応答生成
の簡単な例をプロ野球情報を話題とする場合を挙げて説
明する。実際の感情分類や推論規則はより細分化されて
おり複雑となるが、説明のため、簡単な例を挙げる。感
情推論規則格納手段14には図2に示した推論規則が格
納されている。ユーザAの個人プロファイル9aには図
3のようにユーザの嗜好(この例では好きなプロ野球の
球団名と好きな選手名)が格納されているとする。
Next, a simple example of response generation according to the embodiment of the present invention will be described with reference to a case where professional baseball information is a topic. Actual emotion classification and inference rules are more fragmented and complicated, but simple examples are given for explanation. The emotion inference rule storage means 14 stores the inference rules shown in FIG. It is assumed that the user's personal profile 9a stores the user's preference (in this example, the name of a favorite professional baseball team and the name of a favorite player) as shown in FIG.

【0021】知識ベース12には野球に関する一般的知
識、半ば固定的な知識が格納される。情報サーバ10に
はその日の試合結果、ハイライトシーン等最新の情報が
随時更新されている。選手登録や試合日程等の情報は必
要に応じて情報サーバ10より取り出し知識ベース12
を更新する。
The knowledge base 12 stores general knowledge about baseball and semi-fixed knowledge. The information server 10 is updated with the latest information such as the match result and highlight scene of the day as needed. Information such as player registrations and game schedules is retrieved from the information server 10 as necessary, and the knowledge base 12
To update.

【0022】ユーザAが対話装置に対し「今日の試合結
果は?」と尋ねた場合、コンピュータは情報サーバ10
より試合結果を取得する。「横浜5−1巨人」という結
果が得られた場合、「ユーザの好きなチームが敗れた」
事を判断し、図2に示した推論パターン2に合致するの
で、対話処理手段17はユーザは落胆すると予想し(ユ
ーザの感情を推定し)、予想した感情に応じて出力する
情報及び応答パターンを選択し、出力意味構造を作成
し、指定された応答パターンに基づき応答特徴格納手段
5より応答特徴のデータを取り出し応答生成手段6によ
り応答出力を生成させ、出力手段7によりモニタ画面・
スピーカ等に応答を出力する。応答パターンとしては
「残念ながら負けてしまいました。」と残念そうに答え
る、というパターンが選択される。
When the user A asks the interactive apparatus, "What is the result of today's match?"
Get more match results. If the result "Yokohama 5-1 giant" is obtained, "the user's favorite team has lost."
The dialog processing means 17 predicts that the user will be discouraged (estimates the emotion of the user), and outputs the information and the response pattern according to the predicted emotion. Is selected, an output semantic structure is created, response feature data is taken out from the response feature storage unit 5 based on the designated response pattern, a response output is generated by the response generation unit 6, and a response screen is generated by the output unit 7.
A response is output to a speaker or the like. As the response pattern, a pattern of answering unfortunately, "I'm sorry I lost."

【0023】一方、ユーザAが「あー、また負けた」と
いった場合、音声・表情等からユーザの感情は落胆して
いると判定されたとする。この場合、情報サーバ10か
ら試合結果を取得し、個人プロファイル9aを参照する
と、ユーザの落胆の原因は「好きなチームが敗れた」と
いうことで推論パターン2に合致する。コンピュータの
対話処理手段17は応答パターンとしてユーザが喜びそ
うな即ち推論パターン1に合致する情報を探し、応答生
成手段6により応答を作成させる。この場合、「でも、
松井は本塁打トップです。」等と努めて明るく答えるパ
ターンが選択される。
On the other hand, when the user A says "Oh, lost again", it is assumed that the emotion of the user is determined to be discouraged from the voice / expression. In this case, when the match result is acquired from the information server 10 and the personal profile 9a is referred to, the cause of the user's disappointment is that the favorite team has lost, which matches the inference pattern 2. The interactive processing unit 17 of the computer searches for information that matches the inference pattern 1 that the user is likely to be pleased with as a response pattern, and causes the response generation unit 6 to create a response. In this case, "But
Matsui is the home run top. ", And a pattern that answers brightly is selected.

【0024】このように、この実施の形態によれば、各
ユーザの個人情報を蓄積し、蓄積された情報と知識ベー
ス12、情報サーバ10からの情報から、感情推論規則
を用いて、各ユーザの嗜好やその時々の状況、話題に応
じて感情の原因を推し量り、コンピュータの応答に対す
るユーザの感情を予測して、適切な応答を作成すること
ができる。
As described above, according to this embodiment, the personal information of each user is stored, and the stored information and the information from the knowledge base 12 and the information server 10 are used for each user using the emotion inference rule. It is possible to estimate the cause of the emotion according to the user's preference, the situation at that time, and the topic, predict the user's emotion to the computer response, and create an appropriate response.

【0025】次に、本発明の他の実施の形態について説
明する。この他の実施の形態では、個人情報格納手段9
に個人プロファイル9aに加え、スケジュール情報9b
を格納するようにしたものである。スケジュール情報9
bにはユーザのスケジュールを蓄積する。ユーザとの対
話において入力意味構造がユーザのスケジュールを示し
ていれば、スケジュール情報9bに情報を格納する。入
力意味構造と感情判定を基に個人プロファイル9aと感
情推論規則を用い、必要に応じて知識ベース12又は情
報サーバ10から関連する情報を取り出して、ユーザの
感情の原因を推定する際に、スケジュール情報9bから
ユーザのスケジュールもまた参照し、感情の原因を推定
する。この場合は、各ユーザの嗜好やその時々の状況、
話題だけでなく、スケジュールにも応じて感情の原因を
推し量り、コンピュータの応答に対するユーザの感情を
予測して、適切な応答を作成することができる。
Next, another embodiment of the present invention will be described. In this other embodiment, the personal information storage means 9
In addition to the personal profile 9a, schedule information 9b
Is stored. Schedule information 9
b stores the user's schedule. If the input meaning structure indicates the user's schedule in the dialogue with the user, the information is stored in the schedule information 9b. Using the personal profile 9a and the emotion inference rules based on the input semantic structure and the emotion determination, extracting relevant information from the knowledge base 12 or the information server 10 as necessary, and estimating the cause of the user's emotion, the schedule is used. The user's schedule is also referred to from the information 9b to estimate the cause of the emotion. In this case, the preferences of each user, the situation at that time,
An appropriate response can be created by estimating the cause of the emotion according to the schedule as well as the topic, estimating the user's emotion to the computer's response.

【0026】[0026]

【発明の効果】以上説明したように、本発明によれば、
ユーザの感情を入力手段からの入力情報に基づいて判定
すると共に、各ユーザの個人情報を蓄積し、蓄積された
情報と情報取得手段からの情報とから、感情推論規則を
用いて、各ユーザの嗜好やその時々の状況、話題に応じ
て感情の原因を推し量り、応答に対するユーザの感情を
予測して、適切な応答を作成して出力するようにしたた
め、ユーザの感情だけでなく、その感情の原因である各
ユーザの嗜好やその時々の状況、話題に応じてユーザ毎
に適応した最適な対話ができ、従来に比べて親しみ易い
対話を行うことができる。
As described above, according to the present invention,
The user's emotions are determined based on the input information from the input means, the personal information of each user is stored, and the stored information and the information from the information acquisition means are used to determine each user's emotion using the emotion inference rule. Estimating the cause of emotions according to tastes, current situations, and topics, predicting the user's emotions in response, and creating and outputting an appropriate response, not only the user's emotions but also their emotions The most suitable dialogue can be made for each user according to the user's preference, the situation at that time, and the topic, which is the cause of the problem.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施の形態のブロック図である。FIG. 1 is a block diagram of an embodiment of the present invention.

【図2】推論規則の例を示す図である。FIG. 2 is a diagram illustrating an example of an inference rule.

【図3】個人プロファイルの例を示す図である。FIG. 3 is a diagram illustrating an example of a personal profile.

【符号の説明】[Explanation of symbols]

1 入力手段 2 特徴抽出手段 3 感情特徴格納手段 4 感情判定手段 5 応答特徴格納手段 6 応答生成手段 7 出力手段 8 入力文解析手段 9 個人情報格納手段 9a 個人プロファイル 9b スケジュール情報 10 情報サーバ 11 情報検索・通信手段 12 知識ベース 13 情報取得手段 14 感情推論規則格納手段 15 応答パターン格納手段 16 対話履歴格納手段 17 対話処理手段 18 出力文生成手段 Reference Signs List 1 input means 2 feature extraction means 3 emotion feature storage means 4 emotion determination means 5 response feature storage means 6 response generation means 7 output means 8 input sentence analysis means 9 personal information storage means 9a personal profile 9b schedule information 10 information server 11 information search Communication means 12 Knowledge base 13 Information acquisition means 14 Emotion inference rule storage means 15 Response pattern storage means 16 Dialog history storage means 17 Dialog processing means 18 Output sentence generation means

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 ユーザにより入力された音声あるいは前
記ユーザの表情等を通じて、前記ユーザと対話する対話
装置において、 前記ユーザの発する音声、顔画像及び言語情報を少なく
とも入力する入力手段と、 前記入力手段から入力された情報の特徴を抽出する特徴
抽出手段と、 前記特徴抽出手段により抽出された特徴と、予め格納さ
れている感情判定用データとから前記ユーザの感情を判
定する感情判定手段と、 前記入力手段から入力された前記言語情報を解析し、意
味構造を抽出する入力文解析手段と、 話題に関連する情報を検索・取得する情報取得手段と、 ユーザ毎の個人情報を格納している個人情報格納手段
と、 客観的事柄と感情とを関連付ける推論規則を格納してい
る感情推論規則格納手段と、 複数の応答パターンのインデックスを保持する応答パタ
ーン格納手段と、 前記入力文解析手段により解析された入力言語情報の意
味構造と、前記感情判定手段により判定されたユーザの
感情と、前記情報取得手段から取得した関連情報と、前
記個人情報格納手段から取得した個人情報と、前記感情
推論規則格納手段から取得した感情推論規則を参照し
て、前記応答パターン格納手段から適切な応答パターン
を選択し、応答文の意味構造を作成する対話処理手段
と、 前記対話処理手段により作成された意味構造から出力文
を生成する出力文生成手段と、 前記応答パターンに対応した応答特徴を格納している応
答特徴格納手段と、 前記出力文生成手段により生成された出力文と、前記対
話処理手段により選択された応答パターンに応じて前記
応答特徴格納手段から取得した応答特徴とに基づき、応
答内容を生成する応答生成手段と、 前記応答生成手段で生成した応答内容を出力する出力手
段とを有することを特徴とする対話装置。
1. An interactive device for interacting with a user through a voice input by the user or a facial expression of the user, etc., input means for inputting at least voice, face image, and language information issued by the user; and the input means A feature extraction unit that extracts a feature of information input from the device; an emotion determination unit that determines the user's emotion from the feature extracted by the feature extraction unit and emotion determination data stored in advance; An input sentence analyzing means for analyzing the linguistic information input from the input means and extracting a semantic structure; an information obtaining means for searching and obtaining information related to a topic; and an individual storing personal information for each user. Information storage means; emotion inference rule storage means for storing inference rules relating objective matters to emotions; and indexing of a plurality of response patterns. Response pattern storage means for storing the input language information analyzed by the input sentence analysis means, the user's emotion determined by the emotion determination means, and related information acquired from the information acquisition means. Referring to the personal information acquired from the personal information storage means and the emotion inference rules acquired from the emotion inference rule storage means, and selecting an appropriate response pattern from the response pattern storage means, and changing the semantic structure of the response sentence. Dialog processing means for creating; output sentence generating means for generating an output sentence from the semantic structure created by the dialog processing means; response feature storage means for storing response features corresponding to the response pattern; An output sentence generated by the sentence generation means and a response acquired from the response feature storage means according to the response pattern selected by the interaction processing means. Based on the characteristics, and the response generation means for generating a response content, interactive device, characterized in that an output means for outputting a response content generated by said response generating means.
【請求項2】 対話の履歴を格納する対話履歴格納手段
を備え、前記入力文解析手段は前記対話履歴格納手段に
格納されている対話履歴を用いて意味を補って意味構造
を作成し、前記対話処理手段は、前記対話履歴格納手段
に格納されている対話履歴を併せ参照して前記応答パタ
ーンを選択し、前記応答文の意味構造を作成することを
特徴とする請求項1記載の対話装置。
2. The apparatus according to claim 1, further comprising: a dialog history storing unit configured to store a dialog history, wherein the input sentence analyzing unit supplements a meaning using a dialog history stored in the dialog history storing unit to create a semantic structure; 2. The interaction apparatus according to claim 1, wherein the interaction processing means selects the response pattern by referring to the interaction history stored in the interaction history storage means and creates a semantic structure of the response sentence. .
【請求項3】 前記個人情報格納手段は、前記ユーザ毎
の個人プロファイルとスケジュール情報の、少なくとも
一方を保持することを特徴とする請求項1記載の対話装
置。
3. The interactive apparatus according to claim 1, wherein said personal information storage means holds at least one of a personal profile and schedule information for each user.
【請求項4】 前記情報取得手段は、所望の最新情報を
提供する情報サーバと、一般的な知識・常識に関するデ
ータを格納している知識ベースと、前記対話処理手段か
らの検索依頼を受けて前記情報サーバを選択・接続して
所望の情報を取得する情報検索・通信手段とを有するこ
とを特徴とする請求項1記載の対話装置。
4. The information obtaining means receives an information server for providing desired latest information, a knowledge base storing data on general knowledge and common sense, and a search request from the interactive processing means. 2. The interactive apparatus according to claim 1, further comprising an information search / communication means for selecting / connecting the information server and acquiring desired information.
JP01166299A 1999-01-20 1999-01-20 Dialogue device Expired - Lifetime JP4465730B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP01166299A JP4465730B2 (en) 1999-01-20 1999-01-20 Dialogue device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP01166299A JP4465730B2 (en) 1999-01-20 1999-01-20 Dialogue device

Publications (2)

Publication Number Publication Date
JP2000207214A true JP2000207214A (en) 2000-07-28
JP4465730B2 JP4465730B2 (en) 2010-05-19

Family

ID=11784205

Family Applications (1)

Application Number Title Priority Date Filing Date
JP01166299A Expired - Lifetime JP4465730B2 (en) 1999-01-20 1999-01-20 Dialogue device

Country Status (1)

Country Link
JP (1) JP4465730B2 (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002108929A (en) * 2000-10-04 2002-04-12 Up Coming:Kk System and method for retrieving related information, and computer readable recording medium
JP2005242891A (en) * 2004-02-27 2005-09-08 Fujitsu Ltd Case retrieving program
JP2006031467A (en) * 2004-07-16 2006-02-02 Fujitsu Ltd Response generation program, response generation method and response generation apparatus
JP2006127057A (en) * 2004-10-27 2006-05-18 Canon Inc Estimation device and its control method
JP2007287177A (en) * 2002-12-11 2007-11-01 Sony Corp Information processing device and method, program, and recording medium
JP2010129033A (en) * 2008-12-01 2010-06-10 Nippon Telegr & Teleph Corp <Ntt> Interactive mental state learning device and method thereof, interactive control device and method thereof, program and recording medium
KR20170092603A (en) * 2014-12-04 2017-08-11 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 Emotion type classification for interactive dialog system
JP2018173899A (en) * 2017-03-31 2018-11-08 大日本印刷株式会社 Information processing apparatus, information processing method, and program
WO2019098185A1 (en) * 2017-11-16 2019-05-23 株式会社Nttドコモ Dialog text generation system and dialog text generation program
JP2019101619A (en) * 2017-11-30 2019-06-24 Kddi株式会社 Dialogue scenario generation apparatus, program and method capable of determining context from dialogue log groups
JP2019159878A (en) * 2018-03-14 2019-09-19 Kddi株式会社 Answering device, answering method, answering program and answering system
WO2019211967A1 (en) * 2018-05-01 2019-11-07 株式会社Nttドコモ Dialogue device
JP2021096873A (en) * 2016-01-28 2021-06-24 ソニーグループ株式会社 Communication system, communication control method, and program
US11595331B2 (en) 2016-01-28 2023-02-28 Sony Group Corporation Communication system and communication control method

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002108929A (en) * 2000-10-04 2002-04-12 Up Coming:Kk System and method for retrieving related information, and computer readable recording medium
JP2007287177A (en) * 2002-12-11 2007-11-01 Sony Corp Information processing device and method, program, and recording medium
JP4525712B2 (en) * 2002-12-11 2010-08-18 ソニー株式会社 Information processing apparatus and method, program, and recording medium
JP2005242891A (en) * 2004-02-27 2005-09-08 Fujitsu Ltd Case retrieving program
JP4508757B2 (en) * 2004-07-16 2010-07-21 富士通株式会社 Response generation program, response generation method, and response generation apparatus
JP2006031467A (en) * 2004-07-16 2006-02-02 Fujitsu Ltd Response generation program, response generation method and response generation apparatus
JP2006127057A (en) * 2004-10-27 2006-05-18 Canon Inc Estimation device and its control method
JP2010129033A (en) * 2008-12-01 2010-06-10 Nippon Telegr & Teleph Corp <Ntt> Interactive mental state learning device and method thereof, interactive control device and method thereof, program and recording medium
KR20170092603A (en) * 2014-12-04 2017-08-11 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 Emotion type classification for interactive dialog system
JP2018503894A (en) * 2014-12-04 2018-02-08 マイクロソフト テクノロジー ライセンシング,エルエルシー Classification of emotion types for interactive dialog systems
KR102457486B1 (en) * 2014-12-04 2022-10-20 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 Emotion type classification for interactive dialog system
JP2021096873A (en) * 2016-01-28 2021-06-24 ソニーグループ株式会社 Communication system, communication control method, and program
US11595331B2 (en) 2016-01-28 2023-02-28 Sony Group Corporation Communication system and communication control method
JP7056780B2 (en) 2016-01-28 2022-04-19 ソニーグループ株式会社 Communication systems, communication control methods and programs
JP2018173899A (en) * 2017-03-31 2018-11-08 大日本印刷株式会社 Information processing apparatus, information processing method, and program
JPWO2019098185A1 (en) * 2017-11-16 2020-07-09 株式会社Nttドコモ Utterance sentence generation system and utterance sentence generation program
WO2019098185A1 (en) * 2017-11-16 2019-05-23 株式会社Nttドコモ Dialog text generation system and dialog text generation program
JP2019101619A (en) * 2017-11-30 2019-06-24 Kddi株式会社 Dialogue scenario generation apparatus, program and method capable of determining context from dialogue log groups
JP7014646B2 (en) 2018-03-14 2022-02-01 Kddi株式会社 Response device, response method, response program and response system
JP2019159878A (en) * 2018-03-14 2019-09-19 Kddi株式会社 Answering device, answering method, answering program and answering system
JPWO2019211967A1 (en) * 2018-05-01 2021-02-12 株式会社Nttドコモ Dialogue device
WO2019211967A1 (en) * 2018-05-01 2019-11-07 株式会社Nttドコモ Dialogue device

Also Published As

Publication number Publication date
JP4465730B2 (en) 2010-05-19

Similar Documents

Publication Publication Date Title
JP7419485B2 (en) Proactively incorporating unsolicited content into human-to-computer dialogs
US10853582B2 (en) Conversational agent
US11887594B2 (en) Proactive incorporation of unsolicited content into human-to-computer dialogs
US8935163B2 (en) Automatic conversation system and conversation scenario editing device
US20200395008A1 (en) Personality-Based Conversational Agents and Pragmatic Model, and Related Interfaces and Commercial Models
CN107818781A (en) Intelligent interactive method, equipment and storage medium
US9183833B2 (en) Method and system for adapting interactions
JP2001125896A (en) Natural language interactive system
JP2000207214A (en) Interaction device
WO2003085550A1 (en) Conversation control system and conversation control method
JP5420874B2 (en) Digital story providing system, digital story providing method, and computer program for causing computer system to execute this method
JP2016212499A (en) Dialogue pattern automatic creation device, method and program
CN106844646A (en) Artificial intelligence reply method and device based on emotional prediction
Griol et al. Modeling users emotional state for an enhanced human-machine interaction
KR102668732B1 (en) Proactive incorporation of unsolicited content into human-to-computer dialogs
KR101914582B1 (en) Method, interactive ai agent system and computer readable recoding medium for providing semantic-free user voiceprint authentication having enhanced security
WO2020116193A1 (en) Information processing apparatus, information processing method, and program
JP2004139446A (en) Secretary agent system for use with ordinary language computer system, secretary agent program, and method of planning dialogue
JP2023525232A (en) Automated Assistant with Audio Presentation Dialogue
JP2010015266A (en) Conversation control system, and terminal equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090127

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090317

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090407

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090528

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100202

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100215

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130305

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130305

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130305

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140305

Year of fee payment: 4

EXPY Cancellation because of completion of term