JP2016076117A - Information processing device and utterance content output method - Google Patents

Information processing device and utterance content output method Download PDF

Info

Publication number
JP2016076117A
JP2016076117A JP2014206599A JP2014206599A JP2016076117A JP 2016076117 A JP2016076117 A JP 2016076117A JP 2014206599 A JP2014206599 A JP 2014206599A JP 2014206599 A JP2014206599 A JP 2014206599A JP 2016076117 A JP2016076117 A JP 2016076117A
Authority
JP
Japan
Prior art keywords
utterance
information
user
emotion
response type
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014206599A
Other languages
Japanese (ja)
Other versions
JP6450138B2 (en
Inventor
可奈子 大西
Kanako Onishi
可奈子 大西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2014206599A priority Critical patent/JP6450138B2/en
Publication of JP2016076117A publication Critical patent/JP2016076117A/en
Application granted granted Critical
Publication of JP6450138B2 publication Critical patent/JP6450138B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To output an utterance content not only based on the state of emotion of a user but also more appropriate for the user.SOLUTION: An utterance analysis unit 2 identifies the emotion of a user on the basis of an utterance content of the user; and a response type determination unit 4 determines a response type of the utterance content of the user on the basis of the emotion. In addition, an utterance generation unit 7 obtains preference information (such as topic information and entity information) of the user from a personal DB 10; obtains a template corresponding to the response type from an utterance DB 8; and outputs as an utterance content a content in which the preference information of the user is applied to the template.SELECTED DRAWING: Figure 1

Description

本発明は、情報処理装置及び発話内容出力方法に関する。   The present invention relates to an information processing apparatus and an utterance content output method.

従来から、ユーザの自然言語による発話に対して、コンピュータが自然言語による応答をすることができる対話型装置がある。例えば、特許文献1には、ユーザが発した音声からキーワードを抽出し、そのキーワードに対応する健康状態(例えば、「普通」、「良好」、「怒り」、及び「喜び」等の感情に関する情報)を特定し、特定した健康状態に応じた行動パターンの提案の応答をしている。   2. Description of the Related Art Conventionally, there are interactive devices that allow a computer to respond in natural language to a user's natural language utterance. For example, in Patent Document 1, a keyword is extracted from a voice uttered by a user, and information on emotions such as “normal”, “good”, “anger”, and “joy” corresponding to the keyword is extracted. ) And responding to suggestions of behavior patterns according to the identified health condition.

再公表2004−27527号公報Republished No. 2004-27527

上記のように、上記特許文献1には、感情に応じた行動パターンの提案に関する応答をしているが、感情のみに基づいて行動提案の応答をすることになる。よって、必ずしもユーザ個々に適切な応答ができないという問題点があった。例えば、ユーザの趣味や経験に即した応答ができないという問題点があった。   As described above, in Patent Document 1, a response related to a suggestion of an action pattern corresponding to an emotion is made, but a response of an action proposal is made based only on the emotion. Therefore, there is a problem that it is not always possible to respond appropriately to each user. For example, there is a problem that a response according to the user's hobbies and experiences cannot be made.

本発明は、上記を鑑みてなされたものであり、ユーザの感情状態に基づくだけでなく、よりユーザにとって適切な発話内容(応答内容)を出力し得る、発話装置及び発話方法を提供することを目的とする。   The present invention has been made in view of the above, and provides an utterance device and an utterance method that can output utterance content (response content) more appropriate for the user as well as based on the emotional state of the user. Objective.

本発明に係る情報処理装置は、ユーザの発話内容に基づいてユーザの感情を特定する感情特定手段と、ユーザの嗜好情報を取得する嗜好情報取得手段と、感情特定手段により特定された感情に基づいて、ユーザの発話内容の応答種別を決定する応答種別決定手段と、応答種別決定手段により決定された応答種別と、嗜好情報取得手段により取得された嗜好情報とに基づいた発話内容を生成する発話生成手段と、発話生成手段によって生成された発話内容を出力する発話出力手段と、を備える。   An information processing apparatus according to the present invention is based on an emotion specifying means for specifying a user's emotion based on a user's utterance content, a preference information acquiring means for acquiring user's preference information, and an emotion specified by the emotion specifying means. An utterance that generates utterance content based on the response type determination means that determines the response type of the utterance content of the user, the response type determined by the response type determination means, and the preference information acquired by the preference information acquisition means Generating means, and utterance output means for outputting the utterance content generated by the utterance generation means.

本発明に係る発話内容方法は、情報処理装置で実行される発話内容出力方法であって、ユーザの発話内容に基づいてユーザの感情を特定する感情特定ステップと、ユーザの嗜好情報を取得する嗜好情報取得ステップと、感情特定ステップにより特定された感情に基づいて、ユーザの発話内容の応答種別を決定する応答種別決定ステップと、応答種別決定ステップにより決定された応答種別と、嗜好情報取得ステップにより取得された嗜好情報とに基づいた発話内容を生成する発話生成ステップと、発話生成ステップによって生成された発話内容を出力する発話出力ステップと、を含む。   An utterance content method according to the present invention is an utterance content output method executed by an information processing apparatus, and includes an emotion specifying step for specifying a user's emotion based on the user's utterance content, and a preference for acquiring user preference information. A response type determining step for determining the response type of the user's utterance content based on the emotion specified by the information acquiring step, the emotion specifying step, a response type determined by the response type determining step, and a preference information acquiring step An utterance generation step for generating utterance contents based on the acquired preference information and an utterance output step for outputting the utterance contents generated by the utterance generation step are included.

この発明によれば、ユーザの嗜好情報に基づいて発話内容を生成するので、ユーザの感情状態に基づくだけでなく、よりユーザにとって適切な発話内容を出力することができる。   According to this invention, since the utterance content is generated based on the user's preference information, the utterance content more appropriate for the user can be output as well as based on the emotional state of the user.

上記情報処理装置では、感情特定手段により特定された感情と、応答種別決定手段により決定された応答種別とを履歴情報として記憶する履歴記憶手段をさらに備え、応答種別決定手段は、履歴情報から過去の感情特性の変化に基づいて応答種別を決定してもよい。このように、情報処理装置は、履歴情報を用いて感情の特定の変化に基づいて応答種別を決定するので、画一的に感情に基づいて発話内容を決定する場合と比較して、よりユーザにとって適切な発話内容を出力することができる。   The information processing apparatus further includes history storage means for storing the emotion specified by the emotion specifying means and the response type determined by the response type determining means as history information, and the response type determining means The response type may be determined based on the change in emotional characteristics. In this way, the information processing apparatus uses the history information to determine the response type based on a specific change in emotion, so that it is more user-friendly than when utterance content is determined based on emotion uniformly. It is possible to output the utterance content appropriate for the user.

上記情報処理装置では、発話内容のテンプレート情報を記憶するテンプレート記憶手段をさらに備え、発話生成手段は、テンプレート記憶手段により記憶されているテンプレートに嗜好情報を当てはめた内容を発話内容として生成してもよい。この場合、情報処理装置は、嗜好情報を発話内容に含めるので、よりユーザ嗜好に沿った発話内容を出力するので、ユーザにとって適切な発話内容を出力することができる。   The information processing apparatus further includes a template storage unit that stores template information of the utterance content, and the utterance generation unit generates content in which the preference information is applied to the template stored in the template storage unit as the utterance content. Good. In this case, since the information processing apparatus includes the preference information in the utterance content, the utterance content more in line with the user preference is output, so that the utterance content appropriate for the user can be output.

上記情報処理装置では、嗜好情報には、具体的事物情報及び当該具体的事物情報の上位概念情報をさらに含み、発話生成手段は、テンプレート記憶手段により記憶されているテンプレートで定められている種別に応じて嗜好情報の具体的事物情報又は当該具体的事物情報の上位概念情報を当てはめた内容を発話内容として生成してもよい。この場合、情報処理装置は、テンプレートに嗜好情報の具体的事物情報又は、当該具体的事物情報の上位概念化した情報の何れかを当てはめた内容を発話内容として生成するので、嗜好情報の深さの異なる情報を選択的に提供することができるので、ユーザにとって適切な発話内容を出力することができる。   In the information processing apparatus, the preference information further includes specific thing information and higher-level concept information of the specific thing information, and the utterance generation means is classified into the types defined in the template stored in the template storage means. Accordingly, the specific matter information of the preference information or the content to which the higher level concept information of the specific matter information is applied may be generated as the utterance content. In this case, since the information processing apparatus generates the content in which the specific matter information of the preference information or the information conceptualized in the specific matter information is applied to the template as the utterance content, the depth of the preference information Since different information can be selectively provided, utterance content appropriate for the user can be output.

上記情報処理装置では、具体的事物の上位概念情報間において優先度が定められ、発話生成手段は、上位概念情報間における優先度の高い上位概念情報の内容を当てはめた内容を発話内容として生成してもよい。この場合、情報処理装置は、上位概念間の順位に基づいて、発話内容を出力するので、よりユーザ嗜好に沿った発話内容を出力することができる。   In the information processing apparatus, priority is set between the higher-level concept information of specific things, and the utterance generation means generates the content that applies the content of the higher-level concept information between the higher-level concept information as the utterance content. May be. In this case, since the information processing apparatus outputs the utterance content based on the rank between the higher concepts, the utterance content can be output more in line with the user preference.

上記情報処理装置では、感情特定手段は、ユーザの発話内容から話題を抽出し、発話生成手段は、感情特定手段により抽出された話題をさらに基づいて発話内容を生成してもよい。この場合、情報処理装置は、ユーザの発話内容から特定される感情だけでなく、ユーザの話題も抽出して、その話題に基づいて発話内容を生成するので、よりユーザの状態に即した発話内容を出力することができる。   In the information processing apparatus, the emotion identification unit may extract a topic from the user's utterance content, and the utterance generation unit may generate the utterance content further based on the topic extracted by the emotion identification unit. In this case, since the information processing apparatus extracts not only the emotion specified from the user's utterance content but also the user's topic and generates the utterance content based on the topic, the utterance content more suited to the user's state Can be output.

本発明によれば、ユーザの感情状態に基づくだけでなく、よりユーザにとって適切な発話内容を出力することができる。   According to the present invention, it is possible not only to be based on the emotional state of the user, but also to output utterance content more appropriate for the user.

本実施形態に係る通信端末装置1の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the communication terminal device 1 which concerns on this embodiment. 発話感情DB3が記憶する情報の一例を示す図である。It is a figure which shows an example of the information which speech utterance DB3 memorize | stores. 応答種別DB5が記憶する情報の一例を示す図である。It is a figure which shows an example of the information which response type DB5 memorize | stores. 応答履歴DB6が記憶する情報の一例を示す図である。It is a figure which shows an example of the information which response log | history DB6 memorize | stores. 発話DB8が記憶する情報の一例を示す図である。It is a figure which shows an example of the information which speech DB8 memorize | stores. パーソナルDB10が記憶する情報の一例を示す図である。It is a figure which shows an example of the information which personal DB10 memorize | stores. 通信端末装置1のハードウェア構成を示すブロック図である。2 is a block diagram showing a hardware configuration of a communication terminal device 1. FIG. 通信端末装置1の処理を示すフローチャートである。4 is a flowchart showing processing of the communication terminal device 1. テンプレート生成処理を示すフローチャートである。It is a flowchart which shows a template production | generation process.

以下、図面を参照しながら、本実施形態を説明する。可能な場合には、同一の部分には同一の符号を付して、重複する説明を省略する。   Hereinafter, this embodiment will be described with reference to the drawings. Where possible, the same parts are denoted by the same reference numerals, and redundant description is omitted.

図1は、本実施形態に係る通信端末装置1(情報処理装置)の機能構成を示すブロック図である。通信端末装置1は、ユーザの発話内容を特定し、その発話内容に基づいた発話(ユーザの発話に対する応答)を出力する装置である。   FIG. 1 is a block diagram illustrating a functional configuration of a communication terminal device 1 (information processing device) according to the present embodiment. The communication terminal device 1 is a device that specifies the utterance content of the user and outputs an utterance (response to the utterance of the user) based on the utterance content.

通信端末装置1は、例えば、スマートフォンやタブレット等の端末装置である。ただし、通信端末装置1は、ユーザの発話内容を特定し、それに応じて発話出力できる装置であればよく、これらの装置に限られない。   The communication terminal device 1 is a terminal device such as a smartphone or a tablet, for example. However, the communication terminal device 1 is not limited to these devices as long as it can identify the user's utterance content and output the utterance accordingly.

上述のように通信端末装置1は、ユーザの発話内容を特定し、それに応じた発話内容を出力する。このような機能を実現するために、通信端末装置1は、発話解析部2(感情特定手段)と、発話感情DB3と、応答種別決定部4(応答種別決定手段)と、応答種別DB5と、応答履歴DB6(履歴記憶手段)と、発話生成部7(嗜好情報取得手段、発話生成手段)と、発話DB8(テンプレート記憶手段)と、トピック推定部9と、パーソナルDB10と、パーソナライズ情報入力部11と、発話出力部12(発話出力手段)とを備える。   As described above, the communication terminal device 1 specifies the utterance content of the user and outputs the utterance content corresponding to the utterance content. In order to realize such a function, the communication terminal device 1 includes an utterance analysis unit 2 (emotion specifying unit), an utterance emotion DB 3, a response type determination unit 4 (response type determination unit), a response type DB 5, Response history DB 6 (history storage means), utterance generation section 7 (preference information acquisition means, utterance generation means), utterance DB 8 (template storage means), topic estimation section 9, personal DB 10, and personalized information input section 11 And an utterance output unit 12 (utterance output means).

発話解析部2は、ユーザの発話を受け付ける手段(例えば、マイク等)により受け付けられたユーザの発話の内容に基づいてユーザの感情を特定する部分である。発話解析部2は、ユーザの発話内容を通信端末装置1が備えるマイク等により、音声波形に変換し、変換した音声波形に基づいてユーザの発話内容を、公知技術により特定する。   The utterance analysis unit 2 is a part that identifies the user's emotion based on the content of the user's utterance received by means for receiving the user's utterance (for example, a microphone or the like). The utterance analysis unit 2 converts the user's utterance content into a speech waveform using a microphone or the like included in the communication terminal device 1, and identifies the user's utterance content based on the converted speech waveform by a known technique.

発話解析部2は、ユーザの発話内容を、公知技術により単語単位で特定する。例えば、「勉強疲れた」とユーザが発話した場合、発話解析部2は、「勉強」「疲れた」と単語単位で特定する。   The utterance analysis unit 2 specifies the content of the user's utterance in units of words by a known technique. For example, when the user utters “study tired”, the speech analysis unit 2 specifies “study” “tired” in units of words.

そして、発話解析部2は、発話内容から特定した単語に基づいてユーザの感情を特定する。具体的には、発話解析部2は、特定した単語と、発話感情DB3の情報とを比較して特定した単語から感情を特定する。   And the utterance analysis part 2 specifies a user's emotion based on the word specified from the utterance content. Specifically, the utterance analysis unit 2 identifies an emotion from the identified word by comparing the identified word with information in the utterance emotion DB 3.

ここで、発話感情DB3が保持する情報を図2に示す。図2に示すように、各感情に対応する情報である「発話」と、感情を示す「感情」と、当該感情がポジティブであるか、ネガティブであるかを示す情報(感情特性)である「PN」とを有する。   Here, FIG. 2 shows information held in the speech emotion DB 3. As shown in FIG. 2, “speech” that is information corresponding to each emotion, “emotion” that indicates emotion, and information (emotion characteristic) that indicates whether the emotion is positive or negative. PN ".

例えば、「ウキウキ」、「わーい」、「嬉しい」という単語は、感情が「喜」であり、「PN」がポジティブであることを示す。これは、ユーザが喜んでいる場合に、「ウキウキ」、「わーい」、「嬉しい」と発話しているケースが多いため、これらの単語と「喜」とを対応付けている。また、喜んでいる時は、一般にポジティブな状態であるので、感情が「喜」にポジティブが対応付けられている。このように、図3の発話感情DB3は、発話と、感情と、感情の特性(ポジティブ・ネガティブ)とを関連付けて記憶しているので、発話解析部2が、当該発話感情DB3を参照することにより、ユーザの発話内容に基づいて、ユーザの感情を特定することができる。   For example, the words “Ukiuki”, “Wai”, and “Happy” indicate that the emotion is “joy” and “PN” is positive. This is because, in many cases, when the user is happy, the words “exciting”, “wai”, and “happy” are spoken, and these words are associated with “joy”. When the user is delighted, the state is generally positive, and thus the emotion is associated with “joy” and positive. As described above, since the utterance emotion DB 3 in FIG. 3 stores utterances, emotions, and emotion characteristics (positive / negative) in association with each other, the utterance analysis unit 2 refers to the utterance emotion DB 3. Thereby, a user's emotion can be specified based on a user's utterance content.

例えば、発話解析部2は、発話感情DB3を参照し、特定した単語が「わーい」であれば、感情が「喜」であり、ポジティブであると特定する。   For example, the utterance analysis unit 2 refers to the utterance emotion DB 3 and specifies that the emotion is “joy” and is positive if the specified word is “Wai”.

このように、発話解析部2は、ユーザの発話内容を受け付けて、その発話内容からユーザの感情を特定する。また、発話解析部2は、特定した感情に基づいて、ユーザがポジティブかネガティブかを特定する。   Thus, the utterance analysis unit 2 accepts the user's utterance content and identifies the user's emotion from the utterance content. Also, the utterance analysis unit 2 identifies whether the user is positive or negative based on the identified emotion.

そして、発話解析部2は、特定した単語及び感情(ポジティブかネガティブかを含む)を応答種別決定部4へ通知する。なお、発話解析部2は、感情だけでなく、ユーザが発話した内容の話題を特定するようにしてもよい。例えば、図示しない話題を特定するための話題特定用の単語を予め通信端末装置1で記憶しておき、発話解析部2は、ユーザが発話した内容と話題特定用の単語とを比較して、話題を特定する。例えば、話題特定用の単語に「テニス」と記憶しておき、ユーザの発話内容が「テニス疲れた」である場合、発話解析部2は、発話内容の「テニス」と話題特定用の単語の「テニス」が合致するので、話題がテニスであると判断する。また、話題特定用の単語に当該単語の上位概念化した単語を対応付けておいてもよい。例えば、話題特定用の単語「テニス」に、当該単語の上位概念化した「スポーツ」を対応付けておいてもよい。この場合、発話解析部2は、話題を「テニス」ではなく、「スポーツ」と判断するようにしてもよい。   Then, the utterance analysis unit 2 notifies the response type determination unit 4 of the identified word and emotion (including positive or negative). Note that the utterance analysis unit 2 may specify not only the emotion but also the topic of the content uttered by the user. For example, a topic specifying word for specifying a topic (not shown) is stored in advance in the communication terminal device 1, and the utterance analysis unit 2 compares the content uttered by the user with the topic specifying word, Identify the topic. For example, when “tennis” is stored in the topic specifying word and the user's utterance content is “tennis tired”, the utterance analysis unit 2 determines whether the utterance content “tennis” and the topic specifying word are Since “tennis” matches, it is determined that the topic is tennis. In addition, a word that is a general concept of the word may be associated with a topic identification word. For example, the topic specifying word “tennis” may be associated with “sports”, which is a superordinate concept of the word. In this case, the utterance analysis unit 2 may determine that the topic is not “tennis” but “sports”.

なお、発話解析部2は、上記のように、予め記憶している単語とその単語に対応する感情に基づいて、感情を特定したが、公知技術の機械学習によって特定するようにしてもよい。また、発話解析部2は、話題を特定する際も機械学習により特定するようにしてもよい。例えば、発話解析部2は、大量のコーパスに対して話題らしい部分をマークして、その部分がどのような条件のもとに出現しているかを学習する。具体的には、発話解析部2は、「は」の前に出現する「名詞」は話題らしさが+1%といった情報が羅列されたモデルを作成し、それを用いて話題を抽出する。   In addition, although the speech analysis part 2 specified the emotion based on the word memorize | stored previously and the emotion corresponding to the word as mentioned above, you may make it specify by the well-known machine learning. In addition, the utterance analysis unit 2 may identify the topic by machine learning. For example, the utterance analysis unit 2 marks a topic-like part on a large amount of corpora and learns under what conditions the part appears. Specifically, the utterance analysis unit 2 creates a model in which information such as “noun” appearing before “ha” is listed as + 1% of topic likelihood, and extracts the topic using the model.

応答種別決定部4は、発話解析部2により特定された感情と、ユーザの嗜好情報とに基づいて応答種別を決定する部分である。ここで、ユーザの嗜好情報とは、ユーザに特化した情報であり、趣味や特技等の情報が含まれる。また、当該趣味や特技の具体的な情報を上位概念化した情報も嗜好情報として含まれる。応答種別とは、通信端末装置1が応答する内容のカテゴリを意味し、例えば、賞賛、提案等が含まれる。   The response type determination unit 4 is a part that determines the response type based on the emotion specified by the utterance analysis unit 2 and user preference information. Here, the user preference information is information specialized for the user, and includes information such as hobbies and special skills. In addition, information obtained by converting the specific information on the hobby and special skills into a superordinate concept is also included as preference information. The response type means a category of contents to which the communication terminal device 1 responds, and includes, for example, praise, proposal, and the like.

まず、応答種別決定部4は、発話解析部2によって特定された感情(ポジティブかネガティブかを含む)を取得し、取得した感情に対応する応答種別を応答種別DB5が記憶する情報を用いて特定する。なお、発話解析部2によって、ユーザが発話した話題が特定された場合、当該話題も取得する。   First, the response type determination unit 4 acquires the emotion (including positive or negative) specified by the utterance analysis unit 2 and specifies the response type corresponding to the acquired emotion using information stored in the response type DB 5. To do. Note that when the utterance analysis unit 2 identifies a topic uttered by the user, the topic is also acquired.

ここで、応答種別DB5の例を図3に示す。図3に示すように、応答種別DB5は、「感情」と、「PN」と、ユーザに対する応答種別を示す「応答種別」を有する。例えば、感情が喜に対応する、応答種別は、賞賛、興味、共感、羨望であることを示す(なお、この応答種別には、予め優先度が設けられており、図3の左側が最も優先度が高いものとする)。すなわち、感情が喜びである場合、賞賛、興味、共感、羨望の何れかに関する応答をすることを示す。応答種別決定部4は、応答種別DB5の情報を用いて、発話解析部2から取得した感情が「喜」である場合、応答種別を「賞賛」、「興味」、「共感」、「羨望」の何れかとする。   An example of the response type DB 5 is shown in FIG. As illustrated in FIG. 3, the response type DB 5 includes “emotion”, “PN”, and “response type” indicating a response type to the user. For example, the response type corresponding to emotion is praise, interest, empathy, and envy. (This response type has a priority in advance, and the left side in FIG. High degree). That is, when the emotion is joy, it indicates that a response regarding any of praise, interest, empathy, or envy is given. The response type determination unit 4 uses the information of the response type DB 5 and, when the emotion acquired from the utterance analysis unit 2 is “joy”, the response type is “praise”, “interest”, “sympathy”, “envy” Either.

なお、ここで、「賞賛」は、褒め称える応答をすることを示し、「興味」は、ユーザの発話内容に対して興味を示すような応答をすることを示し、「共感」は、ユーザの発話内容に共感するような応答をすることを示し、「羨望」は、ユーザの発話内容に基づいて羨ましがるような応答をすることを示す。また、感情が「怒」に対応する応答種別に含まれる「提案」は、ユーザに何かを提案することを示す応答をすることを示す。   Here, “praise” indicates a response that praises, “interest” indicates a response that indicates interest in the user's utterance content, and “sympathy” indicates the user's response. The response indicates that the user sympathizes with the utterance content. “Envy” indicates that the response is enviable based on the utterance content of the user. “Proposal” included in the response type corresponding to emotion “anger” indicates that a response indicating that something is proposed to the user is sent.

また、応答種別決定部4は、応答履歴DB6に過去の履歴(通信端末装置1からの応答の履歴)を記憶している場合、当該過去の履歴をさらに基づいて応答種別を決定する。ここで応答履歴DB6が記憶している情報を図4に示す。   In addition, when a past history (response history from the communication terminal device 1) is stored in the response history DB 6, the response type determination unit 4 determines the response type based on the past history. The information stored in the response history DB 6 is shown in FIG.

図4に示すように、応答履歴DB6は、感情と、応答履歴と、日時とを有する。また、応答履歴DB6は、日時順に記憶しているものとする。例えば、日時「××年××月××日」に、ユーザの発話内容から特定された感情が「喜」である場合に、応答履歴として、賞賛の応答をしたことを示す。応答種別決定部4は、応答履歴DB6に情報を記憶している場合、直近の応答履歴に対応する感情が、ポジティブであるかネガティブであるかに基づいて応答種別の候補を絞る。例えば、応答履歴に対応する感情がポジティブの感情(例えば、喜)である場合、直前の応答履歴に対応する応答種別の優先度を上げる。図4の例の場合、応答履歴の「賞賛」の感情が「喜」であり、ポジティブの感情なので、今回特性した感情に対応する応答種別に「賞賛」が含まれる場合、「賞賛」の優先度を上げる。   As illustrated in FIG. 4, the response history DB 6 includes emotion, response history, and date / time. The response history DB 6 is stored in the order of date. For example, when the emotion specified from the user's utterance content is “joy” at the date “XX year XX month XX day”, it indicates that a response of praise was made as a response history. When information is stored in the response history DB 6, the response type determination unit 4 narrows down response type candidates based on whether the emotion corresponding to the latest response history is positive or negative. For example, when the emotion corresponding to the response history is a positive emotion (for example, pleasure), the priority of the response type corresponding to the immediately previous response history is increased. In the case of the example in FIG. 4, the emotion of “praise” in the response history is “joy” and is a positive emotion. Therefore, when “praise” is included in the response type corresponding to the emotion characterized this time, priority of “praise” is given. Raise the degree.

また、今回発話解析部2によって特定された感情がネガティブの感情であり、直前の応答履歴に対応する感情もネガティブの感情である場合、直前の応答履歴の応答種別を候補から外すようにしてもよい(今回だけ応答種別の候補から外すようにしてもよいし、応答種別DB5の応答種別の順位を入れ替えてもよい)。すなわち、応答種別決定部4は、直前の応答種別に対応する感情と、今回発話解析部2から取得した感情とが同じである場合、直近の応答履歴とは、異なる応答種別を選択するようにしてもよい。   If the emotion identified by the speech analysis unit 2 this time is a negative emotion and the emotion corresponding to the immediately preceding response history is also a negative emotion, the response type of the immediately preceding response history may be excluded from the candidates. Yes (only this time may be excluded from the response type candidates, or the order of the response types in the response type DB 5 may be switched). That is, when the emotion corresponding to the immediately previous response type is the same as the emotion acquired from the utterance analysis unit 2 this time, the response type determination unit 4 selects a response type different from the latest response history. May be.

上述のように、直近の応答履歴のみに基づいて決定するようにしてもよいし、応答種別決定部4は、複数の応答履歴に基づいて決定するようにしてもよい。   As described above, it may be determined based only on the latest response history, or the response type determination unit 4 may determine based on a plurality of response histories.

例えば、応答種別決定部4は、直近の応答履歴及びその前の応答履歴のそれぞれの感情の変化に基づいて応答種別の優先度を決定するようにしてもよい。例えば、発話解析部2によって特定された感情の特性が、ネガティブからポジティブに変化した場合は、直前の応答履歴の応答種別と同一である、応答種別DB5の応答種別の優先順位を上げるようにしたり、ポジティブからネガティブに変化した場合は、直前の応答履歴の応答種別と同一である、応答種別DB5の応答種別の優先順位を下げるようにしたりする。   For example, the response type determination unit 4 may determine the priority of the response type based on the emotional changes in the latest response history and the previous response history. For example, when the emotion characteristic identified by the utterance analysis unit 2 changes from negative to positive, the priority of the response type in the response type DB 5 that is the same as the response type of the previous response history may be increased. In the case of a change from positive to negative, the priority of the response type in the response type DB 5 that is the same as the response type of the previous response history is lowered.

例えば、最初の会話で「怒」と特定し、これに基づいて提案を行い、次のユーザの会話が「喜」と特定した場合、ユーザの感情特性がネガティブからポジティブに移行しているため、感情が「怒」である場合に提案することは適切であったことになる。そこで、応答種別決定部4では、ユーザの感情が「怒」である場合に、「提案」の優先順位を変更する。このように、応答種別決定部4は、応答履歴を参照して、感情の特性を考慮して応答種別を決定するので、感情の変化に即して適切な応答種別を決定することができる。   For example, if you identify “angry” in the first conversation and make a suggestion based on it, and the next user ’s conversation identifies “joy”, the user ’s emotional characteristics have shifted from negative to positive. It would be appropriate to make a suggestion when the emotion is “anger”. Therefore, the response type determination unit 4 changes the priority of “suggestion” when the user's emotion is “anger”. In this way, the response type determination unit 4 refers to the response history and determines the response type in consideration of emotion characteristics, so that an appropriate response type can be determined in accordance with the change in emotion.

応答種別決定部4は、上述のように、感情特定部3から取得した感情や、応答履歴に基づいて定めた優先度により、応答種別を推定する。そして、応答種別決定部4は、決定した応答種別を発話生成部7へ通知する。また、発話解析部2によって、話題を取得した場合、当該話題を発話生成部7へ通知する。   As described above, the response type determination unit 4 estimates the response type based on the emotion acquired from the emotion identification unit 3 and the priority determined based on the response history. Then, the response type determination unit 4 notifies the utterance generation unit 7 of the determined response type. When the utterance analysis unit 2 acquires a topic, the utterance generation unit 7 is notified of the topic.

発話生成部7は、応答種別決定部4によって決定された応答種別と、嗜好情報とに基づいた発話内容を生成する部分である。具体的には、応答種別決定部4から感情等に基づいて決定された応答種別を取得し、パーソナルDB10から嗜好情報を取得し、この2つの情報に基づいて、発話内容を生成する。   The utterance generation unit 7 is a part that generates utterance contents based on the response type determined by the response type determination unit 4 and the preference information. Specifically, the response type determined based on the emotion or the like is acquired from the response type determination unit 4, the preference information is acquired from the personal DB 10, and the utterance content is generated based on these two pieces of information.

ここで、パーソナルDB10に格納されている情報の一例を図5に示す。図5に示すように、パーソナルDB10では、カテゴリと、エンティティと、トピックとが関連づいた情報を有する。このように、カテゴリと、エンティティとを関連付けておくことにより、「ユーザのAは、Bである」ということを示す。まず、カテゴリとは“ユーザのAはB”のAにあたり、例えば所有物や趣味がある。すなわち、カテゴリは、ユーザの嗜好情報の種類を示す。カテゴリは、予め決められた分類を用いるため、限られた種類の単語が入る。   An example of information stored in the personal DB 10 is shown in FIG. As shown in FIG. 5, the personal DB 10 has information in which a category, an entity, and a topic are associated with each other. Thus, by associating the category with the entity, it is indicated that “user A is B”. First, the category corresponds to A of “user A is B”, for example, possession or hobby. That is, the category indicates the type of user preference information. Since the category uses a predetermined classification, limited types of words are included.

エンティティとは、「ユーザのAはB」のBにあたり、すべての物事の名前(具体的事物情報)が入る可能性がある。トピックとは、「ユーザのAはB」を登録するに至ったユーザの入力(発話)またはエンティティそのものに対して付与されるものである。トピックとは、例えば、エンティティの上位概念情報である。   The entity corresponds to B of “user A is B”, and there is a possibility that the names of all things (specific thing information) may be entered. The topic is given to the input (utterance) of the user who has registered “user A is B” or to the entity itself. A topic is, for example, superordinate concept information of an entity.

上記のパーソナルDB10が記憶する情報は、パーソナライズ情報入力部11によって、入力された情報をエンティティ又はトピックとして記憶する。パーソナライズ情報入力部11は、ユーザ操作等に応じて入力された情報を記憶する。   The information stored in the personal DB 10 is stored as an entity or a topic by the personalized information input unit 11. The personalized information input unit 11 stores information input in response to a user operation or the like.

なお、トピックについては、トピック推定部9によって自動で付与するようにしてもよい。トピック推定手法については後述する。図5において、カテゴリ「趣味」エンティティ「△△△の冒険」(ゲーム名)、トピック「ゲーム」というのは、すなわち「ユーザの趣味は△△△の冒険である。△△△の冒険はゲームである」ということを示している。エンティティとトピックはどちらかが空でも良い。両方が空の場合は、ユーザはそのカテゴリについては自己開示していないとみなす。すなわち図5の例においては、ユーザは自身の所有物については情報を開示していないとみなす。   Note that topics may be automatically added by the topic estimation unit 9. The topic estimation method will be described later. 5, the category “hobby” entity “Adventure of ΔΔΔ” (game name) and the topic “game” are “the user's hobby is an adventurous of ΔΔΔ. Is. Either the entity or topic may be empty. If both are empty, the user assumes that the category is not self-disclosure. That is, in the example of FIG. 5, it is considered that the user does not disclose information about his / her property.

発話生成部7は、発話DB8が記憶しているテンプレートの内、応答種別決定部4によって決定された応答種別に対応するテンプレートに、エンティティ又はトピックを反映させたものを発話内容とする。   The utterance generation unit 7 uses, as an utterance content, an entity or topic reflected in a template corresponding to the response type determined by the response type determination unit 4 among the templates stored in the utterance DB 8.

図6に、発話DB8に格納されている発話テンプレートの一例を示す。発話テンプレートは、エンティティ名やトピック名で置換する箇所を含んでも良い。なお、置換箇所を含むテンプレートは、ユーザ情報として置換可能なエンティティまたはトピックが登録されている場合に限る。   FIG. 6 shows an example of an utterance template stored in the utterance DB 8. The utterance template may include a place to be replaced with an entity name or a topic name. A template including a replacement part is limited to a case where an entity or topic that can be replaced as user information is registered.

図6に示すように、テンプレートのIDと、テンプレートに対応するカテゴリと、対象トピックと、テンプレートとを対応付けて記憶している。例えば、IDが「2」のテンプレートは、「[entity]行ってみたら?」であり、このテンプレートの対象となるトピックが「旅行、行事」であり、カテゴリが「趣味」、応答種別が「提案」であることを示している。対象トピックは、予め定められているものであり、当該対象トピックが複数設定されている場合、トピックの優先度を定めるようにしてもよい。すなわち、トピック間において優先度を定めるようにしてもよい。図6の例における対象トピックの内、左側の方が優先度が高いものとする。   As shown in FIG. 6, the template ID, the category corresponding to the template, the target topic, and the template are stored in association with each other. For example, the template with ID “2” is “[entity] Would you like to go?”, The target topic of this template is “travel, event”, the category “hobby”, and the response type “ "Proposal". The target topic is predetermined, and when a plurality of target topics are set, the priority of the topic may be determined. That is, priority may be determined between topics. It is assumed that the left side of the target topics in the example of FIG. 6 has a higher priority.

発話生成部7は、このテンプレートと、図5のユーザ情報(嗜好情報)とを組み合わせて発話を生成する。まず、発話生成部7は、パーソナルDB10が記憶しているユーザ情報から、エンティティまたはトピックのいずれか、または両方が登録されているカテゴリと、カテゴリに登録されているトピックを抽出する。   The utterance generation unit 7 generates an utterance by combining this template with the user information (preference information) shown in FIG. First, the utterance generation unit 7 extracts, from the user information stored in the personal DB 10, a category in which either or both of the entity and the topic are registered, and a topic registered in the category.

この抽出した結果のリストを「カテゴリとトピックのリスト(a)」と呼ぶ。例えばパーソナルDB10に格納されているユーザ情報が図5の状態の場合、カテゴリとトピックのリスト(a)は、「趣味,ゲーム|習慣,|経験,スポーツ|特技,スポーツ|能力,スポーツ|願望,旅行」となる。   This extracted list is called “category and topic list (a)”. For example, when the user information stored in the personal DB 10 is in the state of FIG. 5, the category and topic list (a) is “hobby, game | custom, | experience, sport | speciality, sport | ability, sport | wish, "Travel".

ここで「|」はカテゴリの区切りを表し、「,」はカテゴリとトピックを区切るものとする。カテゴリ「所有物」にはエンティティもトピックも登録されていなかったため、リストには含まれていない。カテゴリ「趣味」にはエンティティとトピック両方に情報が記載されていたため、「趣味,ゲーム」としてリストに含まれる。カテゴリ「習慣」にはエンティティのみ情報が存在しているため、カテゴリの「習慣」のみリストに含まれる。このように、発話生成部7は、各カテゴリについて、エンティティ又はトピックが入力されているものをリスト化することにより、テンプレートへユーザ情報を入力可能なカテゴリを特定する。   Here, “|” represents a category delimiter, and “,” delimits a category and a topic. The category “property” is not included in the list because neither an entity nor a topic was registered. Since the category “hobby” includes information in both the entity and the topic, it is included in the list as “hobby, game”. Since only the entity information exists in the category “custom”, only the category “custom” is included in the list. As described above, the utterance generation unit 7 identifies categories in which user information can be input to the template by listing the categories or entities to which the topics are input.

発話生成部7は、上記のリスト(a)から、発話可能なカテゴリとトピックの組であるリスト(b)を取得する。取得できる組は下記の通りである。
カテゴリ=趣味
カテゴリ=習慣
カテゴリ=経験
カテゴリ=特技
カテゴリ=能力
カテゴリ=願望
カテゴリ=趣味 and トピック=ゲーム
カテゴリ=経験 and トピック=スポーツ
カテゴリ=能力 and トピック=スポーツ
カテゴリ=特技 and トピック=スポーツ
カテゴリ=願望 and トピック=旅行
The utterance generation unit 7 acquires a list (b) that is a set of categories and topics that can be uttered from the list (a). The following sets are available.
Category = Hobby Category = Custom Category = Experience Category = Skill Category = Ability Category = Ability Category = Aspiration Category = Hobby and Topic = Game Category = Experience and Topic = Sport Category = Ability and Topic = Sport Category = Skill and Topic = Sport Category = Aspiration and Topic = Travel

なお、カテゴリのみ指定されているものは、テンプレートの対象トピックについて制限がないものであることを示す。このように、発話生成部7は、リスト(b)を生成することにより、このリスト(b)を用いてテンプレートに置換可能な(すなわち、発話可能な)テンプレートを特定する。   In addition, when only the category is designated, it indicates that there is no restriction on the target topic of the template. As described above, the utterance generation unit 7 generates a list (b), and uses this list (b) to specify a template that can be replaced with a template (that is, an utterable template).

次に、発話生成部7は、発話DB8から、リスト(b)に含まれるカテゴリとトピックの組であり、かつ応答種別決定部4によって決定された応答種別と一致する発話テンプレートを取得する。   Next, the utterance generation unit 7 acquires, from the utterance DB 8, an utterance template that is a set of categories and topics included in the list (b) and matches the response type determined by the response type determination unit 4.

ここでは応答種別決定部4によって決定された応答種別が「提案」だった場合を例に説明する。まず、発話DB8が記憶している発話テンプレートにおいて、応答種別が「提案」のものに限定する。   Here, a case where the response type determined by the response type determination unit 4 is “suggestion” will be described as an example. First, in the utterance template stored in the utterance DB 8, the response type is limited to “suggestion”.

すなわち、ここではIDナンバー2〜6が該当する。次にそれぞれのカテゴリにおける対象トピックを確認し、発話可能かを判定する。IDナンバー2の発話はカテゴリが「趣味」で、対象トピックが「旅行」または「行事」である。ここで、リスト(b)より、カテゴリ「趣味」のトピックは「ゲーム」であることから、発話生成部7は、IDナンバー2のテンプレートは発話不可と判断する。   That is, ID numbers 2 to 6 correspond here. Next, the target topic in each category is confirmed, and it is determined whether the utterance is possible. The utterance of ID number 2 has a category “hobby” and a target topic “travel” or “event”. Here, from the list (b), since the topic of the category “hobby” is “game”, the utterance generation unit 7 determines that the template of ID number 2 is not utterable.

同様に、IDナンバー3の発話はカテゴリが「趣味」で対象トピックが「スポーツ」または「ゲーム」である。ここで、リスト(b)には、カテゴリ「趣味」とトピック「ゲーム」の組み合わせが含まれているため、発話生成部7は、IDナンバー3は発話可能と判断する。同様にして、発話生成部7は、IDナンバー4および5は発話不可と判断できる。IDナンバー6と7は、カテゴリ「習慣」または「願望」に対して、対象トピックは空となっている。ここで対象トピックが空とは、対象トピックは何でもよい、すなわち制限はないことを示す。   Similarly, the utterance with ID number 3 has the category “hobby” and the target topic “sports” or “game”. Here, since the list (b) includes a combination of the category “hobby” and the topic “game”, the utterance generation unit 7 determines that the ID number 3 is utterable. Similarly, the utterance generation unit 7 can determine that the ID numbers 4 and 5 cannot be uttered. In ID numbers 6 and 7, the target topic is empty for the category “custom” or “wish”. Here, the target topic is empty indicates that the target topic may be anything, that is, there is no limit.

リスト (b)には、カテゴリ「習慣」には対象トピックはなく、カテゴリ「願望」にはトピック「旅行」が登録されているが、IDナンバー6と7はトピックによらず発話可能であるため、発話生成部7は、どちらも発話可能と判断する。   In list (b), there is no target topic in category “custom”, and topic “travel” is registered in category “wish”, but ID numbers 6 and 7 can speak regardless of topic. The utterance generation unit 7 determines that both are utterable.

以上から、発話生成部7は、この例では図6においてIDナンバー3、6、7が発話可能と判断し、これら3つの発話テンプレートを、候補テンプレート(c)とする。そして、発話生成部7は、候補テンプレート(c)の数分繰り返す。繰り返しの処理として、発話生成部7は、まずテンプレート内に置換指定があるかどうかをチェックし、置換指定がない場合は、発話テンプレート(c)に含まれる次のテンプレートへ移る。発話生成部7は、置換指定がある場合は、置換が可能かどうかをチェックする。   From the above, the utterance generation unit 7 determines that ID numbers 3, 6, and 7 in FIG. 6 can utter in this example, and sets these three utterance templates as candidate templates (c). Then, the utterance generation unit 7 repeats the number of candidate templates (c). As an iterative process, the utterance generation unit 7 first checks whether there is a replacement designation in the template. If there is no substitution designation, the utterance generation section 7 moves to the next template included in the utterance template (c). If there is a replacement designation, the utterance generation unit 7 checks whether the replacement is possible.

図6において、[topic]はトピックへの置換、[entity]はエンティティへの置換を意味している。すなわちここではIDナンバー3、6、7すべてが置換必要と判断される。置換指定がある場合は、次に置換が可能かをチェックする。   In FIG. 6, [topic] means replacement with a topic, and [entity] means replacement with an entity. That is, here, it is determined that all ID numbers 3, 6, and 7 need to be replaced. If there is a replacement specification, it is checked whether replacement is possible next.

図6において、IDナンバー3および7はエンティティでの置き換えが必要であり、IDナンバー6はトピックへの置き換えが必要である。すなわち、例えばIDナンバー3はカテゴリ「趣味」トピック「ゲーム」で発話が可能と判断されたが、エンティティ名も必須ということである。   In FIG. 6, ID numbers 3 and 7 need to be replaced with entities, and ID number 6 needs to be replaced with a topic. That is, for example, ID number 3 is determined to be utterable in the category “hobby” topic “game”, but the entity name is also essential.

ここで、図5のユーザ情報を参照すると、カテゴリ「趣味」トピック「ゲーム」に「△△△の冒険」というエンティティ名が登録されている。したがって、IDナンバー3は置換可能、すなわち発話可能と判断される。同様に、IDナンバー6はトピック名による置き換えが指定されている。ここでユーザ情報のカテゴリ「習慣」にはトピックは登録されていない。したがって、IDナンバー6は発話不可と判断される。IDナンバー7はエンティティによる置き換えが指定されている。   Here, referring to the user information in FIG. 5, the entity name “Adventure of ΔΔΔ” is registered in the category “Hobby” topic “Game”. Accordingly, it is determined that ID number 3 can be replaced, that is, speech is possible. Similarly, ID number 6 is designated to be replaced by a topic name. Here, no topic is registered in the category “custom” of the user information. Therefore, it is determined that the ID number 6 cannot be spoken. The ID number 7 is designated to be replaced by an entity.

ここでユーザ情報のカテゴリ「願望」にはトピック「イギリス」が登録されている。したがって、IDナンバー7は発話可能と判断される。発話生成部7の処理の最後に、発話テンプレート内の置換を行う。図5ではそれぞれ1つのエンティティしか保持していないため、IDナンバー3の[entity]部を「△△△の冒険」に置換し、IDナンバー7の[entity]を「イギリス」に置換する。したがって、発話生成部7により、「△△△の冒険やってみたら?」および「なぜイギリスに興味があるの?」という2つのシステム発話候補が生成される。もし、発話生成部7は、ひとつのテンプレートに対して複数の置換可能なエンティティがある場合はランダムにひとつ選択し置換する。また、最終的に残ったテンプレートが複数ある場合は、複数つなげたものを発話内容とするようにしてもよいし、予め定めたトピック間の優先度や、発話解析部2により取得した話題に基づいていずれか1つに絞るようにしてもよい(話題に基づいて絞る例は後述する)。   Here, the topic “UK” is registered in the category “Wish” of the user information. Therefore, it is determined that the ID number 7 is utterable. At the end of the processing of the utterance generation unit 7, replacement in the utterance template is performed. Since only one entity is held in FIG. 5, the [entity] part of ID number 3 is replaced with “Adventure of ΔΔΔ”, and [entity] of ID number 7 is replaced with “United Kingdom”. Therefore, the utterance generation unit 7 generates two system utterance candidates, “What if I tried an adventure of ΔΔΔ?” And “Why are you interested in the UK?”. If there are a plurality of replaceable entities for one template, the utterance generation unit 7 selects and replaces one at random. In addition, when there are a plurality of finally remaining templates, the utterance content may be a combination of a plurality of templates, or based on a priority between predetermined topics or a topic acquired by the utterance analysis unit 2 You may make it narrow down to any one (an example of narrowing down based on the topic will be described later).

このように、発話生成部7は、入力済みのユーザ情報を置換可能であり、応答種別決定部4により決定された応答種別に対応するテンプレートの内容を出力対象の発話内容とする。そして、発話生成部7は、エンティティ又はトピックを置換した後のテンプレートを発話内容として、発話出力部12へ通知する。   As described above, the utterance generation unit 7 can replace the input user information, and uses the content of the template corresponding to the response type determined by the response type determination unit 4 as the utterance content to be output. And the utterance production | generation part 7 notifies the utterance output part 12 by making the template after replacing an entity or a topic into utterance content.

また、発話解析部2が発話から話題を抽出している場合は、発話生成部7は、抽出した話題を利用し候補を絞り込むこともできる。これは「テニスで疲れた」といったユーザの発話に対して、趣味がテニスだというユーザ情報を用いて「テニスでリフレッシュしてはいかがですか?」というような発話(図6のテンプレートの場合「テニスやってみたら?」)をすることを防ぐ効果がある。これは特にユーザの感情状態がネガティブである場合に効果が高い。すなわち、ユーザの感情状態がネガティブな場合、発話生成部7は、ユーザ発話の話題と等しいエンティティ又はトピックを置換候補としないようにすればよい。   When the utterance analysis unit 2 extracts a topic from the utterance, the utterance generation unit 7 can narrow down candidates using the extracted topic. This is a user's utterance such as “I am tired from tennis”, and utterance such as “Would you like to refresh with tennis?” Using the user information that my hobby is tennis (in the case of the template in FIG. 6 “ What if you try to play tennis? ”). This is particularly effective when the emotional state of the user is negative. That is, when the emotional state of the user is negative, the utterance generation unit 7 may not set an entity or topic equal to the topic of the user utterance as a replacement candidate.

具体的には、ユーザが「テニス疲れた」と発話した場合には、テニス(トピックは、スポーツ)が話題であり、「疲れた」から感情の特性がネガティブである。ここで、発話生成部7が、図6に示した対象トピックの内、IDナンバー3のテンプレートを発話候補とする場合を検討する。話題を考慮しないと対象トピック間の優先度は、スポーツの方が上である。しかし、話題がスポーツで、感情の特性がネガティブであるので、発話生成部7は、トピックとして、話題と合致するスポーツを除外して、「△△△の冒険やってみたら」というゲームに関する発話内容を発話候補とする。   Specifically, when the user utters “tennis tired”, tennis (topic is sport) is the topic, and emotion characteristics are negative from “tired”. Here, consider a case where the utterance generation unit 7 uses the template with the ID number 3 among the target topics shown in FIG. 6 as the utterance candidate. If the topic is not considered, the priority among the target topics is higher in the sport. However, since the topic is sport and the emotional characteristics are negative, the utterance generation unit 7 excludes the sport that matches the topic as a topic and utters the utterance related to the game “Try adventure of △△△” The contents are utterance candidates.

また、発話生成部7は、発話解析部2により特定された感情がポジティブな感情であれば、話題と等しいエンティティ又はトピックを置換したテンプレートの内容を発話内容とするようにしてもよい。   Moreover, if the emotion specified by the speech analysis unit 2 is a positive emotion, the speech generation unit 7 may use the content of the template that replaces the entity or topic that is equal to the topic as the speech content.

トピック推定部9は、文や単語にトピックを付与する部分である。トピックの付与は、予め準備した辞書か機械学習により実現可能である。トピック推定部9は、トピックを予め定めており、それらのいずれかに単語や文を分類する。また、トピック推定部9は、分類できない場合、トピックは無いとみなしてよい。トピック推定部9は、単語の場合は辞書を利用し、文の場合は機械学習により実現するとよく、辞書の場合は、大量の単語を集め、予め定めたトピックに分類しておく。トピック推定部9は、入力された単語がいずれかに出現している場合は、そのトピックを与える。   The topic estimation unit 9 is a part that gives a topic to a sentence or a word. Topic assignment can be realized by a dictionary prepared in advance or machine learning. The topic estimation unit 9 determines topics in advance and classifies words and sentences into any of them. Moreover, the topic estimation part 9 may consider that there is no topic, when it cannot be classified. The topic estimation unit 9 may use a dictionary for words, and may be realized by machine learning for sentences. In the case of a dictionary, the topic estimation unit 9 collects a large number of words and classifies them into predetermined topics. When the input word appears anywhere, the topic estimation unit 9 gives the topic.

また、トピック推定部9は、入力された単語がどこにも出現していない場合は、トピックは無いとみなす。機械学習の場合も同様に、トピック推定部9は、予め必要なトピックを定める。その後、大量の文を集め、それらをユーザ入力内容に基づいて、トピック推定部9がトピックに分類するようにしてもよい。分類できないものは、トピック無しとして分類してもよい。このデータを正解データと呼ぶ。その後、トピック推定部9は、この正解データをサポートベクターマシン(SVM)などの機械学習の手法を適応し、分類モデルを作成する。分類モデルとは簡単にいうと、“ある単語が出現した場合、トピックAである確率は+1%、トピックBである確率は-1%”といったトピックらしさを記述しているファイルのことである。ここでは簡単のために単語の表層に関して説明したが、トピック推定部9は、実際には単語の表層のunigram(単語単体)、bigram(単語2つ続き)、品詞など、様々な要素を学習し、最も精度が良いモデルを作成している。トピック推定部9は、入力に対してこれらのトピックらしさをすべて確認し、総合的に最もトピックらしいと判断されたトピックを、入力に対するトピックと決定する。その際、トピックらしさがある閾値以下だった場合、トピック推定部9は、トピックは無いと判断してもよい。   Moreover, the topic estimation part 9 considers that there is no topic, when the input word does not appear anywhere. Similarly, in the case of machine learning, the topic estimation unit 9 determines necessary topics in advance. Thereafter, a large amount of sentences may be collected, and the topic estimation unit 9 may classify the sentences into topics based on user input contents. Those that cannot be classified may be classified as having no topic. This data is called correct data. Thereafter, the topic estimation unit 9 applies a machine learning method such as a support vector machine (SVM) to the correct answer data to create a classification model. A classification model is simply a file that describes the likelihood of a topic, such as “When a word appears, the probability of topic A is + 1%, and the probability of topic B is -1%”. . Here, the word surface layer has been described for the sake of simplicity, but the topic estimation unit 9 actually learns various elements such as unigram (word unit), bigram (two words continued), and part of speech of the word surface layer. , Have created the most accurate model. The topic estimation unit 9 confirms all of these topic-likeness with respect to the input, and determines the topic that is judged to be the most topic overall as the topic for the input. At that time, if the likelihood of the topic is equal to or less than a certain threshold, the topic estimation unit 9 may determine that there is no topic.

発話出力部12は、発話生成部7によって、生成された発話内容を出力する部分である。出力する方法としては、音声出力したり、画面へ表示出力したり、外部の装置へ送信したりする。   The utterance output unit 12 is a part that outputs the utterance content generated by the utterance generation unit 7. As an output method, sound output, display output on a screen, or transmission to an external device is performed.

通信端末装置1のハードウェア構成を示すブロック図である。図7に示されるように、1又は複数のCPU101と、主記憶装置であるRAM102及びROM103と、入力装置104と、出力装置105と、ネットワークカード等のデータ送受信デバイスである通信モジュール106と、ハードディスクドライブ及び半導体メモリ等の補助記憶装置107を含むコンピュータシステムとして構成されている。これらの構成要素がプログラム等により動作することにより、上述の通信端末装置1の機能が発揮される。   2 is a block diagram showing a hardware configuration of a communication terminal device 1. FIG. As shown in FIG. 7, one or a plurality of CPUs 101, a RAM 102 and a ROM 103 that are main storage devices, an input device 104, an output device 105, a communication module 106 that is a data transmission / reception device such as a network card, and a hard disk The computer system includes an auxiliary storage device 107 such as a drive and a semiconductor memory. The functions of the communication terminal device 1 described above are exhibited by the operation of these components by a program or the like.

続いて、図8及び図9に示すフローチャートを用いて、通信端末装置1の処理を説明する。   Next, processing of the communication terminal device 1 will be described using the flowcharts shown in FIGS. 8 and 9.

通信端末装置1が備えているマイクなどにより、ユーザからの発話内容を受け付け(ステップS1)、発話解析部2は、当該発話内容を解析し、発話内容に含まれる単語と、発話感情DB3の情報とを比較することにより、感情を特定する(ステップS2 感情特定ステップ)。   The utterance content from the user is received by a microphone or the like provided in the communication terminal device 1 (step S1), and the utterance analysis unit 2 analyzes the utterance content, information included in the utterance content, and information of the utterance emotion DB 3 Is identified by comparing (step S2 emotion identification step).

そして、応答種別決定部4は、応答種別DB5の情報を参照して、発話解析部2によって特定された感情に対応する応答種別を決定する(ステップS3 応答種別決定ステップ)。   Then, the response type determination unit 4 determines the response type corresponding to the emotion specified by the utterance analysis unit 2 with reference to the information of the response type DB 5 (step S3 response type determination step).

続いて、発話生成部7は、応答種別決定部4によって決定された応答種別に対応するテンプレートに対して、ユーザ情報を置換したテンプレートを生成する(ステップS4 発話生成ステップ)。   Subsequently, the utterance generation unit 7 generates a template in which user information is replaced with the template corresponding to the response type determined by the response type determination unit 4 (step S4 utterance generation step).

そして、発話生成部7は、発話DB8内の発話テンプレートを抽出し、発話テンプレートの内、最も適切な発話内容を特定することにより、発話生成する(ステップS5 発話生成ステップ)。   Then, the utterance generation unit 7 extracts an utterance template in the utterance DB 8, and generates an utterance by specifying the most appropriate utterance content in the utterance template (step S5 utterance generation step).

そして、発話出力部12は、発話生成部7が生成した発話内容を出力して、処理を終了する(ステップS6 発話出力ステップ)。   And the utterance output part 12 outputs the utterance content which the utterance production | generation part 7 produced | generated, and complete | finishes a process (step S6 utterance output step).

続いて、図9のフローチャートを用いて、上記ステップS4における、テンプレートデータの中から応答種別と、ユーザ情報とに基づいて出力候補となるテンプレートを決定する処理の詳細な手順を説明する。まず、発話生成部7は、パーソナルDB10からユーザ情報が登録されているカテゴリとトピックのリスト(リスト(a))を取得する(ステップS11)。   Next, a detailed procedure of processing for determining a template to be an output candidate based on the response type and user information from the template data in step S4 will be described using the flowchart of FIG. First, the utterance generation unit 7 acquires a list of categories and topics (list (a)) in which user information is registered from the personal DB 10 (step S11).

そして、発話生成部7は、カテゴリとトピックのリストから発話可能なカテゴリとトピックの組のリスト(リスト(b))を取得する(ステップS12)。そして、発話生成部7は、発話DB8から応答種別決定部4によって決定された応答種別と一致し、且つカテゴリとトピックの組に含まれるカテゴリとトピックの組である発話テンプレートを取得する(ステップS13)。   Then, the utterance generation unit 7 acquires a list of categories and topics that can be uttered (list (b)) from the list of categories and topics (step S12). Then, the utterance generation unit 7 acquires an utterance template that matches the response type determined by the response type determination unit 4 from the utterance DB 8 and is a category / topic combination included in the category / topic combination (step S13). ).

そして、発話生成部7は、ステップS13で取得した発話テンプレートの1つを抽出し(ステップS14)、当該発話テンプレート内に置換指定がある場合(ステップS15;YES)、置換可能でなければ(ステップS16;NO)、該当テンプレートを発話候補から除去して(ステップS17)、ステップS19へ移動する。なお、ステップS15において、発話テンプレート内に置換指定が無い場合(ステップS15;NO)、ステップS19へ移動する。   And the utterance production | generation part 7 extracts one of the utterance templates acquired by step S13 (step S14), and when the replacement designation | designated is in the said utterance template (step S15; YES), if substitution is not possible (step S14) (S16; NO), the corresponding template is removed from the utterance candidates (step S17), and the process proceeds to step S19. In step S15, if there is no replacement designation in the utterance template (step S15; NO), the process proceeds to step S19.

ステップS16で、置換可能であれば(ステップS16;YES)、発話生成部7は、発話テンプレートを置換して(ステップS18)、ステップS19へ移動する。   If it is possible to replace in step S16 (step S16; YES), the utterance generation unit 7 replaces the utterance template (step S18) and moves to step S19.

ステップS19では、未抽出のテンプレートがあるか否かを判断し、未抽出のテンプレートがあれば(ステップS19;NO)、ステップS14へ移動し、未抽出のテンプレートがなければ(ステップS19;YES)、処理を終了する。   In step S19, it is determined whether there is an unextracted template. If there is an unextracted template (step S19; NO), the process moves to step S14, and if there is no unextracted template (step S19; YES). The process is terminated.

上述の実施形態では、通信端末装置1に適用する場合について述べたが、サーバ装置等他の種々の情報処理装置に適用するようにしてもよい。   In the above-described embodiment, the case where the present invention is applied to the communication terminal apparatus 1 has been described. However, the present invention may be applied to various other information processing apparatuses such as a server apparatus.

以上述べた通信端末装置1では、発話解析部2がユーザの発話内容に基づいてユーザの感情を特定し、応答種別決定部4が、当該感情に基づいてユーザの発話内容の応答種別を決定する。また、発話生成部7は、パーソナルDB10からユーザの嗜好情報(例えば、トピック情報、エンティティ情報)を取得し、応答種別に即したテンプレートを発話DB8から取得し、当該テンプレートにユーザの嗜好情報を当てはめた内容を発話内容として出力する。この場合、通信端末装置1は、ユーザの嗜好情報に基づいて発話内容を生成するので、ユーザの感情状態に基づくだけでなく、よりユーザにとって適切な発話内容を出力することができる。   In the communication terminal device 1 described above, the utterance analysis unit 2 specifies the user's emotion based on the user's utterance content, and the response type determination unit 4 determines the response type of the user's utterance content based on the emotion. . In addition, the utterance generation unit 7 acquires user preference information (for example, topic information and entity information) from the personal DB 10, acquires a template corresponding to the response type from the utterance DB 8, and applies the user preference information to the template. Output the contents as utterances. In this case, since the communication terminal device 1 generates the utterance content based on the user preference information, the communication terminal device 1 can output the utterance content more appropriate for the user as well as based on the emotional state of the user.

また、通信端末装置1は、発話解析部2が過去に特定した感情と、当該感情に基づいて応答種別決定部4が決定した応答種別とを履歴情報として応答履歴DB6に記憶しており、応答種別決定部4は、履歴情報から過去の感情特性の変化に基づいて応答種別を決定する。この場合、通信端末装置1は、履歴情報を用いて感情の特定の変化に基づいて応答種別を決定するので、画一的に感情に基づいて発話内容を決定する場合と比較して、よりユーザにとって適切な発話内容を出力することができる。   Further, the communication terminal device 1 stores the emotion identified in the past by the utterance analysis unit 2 and the response type determined by the response type determination unit 4 based on the emotion as history information in the response history DB 6. The type determination unit 4 determines the response type based on the past emotion characteristic change from the history information. In this case, since the communication terminal device 1 determines the response type based on the specific change of emotion using the history information, the communication terminal device 1 is more user-friendly than the case of determining the utterance content based on the emotion uniformly. It is possible to output the utterance content appropriate for the user.

また、通信端末装置1は、発話DB8において、発話内容のテンプレート情報を記憶する。発話生成部7は、当該テンプレート情報にエンティティ情報又はトピック情報を当てはめた内容を発話内容として生成する。この場合、通信端末装置1は、嗜好情報(エンティティ情報及びトピック情報)を発話内容に含めるので、よりユーザ嗜好に沿った発話内容を出力するので、ユーザにとって適切な発話内容を出力することができる。   Moreover, the communication terminal device 1 stores the template information of the utterance content in the utterance DB 8. The utterance generation unit 7 generates contents obtained by applying entity information or topic information to the template information as utterance contents. In this case, since the communication terminal device 1 includes the preference information (entity information and topic information) in the utterance content, the utterance content more in line with the user preference is output, so that the utterance content appropriate for the user can be output. .

また、通信端末装置1では、パーソナルDB10が記憶する情報として、エンティティ情報及びトピック情報を含む。発話生成部7は、発話DB8が記憶しているテンプレートで定められている種別に応じてエンティティ又はトピック情報を当てはめた内容を発話内容として生成する。この場合、通信端末装置1は、テンプレートにエンティティ情報又はトピック情報の何れかを当てはめた内容を発話内容として生成するので、嗜好情報の深さの異なる情報を選択的に提供することができ、ユーザにとって適切な発話内容を出力することができる。   Moreover, in the communication terminal device 1, entity information and topic information are included as information which personal DB10 memorize | stores. The utterance generation unit 7 generates, as the utterance content, the content to which the entity or topic information is applied according to the type defined by the template stored in the utterance DB 8. In this case, since the communication terminal device 1 generates the content in which either the entity information or the topic information is applied to the template as the utterance content, the communication terminal device 1 can selectively provide information with different depth of preference information. It is possible to output the utterance content appropriate for the user.

また、通信端末装置1では、トピック情報間において優先度を定める。発話生成部7は、トピック情報間における優先度の高いトピック情報の内容を当てはめた内容を発話内容として生成する。この場合、通信端末装置1は、トピック間の順位に基づいて、発話内容を出力するので、よりユーザ嗜好に沿った発話内容を出力することができる。   Moreover, in the communication terminal device 1, a priority is defined between topic information. The utterance generation unit 7 generates, as utterance contents, contents obtained by applying the contents of topic information having high priority among the topic information. In this case, since the communication terminal device 1 outputs the utterance content based on the ranking between topics, it is possible to output the utterance content according to the user preference.

また、通信端末装置1では、発話解析部2は、ユーザの発話内容から話題を抽出し、発話生成部7は、発話解析部2により抽出された話題をさらに基づいて発話内容を生成する。この場合、通信端末装置1は、ユーザの発話内容から特定される感情だけでなく、ユーザの話題も抽出して、その話題に基づいて発話内容を生成するので、よりユーザの状態に即した発話内容を出力することができる。   In the communication terminal device 1, the utterance analysis unit 2 extracts a topic from the user's utterance content, and the utterance generation unit 7 further generates the utterance content based on the topic extracted by the utterance analysis unit 2. In this case, since the communication terminal device 1 extracts not only the emotion specified from the user's utterance content but also the user's topic and generates the utterance content based on the topic, the utterance more suited to the user's state The contents can be output.

1…通信端末装置、2…発話解析部、3…発話感情DB、4…応答種別決定部、5…応答種別DB、6…応答履歴DB、7…発話生成部、8…発話DB、9…トピック推定部、10…パーソナルDB、11…パーソナル情報入力部、12…発話出力部、101…CPU、102…RAM、103…ROM、104…入力装置、105…出力装置部、106…通信モジュール、107…補助記憶装置。
DESCRIPTION OF SYMBOLS 1 ... Communication terminal device, 2 ... Speech analysis part, 3 ... Speech emotion DB, 4 ... Response type determination part, 5 ... Response type DB, 6 ... Response history DB, 7 ... Speech production | generation part, 8 ... Speech DB, 9 ... Topic estimation unit, 10 ... personal DB, 11 ... personal information input unit, 12 ... utterance output unit, 101 ... CPU, 102 ... RAM, 103 ... ROM, 104 ... input device, 105 ... output device unit, 106 ... communication module, 107 An auxiliary storage device.

Claims (8)

ユーザの発話内容に基づいてユーザの感情を特定する感情特定手段と、
前記ユーザの嗜好情報を取得する嗜好情報取得手段と、
前記感情特定手段により特定された感情に基づいて、前記ユーザの発話内容の応答種別を決定する応答種別決定手段と、
前記応答種別決定手段により決定された応答種別と、前記嗜好情報取得手段により取得された嗜好情報とに基づいた発話内容を生成する発話生成手段と、
前記発話生成手段によって生成された発話内容を出力する発話出力手段と、
を備える情報処理装置。
Emotion identifying means for identifying the user's emotion based on the user's utterance content;
Preference information acquisition means for acquiring the user's preference information;
A response type determining unit that determines a response type of the utterance content of the user based on the emotion specified by the emotion specifying unit;
Utterance generation means for generating utterance content based on the response type determined by the response type determination means and the preference information acquired by the preference information acquisition means;
Utterance output means for outputting the utterance content generated by the utterance generation means;
An information processing apparatus comprising:
前記感情特定手段により特定された感情と、前記応答種別決定手段により決定された応答種別とを履歴情報として記憶する履歴記憶手段をさらに備え、
前記応答種別決定手段は、前記履歴情報から過去の感情特性の変化に基づいて応答種別を決定する、請求項1に記載の情報処理装置。
A history storage unit for storing the emotion identified by the emotion identification unit and the response type determined by the response type determination unit as history information;
The information processing apparatus according to claim 1, wherein the response type determination unit determines a response type based on a change in past emotional characteristics from the history information.
発話内容のテンプレート情報を記憶するテンプレート記憶手段をさらに備え、
前記発話生成手段は、前記テンプレート記憶手段により記憶されているテンプレートに嗜好情報を当てはめた内容を発話内容として生成する、請求項1又は2に記載の情報処理装置。
Template storage means for storing template information of the utterance content;
The information processing apparatus according to claim 1, wherein the utterance generation unit generates, as utterance content, content obtained by applying preference information to a template stored in the template storage unit.
前記嗜好情報には、具体的事物情報及び当該具体的事物情報の上位概念情報をさらに含み、
前記発話生成手段は、前記テンプレート記憶手段により記憶されているテンプレートで定められている種別に応じて嗜好情報の具体的事物情報又は当該具体的事物情報の上位概念情報を当てはめた内容を発話内容として生成する、請求項3に記載の情報処理装置。
The preference information further includes specific matter information and higher concept information of the specific matter information,
The utterance generation means uses, as the utterance content, the specific thing information of the preference information or the upper concept information of the specific thing information according to the type defined in the template stored in the template storage means. The information processing apparatus according to claim 3, wherein the information processing apparatus generates the information processing apparatus.
前記具体的事物の上位概念情報間において優先度が定められ、
前記発話生成手段は、上位概念情報間における優先度の高い上位概念情報の内容を当てはめた内容を発話内容として生成する、請求項4に記載の情報処理装置。
Priorities are defined between the high-level concept information of the specific things,
The information processing apparatus according to claim 4, wherein the utterance generation unit generates, as the utterance content, content obtained by applying the content of the high-priority concept information having high priority between the high-level concept information.
前記感情特定手段は、ユーザの発話内容から話題を抽出し、
前記発話生成手段は、前記感情特定手段により抽出された話題をさらに基づいて発話内容を生成する、請求項5に記載の情報処理装置。
The emotion identifying means extracts a topic from the user's utterance content,
The information processing apparatus according to claim 5, wherein the utterance generation unit generates the utterance content further based on the topic extracted by the emotion identification unit.
前記発話生成手段は、前記テンプレート記憶手段により記憶されているテンプレートの内、複数のテンプレートを組み合わせた内容を発話内容として生成する、請求項4に記載の情報処理装置。   5. The information processing apparatus according to claim 4, wherein the utterance generation unit generates, as the utterance content, content obtained by combining a plurality of templates among the templates stored in the template storage unit. 情報処理装置で実行される発話内容出力方法であって、
前記ユーザの発話内容に基づいてユーザの感情を特定する感情特定ステップと、
前記ユーザの嗜好情報を取得する嗜好情報取得ステップと、
前記感情特定ステップにより特定された感情に基づいて、前記ユーザの発話内容の応答種別を決定する応答種別決定ステップと、
前記応答種別決定ステップにより決定された応答種別と、前記嗜好情報取得ステップにより取得された嗜好情報とに基づいた発話内容を生成する発話生成ステップと、
前記発話生成ステップによって生成された発話内容を出力する発話出力ステップと、を含む発話内容出力方法。
An utterance content output method executed by an information processing apparatus,
An emotion identifying step for identifying the user's emotion based on the user's utterance content;
A preference information acquisition step of acquiring the user's preference information;
A response type determining step for determining a response type of the utterance content of the user based on the emotion specified by the emotion specifying step;
An utterance generation step of generating utterance content based on the response type determined by the response type determination step and the preference information acquired by the preference information acquisition step;
An utterance content output method comprising: an utterance output step of outputting the utterance content generated by the utterance generation step.
JP2014206599A 2014-10-07 2014-10-07 Information processing apparatus and utterance content output method Active JP6450138B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014206599A JP6450138B2 (en) 2014-10-07 2014-10-07 Information processing apparatus and utterance content output method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014206599A JP6450138B2 (en) 2014-10-07 2014-10-07 Information processing apparatus and utterance content output method

Publications (2)

Publication Number Publication Date
JP2016076117A true JP2016076117A (en) 2016-05-12
JP6450138B2 JP6450138B2 (en) 2019-01-09

Family

ID=55951477

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014206599A Active JP6450138B2 (en) 2014-10-07 2014-10-07 Information processing apparatus and utterance content output method

Country Status (1)

Country Link
JP (1) JP6450138B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017156854A (en) * 2016-02-29 2017-09-07 Kddi株式会社 Speech semantic analysis program, apparatus and method for improving comprehension accuracy of context semantic through emotion classification
JP2018140477A (en) * 2017-02-28 2018-09-13 シャープ株式会社 Utterance control device, electronic apparatus, control method for utterance control device, and control program
WO2019189489A1 (en) * 2018-03-27 2019-10-03 日本電信電話株式会社 Response sentence generation device, response sentence generation method, and program
US10621421B2 (en) 2017-06-08 2020-04-14 Hitachi, Ltd. Computer system, dialogue control method, and computer
CN111192577A (en) * 2018-10-25 2020-05-22 丰田自动车株式会社 AC device and control program for AC device
WO2020230788A1 (en) * 2019-05-13 2020-11-19 株式会社計数技研 Interaction device, speech generation method, and program
US10937420B2 (en) 2017-11-10 2021-03-02 Hyundai Motor Company Dialogue system and method to identify service from state and input information
WO2022049613A1 (en) * 2020-09-01 2022-03-10 三菱電機株式会社 Information processing device, estimation method, and estimation program

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0981632A (en) * 1995-09-13 1997-03-28 Toshiba Corp Information publication device
JP2001249945A (en) * 2000-03-07 2001-09-14 Nec Corp Feeling generation method and feeling generator
JP2004527809A (en) * 2000-10-30 2004-09-09 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Environmentally responsive user interface / entertainment device that simulates personal interaction
JP2005237668A (en) * 2004-02-26 2005-09-08 Kazuya Mera Interactive device considering emotion in computer network
JP2007188510A (en) * 2007-01-24 2007-07-26 P To Pa:Kk System, method and program for controlling conversation, and recording medium which records program
JP2009140170A (en) * 2007-12-05 2009-06-25 Toshiba Corp Information providing method and information providing server
JP2012099032A (en) * 2010-11-05 2012-05-24 Oki Electric Ind Co Ltd Sentence generation device and program
US20130144618A1 (en) * 2011-12-02 2013-06-06 Liang-Che Sun Methods and electronic devices for speech recognition
WO2013190963A1 (en) * 2012-06-18 2013-12-27 エイディシーテクノロジー株式会社 Voice response device

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0981632A (en) * 1995-09-13 1997-03-28 Toshiba Corp Information publication device
JP2001249945A (en) * 2000-03-07 2001-09-14 Nec Corp Feeling generation method and feeling generator
JP2004527809A (en) * 2000-10-30 2004-09-09 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Environmentally responsive user interface / entertainment device that simulates personal interaction
JP2005237668A (en) * 2004-02-26 2005-09-08 Kazuya Mera Interactive device considering emotion in computer network
JP2007188510A (en) * 2007-01-24 2007-07-26 P To Pa:Kk System, method and program for controlling conversation, and recording medium which records program
JP2009140170A (en) * 2007-12-05 2009-06-25 Toshiba Corp Information providing method and information providing server
JP2012099032A (en) * 2010-11-05 2012-05-24 Oki Electric Ind Co Ltd Sentence generation device and program
US20130144618A1 (en) * 2011-12-02 2013-06-06 Liang-Che Sun Methods and electronic devices for speech recognition
WO2013190963A1 (en) * 2012-06-18 2013-12-27 エイディシーテクノロジー株式会社 Voice response device

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017156854A (en) * 2016-02-29 2017-09-07 Kddi株式会社 Speech semantic analysis program, apparatus and method for improving comprehension accuracy of context semantic through emotion classification
JP2018140477A (en) * 2017-02-28 2018-09-13 シャープ株式会社 Utterance control device, electronic apparatus, control method for utterance control device, and control program
US10621421B2 (en) 2017-06-08 2020-04-14 Hitachi, Ltd. Computer system, dialogue control method, and computer
US10937420B2 (en) 2017-11-10 2021-03-02 Hyundai Motor Company Dialogue system and method to identify service from state and input information
JP7073839B2 (en) 2018-03-27 2022-05-24 日本電信電話株式会社 Response statement generator, response statement generator, and program
WO2019189489A1 (en) * 2018-03-27 2019-10-03 日本電信電話株式会社 Response sentence generation device, response sentence generation method, and program
JP2019175011A (en) * 2018-03-27 2019-10-10 日本電信電話株式会社 Response sentence generation apparatus, response sentence generation method, and program
US11429784B2 (en) 2018-03-27 2022-08-30 Nippon Telegraph And Telephone Corporation Response sentence generation device, response sentence generation method, and program
CN111192577A (en) * 2018-10-25 2020-05-22 丰田自动车株式会社 AC device and control program for AC device
CN111192577B (en) * 2018-10-25 2023-10-13 丰田自动车株式会社 AC device and control program for AC device
WO2020230788A1 (en) * 2019-05-13 2020-11-19 株式会社計数技研 Interaction device, speech generation method, and program
JP2020187500A (en) * 2019-05-13 2020-11-19 株式会社計数技研 Dialogue apparatus, utterance generation method, and program
JPWO2022049613A1 (en) * 2020-09-01 2022-03-10
WO2022049613A1 (en) * 2020-09-01 2022-03-10 三菱電機株式会社 Information processing device, estimation method, and estimation program

Also Published As

Publication number Publication date
JP6450138B2 (en) 2019-01-09

Similar Documents

Publication Publication Date Title
JP6450138B2 (en) Information processing apparatus and utterance content output method
US10977452B2 (en) Multi-lingual virtual personal assistant
JP6980074B2 (en) Automatic expansion of message exchange threads based on message classification
US10832654B2 (en) Recognizing accented speech
US9747895B1 (en) Building language models for a user in a social network from linguistic information
US11769492B2 (en) Voice conversation analysis method and apparatus using artificial intelligence
WO2014043027A2 (en) Improving phonetic pronunciation
CN114830148A (en) Controlled benchmarked text generation
KR20160089152A (en) Method and computer system of analyzing communication situation based on dialogue act information
WO2019075406A1 (en) Reading level based text simplification
CN108682420A (en) A kind of voice and video telephone accent recognition method and terminal device
WO2018061774A1 (en) Information processing system, information processing device, information processing method, and storage medium
JP6980411B2 (en) Information processing device, dialogue processing method, and dialogue processing program
Dethlefs et al. Cluster-based prediction of user ratings for stylistic surface realisation
Glasser Automatic speech recognition services: Deaf and hard-of-hearing usability
CN109155110A (en) Information processing unit and its control method, computer program
ES2751375T3 (en) Linguistic analysis based on a selection of words and linguistic analysis device
JP2021096847A (en) Recommending multimedia based on user utterance
JP4755478B2 (en) Response sentence generation device, response sentence generation method, program thereof, and storage medium
JP2018055422A (en) Information processing system, information processor, information processing method, and program
JP2016001242A (en) Question sentence creation method, device, and program
JP2015219582A (en) Interactive method, interaction device, interactive program, and recording medium
Markl et al. Language technology practitioners as language managers: arbitrating data bias and predictive bias in ASR
Hasegawa-Johnson et al. Models of dataset size, question design, and cross-language speech perception for speech crowdsourcing applications
Nenadić et al. Computational modelling of an auditory lexical decision experiment using jTRACE and TISK

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170818

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180516

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180605

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180803

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181113

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181207

R150 Certificate of patent or registration of utility model

Ref document number: 6450138

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250