JP2019061050A - Interaction apparatus, interaction method, and program - Google Patents

Interaction apparatus, interaction method, and program Download PDF

Info

Publication number
JP2019061050A
JP2019061050A JP2017185357A JP2017185357A JP2019061050A JP 2019061050 A JP2019061050 A JP 2019061050A JP 2017185357 A JP2017185357 A JP 2017185357A JP 2017185357 A JP2017185357 A JP 2017185357A JP 2019061050 A JP2019061050 A JP 2019061050A
Authority
JP
Japan
Prior art keywords
user
sentence
system response
utterance
expression
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017185357A
Other languages
Japanese (ja)
Other versions
JP6977445B2 (en
Inventor
佐藤 勝彦
Katsuhiko Sato
勝彦 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2017185357A priority Critical patent/JP6977445B2/en
Publication of JP2019061050A publication Critical patent/JP2019061050A/en
Application granted granted Critical
Publication of JP6977445B2 publication Critical patent/JP6977445B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

To improve a technology for bringing a sense of affinity to a user.SOLUTION: An interaction apparatus 100 includes a language analysis section 112, a history storage section 113, a system response sentence generation section 114, a system response sentence output section 115. The language analysis section 112 analyzes a user speech sentence to acquire user expression characteristics. The history storage section 113 stores the user speech sentence generated by a voice recognition section 111 and a history of user expression characteristics acquired by the language analysis section 112, as a user speech sentence history 121. The system response sentence generation section 114 generates a system response sentence on the basis of the user speech sentence history 121 stored by the history storage section 113. The system response sentence output section 115 outputs the system response sentence generated by the system response sentence generation section 114.SELECTED DRAWING: Figure 3

Description

本発明は、ロボット等がユーザと対話する際の応答文を生成する技術に関する。   The present invention relates to a technology for generating a response sentence when a robot or the like interacts with a user.

ユーザと対話することができる端末やロボットの開発が進められている。そして、これら端末やロボットがユーザと対話をする際に、ユーザに飽きの来ない円滑な対話処理を行えるようにするための技術開発も進められている。例えば、特許文献1には、システムが応答文を生成する際に、話題や単語等を変化させることによって、ユーザに飽きの来ない対話処理を行うことができる対話システムが記載されている。   Development of terminals and robots capable of interacting with users is in progress. And, when these terminals and robots interact with the user, technological development is also in progress to enable smooth interaction processing without getting tired of the user. For example, Patent Document 1 describes a dialog system capable of performing dialog processing that does not make the user bored by changing the topic, the word, and the like when the system generates a response sentence.

特開2001−125900号公報JP 2001-125900 A

特許文献1に記載の対話システムは、ユーザの利用頻度の高い単語等を評価指標として利用して応答時の会話の話題等を最適化することによってユーザに飽きの来ない対話を提供するようにしている。しかし、対話システムが応答する文章のパターンは予めパターンデータベースに格納されたものに限定されるため、ユーザ毎に話題を変えることはできても、応答文の文章表現が変化することはない。そのため、決まり切った文章表現になってしまう可能性が高く、ユーザが親近感を感じることは難しいと考えられる。このように、従来の対話装置では、ユーザに親近感を感じさせるための技術に改善の余地がある。   The dialog system described in Patent Document 1 provides a user-friendly dialog by optimizing the topic of the conversation at the time of response by using a word or the like frequently used by the user as an evaluation index. ing. However, since the sentence pattern to which the dialogue system responds is limited to one stored in advance in the pattern database, although the topic can be changed for each user, the sentence expression of the response sentence does not change. Therefore, there is a high possibility that the sentence expression will be decided, and it is considered difficult for the user to feel a sense of closeness. As described above, in the conventional dialog device, there is room for improvement in the technology for making the user feel familiar.

本発明は、上記実情に鑑みてなされたものであり、ユーザに親近感を感じさせるための技術を改善することを目的とする。   The present invention has been made in view of the above-described circumstances, and an object thereof is to improve a technique for causing a user to feel familiarity.

上記目的を達成するため、本発明の対話装置は、
ユーザ発話文を言語解析して前記ユーザ発話文に含まれる表現の特徴を示す情報であるユーザ表現特徴を取得する言語解析部と、
前記言語解析部が取得した前記ユーザ表現特徴の履歴をユーザ発話文履歴として記憶部に格納する履歴格納部と、
前記履歴格納部が格納したユーザ発話文履歴に基づいてシステム応答文を生成するシステム応答文生成部と、
前記システム応答文生成部が生成したシステム応答文を出力するシステム応答文出力部と、
を備える。
In order to achieve the above object, the interactive device of the present invention is
A language analysis unit that language-analyzes a user's utterance sentence and acquires a user expression feature that is information indicating a feature of an expression included in the user's utterance sentence;
A history storage unit that stores the history of the user expression feature acquired by the language analysis unit as a user utterance sentence history in a storage unit;
A system response sentence generation unit that generates a system response sentence based on the user utterance sentence history stored in the history storage unit;
A system response sentence output unit that outputs a system response sentence generated by the system response sentence generation unit;
Equipped with

本発明によれば、ユーザに親近感を感じさせるための技術を改善することができる。   According to the present invention, it is possible to improve the technology for making the user feel familiar.

本発明の実施形態に係る対話装置とユーザとの対話の様子を示す図である。It is a figure which shows the mode of the dialog of the dialog apparatus and user according to the embodiment of the present invention. 実施形態に係る対話装置の外観を示す図である。It is a figure which shows the external appearance of the dialog apparatus which concerns on embodiment. 実施形態に係る対話装置の構成を示す図である。It is a figure showing the composition of the dialog device concerning an embodiment. 実施形態に係る対話装置の記憶部に記憶されるユーザ発話文履歴の一例を示す図である。It is a figure which shows an example of the user speech sentence log memorize | stored in the memory | storage part of the dialog apparatus which concerns on embodiment. 各発話種別のユーザ発話文の例を示す図である。It is a figure which shows the example of the user speech sentence of each speech classification. 実施形態に係る言語解析部がユーザ発話文を構文解析した結果の一例を示す図である。It is a figure which shows an example of a result of the language analysis part which concerns on embodiment parsing-analyzed a user utterance sentence. 実施形態に係る言語解析部が述語部を自立語部と付属語部に分割した結果の一例を示す図である。It is a figure which shows an example of a result of the language analysis part which concerns on embodiment divided | segmented a predicate part into a self-supporting word part and an attachment word part. 実施形態に係る言語解析処理の処理手順を示すフローチャートである。It is a flow chart which shows the processing procedure of the language analysis processing concerning an embodiment. 実施形態に係るポジネガ極性単語辞書の一例を示す図である。It is a figure which shows an example of the positive / negative polarity word dictionary which concerns on embodiment. 実施形態に係る発話種別判定ルールの一例を示す図である。It is a figure which shows an example of the speech type determination rule which concerns on embodiment. 実施形態に係る対話制御処理の処理手順を示すフローチャートである。It is a flow chart which shows a processing procedure of dialogue control processing concerning an embodiment.

以下、本発明の実施形態について、図表を参照して説明する。なお、図中同一又は相当部分には同一符号を付す。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the drawings, the same or corresponding parts are denoted by the same reference numerals.

(実施形態)
図1に示すように、本発明の実施形態に係る対話装置100は、音声でユーザUと対話することができるロボットである。図2に示すように、対話装置100は頭20と胴体30とからなる。そして、対話装置100の頭20には、マイク21と、カメラ22と、スピーカ23と、センサ群24と、が設けられている。
(Embodiment)
As shown in FIG. 1, the dialog device 100 according to the embodiment of the present invention is a robot capable of interacting with the user U by voice. As shown in FIG. 2, the interactive device 100 comprises a head 20 and a torso 30. The head 20 of the interactive device 100 is provided with a microphone 21, a camera 22, a speaker 23, and a sensor group 24.

マイク21は、頭20の左右、人の顔でいうところの耳の位置に複数設けられており、アレイマイクを構成する。マイク21は、対話装置100の周囲にいるユーザUが発話した音声を音声データとして取得する音声取得部として機能する。   A plurality of microphones 21 are provided at the left and right of the head 20 and at the positions of the ears in the face of a person, and constitute an array microphone. The microphone 21 functions as a voice acquisition unit that acquires, as voice data, a voice uttered by the user U who is around the interactive device 100.

カメラ22は、頭20の前面の中央部、人の顔でいうところの鼻の位置に設けられている撮像装置である。カメラ22は、対話装置100の正面の画像のデータ(画像データ)を取得する画像取得部として機能し、取得した画像データを後述する制御部110に入力する。対話装置100は、予めユーザの顔の画像データ(又は当該画像データの特徴量)を後述する記憶部120に記憶させておく。そして、対話装置100は、対話中にカメラ22で取得した顔の画像データを画像認識することにより、対話相手が誰なのかを識別(ユーザ識別)することができる。   The camera 22 is an imaging device provided at the center of the front of the head 20, at the position of the nose in the face of a person. The camera 22 functions as an image acquisition unit that acquires data (image data) of an image in front of the interactive device 100, and inputs the acquired image data to the control unit 110 described later. The interactive device 100 stores in advance the image data of the face of the user (or the feature amount of the image data) in the storage unit 120 described later. Then, the interactive device 100 can identify who the interactive partner is (user identification) by performing image recognition on the image data of the face acquired by the camera 22 during the interactive operation.

スピーカ23は、カメラ22の下側、人の顔でいうところの口の位置に設けられている。スピーカ23は、音声を出力する音声出力部として機能する。   The speaker 23 is provided on the lower side of the camera 22, at the position of the mouth in the face of a person. The speaker 23 functions as an audio output unit that outputs audio.

センサ群24は、人の顔でいうところの目の位置に設けられている。センサ群24は、加速度センサ、障害物検知センサ等を含み、各種物理量を検出して、対話装置100の姿勢制御、衝突回避、安全性確保等のために使用される。   The sensor group 24 is provided at the eye position in the face of a person. The sensor group 24 includes an acceleration sensor, an obstacle detection sensor, and the like, detects various physical quantities, and is used for attitude control of the interactive apparatus 100, collision avoidance, security assurance, and the like.

対話装置100の頭20と胴体30とは、図2に示すように、破線で示される首関節31によって相互に連結されている。首関節31は、複数のモータを含む。後述する制御部110がこれら複数のモータを駆動することにより、対話装置100の頭20を上下方向、左右方向及び傾ける方向の3軸で回転させることができる。これにより、対話装置100は、例えばうなずきの動作をすることができる。   The head 20 and the torso 30 of the interactive device 100 are mutually connected by a neck joint 31 shown by a broken line as shown in FIG. The neck joint 31 includes a plurality of motors. By driving the plurality of motors by the control unit 110 described later, the head 20 of the interactive apparatus 100 can be rotated in three axes of the vertical direction, the horizontal direction, and the tilting direction. Thereby, interactive device 100 can perform, for example, nodding action.

図2に示すように、対話装置100の胴体30の下部には足回り部32が設けられている。足回り部32は、4つの車輪(ホイール)と駆動モータとを含む。4つの車輪のうち、2つが前輪として胴体30の前側に、残り2つが後輪として胴体30の後ろ側に、それぞれ配置されている。車輪としては、例えば、オムニホイール、メカナムホイール等を使用しても良い。後述する制御部110が、駆動モータを制御して車輪を回転させると、対話装置100は移動する。   As shown in FIG. 2, the lower part of the trunk 30 of the dialogue apparatus 100 is provided with a foot part 32. The undercarriage 32 includes four wheels and a drive motor. Of the four wheels, two are disposed on the front side of the fuselage 30 as front wheels and the remaining two are disposed on the rear side of the fuselage 30 as rear wheels. As the wheel, for example, an omni wheel, a mechanum wheel or the like may be used. When the control unit 110 described later controls the drive motor to rotate the wheels, the interactive device 100 moves.

次に、図3を参照して、対話装置100の機能構成を説明する。図3に示すように、対話装置100は、上述の構成に加え、操作ボタン33と、制御部110と、記憶部120と、を備える。   Next, with reference to FIG. 3, the functional configuration of the interactive device 100 will be described. As shown in FIG. 3, the interactive device 100 includes an operation button 33, a control unit 110, and a storage unit 120 in addition to the configuration described above.

操作ボタン33は、図示しないが、胴体30の背中の位置に設けられている。操作ボタン33は、対話装置100を操作するための各種ボタンである。操作ボタン33は、電源ボタン、スピーカ23の音量調節ボタン等を含む。   Although not shown, the operation button 33 is provided at the back of the body 30. The operation buttons 33 are various buttons for operating the dialogue device 100. The operation button 33 includes a power button, a volume control button of the speaker 23, and the like.

制御部110は、CPU(Central Processing Unit)等で構成される。制御部110は、記憶部120に記憶されたプログラムを実行することにより、後述する音声認識部111、言語解析部112、履歴格納部113、システム応答文生成部114、システム応答文出力部115及びユーザ識別部116として機能する。また、制御部110は、時計機能及びタイマー機能を備え、現在時刻(現在日時)や経過時間を取得することができる。   The control unit 110 is configured by a CPU (Central Processing Unit) or the like. The control unit 110 executes a program stored in the storage unit 120 to execute a speech recognition unit 111, a language analysis unit 112, a history storage unit 113, a system response sentence generation unit 114, a system response sentence output unit 115, and the like described later. It functions as the user identification unit 116. In addition, the control unit 110 has a clock function and a timer function, and can acquire current time (current date and time) and elapsed time.

記憶部120は、ROM(Read Only Memory)、RAM(Random Access Memory)等で構成され、制御部110のCPUが実行するプログラム、各種データ等を記憶する。また、記憶部120には、履歴格納部113により、ユーザ発話文に関する情報の履歴がユーザ発話文履歴121として記憶される。   The storage unit 120 is configured by a read only memory (ROM), a random access memory (RAM), and the like, and stores programs executed by the CPU of the control unit 110, various data, and the like. In the storage unit 120, the history storage unit 113 stores a history of information related to the user utterance sentence as the user utterance sentence history 121.

ユーザ発話文履歴121は、図4に示すように、「ユーザ」、「ユーザ発話文」、「発話種別」、「文末表現」、「助詞有無」及び「フィラー」の各情報からなる。これは、「ユーザ」の項目で示されるユーザが、「ユーザ発話文」の項目で示されるユーザ発話文を発話したことを示している。また、「発話種別」の項目には該ユーザ発話文の発話種別が、「文末表現」の項目には該ユーザ発話文の文末表現が、「助詞有無」の項目には該ユーザ発話文の助詞の有無が、「フィラー」の項目には該ユーザ発話文中のフィラーが、それぞれ格納されることを示している。なお、発話種別、文末表現、助詞の有無、フィラー、については後述する。   As shown in FIG. 4, the user utterance sentence history 121 includes information of “user”, “user utterance sentence”, “utterance type”, “end-of-sentence expression”, “postposition presence”, and “filler”. This indicates that the user indicated by the item of “user” has uttered the user utterance sentence indicated by the item of “user utterance sentence”. Also, the item "utterance type" has the utterance type of the user's utterance sentence, the item "statement end expression" has the sentence end expression of the user utterance sentence, and the item "possess / no existence" has the particle of the user's utterance sentence The presence of indicates that the filler in the user's utterance is stored in the item "filler". The utterance type, the sentence end expression, the presence or absence of a particle, and the filler will be described later.

次に、制御部110が実現する各機能について説明する。制御部110は、前述したように、記憶部120に記憶されたプログラムを実行することにより、音声認識部111、言語解析部112、履歴格納部113、システム応答文生成部114、システム応答文出力部115及びユーザ識別部116として機能する。また、制御部110は、マルチスレッド機能に対応しており、複数のスレッド(異なる処理の流れ)を並行して実行することができる。   Next, each function realized by the control unit 110 will be described. As described above, the control unit 110 executes the program stored in the storage unit 120 to execute the speech recognition unit 111, the language analysis unit 112, the history storage unit 113, the system response sentence generation unit 114, and the system response sentence output. It functions as the unit 115 and the user identification unit 116. Further, the control unit 110 corresponds to the multithread function, and can execute a plurality of threads (flows of different processes) in parallel.

音声認識部111は、音声取得部(マイク21)が取得した音声データを音声認識して、テキストデータとしてのユーザ発話文を取得する。   The speech recognition unit 111 performs speech recognition on the speech data acquired by the speech acquisition unit (microphone 21), and acquires a user utterance sentence as text data.

言語解析部112は、音声認識部111が取得したユーザ発話文(テキストデータ)を後述する言語解析処理によって言語解析する。具体的には、言語解析部112は、ユーザ発話文を形態素解析及び構文解析して、ユーザ発話文の中の各単語の品詞情報、係り受け情報等を取得する。そして、これらに基づき、言語解析部112は、ユーザの表現の特徴を示す情報(ユーザ表現特徴)を取得するとともに、ユーザ発話文の発話種別を判定する。発話種別とは、図5に示すように、ユーザ発話文の種類(主張、要望、質問、依頼、命令、提案、等)を表す情報(発話種別情報)である。また、ユーザ表現特徴としては、文末表現、助詞の有無、フィラー等があるが、これらについては後述する。   The language analysis unit 112 analyzes the language of the user utterance sentence (text data) acquired by the speech recognition unit 111 by language analysis processing described later. Specifically, the language analysis unit 112 performs morphological analysis and syntax analysis on the user utterance sentence to acquire part of speech information, modification information, and the like of each word in the user utterance sentence. Then, based on these, the language analysis unit 112 acquires information indicating the feature of the user's expression (user's expression feature) and determines the utterance type of the user's utterance sentence. The utterance type is, as shown in FIG. 5, information (utterance type information) indicating the type of the user's utterance text (assert, request, question, request, instruction, proposal, etc.). In addition, as the user expression features, there are sentence end expressions, presence or absence of particles, fillers and the like, which will be described later.

履歴格納部113は、音声認識部111が取得したユーザ発話文と、言語解析部112が取得又は判定したユーザ表現特徴及び発話種別とを、ユーザ毎に、ユーザ発話文履歴121として、記憶部120に格納する。ユーザ表現特徴の、文末表現、助詞の有無、フィラーについて、以下に説明する。   The history storage unit 113 stores the user utterance sentence acquired by the speech recognition unit 111 and the user expression feature and the utterance type acquired or determined by the language analysis unit 112 as the user utterance sentence history 121 for each user. Store in The sentence end expression, the presence or absence of a particle, and the filler of the user expression feature will be described below.

文末表現とは、当該ユーザ発話文の文末の表現である。この文末表現の抽出方法について、図4に示すユーザAのユーザ発話文「お薦めの映画を教えてもらいたいな」を用いて説明する。このユーザ発話文を言語解析部112が構文解析すると、図6に示すように、文章の構造とともに、述語部(教えてもらいたいな)を抽出することができる。そして、図7に示すように、言語解析部112がこの述語部を自立語部と付属語部に分割することにより、この付属語部を元のユーザ発話文の文末表現として抽出することができる。   The sentence end expression is an expression at the end of the user utterance sentence. A method of extracting this sentence-end expression will be described using a user utterance sentence of the user A shown in FIG. 4 "I do not want to teach a recommended movie". When the language analysis unit 112 parses the user's utterance sentence, as shown in FIG. 6, it is possible to extract a predicate part (I want to be taught) along with the structure of the sentence. Then, as shown in FIG. 7, the language analysis unit 112 divides this predicate part into the independent word part and the adjunct part, so that this adjunct part can be extracted as the sentence end expression of the original user utterance sentence. .

助詞の有無とは、ここでは当該ユーザ発話文の述語部に係る係り受け元の末尾の助詞の有無を指す。図6で説明すると、述語部(教えてもらいたいな)に係る係り受け元は「映画を」であり、この末尾には、格助詞「を」が存在するので、この例では「助詞の有無」は「有」となる。このように、「助詞の有無」は、言語解析部112がユーザ発話文を解析して、ユーザ発話文の述語部に係る係り受け元の末尾の助詞の有無により取得できる。   Here, the presence or absence of a particle refers to the presence or absence of a particle at the end of the dependency source according to the predicate portion of the user utterance sentence. Referring to FIG. 6, the dependency source for the predicate part (I want to be taught) is "Movie", and there is a case particle "" at the end, so in this example, "the presence or absence of a particle" "Is". As described above, “the presence or absence of a particle” can be acquired by the language analysis unit 112 analyzing the user's utterance sentence and the presence or absence of the end particle of the dependency source according to the predicate part of the user's utterance sentence.

フィラーとは、ユーザ発話文中に含まれる、「えーと」、「まあ」等の間投詞である。ここでは「・・・ね」、「・・・さあ」等の間投助詞もフィラーに含めることにする。図6の例では、フィラーは存在しないので、この例では「フィラー」は「無」となる。別の例として、図4に示すユーザCのユーザ発話文「あのー、お薦めの映画、教えてくれる」であれば、冒頭の「あのー」は間投詞なので、フィラーとして抽出される。このように、「フィラー」は、言語解析部112がユーザ発話文を解析して品詞情報を得ることにより、ユーザ発話文の中に含まれる間投詞や間投助詞として抽出することができる。   The filler is an interjection included in the user's utterance sentence, such as "uh," "well." In this case, we will also include the throw particle in the filler for "... ne", "... saa", etc. In the example of FIG. 6, since a filler does not exist, a "filler" becomes "absent" in this example. As another example, if the user utterance sentence of the user C shown in FIG. 4 "A-, a recommended movie, will teach you", since the "A-" at the beginning is an interjection, it is extracted as a filler. In this manner, the “filler” can be extracted as an interjection or an interjection particle included in the user's utterance sentence by the language analysis unit 112 analyzing the user's utterance sentence to obtain part-of-speech information.

システム応答文生成部114は、ユーザ発話文とユーザ発話文の言語解析結果に基づいて、当該ユーザ発話文に対する標準的な表現のシステム応答文を生成する。そして、システム応答文生成部114は、履歴格納部113が格納したユーザ発話文履歴121から取得したユーザ表現特徴に基づいて、システム応答文を変換する。なお、システム応答文生成部114は、標準的な表現のシステム応答文を生成することなく、最初から、ユーザ表現特徴に基づいたシステム応答文を生成しても良い。   The system response sentence generation unit 114 generates a system response sentence of a standard expression for the user utterance sentence based on the user utterance sentence and the language analysis result of the user utterance sentence. Then, the system response sentence generation unit 114 converts the system response sentence based on the user expression feature acquired from the user utterance sentence history 121 stored in the history storage unit 113. The system response sentence generation unit 114 may generate a system response sentence based on the user expression feature from the beginning without generating a system response sentence of a standard expression.

システム応答文生成部114が、現在対話中のユーザのユーザ表現特徴に基づいて、システム応答文を変換する方法について説明する。この処理は、システム応答文生成部114が、過去のユーザ発話文の中における、出現頻度の高い文末表現、出現頻度の高い助詞(述語部に係っている係り受け元の末尾の助詞)の使用パターン(助詞使用パターン)、出願頻度の高いフィラー、に基づいてシステム応答文を変換する。ここで、本実施例で出現頻度を求める際に用いる助詞使用パターンは、処理を単純にするために、助詞を使用するパターン(助詞有の助詞使用パターン)と、助詞を使用しないパターン(助詞無の助詞使用パターン)の2種類とする。   A method will be described in which the system response sentence generator 114 converts the system response sentence based on the user expression feature of the user currently interacting. In this process, the system response sentence generation unit 114 generates a sentence end expression having a high appearance frequency and a particle having a high appearance frequency (an end particle of a dependency source related to the predicate part) in the past user utterance sentences. System response sentences are converted on the basis of usage patterns (particle use patterns) and frequently filed fillers. Here, the particle use pattern used when obtaining the appearance frequency in the present embodiment is a pattern using particles (pattern using particles with particles) and a pattern not using particles (no particles for simplicity). And two types of particle usage pattern).

まず、システム応答文生成部114は、ユーザ発話文履歴121に含まれているデータのうち、現在対話中のユーザのデータを対象にして、「文末表現」の項目に格納されている全ての文末表現の中で、出現頻度が文末表現基準頻度(例えば0.2)以上の文末表現を頻出文末表現として抽出する。出現頻度は、当該ユーザのデータにおける、当該文末表現の数÷全データ数として求められる。ここで、複数の文末表現が文末表現基準頻度以上であるときは、その中で最も出現頻度の高い文末表現を頻出文末表現としても良いし、文末表現基準頻度以上の文末表現の中からランダムに一つの文末表現を選出してそれを頻出文末表現としても良い。   First, among the data included in the user utterance sentence history 121, the system response sentence generation unit 114 targets all data of the user who is currently interacting, and ends all sentences stored in the item "end-of-sentence expression". In the expression, the sentence end expression having the appearance frequency equal to or more than the sentence end expression reference frequency (for example, 0.2) is extracted as the frequent appearance end expression. The appearance frequency is obtained as the number of the sentence end expressions in the data of the user / the total number of data. Here, when a plurality of sentence end expressions are equal to or higher than the sentence end expression reference frequency, the sentence end expression having the highest appearance frequency among them may be used as the frequent sentence end expression, or randomly selected from sentence end expressions greater than the sentence end expression reference frequency. It is also possible to select one sentence end expression and use it as a frequent sentence end expression.

なお、文末表現基準頻度は固定値である必要はない。例えば、当該ユーザのユーザ発話文履歴121の中の全データ数がn個の場合は、文末表現基準頻度を2/n(ただし、n=1のときは1)とするなど、データ数が増えるにしたがって、文末表現基準頻度を小さくしても良い。また、システム応答文生成部114は、出現頻度が文末表現基準頻度以上の文末表現ではなく、最も出現頻度の高い文末表現を頻出文末表現として抽出しても良い。   The sentence end expression reference frequency does not have to be a fixed value. For example, when the total number of data in the user utterance sentence history 121 of the user is n, the number of data increases, such as setting the sentence end expression reference frequency to 2 / n (however, 1 when n = 1). According to the above, the sentence end expression reference frequency may be reduced. Further, the system response sentence generation unit 114 may extract not the sentence end expression having the appearance frequency equal to or more than the sentence end expression reference frequency but the sentence end expression having the highest appearance frequency as the frequent appearance end expression.

そして、システム応答文生成部114は、システム応答文の文末表現を、上述のように出現頻度によって抽出した頻出文末表現に変換する。   Then, the system response sentence generation unit 114 converts the system end sentence expression of the system response sentence into the frequently appearing sentence end expression extracted according to the appearance frequency as described above.

次に、システム応答文生成部114は、ユーザ発話文履歴121に含まれているデータのうち、現在対話中のユーザのデータを対象にして、出現頻度が助詞基準頻度(この値は例えば0.7等、0.5以上の値に設定する)以上の助詞の使用パターンを頻出助詞使用パターンとして抽出する。出現頻度は、当該ユーザのデータにおける、当該助詞使用パターンの数÷全データ数として求められる。   Next, the system response sentence generation unit 114 sets the appearance frequency to the particle reference frequency (this value is, for example, 0. 0) for the data of the user currently in the dialogue among the data included in the user utterance sentence history 121. 7) Use patterns of particles that are set to a value of 0.5 or more), such as 7 or more, as frequent occurrence particle use patterns. The appearance frequency is obtained as the number of the particle use patterns in the data of the user / the total number of data.

具体的には、システム応答文生成部114は、ユーザ発話文履歴121に含まれているデータのうち、現在対話中のユーザのデータを対象にして、「助詞有無」の項目に格納されている「有」の数と「無」の数を求める。ここで、「有」の数をm、「無」の数をnで表すとすると、助詞有の助詞使用パターンの出現頻度はm/(m+n)、助詞無の助詞使用パターンの出現頻度はn/(m+n)と表すことができる。ここで、n/(m+n)が、助詞基準頻度よりも高ければ、助詞無の助詞使用パターンが頻出助詞使用パターンとして抽出され、システム応答文生成部114は、システム応答文から助詞(述語部に係る係り受け元の末尾の助詞)を削除する。   Specifically, the system response sentence generation unit 114 is stored in the item “presence or absence of particles” for the data of the user who is currently interacting among the data included in the user utterance sentence history 121. Find the number of "Yes" and the number of "None". Here, assuming that the number of "present" is m and the number of "absent" is n, the frequency of occurrence of particle use patterns with particles is m / (m + n), and the frequency of occurrence of particle use patterns without particles is n It can be expressed as / (m + n). Here, if n / (m + n) is higher than the reference frequency of the particle, the particle use pattern of no particle is extracted as the frequent use particle use pattern, and the system response sentence generation unit 114 Delete the last particle of the relevant dependency source).

また、m/(m+n)が、助詞基準頻度よりも高ければ、助詞有の助詞使用パターンが頻出助詞使用パターンとして抽出され、システム応答文生成部114は、システム応答文から助詞を削除しない(システム応答文の助詞をそのまま残す)。また、m/(m+n)とn/(m+n)の両方ともが助詞基準頻度以下なら、当該ユーザの助詞使用パターンは、助詞の有無が混在している使用パターンと判定することとし、システム応答文生成部114は、システム応答文に含まれる助詞(述語部に係る係り受け元の末尾の助詞)を50%の確率で削除する。もっともこの確率は50%に限定する必要はなく、例えばn/mの確率で削除することにしても良い。n/mの確率で削除した方が、ユーザの助詞使用頻度をより反映したシステム応答文にすることができる。   Also, if m / (m + n) is higher than the reference frequency, the particle use pattern with particles is extracted as the frequent use particle use pattern, and the system response sentence generation unit 114 does not delete the particles from the system response sentence (system Leave the particle of the response sentence as it is). Also, if both m / (m + n) and n / (m + n) are less than the reference frequency of the particle, the user's particle use pattern is determined to be a use pattern in which presence or absence of particle is mixed, and the system response sentence The generation unit 114 deletes the particles (the particles at the end of the dependency source related to the predicate part) included in the system response sentence with a probability of 50%. However, this probability need not be limited to 50%, and may be deleted, for example, with the probability of n / m. By deleting with the probability of n / m, it is possible to make a system response statement that more reflects the frequency of particle use by the user.

次に、システム応答文生成部114は、ユーザ発話文履歴121に含まれているデータのうち、現在対話中のユーザのデータを対象にして、「フィラー」の項目に格納されている全てのデータの中で、出現頻度がフィラー基準頻度(例えば0.1)以上のフィラーを頻出フィラーとして抽出する。複数のフィラーが抽出された場合は、その中で最も出現頻度の高いフィラーを頻出フィラーとしても良い。そして、頻出フィラーが抽出された場合は、システム応答文生成部114は、システム応答文に頻出フィラーを挿入する。   Next, among the data included in the user utterance sentence history 121, the system response sentence generation unit 114 targets all data of the user currently interacting, and stores all the data stored in the “filler” item. Among the above, fillers having an appearance frequency equal to or higher than the filler reference frequency (for example, 0.1) are extracted as frequent fillers. When a plurality of fillers are extracted, the most frequently occurring filler may be used as the frequent filler. Then, when the frequent filler is extracted, the system response sentence generator 114 inserts the frequent filler into the system response sentence.

なお、フィラー基準頻度は固定値である必要はない。例えば、当該ユーザのユーザ発話文履歴121の中の全データ数がn個の場合は、フィラー基準頻度を1/nとするなど、データ数が増えるにしたがって、フィラー基準頻度を小さくしても良い。また、システム応答文生成部114は、出現頻度がフィラー基準頻度以上のフィラーではなく、最も出現頻度の高いフィラーを頻出フィラーとして抽出しても良い。   The filler reference frequency does not have to be a fixed value. For example, when the total number of data in the user utterance sentence history 121 of the user is n, the filler reference frequency may be decreased as the number of data increases, such as setting the filler reference frequency to 1 / n. . Further, the system response sentence generation unit 114 may extract not the filler whose appearance frequency is the filler reference frequency or more but the filler having the highest appearance frequency as a frequent appearance filler.

上述のようにシステム応答文を変換することにより、システム応答文生成部114は、ユーザ表現特徴の3つの観点(文末表現、助詞使用パターン、フィラー)に基づいて、ユーザの表現の特徴をシステム応答文に反映させることができる。   As described above, by converting the system response sentence, the system response sentence generation unit 114 performs system response of the user's expression characteristic based on the three viewpoints of the user expression feature (the sentence end expression, the particle use pattern, and the filler). It can be reflected in the statement.

システム応答文出力部115は、システム応答文生成部114が生成及び変換したシステム応答文を音声合成し、スピーカ23からシステム応答文の音声を出力する。   The system response sentence output unit 115 synthesizes the voice of the system response sentence generated and converted by the system response sentence generation unit 114, and outputs the voice of the system response sentence from the speaker 23.

ユーザ識別部116は、カメラ22で取得したユーザの顔の画像データを画像認識して、現在の対話相手を識別する。なお、ユーザ識別部116は、マイク21で取得した音声データから音声の特徴を認識することによって、対話相手を識別しても良い。また、カメラ22で取得した画像データの認識結果と、マイク21で取得した音声データの認識結果とを両方とも用いて、対話相手を識別しても良い。   The user identification unit 116 performs image recognition on the image data of the face of the user acquired by the camera 22 to identify the current conversation partner. Note that the user identification unit 116 may identify the conversation partner by recognizing the feature of the voice from the voice data acquired by the microphone 21. Alternatively, the other party of interaction may be identified using both the recognition result of the image data acquired by the camera 22 and the recognition result of the audio data acquired by the microphone 21.

以上、対話装置100の機能構成を説明した。次に、言語解析部112による言語解析処理について、図8を参照して説明する。この処理は、ユーザが発した音声を音声認識してテキストデータを取得する度に行われる。   The functional configuration of the dialog device 100 has been described above. Next, language analysis processing by the language analysis unit 112 will be described with reference to FIG. This process is performed each time voice recognition of a voice uttered by the user is performed to acquire text data.

まず、言語解析部112は、ユーザ発話文を形態素解析及び構文解析してユーザ発話文の中の各単語の品詞情報、係り受け情報等を取得する(ステップS101)。次に、言語解析部112は、構文解析したユーザ発話文の述語部の付属語部を、当該ユーザ発話文の文末表現として抽出する(ステップS102)。そして、言語解析部112は、ユーザ発話文の述語部に係っている係り受け元の末尾の助詞の有無を取得する(ステップS103)。さらに、言語解析部112は、品詞情報に基づきユーザ発話文からフィラーを抽出する(ステップS104)。ステップS101からステップS104までの処理により、ユーザ発話文に含まれるユーザ表現特徴が取得される。   First, the language analysis unit 112 performs morphological analysis and syntax analysis on the user utterance sentence to acquire part-of-speech information, dependency information, and the like of each word in the user utterance sentence (step S101). Next, the language analysis unit 112 extracts the annex part of the predicate part of the syntactically analyzed user utterance sentence as the sentence end expression of the user utterance sentence (step S102). Then, the language analysis unit 112 acquires the presence or absence of the last particle of the dependency source related to the predicate part of the user utterance sentence (step S103). Furthermore, the language analysis unit 112 extracts a filler from the user utterance sentence based on the part-of-speech information (step S104). By the processing from step S101 to step S104, the user expression feature included in the user utterance text is acquired.

次に、言語解析部112は、ポジネガ極性単語辞書に基づいて、ステップS101で取得した解析結果にポジネガ極性情報を付与する(ステップS105)。ここで、ポジネガ極性単語辞書とは、図9に示すように、ポジティブな表現を表す用言(例えば、好き(動詞)、美味しい(形容詞)、きれいだ(形容動詞)等)と、ネガティブな表現を表す用言(例えば、嫌い(動詞)、不味い(形容詞)、不細工だ(形容動詞)等)が登録されている単語辞書である。   Next, the language analysis unit 112 adds positive / negative polarity information to the analysis result acquired in step S101 based on the positive / negative polarity word dictionary (step S105). Here, as shown in FIG. 9, a positive / negative polarity word dictionary is a phrase that indicates a positive expression (eg, favorite (verb), delicious (adjective), beautiful (adjective verb), etc.) and negative expression. This is a word dictionary in which words (for example, dislike (verbs), bad taste (adjectives), unskilled (adjective verbs), etc.) expressing.

言語解析部112がステップS101で取得した解析結果に、ポジネガ極性単語辞書に登録されているポジティブな表現を表す用言が存在すれば、その解析結果にはポジネガ極性情報として、「ポジ」が付与される。また、言語解析部112がステップS101で取得した解析結果に、ポジネガ極性単語辞書に登録されているネガティブな表現を表す用言が存在すれば、その解析結果にはポジネガ極性情報として、「ネガ」が付与される。言語解析部112がステップS101で取得した解析結果に、ポジネガ極性単語辞書に登録されている単語が存在しなければ、その解析結果にはポジネガ極性情報は付与されない。   If the analysis result acquired in step S101 by the language analysis unit 112 includes a term representing a positive expression registered in the positive / negative polarity word dictionary, “positive” is added to the analysis result as positive / negative polarity information. Be done. In addition, if the analysis result acquired by the language analysis unit 112 in step S101 includes a term representing a negative expression registered in the positive / negative polarity word dictionary, “negative” as positive / negative polarity information in the analysis result Is granted. If there is no word registered in the positive / negative polarity word dictionary in the analysis result acquired by the language analysis unit 112 in step S101, positive / negative polarity information is not attached to the analysis result.

そして、言語解析部112は、解析結果に発話種別判定ルールを適用して、発話種別を判定し(ステップS106)、処理を終了する。ここで、発話種別判定ルールとは、図10に示すように、ユーザ発話文の末尾の品詞、活用形、ポジネガ極性情報等に基づいて、当該ユーザ発話文の発話種別を判定するルールである。なお、いずれのルールにも該当しなかった場合は、当該ユーザ発話文の発話種別は「その他」と判定される。ただし、図10に示す発話種別判定ルールはあくまでも一例である。また、発話種別の種類についても、図10に示されているものに限定されない。例えば「挨拶」(「こんにちは」等、挨拶の発話)、「同意」(「同感です」等、対話者の発話に対して同意していることを表す発話)、「感謝」(「ありがとう」等、感謝の意を表す発話)、「謝罪」(「ごめんなさい」等、謝罪の意を表す発話)等を発話種別の種類に追加することも可能である。   Then, the language analysis unit 112 applies the utterance type determination rule to the analysis result, determines the utterance type (step S106), and ends the process. Here, as shown in FIG. 10, the utterance type determination rule is a rule for determining the utterance type of the user utterance sentence based on the part of speech, inflected form, positive / negative polarity information, etc. at the end of the user utterance sentence. In addition, when it does not correspond to any rule, the utterance type of the said user utterance sentence is determined to be "others." However, the utterance type determination rule shown in FIG. 10 is merely an example. Also, the types of utterance types are not limited to those shown in FIG. For example, "greeting" ( "Hello" or the like, the speech of greeting), "consent" ( "I agree" or the like, speech indicating that you have agreed to the utterance of the interlocutor), "thanks" ( "Thank you", etc. It is also possible to add to the types of utterance types such as “speaking for expressing gratitude”, “apologize” (“sorry,” uttering expressing apology, etc.).

以上の言語解析処理によって、ユーザ発話文に含まれるユーザ表現特徴の取得と、ユーザ発話文の発話種別の判定が行われる。次に、対話装置100の制御部110が実行する対話制御処理について、図11を参照して説明する。この処理は、対話装置100が起動すると開始される。   By the language analysis processing described above, acquisition of the user expression feature included in the user utterance text and determination of the utterance type of the user utterance text are performed. Next, the dialogue control process executed by the control unit 110 of the dialogue apparatus 100 will be described with reference to FIG. This process is started when the dialog device 100 is activated.

まず、ユーザ識別部116は、カメラ22で取得した画像データを画像認識して、ユーザを識別する(ステップS201)。カメラ22で取得した画像データに顔が写っていない場合等、画像認識ができなかった場合は、直前に識別できていたユーザを現在対話しているユーザとみなす。   First, the user identification unit 116 performs image recognition on the image data acquired by the camera 22 to identify the user (step S201). In the case where image recognition can not be performed, for example, when a face is not shown in the image data acquired by the camera 22, the user who has been identified immediately before is regarded as the user who is currently interacting.

次に、制御部110は、ユーザに応答するか否かを判定する(ステップS202)。この判定は様々な観点で行うことができる。例えば、対話装置100が、まだユーザの発した音声を聞いていない場合、当該ユーザに対して応答することは困難なので、この場合は、応答しないという判定を行う。また、通常対話は対話相手と交互に応答するため、前回応答すると判定したら今回は応答しないと判定し、前回応答しないと判定したら今回は応答すると判定しても良い。   Next, the control unit 110 determines whether to respond to the user (step S202). This determination can be made from various points of view. For example, if the dialog device 100 has not yet heard the user's voice, it is difficult to respond to the user. In this case, it is determined that the user does not respond. In addition, since the normal dialogue responds alternately with the dialogue partner, it may be determined that it does not respond this time if it is determined to respond the previous time, and it may be determined to respond this time if it is determined not to respond the previous time.

制御部110が、応答しないと判定したら(ステップS202;No)、音声認識部111は、マイク21から取得した音声データを音声認識して、ユーザ発話文のテキストデータを取得する(ステップS211)。ステップS211は、音声認識ステップとも呼ばれる。   If the control unit 110 determines not to respond (step S202; No), the voice recognition unit 111 performs voice recognition on the voice data acquired from the microphone 21 to obtain text data of the user's utterance sentence (step S211). Step S211 is also referred to as speech recognition step.

そして、言語解析部112は、ステップS211で取得したテキストデータを上述の言語解析処理(図8)により言語解析して、ユーザ発話文に含まれるユーザ表現特徴の取得と、ユーザ発話文の発話種別の判定を行う(ステップS212)。ステップS212は、言語解析ステップとも呼ばれる。   Then, the language analysis unit 112 language-analyzes the text data acquired in step S211 by the language analysis processing (FIG. 8) described above, and acquires the user expression feature included in the user utterance text and the utterance type of the user utterance text The determination is made (step S212). Step S212 is also called a language analysis step.

そして、履歴格納部113は、ステップS201で識別したユーザ名、ステップS211で取得したユーザ発話文並びにステップS212で判定した発話種別及び取得したユーザ表現特徴(文末表現、助詞の有無、フィラー)を、ユーザ発話文履歴121に追加して、記憶部120に格納する(ステップS213)。ステップS213は、履歴格納ステップとも呼ばれる。そして、ステップS201に戻る。   Then, the history storage unit 113 stores the user name identified in step S201, the user utterance sentence acquired in step S211, the utterance type determined in step S212, and the acquired user expression feature (text end expression, presence or absence of a particle, filler), It is added to the user utterance sentence history 121 and stored in the storage unit 120 (step S213). Step S213 is also called a history storage step. Then, the process returns to step S201.

一方、ステップS202で、制御部110が応答すると判定したら(ステップS202;Yes)、システム応答文生成部114は、直前のユーザ発話文に対するシステム応答文を生成する(ステップS221)。ここで生成されるシステム応答文は標準的な表現のシステム応答文であり、従来技術で生成することができる。なお、直前のユーザ発話文は、ユーザ発話文履歴121から取得することもできるが、システム応答文の生成には、通常、ユーザ発話文の言語解析結果も必要である。したがって、制御部110は、直前のユーザ発話文に対して言語解析部112がステップS212で言語解析した結果を、システム応答文生成部114がステップS221で利用できるように、記憶部120に保存しておくのが望ましい。   On the other hand, when it is determined in step S202 that the control unit 110 responds (step S202; Yes), the system response sentence generation unit 114 generates a system response sentence for the immediately preceding user utterance sentence (step S221). The system response statement generated here is a system response statement of a standard expression, and can be generated by a conventional technique. The immediately preceding user utterance sentence can also be acquired from the user utterance sentence history 121, but generation of a system response sentence usually requires a language analysis result of the user utterance sentence. Therefore, control unit 110 stores the result of language analysis performed by language analysis unit 112 in step S212 on the immediately preceding user's utterance in storage unit 120 so that system response sentence generation unit 114 can use it in step S221. It is desirable to keep

そして、システム応答文生成部114は、ステップS221で生成したシステム応答文を、記憶部120に記憶されているユーザ発話文履歴121に含まれるユーザ表現特徴に対応する表現を用いたシステム応答文に変換する(ステップS222)。ステップS222は、システム応答文生成ステップとも呼ばれる。   Then, the system response sentence generation unit 114 converts the system response sentence generated in step S221 into a system response sentence using an expression corresponding to a user expression feature included in the user utterance sentence history 121 stored in the storage unit 120. It converts (step S222). Step S222 is also called a system response sentence generation step.

例えば、ステップS221で生成された標準的なシステム応答文が「あなたの好きな食べ物を教えてください」であるとする。そして、対話相手がユーザAであるとすると、文末表現が「てもらいたいな」で、助詞は有りで、フィラーは無しなので、システム応答文は、「あなたの好きな食べ物を教えてもらいたいな」に変換される。また、対話相手がユーザCであるとすると、文末表現が「てくれる」で、助詞は無しで、フィラーは「あのー」なので、システム応答文は、「あのー、あなたの好きな食べ物、教えてくれる」に変換される。   For example, it is assumed that the standard system response sentence generated in step S221 is "Tell me your favorite food". Then, assuming that the conversation partner is user A, the sentence in the sentence end is "I want to ask you," there is a particle, there is no filler, so the system response sentence, "I want to teach you favorite food Converted to Also, assuming that the conversation partner is user C, the sentence at the end of the sentence is "Takeru", there is no particle, and the filler is "Ah," so the system response sentence is "Ah, your favorite food, tell me Converted to

そして、システム応答文出力部115は、システム応答文生成部114で生成又は変換されたシステム応答文を音声合成して、スピーカ23から出力する(ステップS223)。ステップS223は、システム応答文出力ステップとも呼ばれる。そして、ステップS201に戻る。   Then, the system response sentence output unit 115 performs speech synthesis on the system response sentence generated or converted by the system response sentence generation unit 114, and outputs the synthesized speech from the speaker 23 (step S223). Step S223 is also called a system response sentence output step. Then, the process returns to step S201.

以上説明した対話制御処理により、対話装置100は、ユーザの表現の特徴を反映したシステム応答文を生成することができる。したがって、対話装置100から発せられるシステム応答文は、ユーザ毎にそのユーザの口癖を真似たシステム応答文になり、対話装置100は、ユーザに愛着や親近感を感じさせる対話を実現することができる。このように、対話装置100は、ユーザに親近感を感じさせるための技術を改善することができる。   By the dialog control process described above, the dialog device 100 can generate a system response sentence reflecting the feature of the user's expression. Therefore, the system response sentence issued from the dialogue apparatus 100 becomes a system reply sentence imitating the user's whistling for each user, and the dialogue apparatus 100 can realize the dialogue in which the user feels attachment or closeness. . Thus, the dialog device 100 can improve the technology for making the user feel familiar.

(変形例1)
上述の実施形態では、システム応答文生成部114は、ユーザ発話文履歴121に含まれているデータのうち、「文末表現」の項目に格納されている全ての文末表現の中で、最も出現頻度の高い文末表現を頻出文末表現として抽出する。しかし、文末表現は発話種別によっても変化するので、発話種別を考慮した出現頻度を用いても良い。このような変形例1について説明する。
(Modification 1)
In the above-described embodiment, the system response sentence generation unit 114 has the highest appearance frequency among all sentence end expressions stored in the item “end of sentence expression” among the data included in the user utterance sentence history 121. Sentence endings are extracted as frequent ending sentences. However, since the sentence end expression also changes depending on the utterance type, the appearance frequency in consideration of the utterance type may be used. Such a modified example 1 will be described.

変形例1では、システム応答文生成部114は、ユーザ発話文履歴121に含まれているデータのうち、まず、現在対話中のユーザのデータだけを対象に絞り込む。次に、システム応答文生成部114は、対話制御処理(図11)のステップS221で生成したシステム応答文の発話種別を判定し、ユーザ発話文履歴121に含まれているデータのうち、発話種別が当該システム応答文の発話種別と同じデータだけを対象に絞り込む。そして、システム応答文生成部114は、このように絞り込んだデータの「文末表現」の項目に格納されている文末表現の中で、最も出現頻度の高い文末表現を頻出文末表現として抽出する。   In the first modification, the system response sentence generation unit 114 first narrows down only the data of the user currently interacting with among the data included in the user utterance sentence history 121. Next, the system response sentence generation unit 114 determines the utterance type of the system response sentence generated in step S221 of the dialogue control process (FIG. 11), and the utterance type of the data included in the user utterance sentence history 121. Narrows down to the same data as the utterance type of the system response sentence. Then, the system response sentence generation unit 114 extracts the sentence end expression having the highest appearance frequency as the frequent appearance end expression from among the sentence end expressions stored in the item “state end expression” of the data thus narrowed down.

上述のように、発話種別を考慮して頻出文末表現の抽出を行うことにより、変形例1は、発話種別毎にきめ細かくユーザの表現を真似したシステム応答文を生成することができるようになり、ユーザに愛着や親近感をさらに感じさせる対話を実現することができる。このように、変形例1に係る対話装置は、ユーザに親近感を感じさせるための技術をさらに改善することができる。   As described above, by extracting the frequently appearing sentence end expression in consideration of the utterance type, in the first modification, it is possible to generate a system response sentence in which the user's expression is closely imitated for each utterance type. It is possible to realize a dialogue that makes the user feel more attached and familiar. As described above, the dialog device according to the first modification can further improve the technique for making the user feel familiar.

(変形例2)
上述の実施形態では、対話装置100が発話するシステム応答文は、対話中のユーザのユーザ表現特徴を用いることにより、当該ユーザの口癖を真似たシステム応答文になっている。しかし、これに限られない。ユーザの中には、自分の口癖を真似られるのを好まない人もいることから、システム応答文をユーザ表現特徴とは逆の表現に変換しても良い。このような変形例2について説明する。
(Modification 2)
In the above-described embodiment, the system response sentence spoken by the dialog device 100 is a system response sentence imitating the user's whistling by using the user expression feature of the user in the dialogue. However, it is not limited to this. Since some users do not like being able to imitate their own whistle, the system response sentence may be converted into a representation opposite to the user representation feature. Such a modification 2 will be described.

変形例2では、システム応答文生成部114は、対話中のユーザの頻出文末表現とは異なる文末表現を、他のユーザのユーザ発話文履歴121から検索し、システム応答文の文末表現を検索された文末表現に変換する。なお、対話制御処理(図11)のステップ221で生成したシステム応答文の文末表現が、対話中のユーザの頻出文末表現と異なっているなら、文末表現を変換しない(標準的な表現の文末表現のままにする)ようにしても良い。   In the second modification, the system response sentence generation unit 114 searches for a sentence end expression different from the frequently appearing sentence end expression of the user in the dialogue from the user utterance sentence history 121 of another user and searches for the sentence end expression of the system response sentence. Convert to a sentence end expression. Note that if the system response statement generated at step 221 of the dialog control process (FIG. 11) is different from the frequent statement end expression of the user in the dialog, the sentence statement is not converted (standard expression You may leave it as it is.

そして、システム応答文生成部114は、対話中のユーザの助詞の使用パターンとは逆の使用パターンで助詞を使用する。つまり、システム応答文生成部114は、ユーザ発話文履歴121に含まれているデータのうち、現在対話中のユーザのデータを対象にして、「助詞有無」の項目に格納されている「有」の数と「無」の数を求める。ここでは、上述のように、「有」の数をm、「無」の数をnで表すとする。そして、n/(m+n)が、助詞基準頻度よりも高ければ、助詞無の助詞使用パターンがユーザの助詞使用パターンなので、逆に、システム応答文生成部114は、システム応答文から助詞(述語部に係る係り受け元の末尾の助詞)を削除しない(システム応答文の助詞をそのまま残す)。   Then, the system response sentence generation unit 114 uses the particles in the usage pattern reverse to the usage pattern of the user's particles in the dialog. That is, of the data included in the user utterance sentence history 121, the system response sentence generation unit 114 is “presence” stored in the item “presence / absence of particles” for the data of the user who is currently interacting. Find the number of and the number of "none". Here, as described above, the number of “present” is represented by m, and the number of “absent” is represented by n. Then, if n / (m + n) is higher than the reference frequency of particles, the particle use pattern without particles is the user's particle use pattern, and conversely, the system response sentence generation unit 114 Do not delete the last particle of the dependency source (retain the particles of the system response sentence).

また、m/(m+n)が、助詞基準頻度よりも高ければ、助詞有の助詞使用パターンがユーザの助詞使用パターンなので、逆にシステム応答文生成部114は、システム応答文から助詞を削除する。また、m/(m+n)とn/(m+n)の両方ともが助詞基準頻度以下なら、当該ユーザの助詞使用パターンは、助詞の有無が混在している使用パターンと判定することとする。この場合はmとnとを比較し、nの方が大きければ(ユーザは助詞を省略することが多いということなので)、システム応答文生成部114は、システム応答文に含まれる助詞(述語部に係る係り受け元の末尾の助詞)を削除しない(システム応答文の助詞をそのまま残す)。また、mの方が大きければ(ユーザは助詞を省略しないことが多いということなので)、システム応答文生成部114は、システム応答文に含まれる助詞(述語部に係る係り受け元の末尾の助詞)を削除する。   If m / (m + n) is higher than the reference frequency of the particles, the system response sentence generation unit 114 deletes the particles from the system response sentence because the particle use pattern with particles is the user's particle use pattern. If both m / (m + n) and n / (m + n) are less than the reference frequency of particles, it is determined that the user's particle use pattern is a use pattern in which presence or absence of particles is mixed. In this case, m and n are compared, and if n is larger (since the user often omits particles), the system response sentence generator 114 generates a particle (a predicate part) included in the system response sentence. Do not delete the last particle of the dependency source (retain the particles of the system response sentence). Also, if m is larger (because the user often does not omit particles), the system response sentence generator 114 generates a particle (a particle at the end of the dependency source of the predicate part) contained in the system response sentence. Delete).

そして、システム応答文生成部114は、ユーザ発話文履歴121に含まれているデータのうち、現在対話中のユーザのデータを対象にして、「フィラー」の項目に格納されている全てのデータを調べる。そして、フィラーの出現頻度がフィラー基準頻度(例えば0.1)よりも小さければ、フィラー(例えば「あのー」、「えーと」等)をシステム発話文に挿入する。ここで挿入するフィラーは、他のユーザのユーザ発話文履歴121に含まれているフィラーから選択しても良い。   Then, the system response sentence generation unit 114 sets all data stored in the item of “filler” for the data of the user who is currently interacting among the data included in the user utterance sentence history 121. Examine. Then, if the appearance frequency of the filler is smaller than the filler reference frequency (for example, 0.1), the filler (for example, "Ano", "Eor", etc.) is inserted into the system utterance text. The filler to be inserted here may be selected from the fillers included in the user utterance sentence history 121 of another user.

上述のように、ユーザ表現特徴とは敢えて異なる表現にシステム発話文を変換することにより、ユーザの口癖とは対照的な口癖が反映された(ユーザの口癖が反映されない)システム発話文を生成することができる。したがって、変形例2は、自分の口癖を真似されるのを好まないユーザに嫌がられないシステム応答文を生成することができるようになり、自分の口癖を真似されたくないユーザにも親近感を感じさせる対話を実現することができる。したがって、変形例2に係る対話装置は、ユーザに親近感を感じさせるための技術を改善することができる。   As described above, by converting the system utterance sentence into a different expression from the user expression feature, a system utterance sentence in which the user's mouthpiece is contrasted (the user's mouthpiece is not reflected) is generated. be able to. Therefore, in the second modification, it is possible to generate a system response sentence that is not disliked by a user who does not like being imitated by his own whistle, and a sense of closeness is also made to a user who does not want You can realize the dialogue that makes Therefore, the dialog device according to the second modification can improve the technique for making the user feel familiar.

なお、変形例2に係る対話装置が生成するシステム応答文に用いられる表現は、ユーザ表現特徴の表現とは異なるが、ユーザ表現特徴の表現に基づいて敢えて異なる表現を選択していることから、ユーザ表現特徴に対応する表現の一種と言うことができる。   Although the expression used for the system response sentence generated by the dialog device according to the second modification is different from the expression of the user expression feature, it is different from the expression of the user expression feature, and thus the different expression is selected. It can be said that it is a kind of expression corresponding to the user expression feature.

(変形例3)
上述の実施形態では、システム応答文生成部114は、ユーザ発話文履歴121に含まれているデータのうち、現在対話中のユーザのデータを対象にして、頻出文末表現、助詞の有無、頻出フィラーを取得している。しかし、このような処理に限定する必要はなく、例えば、最もユーザ発話数の多いユーザのユーザ表現特徴に基づいて、システム応答文を変換しても良い。このような変形例3について説明する。
(Modification 3)
In the above-described embodiment, the system response sentence generation unit 114 targets the data of the user currently in the dialogue among the data included in the user utterance sentence history 121, the frequently appearing sentence end expression, the presence or absence of the particle, the frequent appearance filler You are getting However, it is not necessary to limit to such processing, and for example, the system response sentence may be converted based on the user expression feature of the user with the largest number of user utterances. Such a modification 3 will be described.

変形例3では、制御部110は、ユーザの発話数を計数する発話数計数部としても機能する。発話数計数部は、記憶部120に記憶されているユーザ発話文履歴121の「ユーザ」の項目を参照し、各ユーザのユーザ発話文の数を数える。そして、ユーザ発話文の数が最も多いユーザを代表ユーザに選出する。   In the third modification, the control unit 110 also functions as an utterance number counting unit that counts the number of utterances of the user. The utterance number counting unit refers to the “user” item of the user utterance sentence history 121 stored in the storage unit 120, and counts the number of user utterance sentences of each user. Then, the user with the largest number of user utterance sentences is selected as the representative user.

そして、システム応答文生成部114は、頻出文末表現、助詞の有無、頻出フィラーを取得する際に、ユーザ発話文履歴121に含まれているデータのうち、現在対話中のユーザのデータを対象にするのではなく、発話計数部が選出した代表ユーザのデータを対象にする。   Then, the system response sentence generation unit 114 targets the data of the user who is currently interacting among the data included in the user utterance sentence history 121 when acquiring the frequent appearing sentence end expression, the presence or absence of the particle, and the frequent appearing filler. Instead, the data of the representative user selected by the speech counting unit is targeted.

上述のように、代表ユーザの頻出文末表現、助詞の有無、頻出フィラーを取得して、それを用いてシステム応答文を変換することにより、変形例3に係る対話装置は、対話頻度が最も多いユーザの口癖を真似たシステム応答文でユーザに応答することになる。すると、他人よりも自分の口癖を真似て欲しいと思うユーザに対して、ユーザの対話意欲を駆り立てることが可能となり、各ユーザに親近感を感じさせることができる。したがって、変形例3に係る対話装置は、ユーザに親近感を感じさせるための技術を改善することができる。   As described above, the dialog device according to the third modification has the most frequent conversation frequency by acquiring the frequently used sentence end expression of the representative user, presence or absence of particles, and frequently used fillers and converting the system response sentence using them It will respond to the user with a system response statement that mimics the user's whistle. Then, it is possible to inspire the user's willingness to interact with the user who wants to imitate his / her own whistling than others, and can make each user feel a sense of closeness. Therefore, the dialogue apparatus concerning modification 3 can improve the art for making a user feel a sense of closeness.

(その他の変形例)
なお、本発明は、上述の実施形態に限られるものではなく、様々な変更が可能である。例えば、上述の実施形態では、ユーザ表現特徴を文末表現、助詞の有無、フィラーという3つの観点で捉えていたが、これに限られない。例えば、一人称の表現(「私」、「僕」等)、二人称の表現(「あなた」、「君」等)等についても、ユーザ表現特徴として用いても良い。このようにすることで、ユーザの表現をより反映することができ、対話装置はユーザに親近感をより感じさせることができる。
(Other modifications)
In addition, this invention is not limited to the above-mentioned embodiment, A various change is possible. For example, in the above-mentioned embodiment, although a user expression feature was caught from three viewpoints of a sentence end expression, the existence of a particle, and a filler, it is not restricted to this. For example, first-person expressions ("I", "I", etc.), second-person expressions ("you", "you", etc.), etc. may also be used as user expression features. By doing this, the user's expression can be reflected more, and the interactive device can make the user feel more familiar.

また、上述の対話制御処理(図11)のステップS221の処理を行う際に、ステップS222の処理も一緒に行うことによって、標準的な表現のシステム応答文を変換する手順を踏まずに、直接ユーザのユーザ表現特徴を反映させたシステム応答文を生成しても良い。   In addition, when performing the process of step S221 of the above-mentioned dialogue control process (FIG. 11), the process of step S222 is also performed together to directly convert the system response sentence of the standard expression without directly following the procedure. A system response sentence reflecting the user expression feature of the user may be generated.

また、上述の実施形態では、対話装置100がユーザ識別部116を備え、カメラ22又はマイク21でユーザ識別を行い、ユーザ毎のユーザ発話文履歴121を記憶した。しかし、対話装置が特定のユーザ専用で使用されることを想定されている場合は、ユーザ識別部116を備える必要はない。この場合はカメラ22も不要であり、ユーザ発話文履歴121に「ユーザ」の項目を設ける必要もない。   Further, in the above-described embodiment, the interactive device 100 includes the user identification unit 116, performs user identification with the camera 22 or the microphone 21, and stores the user utterance sentence history 121 for each user. However, when it is assumed that the interactive device is used exclusively for a specific user, the user identification unit 116 need not be provided. In this case, the camera 22 is also unnecessary, and there is no need to provide an item of “user” in the user utterance sentence history 121.

また、上述の実施形態では、対話制御処理(図11)のステップS201で毎回ユーザを識別しているが、これに限られない。対話装置100が起動直後に、対話制御処理(図11)のステップS201のみに相当するユーザ識別処理を行って、対話ユーザを識別しておき、その後はステップS201を省略した対話制御処理を行っても良い。そして、ユーザ識別処理においては、対話装置100が「顔を見せてください」と発話することによって、ユーザに顔をカメラ22に向けてもらっても良い。また対話装置100が、起動後に、「あなたの名前を教えてください」と発話して、カメラ22を使用せずに、マイク21を使用して、音声認識によってユーザ識別を行っても良い。   Moreover, in the above-mentioned embodiment, although the user is identified each time in step S201 of the dialog control process (FIG. 11), the present invention is not limited to this. Immediately after the dialog device 100 is activated, the user identification process corresponding to only step S201 of the dialogue control process (FIG. 11) is performed to identify the dialogue user, and then the dialogue control process omitting step S201 is performed. Also good. Then, in the user identification process, the user may have the face pointed at the camera 22 by the interactive device 100 uttering “please show me a face”. After startup, the dialog device 100 may utter “Tell me your name” and use the microphone 21 to identify the user by voice recognition without using the camera 22.

また、いずれのユーザ識別処理においてもユーザを識別できなかった場合のために、対話装置100は、例えば「デフォルトユーザ」のようなユーザ名を定義しておき、識別不能のユーザのユーザ名は「デフォルトユーザ」等として扱うことにしても良い。   Further, in the case where the user can not be identified in any of the user identification processes, the interactive device 100 defines a user name such as “default user”, for example, and the user name of the unidentifiable user is “ It may be treated as "default user" or the like.

また、上述の実施形態では、対話装置100が移動可能なロボットであり、センサ群24、首関節31、足回り部32等を備えることで、様々な動作を行うことができた。しかし、対話装置は移動等の様々な動作を行えなくても、ユーザと対話ができるだけでも良い。この場合、センサ群24、首関節31、足回り部32は不要である。   Further, in the above-described embodiment, the interactive device 100 is a movable robot, and various operations can be performed by including the sensor group 24, the neck joint 31, the foot portion 32, and the like. However, even if the dialog device can not perform various operations such as movement, it can only interact with the user. In this case, the sensor group 24, the neck joint 31, and the foot portion 32 are unnecessary.

なお、対話装置100の各機能は、通常のPC(Personal Computer)等のコンピュータによっても実施することができる。具体的には、上記実施形態では、対話装置100が行う対話制御処理等のプログラムが、記憶部120のROMに予め記憶されているものとして説明した。しかし、プログラムを、フレキシブルディスク、CD−ROM(Compact Disc Read Only Memory)、DVD(Digital Versatile Disc)及びMO(Magneto−Optical Disc)等のコンピュータ読み取り可能な記録媒体に格納して配布し、そのプログラムをコンピュータに読み込んでインストールすることにより、上述の各機能を実現することができるコンピュータを構成してもよい。   Each function of dialogue device 100 can also be implemented by a computer such as a normal PC (Personal Computer). Specifically, in the above embodiment, it has been described that a program such as dialog control processing performed by the dialog device 100 is stored in advance in the ROM of the storage unit 120. However, the program is distributed by being stored in a computer-readable recording medium such as a flexible disk, a compact disc read only memory (CD-ROM), a digital versatile disc (DVD) and a magneto-optical disc (MO). May be read and installed in a computer to configure a computer capable of realizing the functions described above.

以上、本発明の好ましい実施形態について説明したが、本発明は係る特定の実施形態に限定されるものではなく、本発明には、特許請求の範囲に記載された発明とその均等の範囲が含まれる。以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。   Although the preferred embodiments of the present invention have been described above, the present invention is not limited to the specific embodiments, and the present invention includes the invention described in the claims and the equivalents thereof. Be In the following, the invention described in the original claims of the present application is appended.

(付記1)
ユーザ発話文を言語解析して前記ユーザ発話文に含まれる表現の特徴を示す情報であるユーザ表現特徴を取得する言語解析部と、
前記言語解析部が取得した前記ユーザ表現特徴の履歴をユーザ発話文履歴として記憶部に格納する履歴格納部と、
前記履歴格納部が格納したユーザ発話文履歴に基づいてシステム応答文を生成するシステム応答文生成部と、
前記システム応答文生成部が生成したシステム応答文を出力するシステム応答文出力部と、
を備える対話装置。
(Supplementary Note 1)
A language analysis unit that language-analyzes a user's utterance sentence and acquires a user expression feature that is information indicating a feature of an expression included in the user's utterance sentence;
A history storage unit that stores the history of the user expression feature acquired by the language analysis unit as a user utterance sentence history in a storage unit;
A system response sentence generation unit that generates a system response sentence based on the user utterance sentence history stored in the history storage unit;
A system response sentence output unit that outputs a system response sentence generated by the system response sentence generation unit;
Interactive device comprising:

(付記2)
前記システム応答文生成部は、前記履歴格納部が格納したユーザ発話文履歴の中で出現頻度が基準頻度以上の前記ユーザ表現特徴に対応する表現を用いてシステム応答文を生成する、
付記1に記載の対話装置。
(Supplementary Note 2)
The system response sentence generation unit generates a system response sentence using an expression corresponding to the user expression feature whose appearance frequency is equal to or higher than a reference frequency in the user utterance sentence history stored in the history storage unit.
The interactive apparatus as described in appendix 1.

(付記3)
前記ユーザ表現特徴に対応する表現は、前記ユーザ表現特徴と同じ表現である、
付記2に記載の対話装置。
(Supplementary Note 3)
An expression corresponding to the user expression feature is the same expression as the user expression feature.
The interactive apparatus as described in appendix 2.

(付記4)
前記ユーザ表現特徴に対応する表現は、前記ユーザ表現特徴と対照的な表現である、
付記2に記載の対話装置。
(Supplementary Note 4)
An expression corresponding to the user expression feature is an expression that contrasts with the user expression feature.
The interactive apparatus as described in appendix 2.

(付記5)
前記言語解析部は、前記ユーザ発話文の種別を示す情報である発話種別をさらに取得し、
前記履歴格納部は、前記ユーザ発話文と前記ユーザ表現特徴と前記言語解析部が取得した発話種別の履歴をユーザ発話文履歴として前記記憶部に格納し、
前記システム応答文生成部は、前記履歴格納部が格納したユーザ発話文履歴から、前記発話種別毎に前記ユーザ表現特徴の出現頻度を算出し、前記言語解析部が取得した発話種別における前記ユーザ表現特徴の出現頻度が基準頻度以上の前記ユーザ表現特徴に対応する表現を用いてシステム応答文を生成する、
付記2から4のいずれか1つに記載の対話装置。
(Supplementary Note 5)
The language analysis unit further acquires an utterance type, which is information indicating the type of the user utterance text,
The history storage unit stores the history of the user utterance sentence, the user expression feature, and the utterance type acquired by the language analysis unit in the storage unit as a user utterance sentence history.
The system response sentence generation unit calculates the appearance frequency of the user expression feature for each of the utterance types from the user utterance sentence history stored in the history storage unit, and the user expression in the utterance types acquired by the language analysis unit A system response sentence is generated using an expression corresponding to the user expression feature whose appearance frequency is equal to or higher than a reference frequency.
The interactive device according to any one of appendices 2 to 4.

(付記6)
ユーザを識別するユーザ識別部をさらに備え、
前記履歴格納部は、前記ユーザ識別部が識別したユーザ毎にユーザ発話文履歴を前記記憶部に格納し、
前記システム応答文生成部は、前記履歴格納部が格納したユーザ発話文履歴の中で、前記ユーザ識別部が識別したユーザの前記ユーザ表現特徴の出現頻度が基準頻度以上の前記ユーザ表現特徴に対応する表現を用いてシステム応答文を生成する、
付記2から5のいずれか1つに記載の対話装置。
(Supplementary Note 6)
It further comprises a user identification unit for identifying the user,
The history storage unit stores a user utterance sentence history in the storage unit for each user identified by the user identification unit.
The system response sentence generation unit corresponds to the user expression feature whose appearance frequency of the user expression feature of the user identified by the user identification unit is equal to or higher than a reference frequency in the user utterance sentence history stored in the history storage unit. Create a system response statement using the
The interactive device according to any one of appendices 2 to 5.

(付記7)
各ユーザの発話数を計数する発話数計数部をさらに備え、
前記システム応答文生成部は、前記履歴格納部が格納したユーザ発話文履歴の中で、前記発話数計数部が計数した発話数が最も多いユーザの前記ユーザ表現特徴の出現頻度が基準頻度以上の前記ユーザ表現特徴に対応する表現を用いてシステム応答文を生成する、
付記6に記載の対話装置。
(Appendix 7)
The system further comprises an utterance number counting unit that counts the number of utterances of each user,
The system response sentence generation unit is configured such that, among the user utterance sentence histories stored in the history storage unit, the appearance frequency of the user expression feature of the user with the largest number of utterances counted by the utterance number counting unit is a reference frequency or more Generating a system response sentence using an expression corresponding to the user expression feature,
The interactive apparatus as described in appendix 6.

(付記8)
前記ユーザ表現特徴は、前記ユーザ発話文の文末表現、前記ユーザ発話文の助詞使用パターン、前記ユーザ発話文に含まれるフィラー、のうちの少なくとも1つである、
付記1から7のいずれか1つに記載の対話装置。
(Supplementary Note 8)
The user expression feature is at least one of a sentence end expression of the user utterance sentence, a particle use pattern of the user utterance sentence, and a filler included in the user utterance sentence.
The interactive device according to any one of appendices 1-7.

(付記9)
ユーザが発話したユーザ発話文の履歴に基づき、前記ユーザ発話文に出現する頻度が高い特徴的な文末表現、助詞使用パターン又はフィラーに対応する表現を用いて生成したシステム応答文を出力する対話方法。
(Appendix 9)
A dialog method for outputting a system response sentence generated using a characteristic sentence end expression, a particle use pattern or an expression corresponding to a filler that frequently appears in the user's utterance sentence based on a history of a user's utterance sentence uttered by the user .

(付記10)
ユーザ発話文を言語解析して前記ユーザ発話文に含まれる表現の特徴を示す情報であるユーザ表現特徴を取得する言語解析ステップと、
前記言語解析ステップで取得された前記ユーザ表現特徴の履歴をユーザ発話文履歴として記憶部に格納する履歴格納ステップと、
前記履歴格納ステップで格納されたユーザ発話文履歴に基づいてシステム応答文を生成するシステム応答文生成ステップと、
前記システム応答文生成ステップで生成されたシステム応答文を出力するシステム応答文出力ステップと、
を含む対話方法。
(Supplementary Note 10)
A language analysis step of linguistically analyzing a user's utterance sentence to acquire a user expression feature that is information indicating a feature of an expression included in the user's utterance sentence;
A history storing step of storing the history of the user expression feature acquired in the language analysis step as a user utterance sentence history in a storage unit;
A system response sentence generation step of generating a system response sentence based on the user utterance sentence history stored in the history storage step;
A system response sentence output step for outputting the system response sentence generated in the system response sentence generation step;
Interactive method including:

(付記11)
コンピュータに、
ユーザ発話文を言語解析して前記ユーザ発話文に含まれる表現の特徴を示す情報であるユーザ表現特徴を取得する言語解析ステップ、
前記言語解析ステップで取得された前記ユーザ表現特徴の履歴をユーザ発話文履歴として記憶部に格納する履歴格納ステップ、
前記履歴格納ステップで格納されたユーザ発話文履歴に基づいてシステム応答文を生成するシステム応答文生成ステップ、及び、
前記システム応答文生成ステップで生成されたシステム応答文を出力するシステム応答文出力ステップ、
を実行させるためのプログラム。
(Supplementary Note 11)
On the computer
A language analysis step of linguistically analyzing a user's utterance sentence to acquire a user expression feature which is information indicating a feature of an expression included in the user's utterance sentence;
A history storage step of storing the history of the user expression feature acquired in the language analysis step as a user utterance sentence history in a storage unit;
A system response sentence generation step of generating a system response sentence based on the user utterance sentence history stored in the history storage step;
A system response sentence output step of outputting the system response sentence generated in the system response sentence generation step;
A program to run a program.

20…頭、21…マイク、22…カメラ、23…スピーカ、24…センサ群、30…胴体、31…首関節、32…足回り部、33…操作ボタン、100…対話装置、110…制御部、111…音声認識部、112…言語解析部、113…履歴格納部、114…システム応答文生成部、115…システム応答文出力部、116…ユーザ識別部、120…記憶部、121…ユーザ発話文履歴、U…ユーザ Reference Signs List 20 head 21 microphone 22 camera 23 speaker 24 sensor group 30 body 31 neck joint 32 leg portion 33 operation button 100 dialog device 110 control unit 111 voice recognition unit 112 language analysis unit 113 history storage unit 114 system response sentence generation unit 115 system response sentence output unit 116 user identification unit 120 storage unit 121 user utterance Statement history, U ... User

Claims (11)

ユーザ発話文を言語解析して前記ユーザ発話文に含まれる表現の特徴を示す情報であるユーザ表現特徴を取得する言語解析部と、
前記言語解析部が取得した前記ユーザ表現特徴の履歴をユーザ発話文履歴として記憶部に格納する履歴格納部と、
前記履歴格納部が格納したユーザ発話文履歴に基づいてシステム応答文を生成するシステム応答文生成部と、
前記システム応答文生成部が生成したシステム応答文を出力するシステム応答文出力部と、
を備える対話装置。
A language analysis unit that language-analyzes a user's utterance sentence and acquires a user expression feature that is information indicating a feature of an expression included in the user's utterance sentence;
A history storage unit that stores the history of the user expression feature acquired by the language analysis unit as a user utterance sentence history in a storage unit;
A system response sentence generation unit that generates a system response sentence based on the user utterance sentence history stored in the history storage unit;
A system response sentence output unit that outputs a system response sentence generated by the system response sentence generation unit;
Interactive device comprising:
前記システム応答文生成部は、前記履歴格納部が格納したユーザ発話文履歴の中で出現頻度が基準頻度以上の前記ユーザ表現特徴に対応する表現を用いてシステム応答文を生成する、
請求項1に記載の対話装置。
The system response sentence generation unit generates a system response sentence using an expression corresponding to the user expression feature whose appearance frequency is equal to or higher than a reference frequency in the user utterance sentence history stored in the history storage unit.
An interactive device according to claim 1.
前記ユーザ表現特徴に対応する表現は、前記ユーザ表現特徴と同じ表現である、
請求項2に記載の対話装置。
An expression corresponding to the user expression feature is the same expression as the user expression feature.
An interactive device according to claim 2.
前記ユーザ表現特徴に対応する表現は、前記ユーザ表現特徴と対照的な表現である、
請求項2に記載の対話装置。
An expression corresponding to the user expression feature is an expression that contrasts with the user expression feature.
An interactive device according to claim 2.
前記言語解析部は、前記ユーザ発話文の種別を示す情報である発話種別をさらに取得し、
前記履歴格納部は、前記ユーザ発話文と前記ユーザ表現特徴と前記言語解析部が取得した発話種別の履歴をユーザ発話文履歴として前記記憶部に格納し、
前記システム応答文生成部は、前記履歴格納部が格納したユーザ発話文履歴から、前記発話種別毎に前記ユーザ表現特徴の出現頻度を算出し、前記言語解析部が取得した発話種別における前記ユーザ表現特徴の出現頻度が基準頻度以上の前記ユーザ表現特徴に対応する表現を用いてシステム応答文を生成する、
請求項2から4のいずれか1項に記載の対話装置。
The language analysis unit further acquires an utterance type, which is information indicating the type of the user utterance text,
The history storage unit stores the history of the user utterance sentence, the user expression feature, and the utterance type acquired by the language analysis unit in the storage unit as a user utterance sentence history.
The system response sentence generation unit calculates the appearance frequency of the user expression feature for each of the utterance types from the user utterance sentence history stored in the history storage unit, and the user expression in the utterance types acquired by the language analysis unit A system response sentence is generated using an expression corresponding to the user expression feature whose appearance frequency is equal to or higher than a reference frequency.
The interactive device according to any one of claims 2 to 4.
ユーザを識別するユーザ識別部をさらに備え、
前記履歴格納部は、前記ユーザ識別部が識別したユーザ毎にユーザ発話文履歴を前記記憶部に格納し、
前記システム応答文生成部は、前記履歴格納部が格納したユーザ発話文履歴の中で、前記ユーザ識別部が識別したユーザの前記ユーザ表現特徴の出現頻度が基準頻度以上の前記ユーザ表現特徴に対応する表現を用いてシステム応答文を生成する、
請求項2から5のいずれか1項に記載の対話装置。
It further comprises a user identification unit for identifying the user,
The history storage unit stores a user utterance sentence history in the storage unit for each user identified by the user identification unit.
The system response sentence generation unit corresponds to the user expression feature whose appearance frequency of the user expression feature of the user identified by the user identification unit is equal to or higher than a reference frequency in the user utterance sentence history stored in the history storage unit. Create a system response statement using the
The interactive device according to any one of claims 2 to 5.
各ユーザの発話数を計数する発話数計数部をさらに備え、
前記システム応答文生成部は、前記履歴格納部が格納したユーザ発話文履歴の中で、前記発話数計数部が計数した発話数が最も多いユーザの前記ユーザ表現特徴の出現頻度が基準頻度以上の前記ユーザ表現特徴に対応する表現を用いてシステム応答文を生成する、
請求項6に記載の対話装置。
The system further comprises an utterance number counting unit that counts the number of utterances of each user,
The system response sentence generation unit is configured such that, among the user utterance sentence histories stored in the history storage unit, the appearance frequency of the user expression feature of the user with the largest number of utterances counted by the utterance number counting unit is a reference frequency or more Generating a system response sentence using an expression corresponding to the user expression feature,
The interactive device according to claim 6.
前記ユーザ表現特徴は、前記ユーザ発話文の文末表現、前記ユーザ発話文の助詞使用パターン、前記ユーザ発話文に含まれるフィラー、のうちの少なくとも1つである、
請求項1から7のいずれか1項に記載の対話装置。
The user expression feature is at least one of a sentence end expression of the user utterance sentence, a particle use pattern of the user utterance sentence, and a filler included in the user utterance sentence.
The interactive device according to any one of claims 1 to 7.
ユーザが発話したユーザ発話文の履歴に基づき、前記ユーザ発話文に出現する頻度が高い特徴的な文末表現、助詞使用パターン又はフィラーに対応する表現を用いて生成したシステム応答文を出力する対話方法。   A dialog method for outputting a system response sentence generated using a characteristic sentence end expression, a particle use pattern or an expression corresponding to a filler that frequently appears in the user's utterance sentence based on a history of a user's utterance sentence uttered by the user . ユーザ発話文を言語解析して前記ユーザ発話文に含まれる表現の特徴を示す情報であるユーザ表現特徴を取得する言語解析ステップと、
前記言語解析ステップで取得された前記ユーザ表現特徴の履歴をユーザ発話文履歴として記憶部に格納する履歴格納ステップと、
前記履歴格納ステップで格納されたユーザ発話文履歴に基づいてシステム応答文を生成するシステム応答文生成ステップと、
前記システム応答文生成ステップで生成されたシステム応答文を出力するシステム応答文出力ステップと、
を含む対話方法。
A language analysis step of linguistically analyzing a user's utterance sentence to acquire a user expression feature that is information indicating a feature of an expression included in the user's utterance sentence;
A history storing step of storing the history of the user expression feature acquired in the language analysis step as a user utterance sentence history in a storage unit;
A system response sentence generation step of generating a system response sentence based on the user utterance sentence history stored in the history storage step;
A system response sentence output step for outputting the system response sentence generated in the system response sentence generation step;
Interactive method including:
コンピュータに、
ユーザ発話文を言語解析して前記ユーザ発話文に含まれる表現の特徴を示す情報であるユーザ表現特徴を取得する言語解析ステップ、
前記言語解析ステップで取得された前記ユーザ表現特徴の履歴をユーザ発話文履歴として記憶部に格納する履歴格納ステップ、
前記履歴格納ステップで格納されたユーザ発話文履歴に基づいてシステム応答文を生成するシステム応答文生成ステップ、及び、
前記システム応答文生成ステップで生成されたシステム応答文を出力するシステム応答文出力ステップ、
を実行させるためのプログラム。
On the computer
A language analysis step of linguistically analyzing a user's utterance sentence to acquire a user expression feature which is information indicating a feature of an expression included in the user's utterance sentence;
A history storage step of storing the history of the user expression feature acquired in the language analysis step as a user utterance sentence history in a storage unit;
A system response sentence generation step of generating a system response sentence based on the user utterance sentence history stored in the history storage step;
A system response sentence output step of outputting the system response sentence generated in the system response sentence generation step;
A program to run a program.
JP2017185357A 2017-09-26 2017-09-26 Dialogue device, dialogue method and program Active JP6977445B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017185357A JP6977445B2 (en) 2017-09-26 2017-09-26 Dialogue device, dialogue method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017185357A JP6977445B2 (en) 2017-09-26 2017-09-26 Dialogue device, dialogue method and program

Publications (2)

Publication Number Publication Date
JP2019061050A true JP2019061050A (en) 2019-04-18
JP6977445B2 JP6977445B2 (en) 2021-12-08

Family

ID=66176603

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017185357A Active JP6977445B2 (en) 2017-09-26 2017-09-26 Dialogue device, dialogue method and program

Country Status (1)

Country Link
JP (1) JP6977445B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110598041A (en) * 2019-09-06 2019-12-20 广州努比互联网科技有限公司 FlACS real-time analysis method and device
JP2021182039A (en) * 2020-05-18 2021-11-25 日本電信電話株式会社 Response sentence generation device, reinforcement learning device, response sentence generation method, model generation method, and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001125900A (en) * 1999-10-29 2001-05-11 Yazaki Corp Interactive system, interactive method and bi-directional interactive system, bi-directional interactive method and recording medium
JP2002041084A (en) * 2000-07-26 2002-02-08 Victor Co Of Japan Ltd Interactive speech processing system
JP2004184788A (en) * 2002-12-05 2004-07-02 Casio Comput Co Ltd Voice interaction system and program
JP2016109897A (en) * 2014-12-08 2016-06-20 シャープ株式会社 Electronic equipment, speech production control method and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001125900A (en) * 1999-10-29 2001-05-11 Yazaki Corp Interactive system, interactive method and bi-directional interactive system, bi-directional interactive method and recording medium
JP2002041084A (en) * 2000-07-26 2002-02-08 Victor Co Of Japan Ltd Interactive speech processing system
JP2004184788A (en) * 2002-12-05 2004-07-02 Casio Comput Co Ltd Voice interaction system and program
JP2016109897A (en) * 2014-12-08 2016-06-20 シャープ株式会社 Electronic equipment, speech production control method and program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
西田潤他: "同調的音声対話システムのためのユーザに特徴的な発話フレーズの検出", 情報処理学会研究報告[DVD−ROM], vol. Vol.2013-ICS-171,No.1, JPN6020024187, April 2013 (2013-04-01), pages 1 - 4, ISSN: 0004566438 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110598041A (en) * 2019-09-06 2019-12-20 广州努比互联网科技有限公司 FlACS real-time analysis method and device
JP2021182039A (en) * 2020-05-18 2021-11-25 日本電信電話株式会社 Response sentence generation device, reinforcement learning device, response sentence generation method, model generation method, and program

Also Published As

Publication number Publication date
JP6977445B2 (en) 2021-12-08

Similar Documents

Publication Publication Date Title
KR102627948B1 (en) Automated assistants that accommodate multiple age groups and/or vocabulary levels
US20200279553A1 (en) Linguistic style matching agent
CN107053186B (en) Dialogue device, robot, dialogue method, and storage medium
Taylor Text-to-speech synthesis
JP6719739B2 (en) Dialogue method, dialogue system, dialogue device, and program
AU2015248713A1 (en) Method of performing multi-modal dialogue between a humanoid robot and user, computer program product and humanoid robot for implementing said method
Aneja et al. Understanding conversational and expressive style in a multimodal embodied conversational agent
JP6682104B2 (en) Dialogue method, dialogue system, dialogue device, and program
WO2018163645A1 (en) Dialogue method, dialogue system, dialogue device, and program
JPWO2019160100A1 (en) Non-verbal information generator, non-verbal information generation model learning device, method, and program
Aylett et al. Building and designing expressive speech synthesis
JPWO2019160105A1 (en) Non-verbal information generator, non-verbal information generation model learning device, method, and program
JP2019045867A (en) Voice control method, voice control device, and program
JP6977445B2 (en) Dialogue device, dialogue method and program
Gasparini et al. Sentiment recognition of Italian elderly through domain adaptation on cross-corpus speech dataset
JP6601625B2 (en) Dialogue method, dialogue system, dialogue apparatus, and program
JPWO2019160104A1 (en) Non-verbal information generator, non-verbal information generation model learning device, method, and program
JP6660770B2 (en) Dialogue systems and programs
JP7172168B2 (en) Dialogue device, dialogue device control method and program
JP2019061487A (en) Interaction apparatus, interaction method, and program
JP2006330060A (en) Speech synthesizer, speech processor, and program
WO2019044534A1 (en) Information processing device and information processing method
JP5251132B2 (en) Response generation apparatus and response generation program
Aller et al. Adapting Audiovisual Speech Synthesis to Estonian
CN117219069A (en) Man-machine interaction method and device, computer readable storage medium and terminal equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200907

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210617

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210810

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210830

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211012

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211025

R150 Certificate of patent or registration of utility model

Ref document number: 6977445

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150