JP2019220022A - Interactive device, interactive device control method, and program - Google Patents

Interactive device, interactive device control method, and program Download PDF

Info

Publication number
JP2019220022A
JP2019220022A JP2018118154A JP2018118154A JP2019220022A JP 2019220022 A JP2019220022 A JP 2019220022A JP 2018118154 A JP2018118154 A JP 2018118154A JP 2018118154 A JP2018118154 A JP 2018118154A JP 2019220022 A JP2019220022 A JP 2019220022A
Authority
JP
Japan
Prior art keywords
word
sentence
response sentence
unit
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018118154A
Other languages
Japanese (ja)
Other versions
JP7172168B2 (en
Inventor
英里奈 市川
Erina Ichikawa
英里奈 市川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2018118154A priority Critical patent/JP7172168B2/en
Publication of JP2019220022A publication Critical patent/JP2019220022A/en
Application granted granted Critical
Publication of JP7172168B2 publication Critical patent/JP7172168B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Machine Translation (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

To allow a user to feel as if an utterance content had been growing without increasing the number of pieces of response sentence data.SOLUTION: An interactive device 100 comprises a syntactic analysis unit 11, a model response sentence acquisition unit 12, a word use propriety determination unit 13, a response sentence creation unit 14 and a response unit 15. The syntactic analysis unit 11 subjects a user utterance sentence input from a user to syntactic analysis. The model response sentence acquisition unit 12 acquires a model response sentence which is an exemplary response sentence according to the result of syntactic analysis from the syntactic analysis unit 11. The word use propriety determination unit 13 determines whether each word included in the model response sentence acquired by the model response sentence acquisition unit 12 is usable or unusable according to a predetermined condition. The response sentence creation unit 14 creates a response sentence to the user utterance sentence by removing a word determined as unusable by the word use propriety determination unit 13 from the model response sentence acquired by the model response sentence acquisition unit 12. The response unit 15 responds to the user by using the response sentence created by the response sentence creation unit 14.SELECTED DRAWING: Figure 3

Description

本発明は、対話装置、対話装置制御方法及びプログラムに関する。   The present invention relates to an interactive device, an interactive device control method, and a program.

ユーザの発話に応答して、ユーザと対話する対話装置の開発が進められている。例えば、特許文献1には、内部状態の成長の度合いに応じて対話機能を成長させる脚式移動ロボットが開示されている。   Interactive devices that interact with the user in response to the user's utterance have been developed. For example, Patent Literature 1 discloses a legged mobile robot that grows an interactive function according to the degree of growth of an internal state.

特開2002−321177号公報JP-A-2002-321177

特許文献1に開示されている脚式移動ロボットは、知性レベルが互いに異なる複数の応答文データを記憶しており、これらの複数の応答文データから、ロボットの成長度に見合った応答文データを選択し、選択した応答文データに基づいて応答を行う。これにより、ロボットの対話機能を、その成長度に応じて成長させるようにしている。   The legged mobile robot disclosed in Patent Literature 1 stores a plurality of pieces of response sentence data having different intellectual levels from each other, and from the plurality of pieces of response sentence data, generates response sentence data corresponding to the degree of growth of the robot. A response is made based on the selected response sentence data. This allows the interactive function of the robot to grow in accordance with the degree of growth.

しかし、このロボットは、上述したように、成長度に見合った複数の応答文データを記憶しておかなければならないため、応答文データの数が全体として膨大になり、応答文データを記憶するための記憶容量が増大してしまう。   However, as described above, since this robot must store a plurality of response sentence data corresponding to the degree of growth, the number of response sentence data becomes enormous as a whole, and the response sentence data is stored. Storage capacity increases.

本発明は、上記問題を解決するためになされたものであり、応答文データの数を増やさずに、発話内容が成長しているようにユーザに感じさせることができる対話装置、対話装置制御方法及びプログラムを提供することを目的とする。   SUMMARY An advantage of some aspects of the invention is to provide a dialogue apparatus and a dialogue apparatus control method that can make a user feel as if the utterance content is growing without increasing the number of response sentence data. And to provide programs.

上記目的を達成するため、本発明の対話装置は、
ユーザから入力された発話文であるユーザ発話文を構文解析する構文解析手段と、
前記構文解析手段による前記ユーザ発話文の構文解析結果に応じて模範的な応答文である模範応答文を取得する模範応答文取得手段と、
所定の条件に応じて、前記模範応答文取得手段が取得した模範応答文に含まれている各単語について使用可か使用不可かを判定する単語使用可否判定手段と、
前記模範応答文取得手段が取得した模範応答文から、前記単語使用可否判定手段で使用不可と判定された単語を削除して、前記ユーザ発話文に対する応答文を生成する応答文生成手段と、
前記応答文生成手段が生成した応答文を用いて前記ユーザに応答する応答手段と、
を備える。
In order to achieve the above object, the interactive device of the present invention includes:
Parsing means for parsing a user utterance sentence which is an utterance sentence input by the user;
An exemplary response sentence obtaining unit that obtains an exemplary response sentence that is an exemplary response sentence according to a syntax analysis result of the user utterance sentence by the syntax analysis unit;
According to a predetermined condition, word use availability determination means for determining whether or not each word included in the model response sentence acquired by the model response sentence acquisition means is usable or unusable,
Response sentence generation means for generating a response sentence to the user utterance sentence by deleting a word determined to be unusable by the word use availability determination means from the model response sentence acquired by the model response sentence acquisition means,
Response means for responding to the user using the response sentence generated by the response sentence generation means,
Is provided.

本発明によれば、応答文データの数を増やさずに、発話内容が成長しているようにユーザに感じさせることができる。   According to the present invention, it is possible to make the user feel that the utterance content is growing without increasing the number of response sentence data.

本発明の実施形態1に係る対話装置の外観の一例を示す図である。FIG. 2 is a diagram illustrating an example of an appearance of the interactive device according to the first embodiment of the present invention. 実施形態1に係る対話装置の外観の別の例を示す図である。FIG. 7 is a diagram illustrating another example of the appearance of the interactive device according to the first embodiment. 実施形態1に係る対話装置の機能構成を示す図である。FIG. 2 is a diagram illustrating a functional configuration of the interactive device according to the first embodiment. 実施形態1に係る対話装置の単語DBに記憶されているデータの一例を示す図である。FIG. 4 is a diagram illustrating an example of data stored in a word DB of the interactive device according to the first embodiment. 実施形態1に係る対話装置の模範応答文DBに記憶されているデータの一例を示す図である。FIG. 4 is a diagram illustrating an example of data stored in a model response sentence DB of the interactive device according to the first embodiment. 実施形態1に係る対話装置の対話処理のフローチャートである。6 is a flowchart of a dialog process of the dialog device according to the first embodiment. 実施形態1に係る対話装置の単語DB更新処理のフローチャートである。6 is a flowchart of a word DB update process of the interactive device according to the first embodiment. 実施形態1に係る対話装置の応答文生成処理のフローチャートである。9 is a flowchart of a response sentence generation process of the interactive device according to the first embodiment. 実施形態1に係る対話装置の複数単語応答文生成処理のフローチャートである。5 is a flowchart of a multi-word response sentence generation process of the interactive device according to the first embodiment. 実施形態1に係る対話装置の複数単語応答文生成処理のステップS401の処理を説明する図である。FIG. 9 is a diagram illustrating a process of step S401 of a multiple-word response sentence generation process of the interactive device according to the first embodiment. 実施形態1に係る対話装置の複数単語応答文生成処理において、係り受けの情報に基づいて既知情報を修正する処理を説明する図である。FIG. 8 is a diagram illustrating a process of correcting known information based on dependency information in a multiple-word response sentence generation process of the interactive device according to the first embodiment. 実施形態1に係る対話装置による応答文生成の一例を説明する図である。FIG. 4 is a diagram illustrating an example of response sentence generation by the interactive device according to the first embodiment. 本発明の実施形態2に係る対話装置の単語DBに記憶されているデータの一例を示す図である。It is a figure showing an example of data memorized by word DB of a dialog device concerning Embodiment 2 of the present invention. 実施形態2に係る対話装置による応答文生成の一例を説明する図である。FIG. 14 is a diagram illustrating an example of response sentence generation by the interactive device according to the second embodiment. 実施形態2に係る対話装置による応答文生成の別の例を説明する図である。FIG. 14 is a diagram illustrating another example of generating a response sentence by the interactive device according to the second embodiment. 本発明の実施形態3に係る対話装置の単語DBに記憶されているデータの一例を示す図である。It is a figure showing an example of data memorized by word DB of a dialog device concerning Embodiment 3 of the present invention. 実施形態3に係る対話装置の単語DB更新処理のフローチャートである。13 is a flowchart of a word DB update process of the interactive device according to the third embodiment.

以下、本発明の実施形態に係る対話装置について、図表を参照して説明する。なお、図中同一又は相当部分には同一符号を付す。   Hereinafter, a dialog device according to an embodiment of the present invention will be described with reference to the drawings. In the drawings, the same or corresponding parts have the same reference characters allotted.

(実施形態1)
本発明の実施形態に係る対話装置は、ユーザとの対話を繰り返していくうちに、使用可能な単語(名詞、動詞、形容詞等)が増えていき、あたかもユーザとの対話に応じて成長しているように見える対話装置である。
(Embodiment 1)
In the dialogue device according to the embodiment of the present invention, as the dialogue with the user is repeated, usable words (nouns, verbs, adjectives, etc.) increase, and the dialogue device grows as if by the dialogue with the user. An interactive device that appears to be

実施形態1に係る対話装置100は、図1に示すように、人間の子供を模した外観をしており、耳の位置に音声入力部31としてのマイクロホンを、口の位置に音声出力部32としてのスピーカを備える。なお、図1はあくまでも対話装置100の外観の一例に過ぎない。対話装置100は、例えば、図2に示すようにスマートスピーカ的な外観をしていてもよい。図2においても、対話装置100は、外観上、音声入力部31としてのマイクロホンや、音声出力部32としてのスピーカを備える。   As illustrated in FIG. 1, the interactive device 100 according to the first embodiment has an appearance imitating a human child. A microphone as a voice input unit 31 is provided at an ear position, and a voice output unit 32 is provided at a mouth position. Speaker. FIG. 1 is merely an example of the appearance of the interactive device 100. The interaction device 100 may have a smart speaker-like appearance, for example, as shown in FIG. In FIG. 2, the dialogue device 100 also includes a microphone as the voice input unit 31 and a speaker as the voice output unit 32 in appearance.

図3に示すように、対話装置100は、機能構成として、制御部10、記憶部20、音声入力部31、音声出力部32、駆動部33、操作入力部34、通信部35、を備える。   As illustrated in FIG. 3, the interactive device 100 includes a control unit 10, a storage unit 20, an audio input unit 31, an audio output unit 32, a driving unit 33, an operation input unit 34, and a communication unit 35 as functional components.

制御部10は、CPU(Central Processing Unit)等で構成され、記憶部20に記憶されたプログラムを実行することにより、後述する各部(構文解析部11、模範応答文取得部12、単語使用可否判定部13、応答文生成部14、応答部15)の機能を実現する。   The control unit 10 is configured by a CPU (Central Processing Unit) or the like, and executes a program stored in the storage unit 20 to execute each unit (syntax analysis unit 11, model response sentence acquisition unit 12, word availability determination The functions of the unit 13, the response sentence generation unit 14, and the response unit 15) are realized.

記憶部20は、ROM(Read Only Memory)、RAM(Random Access Memory)等で構成され、ROMの一部又は全部は電気的に書き換え可能なメモリ(フラッシュメモリ等)で構成されている。記憶部20は、機能的に、単語DB(DataBase)21及び模範応答文DB22を含む。ROMには制御部10のCPUが実行するプログラム及びプログラムを実行する上で予め必要なデータが記憶されている。RAMには、プログラム実行中に作成されたり変更されたりするデータが記憶される。   The storage unit 20 is configured by a ROM (Read Only Memory), a RAM (Random Access Memory), or the like, and a part or all of the ROM is configured by an electrically rewritable memory (a flash memory or the like). The storage unit 20 functionally includes a word DB (DataBase) 21 and a model response sentence DB 22. The ROM stores a program to be executed by the CPU of the control unit 10 and data necessary for executing the program in advance. The RAM stores data created or changed during execution of the program.

単語DB21には、図4に示すように、対話装置100の応答文に含まれる単語が、その単語の既知情報とともに記憶されている。既知情報とは、ユーザが対話装置100に入力した文中に応答文の単語と同じ単語が含まれていたかを示す情報である。これは、ユーザが対話装置100に1度でも入力した文に含まれている単語は、対話装置100にとって既知の単語として扱うためのものである。既知情報は、通常、全ての単語について、初期値「NO」で初期化されている。また、単語DB21が記憶する単語は基本的には、名詞、動詞、形容詞、形容動詞である。そして、単語DB21は、活用する単語については原則として原形(一般の辞書に記載されている形(活用する前の形)をここでは「原形」と呼ぶことにする。日本語文法における終止形である。)を記憶し、ユーザが対話装置100に1度でも入力した文に含まれている単語は、原形以外の形であっても、既知の単語として扱うこととする。また、名詞、動詞、形容動詞、形容動詞以外の単語(代名詞、副詞、連体詞、接続詞、感動詞、付属語(助詞、助動詞))については、ユーザが対話装置100に入力した文に1度も含まれていなくても、既知の単語として扱うこととする。   As shown in FIG. 4, the words included in the response sentence of the interactive device 100 are stored in the word DB 21 together with the known information of the words. The known information is information indicating whether the sentence input by the user to the interactive device 100 includes the same word as the word of the response sentence. This is for treating a word included in a sentence that the user has at least once input to the interactive device 100 as a word known to the interactive device 100. The known information is usually initialized with an initial value “NO” for all words. The words stored in the word DB 21 are basically nouns, verbs, adjectives, and adjective verbs. In the word DB 21, in principle, the original form (the form described in a general dictionary (the form before utilization)) is referred to as the “original form” for the words to be used. ) Is stored, and a word included in a sentence that the user has once input to the interactive device 100 is treated as a known word even if the word has a shape other than the original form. In addition, nouns, verbs, adjectives, and words other than adjectives (pronouns, adverbs, adjuvants, conjunctions, inflections, adjuncts (particles, auxiliary verbs)) are used at least once in a sentence input by the user to the interactive device 100. Even if it is not included, it will be treated as a known word.

模範応答文DB22は、図5に示すように、ユーザが対話装置100に入力した文に含まれているキーワードに応じて、その文に対する模範的(定型的)な応答文が記憶されている。   As shown in FIG. 5, the model response sentence DB 22 stores a model (typical) response sentence to the sentence according to a keyword included in the sentence input to the interactive device 100 by the user.

音声入力部31は、マイクロホンを備え、ユーザが対話装置100に発話した音声のデータ(音声データ)を取得する。制御部10は、記憶部20に記憶された音声認識プログラムを実行することにより、音声入力部31が取得した音声データを周知の手法により音声認識してユーザが発話した文(ユーザ発話文)を取得することができる。音声入力部31は音声認識プログラムとともに、音声入力手段として機能する。   The voice input unit 31 includes a microphone, and acquires data (voice data) of voice uttered by the user to the interactive device 100. The control unit 10 executes the voice recognition program stored in the storage unit 20 to perform voice recognition on the voice data acquired by the voice input unit 31 by a known method, and to output a sentence uttered by the user (user uttered sentence). Can be obtained. The voice input unit 31 functions as a voice input unit together with the voice recognition program.

音声出力部32は、音声合成手段とスピーカを備え、制御部10から与えられた文を周知の手法により音声合成して、音声として出力(発話)することができる。音声出力部32は、音声出力手段として機能する。   The voice output unit 32 includes a voice synthesizing unit and a speaker. The voice output unit 32 can synthesize a sentence given from the control unit 10 by using a well-known technique and output (speech) as voice. The audio output unit 32 functions as an audio output unit.

駆動部33は、モータ等を備え、首を傾げたり、顔の表情を変化させたりすることができる。駆動部33により、対話装置100は、ユーザによって入力された文が理解できないことを、首を傾げる仕草等の動作で示すことができる。駆動部33は駆動手段として機能する。   The drive unit 33 includes a motor and the like, and can tilt the neck and change the facial expression. With the driving unit 33, the interactive device 100 can indicate that the sentence input by the user cannot be understood by an operation such as tilting the head. The driving unit 33 functions as a driving unit.

操作入力部34は、スイッチやタッチパネル等を備え、ユーザによって入力される操作内容データ(対話装置100に対する制御コマンド等)を取得する。   The operation input unit 34 includes a switch, a touch panel, and the like, and acquires operation content data (such as a control command for the interactive device 100) input by the user.

通信部35は、外部のネットワーク等と通信データを無線で通信するためのアンテナを含む無線モジュールである。例えば、通信部35は、無線LAN(Local Area Network)により、他のコンピュータと無線通信を行うための無線モジュールである。通信部35を用いることにより、対話装置100は、外部のサーバ等と様々な情報をやり取りすることができる。   The communication unit 35 is a wireless module including an antenna for wirelessly communicating communication data with an external network or the like. For example, the communication unit 35 is a wireless module for performing wireless communication with another computer via a wireless LAN (Local Area Network). By using the communication unit 35, the interactive device 100 can exchange various information with an external server or the like.

次に、対話装置100の制御部10の機能的構成について説明する。制御部10は、構文解析部11、模範応答文取得部12、単語使用可否判定部13、応答文生成部14、応答部15、の機能を実現し、ユーザの発話に対して応答する。   Next, a functional configuration of the control unit 10 of the interactive device 100 will be described. The control unit 10 realizes the functions of the syntax analysis unit 11, the model response sentence acquisition unit 12, the word use determination unit 13, the response sentence generation unit 14, and the response unit 15, and responds to the utterance of the user.

構文解析部11は、音声入力部31が取得した音声データを制御部10が音声認識して取得したユーザの発話文であるユーザ発話文を、周知の手法により構文解析する。この構文解析により、制御部10は、ユーザ発話文に含まれている単語、文節や、係り受け等の情報を取得することができる。また、構文解析部11は、模範応答文取得部12が取得した模範応答文を構文解析して、該模範応答文に含まれている単語、文節や、係り受け等の情報を取得することができる。構文解析部11は、構文解析手段として機能する。   The syntax analysis unit 11 performs a syntax analysis of a user utterance sentence, which is a user utterance sentence obtained by the control unit 10 performing voice recognition on the voice data obtained by the voice input unit 31 and using a well-known technique. By this syntax analysis, the control unit 10 can acquire information such as words, phrases, and dependencies included in the user utterance sentence. Further, the syntax analysis unit 11 may parse the model response sentence acquired by the model response sentence acquisition unit 12 to acquire information such as words, phrases, and dependencies included in the model response sentence. it can. The syntax analyzer 11 functions as a syntax analyzer.

模範応答文取得部12は、構文解析部11によって構文解析されたユーザ発話文に対する模範的な応答文である模範応答文を取得する。模範応答文DB22には、ユーザ発話文に含まれているキーワードに応じて、そのユーザ発話文に対する模範的な応答文が記憶されているため、模範応答文取得部12は、模範応答文DB22から模範応答文を取得することができる。具体的には、模範応答文取得部12は、模範応答文DB22のキーワードの項目に含まれている単語の中に、構文解析部11によって構文解析されたユーザ発話文に含まれている単語と同じ単語が存在するか否かを検索し、存在した場合は、模範応答文DB22からその単語をキーワードとする模範応答文を取得する。模範応答文取得部12は、模範応答文取得手段として機能する。   The model response sentence acquisition unit 12 acquires a model response sentence that is a model response sentence to the user utterance sentence that has been parsed by the syntax analysis unit 11. The model response sentence DB22 stores a model response sentence for the user utterance sentence according to the keyword included in the user utterance sentence. An exemplary response sentence can be obtained. Specifically, the model response sentence acquisition unit 12 includes, among words included in the keyword item of the model response sentence DB 22, words included in the user utterance sentence parsed by the syntax analysis unit 11. Whether or not the same word exists is searched, and if it exists, an example response sentence having the word as a keyword is obtained from the example response sentence DB 22. The model response sentence acquisition unit 12 functions as a model response sentence acquisition unit.

単語使用可否判定部13は、模範応答文取得部12が取得した模範応答文に含まれている各単語について、ユーザへの応答文中に使用可か使用不可かを判定する。この判定は後述する応答文生成処理で行われるが、簡単には、単語使用可否判定部13は、単語DB21で既知情報が「YES」となっている単語は使用可と判定し、既知情報が「NO」となっている単語は使用不可と判定する。上述したように、単語DB21の既知情報の項目は、過去のユーザ発話文中に1度でも含まれている単語については「YES」になる。したがって、単語使用可否判定部13は、対話装置100が1度も認識したことがない単語を使用不可と判定し、1度でも認識したことがある単語は使用可と判定することになる。単語使用可否判定部13は、単語使用可否判定手段として機能する。   The word availability determination unit 13 determines whether each word included in the model response sentence acquired by the model response sentence acquisition unit 12 is usable or unusable in the response sentence to the user. This determination is made in a response sentence generation process described later, but simply, the word availability determination unit 13 determines that the word whose known information is “YES” in the word DB 21 is available, and the known information is determined. The word "NO" is determined to be unusable. As described above, the item of the known information in the word DB 21 is “YES” for a word included at least once in a past user utterance sentence. Therefore, the word availability determination unit 13 determines that a word that has never been recognized by the interactive device 100 is unusable, and determines that a word that has been recognized at least once is usable. The word availability determination unit 13 functions as a word availability determination unit.

応答文生成部14は、模範応答文取得部12が取得した模範応答文から、単語使用可否判定部13で使用不可と判定された単語を削除して、ユーザ発話文に対する応答文を生成する。応答文を生成する処理の詳細は後述する。応答文生成部14は、応答文生成手段として機能する。   The response sentence generation unit 14 generates a response sentence to the user utterance sentence by deleting the words determined to be unusable by the word use availability determination unit 13 from the model response sentence acquired by the model response sentence acquisition unit 12. Details of the processing for generating the response sentence will be described later. The response sentence generation unit 14 functions as a response sentence generation unit.

応答部15は、応答文生成部14が生成した応答文を、周知の手法により音声出力部32から音声で出力することによって、ユーザに応答する。応答部15は、応答手段として機能する。   The response unit 15 responds to the user by outputting the response sentence generated by the response sentence generation unit 14 by voice from the audio output unit 32 using a known method. The response unit 15 functions as a response unit.

以上、対話装置100の機能構成について説明した。対話装置100は、ユーザが生活している環境の中(部屋等)に置かれており、ユーザが発話した発話文を構文解析して発話文中に用いられている単語を既知の単語として登録するとともに、ユーザの発話文に対し、既知の単語で構成された応答文で応答する。このための処理が次に説明する対話処理である。対話処理は、対話装置100の電源がオンになっている間は常に行われるようになっていてもよいし、操作入力部34等からの入力によりユーザの指示があった時に行われるようになっていてもよい。   The functional configuration of the interactive device 100 has been described above. The interactive device 100 is placed in an environment (room or the like) where the user lives, and analyzes the utterance sentence uttered by the user and registers a word used in the utterance sentence as a known word. At the same time, it responds to the utterance sentence of the user with a response sentence composed of known words. The process for this is the interactive process described below. The interactive process may be performed at all times while the power of the interactive device 100 is turned on, or performed when a user's instruction is given by an input from the operation input unit 34 or the like. May be.

対話装置100で実行される対話処理について、図6を参照して説明する。まず、制御部10は、対話処理を終了するか否かを判定する(ステップS101)。例えば、対話装置100の電源がオフにされたり、操作入力部34から対話処理の終了が指示されたりした場合には、制御部10は、対話処理を終了すると判定する。対話処理を終了すると判定したら(ステップS101;Yes)、処理を終了する。   The interactive process performed by the interactive device 100 will be described with reference to FIG. First, the control unit 10 determines whether or not to end the interactive processing (Step S101). For example, when the power of the interactive device 100 is turned off or when the end of the interactive process is instructed from the operation input unit 34, the control unit 10 determines that the interactive process is to be ended. If it is determined that the interactive processing is to be ended (Step S101; Yes), the processing is ended.

対話処理を終了しないと判定したら(ステップS101;No)、制御部10は、音声入力部31を介してユーザの発話した文(ユーザ発話文)を取得する(ステップS102)。そして、構文解析部11は、ユーザ発話文を構文解析して、ユーザ発話文に含まれている単語等を取得する(ステップS103)。ステップS103は構文解析ステップとも呼ばれる。   If it is determined that the dialog processing is not to be ended (Step S101; No), the control unit 10 acquires a sentence uttered by the user (user uttered sentence) via the voice input unit 31 (Step S102). Then, the syntax analysis unit 11 analyzes the syntax of the user utterance sentence, and acquires words and the like included in the user utterance sentence (step S103). Step S103 is also called a syntax analysis step.

次に、制御部10は、単語DB更新処理を行う(ステップS104)。単語DB更新処理は、単語DBの内容(特に既知情報)を、ユーザ発話文に含まれている単語に応じて更新する処理であり、処理の詳細は後述する。   Next, the control unit 10 performs a word DB update process (step S104). The word DB updating process is a process of updating the contents (especially known information) of the word DB according to the words included in the user utterance sentence, and details of the process will be described later.

次に、模範応答文取得部12は、ユーザ発話文に含まれている単語に基づいて、模範応答文DB22から、ユーザ発話文に対する模範応答文を取得する(ステップS105)。ステップS105は、模範応答文取得ステップとも呼ばれる。そして、応答文生成部14は、応答文生成処理を行って、応答文を生成する(ステップS106)。応答文生成処理は、模範応答文取得部12が取得した模範応答文から、単語使用可否判定部13で使用不可と判定された単語を削除して、応答文生成部14がユーザ発話文に対する応答文を生成する処理だが、処理の詳細は後述する。   Next, the model response sentence acquisition unit 12 acquires a model response sentence for the user utterance sentence from the model response sentence DB 22 based on the words included in the user utterance sentence (step S105). Step S105 is also called an exemplary response sentence acquisition step. Then, the response sentence generation unit 14 performs a response sentence generation process to generate a response sentence (Step S106). In the response sentence generation process, the words determined to be unusable by the word useability determination unit 13 are deleted from the model response sentence acquired by the model response sentence acquisition unit 12, and the response sentence generation unit 14 responds to the user utterance sentence. The processing for generating a sentence will be described later in detail.

そして、応答部15は、応答文生成部14が生成した応答文を音声出力部32により発話する(ステップS107)。ステップS107は応答ステップとも呼ばれる。そして、ステップS101に戻る。   Then, the response unit 15 utters the response sentence generated by the response sentence generation unit 14 through the voice output unit 32 (step S107). Step S107 is also called a response step. Then, the process returns to step S101.

以上、対話処理について説明した。次に、対話処理(図6)のステップS104で行われる単語DB更新処理について、図7を参照して説明する。   The interactive processing has been described above. Next, the word DB updating process performed in step S104 of the interactive process (FIG. 6) will be described with reference to FIG.

まず、制御部10は、単語DB21から、前記ステップS102で取得されたユーザ発話文に含まれる単語と同じ単語を検索する(ステップS201)。なお、ユーザ発話文は対話処理(図6)のステップS103で構文解析されているため、制御部10は、ユーザ発話文中に含まれる単語をすべて把握することができる。この場合、単語DB21から検索される単語の数は、ユーザ発話文の内容に応じて単数であったり複数であったりする。   First, the control unit 10 searches the word DB 21 for the same word as the word included in the user utterance sentence acquired in step S102 (step S201). Since the user utterance sentence has been subjected to the syntax analysis in step S103 of the dialog processing (FIG. 6), the control unit 10 can grasp all the words included in the user utterance sentence. In this case, the number of words retrieved from the word DB 21 may be singular or plural depending on the content of the user utterance sentence.

次に、制御部10は、単語DB21に記憶されている各単語の既知情報を確認するために、単語DB21から、ステップS201で検索された単語と同じ単語を1つ読み出す(ステップS202)。そして、制御部10は、読み出したその単語の既知情報が「YES」であるか否かを判定する(ステップS203)。既知情報が「YES」なら(ステップS203;Yes)、ステップS205に進む。   Next, the control unit 10 reads one word that is the same as the word searched in step S201 from the word DB 21 to check the known information of each word stored in the word DB 21 (step S202). Then, the control unit 10 determines whether or not the read known information of the word is “YES” (Step S203). If the known information is “YES” (Step S203; Yes), the process proceeds to Step S205.

既知情報が「NO」なら(ステップS203;No)、単語DB21のその単語の既知情報を「YES」に変更して単語DB21を更新する(ステップS204)。そして、制御部10は、単語DB21から検索された単語を全て確認したか否かを判定する(ステップS205)。全て確認したなら(ステップS205;Yes)、単語DB更新処理を終了して、対話処理(図6)のステップS105に進む。まだ全てを確認していなければ(ステップS205;No)、ステップS202に戻る。   If the known information is “NO” (Step S203; No), the known information of the word in the word DB 21 is changed to “YES” and the word DB 21 is updated (Step S204). Then, the control unit 10 determines whether all the words searched from the word DB 21 have been confirmed (Step S205). If all are confirmed (step S205; Yes), the word DB update processing is terminated, and the flow proceeds to step S105 of the interactive processing (FIG. 6). If all have not been confirmed yet (step S205; No), the process returns to step S202.

以上、単語DB更新処理について説明した。この単語DB更新処理により、単語DB21に記憶されている各単語のうち、ユーザ発話文に含まれていた単語と同じ単語の既知情報は「YES」となる。その結果、対話装置100は、その単語を「知っている単語」として認識するようになる。次に、対話処理(図6)のステップS106で行われる応答文生成処理について、図8を参照して説明する。   The word DB update processing has been described above. As a result of the word DB update process, among the words stored in the word DB 21, the known information of the same word as the word included in the user utterance becomes “YES”. As a result, the interactive device 100 comes to recognize the word as a “word you know”. Next, the response sentence generation processing performed in step S106 of the interactive processing (FIG. 6) will be described with reference to FIG.

まず、構文解析部11は、模範応答文を構文解析して、模範応答文に含まれている単語等を取得する(ステップS301)。そして、単語使用可否判定部13は、単語DB21から、模範応答文に含まれている単語と同じ単語を検索し(ステップS302)、検索された単語の中に既知情報が「YES」である単語が1つ以上あるか否かを判定する(ステップS303)。検索された単語の中に既知情報が「YES」である単語が1つもなければ(ステップS303;No)、応答文生成部14は、単語を1つも含まない空文を応答文として生成する(ステップS304)。   First, the syntax analysis unit 11 analyzes the syntax of the model response sentence, and acquires words and the like included in the model response sentence (step S301). Then, the word use determination unit 13 searches the word DB 21 for the same word as the word included in the model response sentence (step S302), and among the searched words, the word whose known information is “YES” It is determined whether there is one or more (step S303). If there is no word whose known information is “YES” among the searched words (Step S303; No), the response sentence generation unit 14 generates an empty sentence containing no word as a response sentence (Step S303). Step S304).

そして、制御部10が駆動部33により首を傾げる動作等を行わせることによって、対話装置100はユーザに仕草で応答し(ステップS305)、応答文生成処理を終了して、対話処理(図6)のステップS107に進む。ステップS305での仕草での応答は、首を傾げる動作に限らず、困った表情をする、にっこり笑った表情をする等、駆動部33により、言葉が理解できないことを示す様々な動作で応答することができる。   Then, the control unit 10 causes the driving unit 33 to perform a tilting operation or the like, so that the interactive device 100 responds to the user with a gesture (step S305), ends the response sentence generation process, and performs the interactive process (FIG. 6). The process proceeds to step S107). The response in the gesture in step S305 is not limited to the operation of tilting the neck, and the driving unit 33 responds with various operations indicating that the words cannot be understood, such as giving a troubled expression or a smiling expression. be able to.

一方、単語DB21から検索された単語の中に既知情報が「YES」である単語が1つ以上あるなら(ステップS303;Yes)、単語使用可否判定部13は、検索された単語が1つだけか否かを判定する(ステップS306)。検索された単語が1つだけではないなら(ステップS306;No)、応答文生成部14は、複数単語応答文生成処理を行って、応答文を生成し(ステップS308)、応答文生成処理を終了して、対話処理(図6)のステップS107に進む。複数単語応答文生成処理は、複数の単語を含む応答文を生成する処理だが、処理の詳細は後述する。   On the other hand, if there is one or more words whose known information is “YES” among the words searched from the word DB 21 (Step S303; Yes), the word use determination unit 13 determines that only one of the searched words is used. It is determined whether or not (step S306). If the searched word is not only one (step S306; No), the response sentence generation unit 14 performs a multiple word response sentence generation process to generate a response sentence (step S308), and executes the response sentence generation process. After ending, the process proceeds to step S107 of the interactive process (FIG. 6). The multi-word response sentence generation process is a process of generating a response sentence including a plurality of words, and the details of the process will be described later.

一方、単語DB21から検索された単語の中に既知情報が「YES」である単語が1つなら(ステップS306;Yes)、応答文生成部14は、その単語と同じ単語のみからなる応答文を生成する(ステップS307)。   On the other hand, if there is one word whose known information is “YES” among the words searched from the word DB 21 (step S306; Yes), the response sentence generation unit 14 generates a response sentence including only the same word as the word. It is generated (step S307).

以上応答文生成処理について説明した。次に、応答文生成処理(図8)のステップS308で行われる複数単語応答文生成処理について、図9を参照して説明する。   The response sentence generation processing has been described above. Next, the multi-word response sentence generation process performed in step S308 of the response sentence generation process (FIG. 8) will be described with reference to FIG.

まず、単語使用可否判定部13は、構文解析済みの模範応答文を文節に区切り、各文節の既知情報を初期化する(ステップS401)。例えば、図10に示すように、模範応答文が「秋刀魚は秋の味覚で脂がのると美味しいよね。」の場合、これを文節に区切ると「秋刀魚は/秋の/味覚で/脂が/のると/美味しいよね。」となる。そして、各文節に含まれる単語の既知情報を、単語DB21を参照して取得し、それを該文節の既知情報として、文節の既知情報を初期化する。例えば「秋刀魚は」という文節には「秋刀魚」という単語が含まれており、この既知情報は図10の例では「YES」になっているため、文節「秋刀魚は」の既知情報は「YES」として初期化される。   First, the word-usability determining unit 13 divides the model response sentence after the syntax analysis into segments, and initializes known information of each segment (step S401). For example, as shown in FIG. 10, when the model response sentence is “Autumn fish is delicious if it is greasy with the taste of autumn, it is delicious.” / It's tasty / it's delicious. " Then, the known information of the word included in each phrase is obtained by referring to the word DB 21, and the known information of the phrase is initialized as the known information of the phrase. For example, the phrase "Swordfish" includes the word "Swordfish", and the known information is "YES" in the example of FIG. 10, so the known information of the phrase "Swordfish" is "YES". Initialized as

また、「秋の」という文節には「秋」という単語が含まれているが、この既知情報は図10の例では「NO」になっているため、文節「秋の」の既知情報は「NO」として初期化される。このようにして、模範応答文の全ての文節について既知情報が設定される。なお、1つの文節に複数の単語が含まれている場合、その全ての単語の既知情報が「YES」の場合に、該文節の既知情報は「YES」に初期化され、1つでも既知情報が「NO」の単語が含まれていたら、該文節の既知情報は「NO」に初期化される。   Also, the phrase “autumn” includes the word “autumn”, but since the known information is “NO” in the example of FIG. 10, the known information of the phrase “autumn” is “ "NO". In this way, known information is set for all the phrases of the model response sentence. When one phrase includes a plurality of words, if the known information of all the words is “YES”, the known information of the phrase is initialized to “YES”, and even one of the known information is Contains the word "NO", the known information of the phrase is initialized to "NO".

次に単語使用可否判定部13は、模範応答文の各文節の係り受けの情報に基づいて、各文節の既知情報を、その文節の修飾先の文節の既知情報が「NO」の場合には、「NO」に修正する。この既知情報の修正は、複数単語応答文生成処理(図9)のステップS402からステップS406の処理で行われる。なお、係り受けが2段階以上になることもあり得るため、以下の処理では係り受け情報を、文末から文頭に向かって各文節の修飾元を確認していく処理になっている。   Next, based on the dependency information of each phrase of the model response sentence, the word useability determination unit 13 determines the known information of each phrase and, if the known information of the phrase to which the phrase is modified is “NO”, , "NO". The correction of the known information is performed in the processing of steps S402 to S406 of the multiple word response sentence generation processing (FIG. 9). It should be noted that the modification may be performed in two or more stages. In the following processing, the modification information is a processing for checking the modification source of each clause from the end of the sentence to the beginning of the sentence.

まず、単語使用可否判定部13は、各文節の修飾元を確認するために、模範応答文の文末から文頭に向かって文節を1つずつ取り出す(ステップS402)。そして、単語使用可否判定部13は、取り出したその文節に修飾元があるか否かを判定する(ステップS403)。その文節に修飾元がないなら(ステップS403;No)、ステップS406に進む。その文節に修飾先があるなら(ステップS403;Yes)、今回取り出した文節の既知情報が「YES」か否かを判定する(ステップS404)。今回取り出した文節の既知情報が「YES」なら(ステップS404;Yes)、ステップS406に進む。   First, the word-usability judging unit 13 extracts the phrases one by one from the end of the model response sentence toward the beginning of the sentence in order to confirm the modification source of each phrase (step S402). Then, the word use determination section 13 determines whether or not the extracted phrase has a modification source (step S403). If the phrase has no modifier (step S403; No), the process proceeds to step S406. If the phrase has a modification destination (step S403; Yes), it is determined whether the known information of the phrase extracted this time is “YES” (step S404). If the known information of the phrase extracted this time is “YES” (Step S404; Yes), the process proceeds to Step S406.

今回取り出した文節の既知情報が「YES」でないなら(ステップS404;No)、単語使用可否判定部13は、今回取り出した文節の修飾元の文節の既知情報を「NO」に設定し(ステップS405)、ステップS406に進む。例えば、図11に示すように、模範応答文の文末の文節「美味しいよね」の修飾元の文節は「のると」であるが、「美味しい」の既知情報は「YES」なので、何もせずにステップS406に進む。次の文節「のると」の修飾元の文節は「脂が」であるが、「のると」の既知情報は「NO」なので、「脂が」の既知情報も「NO」に設定される。   If the known information of the phrase extracted this time is not “YES” (step S404; No), the word useability determination unit 13 sets the known information of the modification source phrase of the phrase extracted this time to “NO” (step S405). ), And proceed to step S406. For example, as shown in FIG. 11, the phrase at the end of the model response sentence “delicious,” which is the modifier, is “Notori,” but the known information of “delicious” is “YES,” so nothing is performed. The process proceeds to step S406. The original phrase of the next clause "Noto" is "Fataga", but the known information of "Noto" is "NO", so the known information of "Fataga" is also set to "NO". You.

図9に戻り、ステップS406では、単語使用可否判定部13は、模範応答文に含まれる全ての文節の修飾先を確認したか否かを判定する。全ての文節を確認済みでなければ(ステップS406;No)、ステップS402に戻る。全ての文節を確認済みなら(ステップS406;Yes)、応答文生成部14は、既知情報が「YES」になっている文節を並べて、応答文を生成する(ステップS407)。例えば、図11に示す例では、最終的に、既知情報が「YES」になっている文節は「秋刀魚は」と「美味しいよね」の2つだけになるため、応答文生成部14は、この二つの文節を並べて「秋刀魚は美味しいよね」という応答文を生成する。   Returning to FIG. 9, in step S406, the word use determination unit 13 determines whether or not the modification destinations of all the phrases included in the model response sentence have been confirmed. If all the clauses have not been confirmed (Step S406; No), the process returns to Step S402. If all the clauses have been confirmed (step S406; Yes), the response sentence generation unit 14 generates a response sentence by arranging the clauses whose known information is “YES” (step S407). For example, in the example shown in FIG. 11, finally, the known information is “YES” in only two phrases, “the swordfish” and “delicious”. By arranging the two phrases, a response sentence saying "Autumn fish is delicious" is generated.

以上、複数単語応答文生成処理について説明した。以上説明した応答文生成処理及び複数単語応答文生成処理により、応答文生成部14は、模範応答文から、その時点で既知情報が「YES」となっている単語と対応する単語で構成される応答文を生成する。なお、応答文生成処理及び複数単語応答文生成処理において、単語使用可否判定部13が行うステップは単語使用可否判定ステップとも呼ばれ、応答文生成部14が行うステップは応答文生成ステップとも呼ばれる。   The multi-word response sentence generation processing has been described above. By the response sentence generation processing and the multi-word response sentence generation processing described above, the response sentence generation unit 14 is configured from the model response sentence by a word corresponding to the word whose known information is “YES” at that time. Generate a response sentence. In the response sentence generation process and the multi-word response sentence generation process, the step performed by the word use availability determination unit 13 is also called a word use availability determination step, and the step performed by the response sentence generation unit 14 is also called a response sentence generation step.

また、上述の複数単語応答文生成処理では、全ての係り受けが文の前方の文節から後方の文節に係る(文の前方に修飾元があり、後方に修飾先がある)ことを想定した処理になっているが、これに限られるものではない。逆方向の係り受けが存在する場合も、修飾先の文節の既知情報が「NO」の場合に、修飾元の文節の既知情報を「NO」にする処理を行えばよい。どの文節がどの文節の修飾先や修飾元になっているかという係り受けの情報は、構文解析部11による構文解析の結果から取得できるので、この情報に基づいて上述の処理を行うことによって、係り受けの方向がどちら向きであっても、単語使用可否判定部13は、文節の既知情報を正しく修正することができる。   Further, in the above-described multi-word response sentence generation processing, processing is performed on the assumption that all of the dependencies are related to a clause following a sentence in front of a sentence (a modification source is located in front of a sentence and a modification destination is located in the back). , But is not limited to this. Even in the case where there is a dependency in the reverse direction, a process of setting the known information of the modification source phrase to “NO” may be performed when the known information of the modification destination phrase is “NO”. Dependency information as to which clause is the modification destination or modification source of which clause can be obtained from the result of the syntax analysis performed by the syntax analysis unit 11. By performing the above-described processing based on this information, the dependency information can be obtained. Regardless of which direction the receiving direction is, the word use determination unit 13 can correct the known information of the phrase correctly.

次に、図12を参照して、対話装置100の具体的な動作例を説明する。まず、最初の時点では、単語DB21は、図4に示すように、全ての単語の既知情報が「NO」に初期化されているものとする。また、模範応答文DB22には、図5に示す模範応答文がキーワードとともに記憶されているものとする。そして、ユーザが「今日学校で秋刀魚を焼いたんだけど美味しかったよ。」と発話したとする。   Next, a specific operation example of the interactive device 100 will be described with reference to FIG. First, at the first time, it is assumed that the known information of all the words has been initialized to “NO” in the word DB 21 as shown in FIG. In addition, it is assumed that the model response sentence shown in FIG. 5 is stored in the model response sentence DB 22 together with the keyword. Then, suppose that the user uttered, "I cooked saury at school today, but it was delicious."

すると、制御部10は、ユーザ発話文として「今日学校で秋刀魚を焼いたんだけど美味しかったよ。」を取得し、単語DB更新処理により、単語DB21は、図12に示されるように更新される。また、ユーザ発話文中の単語から「秋刀魚」というキーワードが抽出されるので、模範応答文取得部12は、模範応答文DB22から「秋刀魚は秋の味覚で脂がのると美味しいよね。」という模範応答文を取得する。   Then, the control unit 10 acquires, as the user's utterance sentence, “I cooked the sword fish at school today, but it was delicious.” The word DB updating process updates the word DB 21 as shown in FIG. 12. In addition, since the keyword “swordfish” is extracted from the words in the user utterance sentence, the model response sentence acquisition unit 12 reads from the model response sentence DB 22 that “swordfish is delicious if it is greasy with the taste of autumn.” Get response statement.

そして、上述の応答文生成処理及び複数単語応答文生成処理により、「秋刀魚は美味しいよね。」という応答文が生成される。この時点では、対話装置100は、「秋」や「味覚」等の単語をまだ認識したことがないため、これらの未知の単語を使用しない応答文でユーザに応答することになる。その後、「秋」や「味覚」等の単語が含まれたユーザ発話文を取得すると、これらの単語の既知情報が「YES」となり、それ以後は「秋」や「味覚」も使用した応答文(例えば「秋刀魚は秋の味覚で美味しいよね。」)が生成され、このようなより長い応答文でユーザに応答できるようになる。   Then, the response sentence "Autumn fish is delicious" is generated by the above-described response sentence generation processing and the multi-word response sentence generation processing. At this point, the interactive device 100 has not yet recognized words such as “autumn” and “taste”, and therefore responds to the user with a response sentence that does not use these unknown words. Thereafter, when a user utterance sentence including words such as "autumn" and "taste" is obtained, the known information of these words becomes "YES", and thereafter, a response sentence using "autumn" and "taste" is also used. (For example, “Autumn fish is delicious in autumn taste.”), And the user can respond with such a longer response sentence.

以上説明したように、対話装置100は、模範応答文DB22を拡充しなくても、ユーザとの様々な対話が行われるにつれ、それに応じて、より複雑な表現で応答できるようになり、ユーザに成長しているように感じさせることができる。   As described above, the dialog device 100 can respond with a more complicated expression as various dialogs with the user are performed without expanding the model response sentence DB 22. You can feel like you are growing.

そして、対話装置100は、ユーザ発話文に含まれていた単語からなる応答文で応答するので、ユーザにとって対話装置100との対話は、まるで子供に言葉を教えるかのような対話にもなりうる。そのためユーザは、対話装置100に対して「自分が育てている」、「自分の家で育った」という特別な感情を抱くことができ、対話装置100に愛着がわくようになる。   Then, the interactive device 100 responds with a response sentence composed of words included in the user utterance sentence, so that the interaction with the interactive device 100 for the user can be as if the child were taught a word. . Therefore, the user can have a special feeling of “I am growing up” or “I grew up in my own home” with respect to the interactive device 100, and the user becomes more attached to the interactive device 100.

また、ユーザは対話装置100に話しかければ話しかけるほど、対話装置100が成長していくことを実感できるので、様々なことを話しかけようと思うようになる。このため、対話装置100は、ユーザから様々な多くの情報を収集することができる。   Also, the more the user talks to the interactive device 100, the more he / she can realize that the interactive device 100 grows, and therefore, the user will want to speak various things. For this reason, the interactive device 100 can collect various various information from the user.

そして、対話装置100は、1つの模範応答文から、ユーザ発話文に含まれる単語を使用した意味の通る応答文を生成できるので、対話装置100の成長段階毎に個別に対応するための大量の応答文を用意する必要がない。成長段階毎に個別に対応するための応答文を用意しようとすると、成長段階毎に応答文の内容が異なってしまう状況が発生しうる。そして、そのような状況が発生すると、ユーザに「言っていることが前と違う」、「性格が変わった」等の印象を与えてしまうことがある。しかし、対話装置100では、そのような状況を避けることができる。   Since the interactive device 100 can generate a meaningful response sentence using a word included in the user utterance sentence from one model response sentence, a large amount of information for individually responding to each growth stage of the interactive device 100 is provided. There is no need to prepare a response statement. If a response sentence for individually responding to each growth stage is prepared, a situation may occur in which the content of the response sentence differs for each growth stage. Then, when such a situation occurs, the user may be given an impression such as “what is said is different from before” or “character has changed”. However, in the interactive device 100, such a situation can be avoided.

(実施形態2)
実施形態1に係る対話装置100では、単語DB21に登録されている単語のうち、活用する単語は原則として原形(一般の辞書に記載されている形。日本語文法における終止形。)で登録されている。そして、対話装置100では、原形以外の形がユーザ発話文中に現れても、その単語は既知の単語として扱うこととしている。このため、ユーザ発話文によく現れる動詞、形容詞及び形容動詞(以下、動詞、形容詞及び形容動詞をまとめて用言と言う。)は、すぐに既知の単語となってしまい、ユーザに成長を感じさせる時間的なゆとりがあまり取れない可能性がある。そこで、活用する単語を原形でまとめて扱うのではなく、活用した形に応じて別々に扱う(例えば過去形(用言の連用形と過去を表す助動詞「た」とが接続した形からなる単語群)とそれ以外の形を別の単語として扱う)実施形態2について説明する。
(Embodiment 2)
In the dialogue device 100 according to the first embodiment, of the words registered in the word DB 21, the words to be used are registered in principle in their original forms (forms described in a general dictionary; end forms in Japanese grammar). ing. Then, in the interactive apparatus 100, even if a form other than the original form appears in the user utterance sentence, the word is treated as a known word. For this reason, verbs, adjectives and adjective verbs (hereinafter, verbs, adjectives and adjective verbs are collectively referred to as declinable words) that frequently appear in user utterances are immediately known words and the user feels growth. There is a possibility that there is not enough time to be taken. Therefore, words to be utilized are not treated collectively in the original form, but are treated separately according to the utilized form. ) And other forms are treated as different words.) Embodiment 2 will be described.

実施形態2に係る対話装置101の機能構成は、実施形態1に係る対話装置100と単語DB21以外は同じである。対話装置101の単語DB21は、図13に示すように、用言についてその過去形を原形とは別の単語として記憶している。例えば、図13では、「焼く」以外にその過去形である「焼いた」が、また、「美味しい」以外にその過去形である「美味しかった」が単語DB21に記憶されている。なお、日本語の場合は、過去形は、「用言の連用形と過去を表す助動詞「た」とが接続した形からなる単語群」として表されるが、対話装置101を英語に対応させる場合は、動詞の過去形を動詞の原形と区別して、それぞれ単語DB21に記憶させればよい。   The functional configuration of the interactive device 101 according to the second embodiment is the same as the interactive device 100 according to the first embodiment except for the word DB 21. As shown in FIG. 13, the word DB 21 of the interactive device 101 stores the past tense of a verb as a word different from the original. For example, in FIG. 13, the past tense “baked” is stored in the word DB 21 in addition to “baked”, and the past tense “delicious” is stored in addition to “delicious”. In the case of Japanese, the past tense is represented as “a word group consisting of a form in which the conjunctive form of a verb and the auxiliary verb“ ta ”representing the past are connected”. May be stored in the word DB 21 by distinguishing the past tense of the verb from the original tense of the verb.

対話装置101の単語DB更新処理においては、過去形はその原形とは別の単語(単語群)として扱うこととして、単語DB21を更新する。なお、過去形以外の形については、実施形態1に係る対話装置100と同様に、全て原形に置き換えて扱う。   In the word DB updating process of the interactive device 101, the word DB 21 is updated by treating the past tense as a word (word group) different from its original form. Note that all forms other than the past form are handled in the same manner as the interactive device 100 according to the first embodiment, with the original form replaced.

このような対話装置101の具体的な動作例を、図14を参照して説明する。まず、最初の時点では、単語DB21は、全ての単語の既知情報が「NO」に初期化されているものとする。また、模範応答文DB22には、図5に示す模範応答文がキーワードとともに記憶されているものとする。そして、ユーザが「今日学校で秋刀魚を焼いたんだけど美味しかったよ。」と発話したとする。   A specific operation example of such a dialog device 101 will be described with reference to FIG. First, it is assumed that the known information of all the words has been initialized to “NO” in the word DB 21 at the first time. In addition, it is assumed that the model response sentence shown in FIG. 5 is stored in the model response sentence DB 22 together with the keyword. Then, suppose that the user uttered, "I cooked saury at school today, but it was delicious."

すると、制御部10は、ユーザ発話文として「今日学校で秋刀魚を焼いたんだけど美味しかったよ。」を取得し、単語DB更新処理により、単語DB21は、図14に示されるように更新される。また、ユーザ発話文中の単語から「秋刀魚」というキーワードが抽出されるので、模範応答文取得部12は、模範応答文DB22から「秋刀魚は秋の味覚で脂がのると美味しいよね。」という模範応答文を取得する。   Then, the control unit 10 acquires, as the user utterance sentence, “I cooked the sword fish at school today, but it was delicious.” The word DB 21 is updated as shown in FIG. 14 by the word DB update process. In addition, since the keyword “swordfish” is extracted from the words in the user utterance sentence, the model response sentence acquisition unit 12 reads from the model response sentence DB 22 that “swordfish is delicious if it is greasy with the taste of autumn.” Get response statement.

実施形態2に係る単語DB21は、「美味しい」と「美味しかった」とを別の単語(単語群)として扱っており、ユーザ発話文中には「美味しかった」という単語群は存在するが、模範応答文中の「美味しい」という単語と同じ単語は存在しない。したがって、「美味しい」という単語の既知情報は「NO」のままになり、模範応答文中で既知情報が「YES」の単語は「秋刀魚」のみであるため、「秋刀魚」という応答文が生成される。   The word DB 21 according to the second embodiment treats “delicious” and “delicious” as different words (word groups), and the word group “delicious” exists in the user's utterance sentence. There is no word that is the same as the word "delicious" in the sentence. Therefore, the known information of the word "delicious" remains "NO", and the word of the known information "YES" in the model response sentence is only "swordfish", so a response sentence of "swordfish" is generated. .

その後、「美味しい」や「秋」という単語が含まれたユーザ発話文を取得すると、単語DB更新処理により、これらの単語の既知情報が「YES」となり、単語DB21の内容は図15に示される内容に更新される。その後、またユーザが「今日学校で秋刀魚を焼いたんだけど美味しかったよ。」と発話したとする。   Thereafter, when a user utterance sentence including the words “delicious” and “autumn” is acquired, the word DB update processing changes the known information of these words to “YES”, and the contents of the word DB 21 are shown in FIG. Updated to content. Then, suppose that the user again uttered, "I cooked the sword fish at school today, but it was delicious."

すると、制御部10は、ユーザ発話文として「今日学校で秋刀魚を焼いたんだけど美味しかったよ。」を取得し、ユーザ発話文中の単語から「秋刀魚」というキーワードが抽出されるので、模範応答文取得部12は、模範応答文DB22から「秋刀魚は秋の味覚で脂がのると美味しいよね。」という模範応答文を取得する。なお、このユーザ発話文には、既に既知情報が「YES」になっている単語(及び単語群)しか存在しないため、単語DB更新処理を行っても単語DB21は変化せず、図15に示される内容のままである。   Then, the control unit 10 obtains “I baked the sword fish at school today, but it was delicious” as the user utterance sentence, and extracted the keyword “Aki sword fish” from the words in the user utterance sentence. 12 acquires an exemplary response sentence from the exemplary response sentence DB 22 stating that "Autumn swordfish is delicious if it is greasy with the taste of autumn." Note that since only words (and word groups) whose known information is already “YES” exist in this user utterance sentence, even if the word DB update process is performed, the word DB 21 does not change, and is shown in FIG. Content remains.

そして、模範応答文中で既知情報が「YES」である文節を抜き出すと「秋刀魚は/秋の/美味しいよね。」となるが、複数単語応答文生成処理において、文節「秋の」の既知情報は「NO」に設定される(「味覚」の既知情報が「NO」で、「秋の」は「味覚」の修飾元であるため)ため、最終的に「秋刀魚は美味しいよね。」という応答文が生成される。   Then, when the phrase whose known information is “YES” is extracted from the model response sentence, “Akitou is / autumn / delicious” is obtained. In the multiple-word response sentence generation process, the known information of the phrase “autumn” is Since “NO” is set to “NO” (known information of “taste” is “NO” and “autumn” is a modifier of “taste”), the response sentence “Autumn swordfish is delicious” is finally given. Is generated.

このように、実施形態2に係る対話装置101では、対話装置100に比べると、単語DB21の各単語(単語群)の既知情報がより緩やかに「YES」になっていくため、時間をかけて成長していく様子をユーザに示すことができる。したがって、ユーザに成長している様子をより感じさせることができる。   As described above, in the dialogue device 101 according to the second embodiment, the known information of each word (word group) in the word DB 21 becomes “YES” more slowly than in the dialogue device 100. It is possible to show the user how to grow. Therefore, it is possible to make the user feel more growing.

なお、上述の単語DB21では、過去形だけを別単語(単語群)として扱う例を示したが、これに限られるものではなく、他の形を別単語として扱うようにしてもよい。例えば、受身形(受身となり得る動詞について、「動詞の未然形と受身を表す助動詞「れる、られる」とが接続した形からなる単語群」)や、否定形(「動詞の未然形又は形容詞若しくは形容動詞の連用形と、否定を表す助動詞「ない」と、が接続した形からなる単語群」)等、活用する単語の所定の活用形に所定の付属語を接続した形の単語群を、当該活用する単語の原形とは別単語として、単語DB21に記憶するようにしてもよい。別単語として扱う形(単語群)を増やすことにより、既知情報が「YES」になる速度がより緩やかになるため、ユーザに成長している様子をさらに感じさせることができる。   In the above-described word DB 21, an example in which only the past tense is treated as another word (word group) is shown. However, the present invention is not limited to this, and another form may be treated as another word. For example, a passive form (a verb that can be a passive verb is a "word group consisting of a form in which the auxiliary verb" re, aru "representing the passive and the passive verb" re, aru "), or a negative form (" a verb's intact or adjective " Or, a group of words consisting of a conjunctive form of an adjective verb and a form of conjunctive auxiliary verb "no", which is a concatenation of adjective verbs, ") You may make it memorize | store in the word DB21 as a word different from the original form of the word used. By increasing the form (word group) treated as another word, the speed at which the known information becomes “YES” becomes slower, so that the user can further feel a growing state.

(実施形態3)
実施形態2に係る対話装置101では、活用する単語をその活用した形に応じて別の単語(単語群)として扱うことによって既知情報が「YES」になる速度を緩やかにしているが、この速度制御をより自由に行うことができる実施形態3について説明する。
(Embodiment 3)
In the interactive apparatus 101 according to the second embodiment, the speed at which the known information becomes “YES” is reduced by treating the word to be used as another word (word group) according to the used form. Embodiment 3 in which control can be performed more freely will be described.

実施形態3に係る対話装置102の機能構成は、実施形態1に係る対話装置100と単語DB21以外は同じである。対話装置102の単語DB21は、図16に示すように、各単語について、その単語をユーザ発話文から取得した回数と、その単語を既知の単語として扱うための所定の閾値とを記憶している。回数が閾値以上になると、その単語の既知情報は「YES」となり、閾値未満ならその単語の既知情報は「NO」となる。この閾値の値は、全ての単語について同じ値が設定されていてもよいし、単語に応じて異なる値が設定されていてもよい。   The functional configuration of the interactive device 102 according to the third embodiment is the same as the interactive device 100 according to the first embodiment except for the word DB 21. As shown in FIG. 16, the word DB 21 of the interactive device 102 stores, for each word, the number of times the word has been acquired from the user utterance sentence and a predetermined threshold value for treating the word as a known word. . When the number of times is equal to or more than the threshold, the known information of the word is “YES”, and when the number is less than the threshold, the known information of the word is “NO”. As the threshold value, the same value may be set for all the words, or different values may be set according to the words.

また、対話装置102の単語DB更新処理は、図17に示すように、対話装置100の単語DB更新処理(図7)において、ステップS203で判定がNoの時に、ステップS204の処理を行う前に、ステップS211及びステップS212を行う。   Also, as shown in FIG. 17, in the word DB updating process of the interactive device 100 (FIG. 7), when the determination in step S203 is No, as shown in FIG. , Steps S211 and S212.

ステップS211では、制御部10は、ステップS202で読み出した単語について、単語DB21のその単語の回数を1加算する。このステップにおいて、制御部10は、カウント手段として機能する。そして、加算後の回数が単語DB21に記憶されている閾値未満であるか否かを判定する(ステップS212)。閾値未満なら(ステップS212;Yes)、ステップS205に進む。閾値以上なら(ステップS212;No)、ステップS204に進んで、読み出した単語についての単語DB21の既知情報を「YES」に更新する。   In step S211, the control unit 10 adds 1 to the number of times of the word in the word DB 21 for the word read in step S202. In this step, the control unit 10 functions as a counting unit. Then, it is determined whether or not the number of times after the addition is less than the threshold value stored in the word DB 21 (step S212). If it is less than the threshold value (step S212; Yes), the process proceeds to step S205. If it is equal to or greater than the threshold value (step S212; No), the process proceeds to step S204, and the known information of the word DB 21 for the read word is updated to “YES”.

以上のような処理を行う場合、単語によって、既知情報が「YES」になるタイミングを調整することができ、ユーザにより成長を実感させることができる。例えば、食べ物の名称の単語の閾値を1に設定しておくと、ユーザが1度でも発話した食べ物の名称の既知情報は「YES」になるので、「食べ物の名前はすぐに覚える」という性質を対話装置102に持たせることができる。また、スポーツの名前や人の名前の閾値を大きい値(例えば10)に設定しておくと、ユーザがその閾値の回数以上その単語を発話するまでは、その単語の既知情報は「YES」にならないので、「スポーツの名前や人の名前はなかなか覚えられない」という性質を対話装置102に持たせることができる。   When the above-described processing is performed, the timing at which the known information becomes “YES” can be adjusted depending on the word, so that the user can realize growth. For example, if the threshold value of the word of the food name is set to 1, the known information of the name of the food that the user has spoken at least once is “YES”, so the property of “remember the food name immediately” Can be held in the interactive device 102. Also, if the threshold of the name of a sport or the name of a person is set to a large value (for example, 10), the known information of the word becomes “YES” until the user speaks the word more times than the threshold. Therefore, the interactive device 102 can have a property that "the name of a sport or the name of a person is not easily remembered".

以上のように、実施形態3に係る対話装置102では、既知情報が「YES」になるタイミングをを変更できるので、より自由度の高い成長をさせることができ、ユーザにより成長を感じさせることができる。また、既知情報が「YES」になるタイミングは、全ての単語について同じ閾値に設定しなくてもよく、単語の種類(例えば品詞)毎に変更したり、個別の単語毎に変更したりしてもよい。このようにすることで、各単語の既知情報が「YES」になるタイミングをさらに自由に変更することができるので、ユーザにさらに成長を感じさせることができる。   As described above, in the interactive device 102 according to the third embodiment, the timing at which the known information becomes “YES” can be changed, so that the growth can be performed with a higher degree of freedom, and the user can feel the growth. it can. The timing at which the known information becomes “YES” does not have to be set to the same threshold value for all the words, and may be changed for each word type (for example, part of speech) or for each individual word. Is also good. By doing so, the timing at which the known information of each word becomes “YES” can be changed more freely, so that the user can feel further growth.

なお、実施形態3では、単語DB21に各単語の回数と閾値を記憶するようにしていたが、これに限られるものではない。例えば、単語DB21に、その単語を取得した日時を記録するようにして、所定の日数の間継続してその単語を取得しないと既知情報を「YES」にしない等の処理を行うようにしてもよい。   In the third embodiment, the number of times and the threshold value of each word are stored in the word DB 21. However, the present invention is not limited to this. For example, the date and time when the word was obtained is recorded in the word DB 21, and a process such as setting the known information to “YES” unless the word is continuously obtained for a predetermined number of days may be performed. Good.

また、上述の実施形態では、ユーザが発話した発話文の中に含まれる単語について、単語DB21の既知情報を「YES」に更新していくこととしているが、これに限られるものではない。発話文の中に含まれるか否かによらず、ユーザが対話装置を使用した時間に応じて、単語DB21が記憶している各単語の既知情報を「YES」に更新してもよい。この場合、単語DB21には、図16にあるような回数の閾値に代えて、各単語について使用時間の閾値を記憶しておき、対話装置がこの閾値以上使用されたら、該当単語の既知情報を「YES」に更新するようにする。これにより、ユーザがなかなか発話しない単語であっても、ユーザが使用する時間が所定の閾値を超えると、対話装置は、そのような単語を使用した応答文でユーザに応答することが可能になる。   In the above-described embodiment, the known information in the word DB 21 is updated to “YES” for the words included in the utterance sentence uttered by the user, but the present invention is not limited to this. Regardless of whether or not it is included in the utterance sentence, the known information of each word stored in the word DB 21 may be updated to “YES” according to the time when the user uses the interactive device. In this case, the word DB 21 stores a threshold value of the use time for each word in place of the threshold value of the number of times as shown in FIG. Update to "YES". Thus, even if the user does not readily speak a word, if the time used by the user exceeds a predetermined threshold, the interactive device can respond to the user with a response sentence using such a word. .

さらに、単語DB21に、回数の閾値と使用時間の閾値を両方とも記憶させておき、ユーザ発話文に含まれる回数が回数の閾値以上になったか又はユーザの使用時間が使用時間の閾値以上になったことに基づいて、単語の既知情報を「YES」に更新してもよい。このようにすることで、既知情報が「YES」になるタイミングをさらに自由に設定できるので、より自由度の高い成長をさせることができる。   Further, both the threshold of the number of times and the threshold of the use time are stored in the word DB 21, and the number of times included in the user utterance sentence is equal to or greater than the threshold of the number of times or the use time of the user is equal to or greater than the threshold of the use time. Based on this, the known information of the word may be updated to “YES”. By doing so, the timing at which the known information becomes “YES” can be set more freely, so that growth with a higher degree of freedom can be achieved.

なお、上述の実施形態では、ユーザが発話した発話文を音声入力部31が音声認識して得られるユーザ発話文により、単語DB21が更新されていくこととしているが、これに限られるものではない。例えばテレビやラジオから流れてくる他人の音声、ユーザの家族や友人等の音声等、対話装置100,101,102の周囲で行われる会話を音声入力部31が音声認識して得られる文も用いて単語DB21を更新してもよい。   In the above-described embodiment, the word DB 21 is updated by the user utterance sentence obtained by the voice input unit 31 performing speech recognition on the utterance sentence uttered by the user, but the present invention is not limited to this. . For example, a sentence obtained by the voice input unit 31 performing voice recognition of a conversation performed around the interactive devices 100, 101, and 102, such as a voice of another person flowing from a television or a radio, a voice of a user's family or a friend, or the like, is also used. The word DB 21 may be updated.

また、対話装置100,101,102は、音声に加えて、又は、音声の代わりに、文字データとして入力された文をユーザ発話文とみなして、単語DB21を更新したり、応答文を生成したりしてもよい。例えば対話装置100,101,102は、ユーザが操作入力部34(キーボード、タッチパネル等)から入力した文字からなる文を、ユーザ発話文とみなしてもよい。この場合、操作入力部34は、文字の入力を受け付ける文字入力手段として機能する。ユーザがユーザ発話文の入力を、音声を使わずに専ら操作入力部34から行う場合、対話装置100,101,102は音声入力部31を備えなくてもよい。   In addition, the interactive devices 100, 101, and 102 regard the sentence input as character data in addition to or instead of the voice as a user utterance sentence, update the word DB 21, and generate a response sentence. Or you may. For example, the interactive devices 100, 101, and 102 may regard a sentence composed of characters input by the user from the operation input unit 34 (keyboard, touch panel, etc.) as a user utterance sentence. In this case, the operation input unit 34 functions as a character input unit that receives a character input. When the user inputs a user utterance sentence exclusively from the operation input unit 34 without using voice, the interactive devices 100, 101, and 102 do not need to include the voice input unit 31.

また、上述の実施形態では、単語DB21が記憶する単語は基本的には、名詞、動詞、形容詞、形容動詞としたが、これに限られるものではない。例えば、単語DB21は、これらに加えて、副詞、感動詞等も記憶することにしてもよい。逆に、単語DB21は、これらの一部(例えば、形容詞)を記憶しないことにしてもよい。その場合、単語DB21が記憶しない品詞の単語については、ユーザが対話装置100,101,102に入力した文に1度も含まれていなくても、既知の単語として扱われることになる。   Further, in the above-described embodiment, the words stored in the word DB 21 are basically nouns, verbs, adjectives, and adjective verbs, but are not limited thereto. For example, the word DB 21 may store an adverb, an intransitive verb, and the like in addition to the above. Conversely, the word DB 21 may not store some of them (for example, adjectives). In this case, a word of the part of speech that is not stored in the word DB 21 is treated as a known word even if the sentence input by the user to the interactive devices 100, 101, and 102 is not included at all.

また、上述の実施形態は、主に日本語の文章を前提として説明したが、日本語に限られるものではなく、他の言語でも同様の考え方を適用することができる。例えば、英語の場合、単語DB21には、基本的には、名詞、動詞、形容詞を記憶するようにすればよい。また、英語には、上述の複数単語応答文生成処理の説明中の「文節」は存在しないが、「文節」の代わりに「単語」単位での係り受けの情報に基づいて、複数単語応答文生成処理を行うことにより、既知情報の修正を行えばよい。   Although the above-described embodiment has been described mainly on the premise that Japanese sentences are used, the present invention is not limited to Japanese sentences, and the same concept can be applied to other languages. For example, in the case of English, the word DB 21 may basically store nouns, verbs, and adjectives. Also, in English, “phrase” in the description of the above-described multi-word response sentence generation processing does not exist, but instead of “phrase”, the multi-word response sentence is determined based on the dependency information in “word” units. The known information may be corrected by performing the generation process.

また、上述の実施形態では、記憶部20が単語DB21及び模範応答文DB22を記憶していることとしているが、これに限られるものではない。外部のサーバ等に単語DB21と模範応答文DB22の少なくとも1つを記憶させておき、通信部35を介して外部のサーバ等が記憶している単語DB21や模範応答文DB22にアクセスするようにしてもよい。この場合、外部のサーバ等が記憶するDB(単語DB21や模範応答文DB22)については、記憶部20は記憶していなくてもよい。   In the above-described embodiment, the storage unit 20 stores the word DB 21 and the model response sentence DB 22. However, the present invention is not limited to this. At least one of the word DB 21 and the model response sentence DB 22 is stored in an external server or the like, and the word DB 21 or the model response sentence DB 22 stored in the external server or the like is accessed via the communication unit 35. Is also good. In this case, the storage unit 20 does not need to store the DB (the word DB 21 or the model response sentence DB 22) stored by the external server or the like.

また、上述の実施形態では、対話装置100,101,102が駆動部33、操作入力部34、通信部35を備えているが、これらはいずれも必須ではない。例えば、対話装置100,101,102は、駆動部33を備えなくてもよい。この場合、応答文生成処理(図8)のステップS305における「仕草で応答する」の代わりに、音声出力部32から「ふーん」、「わかんない」等、言葉が理解できない場合等に発する定型の応答文で応答するようにしてもよい。また、操作入力部34を備えない場合は、制御部10は、電源スイッチが入れられると対話処理を起動し、電源スイッチが切られると対話処理を終了するようにしてもよい。   Further, in the above-described embodiment, the interaction devices 100, 101, and 102 include the driving unit 33, the operation input unit 34, and the communication unit 35, but none of them is essential. For example, the interaction devices 100, 101, and 102 need not include the driving unit 33. In this case, instead of "respond with gesture" in step S305 of the response sentence generation process (FIG. 8), a fixed form such as "hmm" or "don't understand" is issued from the voice output unit 32 when words cannot be understood. A response may be made with a response sentence. When the operation input unit 34 is not provided, the control unit 10 may start the interactive processing when the power switch is turned on, and may end the interactive processing when the power switch is turned off.

また、対話装置100,101,102は、液晶ディスプレイ等の表示手段を備えてもよく、ユーザへの応答を、音声ではなく、表示手段への応答文表示によって行ってもよい。対話装置100,101,102は、ユーザへの応答に音声を使用しない場合は、音声出力部32を備えなくてもよい。   Further, the interactive devices 100, 101, and 102 may include display means such as a liquid crystal display, and may respond to the user by displaying a response sentence on the display means instead of voice. The dialogue devices 100, 101, and 102 do not need to include the voice output unit 32 when not using voice to respond to the user.

また、上述の実施形態は適宜組み合わせることができる。例えば、実施形態2と実施形態3とを組み合わせて、活用する単語については原形及び活用した形(過去形等の単語群)毎に回数及び閾値を記憶し、原形及び活用した形毎に既知情報を「YES」にするタイミングを異ならせるようにしてもよい。   Further, the above embodiments can be appropriately combined. For example, by combining Embodiment 2 and Embodiment 3, for the words to be used, the number of times and the threshold value are stored for each of the original form and the utilized form (a word group such as a past form), and the known information is stored for each of the original form and the utilized form May be made to have different timings to make “YES”.

なお、対話装置100,101,102の各機能は、通常のPC(Personal Computer)等のコンピュータによっても実施することができる。具体的には、上記実施形態では、対話装置100,101,102が行う対話処理のプログラムが、記憶部20のROMに予め記憶されているものとして説明した。しかし、プログラムを、フレキシブルディスク、CD−ROM(Compact Disc Read Only Memory)、DVD(Digital Versatile Disc)及びMO(Magneto−Optical Disc)、メモリカード、USB(Universal Serial Bus)メモリ等のコンピュータ読み取り可能な記録媒体に格納して配布し、そのプログラムをコンピュータに読み込んでインストールすることにより、上述の各機能を実現することができるコンピュータを構成してもよい。また、プログラムをインターネット等の通信ネットワークを介して配布し、そのプログラムをコンピュータに読み込んでインストールすることにより、上述の各機能を実現することができるコンピュータを構成してもよい。   The functions of the interactive devices 100, 101, and 102 can also be performed by a computer such as a normal PC (Personal Computer). Specifically, in the above-described embodiment, the description has been given on the assumption that the program of the interactive processing performed by the interactive devices 100, 101, and 102 is stored in the ROM of the storage unit 20 in advance. However, the program may be stored in a flexible disk, a compact disc-only memory (CD-ROM), a digital versatile disc (DVD) and a magneto-optical disc (MO), a memory card, a USB (Universal Serial-Readable Memory) of a computer such as a USB (Universal Serial). A computer capable of realizing each of the above-described functions may be configured by storing and distributing the program on a recording medium, reading the program into the computer, and installing the program. Further, a computer capable of realizing each of the above-described functions may be configured by distributing the program via a communication network such as the Internet and reading and installing the program on the computer.

以上、本発明の好ましい実施形態について説明したが、本発明は係る特定の実施形態に限定されるものではなく、本発明には、特許請求の範囲に記載された発明とその均等の範囲が含まれる。以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。   As described above, the preferred embodiments of the present invention have been described. However, the present invention is not limited to the specific embodiments, and the present invention includes the inventions described in the claims and equivalents thereof. It is. Hereinafter, the invention described in the claims of the present application is additionally described.

(付記1)
ユーザから入力された発話文であるユーザ発話文を構文解析する構文解析手段と、
前記構文解析手段による前記ユーザ発話文の構文解析結果に応じて模範的な応答文である模範応答文を取得する模範応答文取得手段と、
所定の条件に応じて、前記模範応答文取得手段が取得した模範応答文に含まれている各単語について使用可か使用不可かを判定する単語使用可否判定手段と、
前記模範応答文取得手段が取得した模範応答文から、前記単語使用可否判定手段で使用不可と判定された単語を削除して、前記ユーザ発話文に対する応答文を生成する応答文生成手段と、
前記応答文生成手段が生成した応答文を用いて前記ユーザに応答する応答手段と、
を備える対話装置。
(Appendix 1)
Parsing means for parsing a user utterance sentence which is an utterance sentence input by the user;
An exemplary response sentence obtaining unit that obtains an exemplary response sentence that is an exemplary response sentence according to a syntax analysis result of the user utterance sentence by the syntax analysis unit;
According to a predetermined condition, word use availability determination means for determining whether or not each word included in the model response sentence acquired by the model response sentence acquisition means is usable or unusable,
Response sentence generation means for generating a response sentence to the user utterance sentence by deleting a word determined to be unusable by the word use availability determination means from the model response sentence acquired by the model response sentence acquisition means,
Response means for responding to the user using the response sentence generated by the response sentence generation means,
An interactive device comprising:

(付記2)
前記所定の条件は、前記模範応答文に含まれている単語が前記構文解析された前記ユーザ発話文に含まれる単語と対応する単語であるか否かという条件を含み、
前記単語使用可否判定手段は、前記模範応答文に含まれている各単語のうち、前記構文解析された前記ユーザ発話文に含まれる単語と対応する単語を使用可と判定し、前記構文解析された前記ユーザ発話文に含まれていない単語と対応する単語を使用不可と判定する、
付記1に記載の対話装置。
(Appendix 2)
The predetermined condition includes a condition that a word included in the model response sentence is a word corresponding to a word included in the parsed user utterance sentence,
The word availability determining unit determines that a word corresponding to a word included in the parsed user utterance sentence among the words included in the model response sentence is usable, and the syntax analysis is performed. Judge that a word corresponding to a word not included in the user utterance sentence is not usable,
The interactive device according to supplementary note 1.

(付記3)
前記所定の条件は、前記模範応答文に含まれる単語が活用する単語であり、当該活用する単語の所定の活用形に所定の付属語を接続した形の単語群が前記模範応答文に含まれる場合、前記単語群と同じ単語群が前記構文解析された前記ユーザ発話文に含まれているか否かという条件を含み、
前記単語使用可否判定手段は、前記模範応答文に含まれる単語が活用する単語である場合、前記単語を含む前記単語群と同じ単語群が前記ユーザ発話文に含まれているなら前記模範応答文に含まれる各単語のうち、前記単語群に対応する単語を使用可と判定し、前記単語群が前記ユーザ発話文に含まれていないなら前記模範応答文に含まれる各単語のうち、前記単語群に対応する単語を使用不可と判定する、
付記2に記載の対話装置。
(Appendix 3)
The predetermined condition is a word used by a word included in the model response sentence, and a word group in a form in which a predetermined auxiliary form is connected to a predetermined usage form of the word to be used is included in the model response sentence. In the case, the condition includes whether or not the same word group as the word group is included in the parsed user utterance sentence,
When the word included in the model response sentence is a word to be used, the word use availability determination unit may determine that the model response sentence includes the same word group as the word group including the word in the user utterance sentence. Among the words included in the word group, it is determined that the word corresponding to the word group is usable. If the word group is not included in the user utterance sentence, the word among the words included in the model response sentence is determined. Judge that the word corresponding to the group cannot be used,
The interactive device according to supplementary note 2.

(付記4)
さらに、前記ユーザ発話文に含まれる各単語がユーザによって入力された回数をカウントするカウント手段を備え、
前記所定の条件は、前記カウント手段がカウントした前記回数が所定の閾値以上であるか否かという条件をさらに含み、
前記単語使用可否判定手段は、前記カウント手段がカウントした前記回数が所定の閾値以上の単語と対応する単語を使用可と判定し、前記回数が前記閾値未満の単語と対応する単語を使用不可と判定する、
付記2又は3に記載の対話装置。
(Appendix 4)
Further, a counting means for counting the number of times each word included in the user utterance sentence is input by the user,
The predetermined condition further includes a condition that the number of times counted by the counting means is equal to or more than a predetermined threshold,
The word availability determining unit determines that the number of times counted by the counting unit is a word corresponding to a word having a predetermined threshold or more, and determines that the word corresponding to the word having the number of times less than the threshold is unusable. judge,
The interactive device according to Supplementary Note 2 or 3.

(付記5)
前記閾値は、互いに異なる複数の単語の各々に対して設定された複数の閾値からなる、
付記4に記載の対話装置。
(Appendix 5)
The threshold comprises a plurality of thresholds set for each of a plurality of different words,
The interactive device according to supplementary note 4.

(付記6)
前記単語使用可否判定手段は、前記模範応答文中に、使用不可と判定された単語が存在する場合、前記使用不可と判定された単語を修飾する修飾元の単語と対応する単語がユーザ発話文に含まれていた場合であっても、当該修飾元の単語も使用不可と判定する、
付記2から5のいずれか1つに記載の対話装置。
(Appendix 6)
The word use availability determination means, when a word determined to be unusable exists in the model response sentence, a word corresponding to a modification source word that modifies the word determined to be unusable is included in the user utterance sentence. Even if it is included, it is determined that the word of the modifier is also unusable,
6. The interactive device according to any one of supplementary notes 2 to 5.

(付記7)
さらに、音声を音声認識して前記ユーザ発話文を取得する音声入力手段を備え、
前記構文解析手段は、前記音声入力手段が音声認識して取得した前記ユーザ発話文を構文解析する、
付記1から6のいずれか1つに記載の対話装置。
(Appendix 7)
Furthermore, it comprises a voice input means for voice recognition to obtain the user utterance sentence,
The syntax analysis unit performs syntax analysis of the user utterance sentence obtained by the voice input unit performing voice recognition,
7. The interactive device according to any one of supplementary notes 1 to 6.

(付記8)
さらに、音声合成により音声を出力する音声出力手段を備え、
前記応答手段は、前記音声出力手段により前記応答文を音声で出力することによって前記ユーザに応答する、
付記1から7のいずれか1つに記載の対話装置。
(Appendix 8)
Furthermore, it has voice output means for outputting voice by voice synthesis,
The response means responds to the user by outputting the response sentence by voice by the voice output means,
8. The interactive device according to any one of supplementary notes 1 to 7.

(付記9)
さらに、ユーザからの文字の入力を受け付ける文字入力手段を備え、
前記構文解析手段は、前記文字入力手段が受け付けた文字からなる文を前記ユーザ発話文として構文解析する、
付記1から8のいずれか1つに記載の対話装置。
(Appendix 9)
Furthermore, a character input means for receiving an input of a character from a user is provided,
The syntax analysis unit analyzes a sentence composed of characters received by the character input unit as the user utterance sentence,
The interactive device according to any one of supplementary notes 1 to 8.

(付記10)
さらに、文字を表示する表示手段を備え、
前記応答手段は、前記表示手段に前記応答文を表示することによって前記ユーザに応答する、
付記1から9のいずれか1つに記載の対話装置。
(Appendix 10)
Furthermore, a display unit for displaying characters is provided,
The response unit responds to the user by displaying the response sentence on the display unit.
10. The interactive device according to any one of supplementary notes 1 to 9.

(付記11)
さらに、前記ユーザ発話文が理解できないことを示す動作を行う駆動手段を備え、
前記応答手段は、前記応答文生成手段が前記応答文を生成できない場合には、前記駆動手段による動作で前記ユーザに応答する、
付記1から10のいずれか1つに記載の対話装置。
(Appendix 11)
Further, a driving unit for performing an operation indicating that the user utterance sentence cannot be understood,
The response unit, when the response sentence generation unit cannot generate the response sentence, responds to the user by an operation of the driving unit.
11. The interactive device according to any one of supplementary notes 1 to 10.

(付記12)
対話装置を制御するための対話装置制御方法であって、
ユーザから入力された発話文であるユーザ発話文を構文解析する構文解析ステップと、
前記構文解析ステップによる前記ユーザ発話文の構文解析結果に応じて模範的な応答文である模範応答文を取得する模範応答文取得ステップと、
所定の条件に応じて、前記模範応答文取得ステップで取得された模範応答文に含まれている各単語について使用可か使用不可かを判定する単語使用可否判定ステップと、
前記模範応答文取得ステップで取得された模範応答文から、前記単語使用可否判定ステップで使用不可と判定された単語を削除して、前記ユーザ発話文に対する応答文を生成する応答文生成ステップと、
前記応答文生成ステップで生成された応答文を用いて応答する応答ステップと、
を含む対話装置制御方法。
(Appendix 12)
An interactive device control method for controlling an interactive device,
A parsing step of parsing a user utterance sentence that is an utterance sentence input by the user;
An exemplary response sentence obtaining step of obtaining an exemplary response sentence that is an exemplary response sentence according to the result of the syntax analysis of the user utterance sentence by the syntax analysis step;
According to a predetermined condition, a word use determination step of determining whether or not each word included in the model response sentence acquired in the model response sentence acquisition step is usable or unusable,
A response sentence generation step of generating a response sentence to the user utterance sentence by deleting a word determined to be unusable in the word use availability determination step from the model response sentence acquired in the model response sentence acquisition step;
A response step of responding using the response sentence generated in the response sentence generation step,
An interactive device control method including:

(付記13)
対話装置のコンピュータに、
ユーザから入力された発話文であるユーザ発話文を構文解析する構文解析ステップ、
前記構文解析ステップによる前記ユーザ発話文の構文解析結果に応じて模範的な応答文である模範応答文を取得する模範応答文取得ステップ、
所定の条件に応じて、前記模範応答文取得ステップで取得された模範応答文に含まれている各単語について使用可か使用不可かを判定する単語使用可否判定ステップ、
前記模範応答文取得ステップで取得された模範応答文から、前記単語使用可否判定ステップで使用不可と判定された単語を削除して、前記ユーザ発話文に対する応答文を生成する応答文生成ステップ、及び、
前記応答文生成ステップで生成された応答文を用いて応答する応答ステップ、
を実行させるためのプログラム。
(Appendix 13)
On the computer of the interactive device,
A parsing step of parsing a user utterance sentence that is an utterance sentence input by the user;
An exemplary response sentence obtaining step of obtaining an exemplary response sentence that is an exemplary response sentence according to a result of the syntax analysis of the user utterance sentence by the syntax analysis step;
According to a predetermined condition, a word use determination step of determining whether or not each word included in the model response sentence acquired in the model response sentence acquisition step is usable or unusable,
A response sentence generation step of generating a response sentence to the user utterance sentence by deleting a word determined to be unusable in the word use availability determination step from the model response sentence acquired in the model response sentence acquisition step, and ,
A response step of responding using the response sentence generated in the response sentence generation step,
The program to execute.

10…制御部、11…構文解析部、12…模範応答文取得部、13…単語使用可否判定部、14…応答文生成部、15…応答部、20…記憶部、21…単語DB、22…模範応答文DB、31…音声入力部、32…音声出力部、33…駆動部、34…操作入力部、35…通信部、100,101,102…対話装置 DESCRIPTION OF SYMBOLS 10 ... Control part, 11 ... Syntax analysis part, 12 ... Model response sentence acquisition part, 13 ... Word availability determination part, 14 ... Response sentence generation part, 15 ... Response part, 20 ... Storage part, 21 ... Word DB, 22 ... model response sentence DB, 31 ... voice input unit, 32 ... voice output unit, 33 ... drive unit, 34 ... operation input unit, 35 ... communication unit, 100, 101, 102 ... dialogue device

Claims (13)

ユーザから入力された発話文であるユーザ発話文を構文解析する構文解析手段と、
前記構文解析手段による前記ユーザ発話文の構文解析結果に応じて模範的な応答文である模範応答文を取得する模範応答文取得手段と、
所定の条件に応じて、前記模範応答文取得手段が取得した模範応答文に含まれている各単語について使用可か使用不可かを判定する単語使用可否判定手段と、
前記模範応答文取得手段が取得した模範応答文から、前記単語使用可否判定手段で使用不可と判定された単語を削除して、前記ユーザ発話文に対する応答文を生成する応答文生成手段と、
前記応答文生成手段が生成した応答文を用いて前記ユーザに応答する応答手段と、
を備える対話装置。
Parsing means for parsing a user utterance sentence which is an utterance sentence input by the user;
An exemplary response sentence obtaining unit that obtains an exemplary response sentence that is an exemplary response sentence according to a syntax analysis result of the user utterance sentence by the syntax analysis unit;
According to a predetermined condition, word use availability determination means for determining whether or not each word included in the model response sentence acquired by the model response sentence acquisition means is usable or unusable,
Response sentence generation means for generating a response sentence to the user utterance sentence by deleting a word determined to be unusable by the word use availability determination means from the model response sentence acquired by the model response sentence acquisition means,
Response means for responding to the user using the response sentence generated by the response sentence generation means,
An interactive device comprising:
前記所定の条件は、前記模範応答文に含まれている単語が前記構文解析された前記ユーザ発話文に含まれる単語と対応する単語であるか否かという条件を含み、
前記単語使用可否判定手段は、前記模範応答文に含まれている各単語のうち、前記構文解析された前記ユーザ発話文に含まれる単語と対応する単語を使用可と判定し、前記構文解析された前記ユーザ発話文に含まれていない単語と対応する単語を使用不可と判定する、
請求項1に記載の対話装置。
The predetermined condition includes a condition that a word included in the model response sentence is a word corresponding to a word included in the parsed user utterance sentence,
The word availability determining unit determines that a word corresponding to a word included in the parsed user utterance sentence among the words included in the model response sentence is usable, and the syntax analysis is performed. Judge that a word corresponding to a word not included in the user utterance sentence is not usable,
The interactive device according to claim 1.
前記所定の条件は、前記模範応答文に含まれる単語が活用する単語であり、当該活用する単語の所定の活用形に所定の付属語を接続した形の単語群が前記模範応答文に含まれる場合、前記単語群と同じ単語群が前記構文解析された前記ユーザ発話文に含まれているか否かという条件を含み、
前記単語使用可否判定手段は、前記模範応答文に含まれる単語が活用する単語である場合、前記単語を含む前記単語群と同じ単語群が前記ユーザ発話文に含まれているなら前記模範応答文に含まれる各単語のうち、前記単語群に対応する単語を使用可と判定し、前記単語群が前記ユーザ発話文に含まれていないなら前記模範応答文に含まれる各単語のうち、前記単語群に対応する単語を使用不可と判定する、
請求項2に記載の対話装置。
The predetermined condition is a word used by a word included in the model response sentence, and a word group in a form in which a predetermined auxiliary form is connected to a predetermined usage form of the word to be used is included in the model response sentence. In the case, the condition includes whether or not the same word group as the word group is included in the parsed user utterance sentence,
If the word included in the model response sentence is a word to be utilized, the word use availability determination unit may determine the model response sentence if the same word group as the word group including the word is included in the user utterance sentence. Among the words included in the word group, it is determined that the word corresponding to the word group is usable. If the word group is not included in the user utterance sentence, the word among the words included in the model response sentence is determined. Judge that the word corresponding to the group cannot be used,
The interactive device according to claim 2.
さらに、前記ユーザ発話文に含まれる各単語がユーザによって入力された回数をカウントするカウント手段を備え、
前記所定の条件は、前記カウント手段がカウントした前記回数が所定の閾値以上であるか否かという条件をさらに含み、
前記単語使用可否判定手段は、前記カウント手段がカウントした前記回数が所定の閾値以上の単語と対応する単語を使用可と判定し、前記回数が前記閾値未満の単語と対応する単語を使用不可と判定する、
請求項2又は3に記載の対話装置。
Further, a counting means for counting the number of times each word included in the user utterance sentence is input by the user,
The predetermined condition further includes a condition that the number of times counted by the counting means is equal to or more than a predetermined threshold,
The word availability determining unit determines that the number of times counted by the counting unit is a word corresponding to a word that is equal to or greater than a predetermined threshold, and determines that the word corresponding to a word whose number is less than the threshold is unusable. judge,
The interactive device according to claim 2.
前記閾値は、互いに異なる複数の単語の各々に対して設定された複数の閾値からなる、
請求項4に記載の対話装置。
The threshold comprises a plurality of thresholds set for each of a plurality of different words,
The interactive device according to claim 4.
前記単語使用可否判定手段は、前記模範応答文中に、使用不可と判定された単語が存在する場合、前記使用不可と判定された単語を修飾する修飾元の単語と対応する単語がユーザ発話文に含まれていた場合であっても、当該修飾元の単語も使用不可と判定する、
請求項2から5のいずれか1項に記載の対話装置。
The word use availability determination means, when a word determined to be unusable exists in the model response sentence, a word corresponding to a modification source word that modifies the word determined to be unusable is included in the user utterance sentence. Even if it is included, it is determined that the word of the modifier is also unusable,
The interactive device according to any one of claims 2 to 5.
さらに、音声を音声認識して前記ユーザ発話文を取得する音声入力手段を備え、
前記構文解析手段は、前記音声入力手段が音声認識して取得した前記ユーザ発話文を構文解析する、
請求項1から6のいずれか1項に記載の対話装置。
Furthermore, it comprises a voice input means for voice recognition to obtain the user utterance sentence,
The syntax analysis unit performs syntax analysis of the user utterance sentence obtained by the voice input unit performing voice recognition,
The interactive device according to claim 1.
さらに、音声合成により音声を出力する音声出力手段を備え、
前記応答手段は、前記音声出力手段により前記応答文を音声で出力することによって前記ユーザに応答する、
請求項1から7のいずれか1項に記載の対話装置。
Furthermore, it has voice output means for outputting voice by voice synthesis,
The response means responds to the user by outputting the response sentence by voice by the voice output means,
The interactive device according to claim 1.
さらに、ユーザからの文字の入力を受け付ける文字入力手段を備え、
前記構文解析手段は、前記文字入力手段が受け付けた文字からなる文を前記ユーザ発話文として構文解析する、
請求項1から8のいずれか1項に記載の対話装置。
Furthermore, a character input means for receiving an input of a character from a user is provided,
The syntax analysis unit analyzes a sentence composed of characters received by the character input unit as the user utterance sentence,
The interactive device according to claim 1.
さらに、文字を表示する表示手段を備え、
前記応答手段は、前記表示手段に前記応答文を表示することによって前記ユーザに応答する、
請求項1から9のいずれか1項に記載の対話装置。
Furthermore, a display unit for displaying characters is provided,
The response unit responds to the user by displaying the response sentence on the display unit.
The interactive device according to claim 1.
さらに、前記ユーザ発話文が理解できないことを示す動作を行う駆動手段を備え、
前記応答手段は、前記応答文生成手段が前記応答文を生成できない場合には、前記駆動手段による動作で前記ユーザに応答する、
請求項1から10のいずれか1項に記載の対話装置。
Further, a driving unit for performing an operation indicating that the user utterance sentence cannot be understood,
The response unit, when the response sentence generation unit cannot generate the response sentence, responds to the user by an operation of the driving unit.
The interactive device according to claim 1.
対話装置を制御するための対話装置制御方法であって、
ユーザから入力された発話文であるユーザ発話文を構文解析する構文解析ステップと、
前記構文解析ステップによる前記ユーザ発話文の構文解析結果に応じて模範的な応答文である模範応答文を取得する模範応答文取得ステップと、
所定の条件に応じて、前記模範応答文取得ステップで取得された模範応答文に含まれている各単語について使用可か使用不可かを判定する単語使用可否判定ステップと、
前記模範応答文取得ステップで取得された模範応答文から、前記単語使用可否判定ステップで使用不可と判定された単語を削除して、前記ユーザ発話文に対する応答文を生成する応答文生成ステップと、
前記応答文生成ステップで生成された応答文を用いて応答する応答ステップと、
を含む対話装置制御方法。
An interactive device control method for controlling an interactive device,
A parsing step of parsing a user utterance sentence that is an utterance sentence input by the user;
An exemplary response sentence obtaining step of obtaining an exemplary response sentence that is an exemplary response sentence according to the result of the syntax analysis of the user utterance sentence by the syntax analysis step;
According to a predetermined condition, a word use determination step of determining whether or not each word included in the model response sentence acquired in the model response sentence acquisition step is usable or unusable,
A response sentence generation step of generating a response sentence to the user utterance sentence by deleting a word determined to be unusable in the word use availability determination step from the model response sentence acquired in the model response sentence acquisition step;
A response step of responding using the response sentence generated in the response sentence generation step,
An interactive device control method including:
対話装置のコンピュータに、
ユーザから入力された発話文であるユーザ発話文を構文解析する構文解析ステップ、
前記構文解析ステップによる前記ユーザ発話文の構文解析結果に応じて模範的な応答文である模範応答文を取得する模範応答文取得ステップ、
所定の条件に応じて、前記模範応答文取得ステップで取得された模範応答文に含まれている各単語について使用可か使用不可かを判定する単語使用可否判定ステップ、
前記模範応答文取得ステップで取得された模範応答文から、前記単語使用可否判定ステップで使用不可と判定された単語を削除して、前記ユーザ発話文に対する応答文を生成する応答文生成ステップ、及び、
前記応答文生成ステップで生成された応答文を用いて応答する応答ステップ、
を実行させるためのプログラム。
On the computer of the interactive device,
A parsing step of parsing a user utterance sentence that is an utterance sentence input by the user;
An exemplary response sentence obtaining step of obtaining an exemplary response sentence that is an exemplary response sentence according to a result of the syntax analysis of the user utterance sentence by the syntax analysis step;
According to a predetermined condition, a word use determination step of determining whether or not each word included in the model response sentence acquired in the model response sentence acquisition step is usable or unusable,
A response sentence generation step of generating a response sentence to the user utterance sentence by deleting a word determined to be unusable in the word use availability determination step from the model response sentence acquired in the model response sentence acquisition step, and ,
A response step of responding using the response sentence generated in the response sentence generation step,
The program to execute.
JP2018118154A 2018-06-21 2018-06-21 Dialogue device, dialogue device control method and program Active JP7172168B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018118154A JP7172168B2 (en) 2018-06-21 2018-06-21 Dialogue device, dialogue device control method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018118154A JP7172168B2 (en) 2018-06-21 2018-06-21 Dialogue device, dialogue device control method and program

Publications (2)

Publication Number Publication Date
JP2019220022A true JP2019220022A (en) 2019-12-26
JP7172168B2 JP7172168B2 (en) 2022-11-16

Family

ID=69097274

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018118154A Active JP7172168B2 (en) 2018-06-21 2018-06-21 Dialogue device, dialogue device control method and program

Country Status (1)

Country Link
JP (1) JP7172168B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002041084A (en) * 2000-07-26 2002-02-08 Victor Co Of Japan Ltd Interactive speech processing system
JP2003330487A (en) * 2002-05-09 2003-11-19 Nec Corp Conversation agent
JP2017191531A (en) * 2016-04-15 2017-10-19 ロボットスタート株式会社 Communication system, server, and communication method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002041084A (en) * 2000-07-26 2002-02-08 Victor Co Of Japan Ltd Interactive speech processing system
JP2003330487A (en) * 2002-05-09 2003-11-19 Nec Corp Conversation agent
JP2017191531A (en) * 2016-04-15 2017-10-19 ロボットスタート株式会社 Communication system, server, and communication method

Also Published As

Publication number Publication date
JP7172168B2 (en) 2022-11-16

Similar Documents

Publication Publication Date Title
US6952665B1 (en) Translating apparatus and method, and recording medium used therewith
US8935163B2 (en) Automatic conversation system and conversation scenario editing device
CN110730953B (en) Method and system for customizing interactive dialogue application based on content provided by creator
EP1800294B1 (en) System and methods for improving accuracy of speech recognition
RU2441287C2 (en) Universal orthographic symbolic circuits
CN110264992B (en) Speech synthesis processing method, apparatus, device and storage medium
JPWO2016067418A1 (en) Dialog control apparatus and dialog control method
JP2009511959A (en) Generating words and names using N-grams of phonemes
JP2009139677A (en) Voice processor and program therefor
El Ouahabi et al. Toward an automatic speech recognition system for amazigh-tarifit language
US10714087B2 (en) Speech control for complex commands
Ostrogonac et al. Morphology-based vs unsupervised word clustering for training language models for Serbian
San-Segundo et al. Proposing a speech to gesture translation architecture for Spanish deaf people
CN109960806A (en) A kind of natural language processing method
CN109960807A (en) A kind of intelligent semantic matching process based on context relation
JP3059398B2 (en) Automatic interpreter
JP2019220022A (en) Interactive device, interactive device control method, and program
Odell et al. Architecture, user interface, and enabling technology in Windows Vista's speech systems
US6772116B2 (en) Method of decoding telegraphic speech
JP2758851B2 (en) Automatic translation device and automatic translation device
JP2003162524A (en) Language processor
Trouvain et al. Speech synthesis: text-to-speech conversion and artificial voices
JP2004021207A (en) Phoneme recognizing method, phoneme recognition system and phoneme recognizing program
JP2006330060A (en) Speech synthesizer, speech processor, and program
WO2023047623A1 (en) Information processing device, information processing method, and information processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210608

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220606

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220607

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220715

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221017

R150 Certificate of patent or registration of utility model

Ref document number: 7172168

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150