JP2006301968A - Conversation support device - Google Patents

Conversation support device Download PDF

Info

Publication number
JP2006301968A
JP2006301968A JP2005122825A JP2005122825A JP2006301968A JP 2006301968 A JP2006301968 A JP 2006301968A JP 2005122825 A JP2005122825 A JP 2005122825A JP 2005122825 A JP2005122825 A JP 2005122825A JP 2006301968 A JP2006301968 A JP 2006301968A
Authority
JP
Japan
Prior art keywords
sentence
response
utterance sentence
list
utterance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005122825A
Other languages
Japanese (ja)
Other versions
JP4079275B2 (en
Inventor
Yoshiteru Yamamoto
吉輝 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Computer Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Computer Entertainment Inc filed Critical Sony Computer Entertainment Inc
Priority to JP2005122825A priority Critical patent/JP4079275B2/en
Priority to KR1020060034835A priority patent/KR20060110787A/en
Priority to US11/406,847 priority patent/US20060247932A1/en
Priority to EP06252131A priority patent/EP1715475A1/en
Publication of JP2006301968A publication Critical patent/JP2006301968A/en
Application granted granted Critical
Publication of JP4079275B2 publication Critical patent/JP4079275B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a conversation support device capable of improving the convenience in foreign language conversations or the like. <P>SOLUTION: The conversation support device is connected to a database storing a response sentence table in which spoken sentence identification information identifying a spoken sentence is related to a response sentence list including assumed responses to the spoken sentence so as to be accessible thereto. The device acquires a response sentence list related to spoken sentence identification information of an inputted spoken sentence and displays response sentences contained in the response sentence list to make a responder selectively read out them. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、質問側と、応答側との会話を支援する会話支援装置に関する。   The present invention relates to a conversation support apparatus that supports conversation between a questioner and a responder.

今日では、国際的な交通網の整備が進み、外国への渡航がきわめて容易になり、種々の国籍の外国人と会話をする機会も増大しつつある。こうした現状の下、会話に利用される外国語の種類も増大しており、こうした外国語会話を支援する装置が要望されている。   Today, international transportation networks have been improved, making it easy to travel to foreign countries, and increasing opportunities to talk with foreigners of various nationalities. Under these circumstances, the types of foreign languages used for conversations are increasing, and devices that support such foreign language conversations are desired.

特許文献1には、外国語の習得を支援するために、外国語の問題を出題する電子辞書が開示されている。また、文章を文法的に解析して翻訳を行う、いわゆる機械翻訳の研究も進められている。
特開2004−294993号公報
Patent Document 1 discloses an electronic dictionary that questions foreign language problems in order to support the acquisition of foreign languages. Research on so-called machine translation, in which sentences are grammatically analyzed and translated, is also underway.
JP 2004-294993 A

しかしながら、上記従来の電子辞書や機械翻訳技術では、会話が円滑に支援されるとは限らない。例えば電子辞書では、話そうとする内容に未知の単語がある場合には有用であるが、会話として文を組み立てる際には有用でない。また、相手方の話す単語に未知のものがある場合、その綴りが不明であると、その意味を引くことができない。機械翻訳の場合、会話として文を組み立てることはできるが、相手方の話す内容が聞き取れない場合に翻訳をさせることができないという問題点がある。   However, the conventional electronic dictionary and machine translation technology do not always support conversation smoothly. For example, in an electronic dictionary, it is useful when there are unknown words in the content to be spoken, but it is not useful when assembling sentences as conversations. Also, if there is an unknown word spoken by the other party, the meaning cannot be drawn if the spelling is unknown. In the case of machine translation, it is possible to assemble sentences as conversations, but there is a problem that it is impossible to translate when the content of the other party is not heard.

このように、上記従来の電子辞書や機械翻訳技術では、外国語会話における利便性が高いとはいえないという問題点があった。また、この事情は外国語の会話に限られない。   As described above, the conventional electronic dictionary and machine translation technology have a problem in that they are not very convenient in foreign language conversation. This situation is not limited to foreign language conversations.

本発明は上記実情に鑑みて為されたもので、例えば外国語会話における利便性を向上できる会話支援装置を提供することを、その目的の一つとする。   The present invention has been made in view of the above circumstances. For example, it is an object of the present invention to provide a conversation support apparatus that can improve convenience in foreign language conversation.

上記従来例の問題点を解決するための本発明は、会話支援装置において、発話文を識別する発話文識別情報と、前記発話文に対する想定応答として列挙された応答文リストと、を関連付けた応答文テーブルを記憶するデータベースにアクセス可能に接続され、入力された発話文の前記発話文識別情報に関連づけられている、前記応答文リストを取得する応答文取得部と、前記応答文リストに含まれる応答文を列挙して表示する応答文表示部と、を含むことを特徴としている。   The present invention for solving the problems of the conventional example described above is a response in which an utterance sentence identification information for identifying an utterance sentence is associated with an answer sentence list enumerated as an assumed response to the utterance sentence in the conversation support device A response sentence acquisition unit that is connected to a database that stores a sentence table and is associated with the utterance sentence identification information of the input utterance sentence, and included in the response sentence list And a response sentence display unit that enumerates and displays the response sentences.

ここで、前記応答文テーブルにはさらに、発話文識別情報に関連付けて肯定または否定を表す単語による応答の可否を示す特定応答可否情報が記憶されており、前記入力された発話文の前記質問識別情報に関連づけられている特定応答可否情報を参照して、肯定または否定を表す単語による応答が可能である場合に、前記取得した応答文リストに、肯定または否定の単語を追加する応答文追加部、をさらに含んでもよい。   Here, the response sentence table further stores specific response availability information indicating whether or not a response by a word indicating affirmation or denial is associated with the utterance sentence identification information, and the question identification of the input utterance sentence A response sentence adding unit that adds an affirmative or negative word to the acquired response sentence list when a response by a word indicating affirmation or negative is possible with reference to the specific response availability information associated with the information , May further be included.

さらに、前記データベースは、発話文を識別する発話文識別情報に対して、発話者側への指示と応答者側への指示とを関連付けた指示テーブルを記憶しており、入力された発話文の前記質問識別情報に関連付けられた発話者側への指示を提示し、さらに応答者側への指示を提示する指示提示部、を含んでもよい。   Further, the database stores an instruction table in which an instruction to the speaker side and an instruction to the responder side are associated with the utterance sentence identification information for identifying the utterance sentence, and the input utterance sentence An instruction presenting unit that presents an instruction to the speaker associated with the question identification information and further presents an instruction to the responder may be included.

また、前記データベースは、指示語に対応する被指示単語リストを記憶しており、前記入力された発話文に、指示語が含まれている場合に、前記被指示単語リストを提示して質問側利用者に提示するリスト表示部、をさらに含んでもよい。   In addition, the database stores a commanded word list corresponding to the command word, and when the input utterance contains a command word, the commanded word list is presented to the question side You may further include the list display part shown to a user.

さらに本発明の一態様に係る会話支援方法は、発話文を識別する発話文識別情報と、前記発話文に対する想定応答として列挙された応答文リストとを関連付けた応答文テーブルを記憶するデータベースにアクセス可能なコンピュータを用い、入力された発話文の前記発話文識別情報に関連づけられている、前記応答文リストを取得し、前記応答文リストに含まれる応答文を列挙して表示する、ことを特徴としている。   Furthermore, the conversation support method according to an aspect of the present invention accesses a database that stores a response sentence table that associates utterance sentence identification information for identifying an utterance sentence and a response sentence list listed as an assumed response to the utterance sentence. Using a computer capable of acquiring the response sentence list associated with the utterance sentence identification information of the input utterance sentence and listing and displaying the response sentences included in the response sentence list It is said.

また、本発明の別の態様に係るプログラムは、発話文を識別する発話文識別情報と、前記発話文に対する想定応答として列挙された応答文リストとを関連付けた応答文テーブルを記憶するデータベースにアクセス可能なコンピュータに、入力された発話文の前記発話文識別情報に関連づけられている、前記応答文リストを取得する手順、及び前記応答文リストに含まれる応答文を列挙して表示する手順、を実行させることを特徴としている。   Further, a program according to another aspect of the present invention accesses a database that stores a response sentence table that associates an utterance sentence identification information for identifying an utterance sentence and a response sentence list enumerated as an assumed response to the utterance sentence. A computer capable of acquiring the response sentence list associated with the utterance sentence identification information of the input utterance sentence, and listing and displaying the response sentences included in the response sentence list; It is characterized by being executed.

本発明の実施の形態について図面を参照しながら説明する。本発明の実施の形態に係る会話支援装置は、例えば携帯用ゲーム機を用いて実現できる。この携帯用ゲーム機は、図1に示すように、制御部11と、インタフェースユニット12と、操作ユニット13と、無線通信モジュール14と、ディスクドライブ15と、記憶部16と、電源制御部17と、画像処理ユニット18と、ディスプレイ19と、音声処理ユニット20と、音声出力部21と、音声入力部22とを含んで構成されている。   Embodiments of the present invention will be described with reference to the drawings. The conversation support apparatus according to the embodiment of the present invention can be realized using a portable game machine, for example. As shown in FIG. 1, the portable game machine includes a control unit 11, an interface unit 12, an operation unit 13, a wireless communication module 14, a disk drive 15, a storage unit 16, and a power control unit 17. The image processing unit 18, the display 19, the sound processing unit 20, the sound output unit 21, and the sound input unit 22 are configured.

ここで操作ユニット13、無線通信モジュール14、ディスクドライブ15、記憶部16及び音声入力部22は、インタフェースユニット12を介して制御部11に接続されている。また、電源制御部17、画像処理ユニット18、及び音声処理ユニット20は、制御部11に接続されており、画像処理ユニット18には、さらにディスプレイ19が接続されている。また、音声処理ユニット20には音声出力部21が接続されている。   Here, the operation unit 13, the wireless communication module 14, the disk drive 15, the storage unit 16, and the voice input unit 22 are connected to the control unit 11 via the interface unit 12. The power control unit 17, the image processing unit 18, and the sound processing unit 20 are connected to the control unit 11, and a display 19 is further connected to the image processing unit 18. An audio output unit 21 is connected to the audio processing unit 20.

制御部11は、MPU(Micro Processing Unit)等であり、ディスクドライブ15にセットされた外部記憶媒体M、又は記憶部16に格納されたプログラムに従って動作する。本実施の形態では、この携帯用ゲーム機により会話支援装置を実現するためのプログラムが、この外部記憶媒体Mに格納されて供給され、制御部11は、当該外部記憶媒体Mからプログラムを読み出して実行する。   The control unit 11 is an MPU (Micro Processing Unit) or the like, and operates according to an external storage medium M set in the disk drive 15 or a program stored in the storage unit 16. In the present embodiment, a program for realizing a conversation support device by this portable game machine is stored and supplied in the external storage medium M, and the control unit 11 reads the program from the external storage medium M. Execute.

また、この外部記憶媒体Mには、会話支援装置としての処理において利用されるデータベースが格納されている。この制御部11の処理の内容や、データベースの内容については、後に詳しく述べる。   The external storage medium M stores a database used in processing as a conversation support device. The contents of the processing of the control unit 11 and the contents of the database will be described in detail later.

インタフェースユニット12は、制御部11が出力する信号を、制御部11から入力される指示に従って、無線通信モジュール14、ディスクドライブ15、又は記憶部16のいずれかに振り分けて出力する。また、このインタフェースユニット12は、操作ユニット13、無線通信モジュール14、ディスクドライブ15、記憶部16、又は音声入力部22から制御部11への信号を、それぞれ調停しながら制御部11に出力している。   The interface unit 12 distributes the signal output from the control unit 11 to any one of the wireless communication module 14, the disk drive 15, or the storage unit 16 in accordance with an instruction input from the control unit 11 and outputs the signal. Further, the interface unit 12 outputs a signal from the operation unit 13, the wireless communication module 14, the disk drive 15, the storage unit 16, or the voice input unit 22 to the control unit 11 while adjusting the signal to the control unit 11. Yes.

操作ユニット13は、ゲーム用操作ボタンや、設定用ボタンなどを含む。この操作ユニット13に含まれる各種ボタン等を操作することで、プレイヤは、ゲームの操作を行うことになる。操作ユニット13は、プレイヤの操作の内容を表す信号を、インタフェースユニット12に出力する。   The operation unit 13 includes game operation buttons, setting buttons, and the like. By operating various buttons and the like included in the operation unit 13, the player operates the game. The operation unit 13 outputs a signal representing the content of the player's operation to the interface unit 12.

無線通信モジュール14は、例えば802.11bまたはg等として規定された無線通信機器であり、制御部11から入力される指示に従って、送信対象となるデータを無線にて放射して送信する。また、アンテナ(不図示)に到来した信号を受信して、制御部11に出力する。   The wireless communication module 14 is a wireless communication device defined as, for example, 802.11b or g, and radiates and transmits data to be transmitted wirelessly in accordance with an instruction input from the control unit 11. Further, a signal arriving at an antenna (not shown) is received and output to the control unit 11.

ディスクドライブ15は、制御部11から入力される指示により、セットされた外部記憶媒体Mからデータを読み出して、制御部11に出力する。記憶部16は、RAMやROMなどの記憶素子であり、制御部11によって実行されるプログラムを保持し、また、制御部11のワークメモリとしても動作する。   The disk drive 15 reads data from the set external storage medium M according to an instruction input from the control unit 11 and outputs the data to the control unit 11. The storage unit 16 is a storage element such as a RAM or a ROM, holds a program executed by the control unit 11, and also operates as a work memory of the control unit 11.

電源制御部17は、各部に電源を供給する。画像処理ユニット18は、制御部11から入力される指示に従って、ディスプレイ19に表示するべき画面を描画し、当該描画した画面を表示するための映像信号をディスプレイ19に出力する。ディスプレイ19は、例えば液晶ディスプレイであり、画像処理ユニット18から入力される映像信号に基づいて液晶を制御して、映像を表示する。   The power control unit 17 supplies power to each unit. The image processing unit 18 draws a screen to be displayed on the display 19 in accordance with an instruction input from the control unit 11, and outputs a video signal for displaying the drawn screen to the display 19. The display 19 is a liquid crystal display, for example, and controls the liquid crystal based on the video signal input from the image processing unit 18 to display a video.

音声処理ユニット20は、制御部11から入力される指示に従って、音声を合成し、合成した音声の信号を音声出力部21に出力する。ここで音声は、例えばビープ音や楽器音、さらには、人の声など種々の音を表すものである。音声出力部21は、例えばスピーカやヘッドフォン端子などであり、音声処理ユニット20から入力される音声の信号に基づいてスピーカを鳴動し、または、当該音声の信号をヘッドフォン端子に出力する。   The voice processing unit 20 synthesizes voice according to instructions input from the control unit 11 and outputs a synthesized voice signal to the voice output unit 21. Here, the sound represents various sounds such as a beep sound, a musical instrument sound, and a human voice. The audio output unit 21 is, for example, a speaker or a headphone terminal, and sounds the speaker based on the audio signal input from the audio processing unit 20 or outputs the audio signal to the headphone terminal.

音声入力部22は、例えばマイクロフォンであり、周辺の音声を電気信号である音声信号に変換して出力する。   The voice input unit 22 is, for example, a microphone, and converts surrounding voice into a voice signal that is an electrical signal and outputs the voice signal.

[データベースの内容]
本実施の形態では、データベースには、発話文データベースと、応答文データベースと、応答文テーブルと、被指示単語リストとが少なくとも格納されている。ここで、各データベースを以下に例示する。
Database contents
In this embodiment, the database stores at least an utterance sentence database, a response sentence database, a response sentence table, and a commanded word list. Here, each database is exemplified below.

(1)発話文データベース
まず、発話文データベースは、図2に示すように、日本語、英語…といった各国語ごとの発話文実体テーブルグループGを含む。発話文実体テーブルグループGには、さらに、「空港・機内」、「買い物」…などといったシーン識別子ごとに、発話文実体テーブルTが含まれている。
(1) Sentence sentence database First, the utterance sentence database includes an utterance sentence entity table group G for each national language such as Japanese, English, etc., as shown in FIG. The utterance sentence entity table group G further includes an utterance sentence entity table T for each scene identifier such as “airport / in-flight”, “shopping”, etc.

この発話文実体テーブルでは、発話文識別子に対して発話文の実体と音声データとキーワードとが関連づけて記録されている。ここで発話文の実体とは、現実に発話されるべき文を記述した文字列であり、また、音声データは、この文字列を各国語で発声したときの音声を記録したデータである。この音声データは、例えばMP3やAIFFなど各種音声データのフォーマットで記録しておく。さらにキーワードは、発話文の受け入れ方法として音声入力をする場合に必要となるものであり、音声入力をしない場合は、この情報は必ずしも必要でない。具体的な例として、このキーワードは、音声認識時に比較の対象となる音素データで構わない。また、このキーワードは、例えば発話文の実体の一部であってもよい。つまり、発話文の実体が、
「この店の定休日はいつですか?」
であるとすると、キーワードとしては、
「店」、「定休日」、「いつ」
などが挙げられる。さらに、キーワードとしては、この発話文に関連して発声される可能性のある語であってもよい。例えば、上述の「この店の定休日はいつですか?」の例でいえば、「定休日」の類語としての、
「休み」、「閉まっている日」、
などといった表現をキーワードとして含んでもよい。
In the utterance sentence entity table, an utterance sentence entity, voice data, and a keyword are recorded in association with an utterance sentence identifier. Here, the substance of the spoken sentence is a character string that describes a sentence to be actually spoken, and the voice data is data that records a voice when the character string is spoken in each language. This audio data is recorded in various audio data formats such as MP3 and AIFF. Furthermore, the keyword is necessary when voice input is performed as a method of accepting an utterance, and this information is not necessarily required when voice input is not performed. As a specific example, this keyword may be phoneme data to be compared during speech recognition. Moreover, this keyword may be a part of the substance of the utterance sentence, for example. In other words, the substance of the spoken sentence is
“When is this shop closed?”
As a keyword,
"Store", "Regular holiday", "When"
Etc. Further, the keyword may be a word that may be uttered in relation to the utterance sentence. For example, in the example of “When is this shop's regular holiday?”, As a synonym for “regular holiday”,
"Closed", "Closed day",
Such expressions may be included as keywords.

なお、各発話文実体テーブルTは、それぞれのシーン識別子によって識別されるシーンごとに利用されると想定される発話文に係る情報を予め登録しておく。   Each utterance sentence entity table T registers in advance information related to an utterance sentence assumed to be used for each scene identified by each scene identifier.

(2)応答文データベース
応答文データベースは、この発話文データベースと同様のものであり、日本語、英語…といった各国語ごとの応答文実体テーブルを含む。応答文実体テーブルでは、応答文識別子に対して応答文の実体が関連づけて記録されている。ここで応答文の実体とは、現実に発話されるべき文を記述した文字列である。また、本実施の形態では、日本語、英語…といった各国語ごとに、応答文に対応する音声データ(応答音声データ)と、当該応答音声データの識別子とを関連づけたテーブル(応答音声データテーブル)をデータベースに記録しておいてもよい。この場合、応答文実体テーブルには、各応答文識別子に対応する応答音声データの識別子を関連づけて含めてもよい(図3)。
(2) Response sentence database The response sentence database is similar to the utterance sentence database, and includes a response sentence entity table for each national language such as Japanese, English, and so on. In the response sentence entity table, the response sentence entity is recorded in association with the response sentence identifier. Here, the entity of the response sentence is a character string describing a sentence to be actually spoken. In the present embodiment, for each national language such as Japanese, English,..., A table (response voice data table) in which voice data corresponding to a response sentence (response voice data) and an identifier of the response voice data are associated with each other. May be recorded in a database. In this case, an identifier of response voice data corresponding to each response statement identifier may be included in the response statement entity table in association with each other (FIG. 3).

(3)応答文テーブル
応答文テーブルは、図4に示すように、発話文識別情報としての発話文識別子と、それによって識別される発話文に対する想定応答として予め列挙された応答文リストと、肯定または否定を表す単語による応答の可否を示す特定応答可否情報とを関連づけたものである。
(3) Response sentence table As shown in FIG. 4, the response sentence table includes an utterance sentence identifier as utterance sentence identification information, a response sentence list enumerated in advance as an assumed response to the utterance sentence identified thereby, Alternatively, it is associated with specific response availability information indicating whether or not a response with a word representing negation is possible.

具体的な例として、発話文、
「この店の定休日はいつですか?」
に対する発話文識別子には、
「日曜です」や「いつでも開いています」、などといった応答文のリストが関連づけられる。本実施の形態では、応答文のリストとして、応答文そのものではなく、応答文識別子が関連づけられている。
Specific examples include utterances,
“When is this shop closed?”
The spoken sentence identifier for
A list of response sentences such as “It is Sunday” or “I am always open” is associated. In the present embodiment, a response statement identifier is associated as a list of response statements, not the response statement itself.

さらに、上記例の「この店の定休日はいつですか?」には、「はい」、「いいえ」といった、肯定または否定を表す単語による応答ができないので、特定応答可否情報として、当該応答が不能である旨の情報(「N」)が関連づけられている。   Furthermore, in the above example, “When is this store's regular holiday?”, It is not possible to respond with a word indicating affirmation or denial such as “Yes” or “No”. Information (“N”) indicating that it is impossible is associated.

例えば別の例として、「はい」や「いいえ」で答えることのできる発話文、
「もう少し安くなりませんか?」
に対する発話文識別子には、
「だめです」や「店長に相談してきます」などといった応答文のリスト(それぞれの応答文に対応する応答文識別子)が関連づけられるとともに、特定応答可否情報として、肯定または否定を表す単語による応答が可能である旨の情報(「Y」)が関連づけられている。
For example, another example is an utterance that can be answered with “yes” or “no”,
“Would it be a little cheaper?”
The spoken sentence identifier for
A list of response sentences (response sentence identifiers corresponding to each response sentence) such as “No” or “I will consult with the store manager” is associated, and a response with a word indicating affirmation or denial as specific response availability information Information indicating that it is possible ("Y") is associated.

(4)被指示単語リスト
被指示単語リストは、図5に示すように、「空港・機内」、「買物」…などといった、発話文データベースにおけるのと同じシーン識別子ごとに、各シーンで指示語によって表現される可能性のあるものに対応する単語が列挙されて登録される。なお、各単語には、各国語での表現が文字列として互いに関連付けて保持されている。
(4) Instructed word list As shown in FIG. 5, the instructed word list includes an instruction word in each scene for each same scene identifier in the speech database such as “airport / in-flight”, “shopping”, etc. Words corresponding to those that may be expressed by are enumerated and registered. Each word holds a representation in each language as a character string in association with each other.

なお、ここで指示語は「これ」、「あれ」、「それ」のような語で代替される単語である。また、被指示単語は、指示語で表現され得る単語である。例えば「ホテル」のシーンにおいては、ホテル内の設備として、「テレビ」、「電話」、「インターネット接続用端子」…などといった設備が、指示語で表現され得るので、これらの単語を被指示単語リストに登録しておく。   Here, the instruction word is a word that is replaced by a word such as “this”, “that”, or “it”. In addition, the instruction word is a word that can be expressed by an instruction word. For example, in the “hotel” scene, facilities such as “television”, “telephone”, “internet connection terminal”, etc. can be expressed as instructions in the hotel, so these words are designated words. Register in the list.

(5)データベースの格納
本実施の形態では、これらのデータベースが、外部記憶媒体Mに格納され、ディスクドライブ15を介して、制御部11からアクセス可能であるようになっている。
(5) Database Storage In the present embodiment, these databases are stored in the external storage medium M and can be accessed from the control unit 11 via the disk drive 15.

[発話文の受け入れ]
本実施の形態の会話支援装置は、会話の当事者が交互に操作して会話を成立させる。一般的に会話を開始するための発話をする側(発話者側)と、それに対する応答を行う側(応答者側)との間で交互に操作を行うこととなる。発話者側は予め、自分の利用する言語と、応答者の利用する言語とを選択する指示操作を行っておく。制御部11は、当該指示操作を受けて、発話者側言語を表す情報(質問側言語情報)と、応答者側言語を表す情報(応答側言語情報)とを記憶部16に格納する。
[Accept speech]
In the conversation support apparatus according to the present embodiment, conversation parties operate alternately to establish a conversation. In general, an operation is alternately performed between a side that speaks to start a conversation (speaker side) and a side that responds to the side (responder side). The speaker side performs in advance an instruction operation for selecting the language used by the speaker and the language used by the responder. In response to the instruction operation, the control unit 11 stores information representing the speaker side language (question side language information) and information representing the responder side language (response side language information) in the storage unit 16.

また、発話者は、利用する場面(シーン)を選択しておく。この選択は、発話文データベースにおけるシーン識別子に対応するシーンのいずれかを選択するものとする。制御部11は、発話者の選択したシーンを特定する、シーン識別情報を記憶部16に格納する。   In addition, the speaker selects a scene to be used. This selection shall select one of the scenes corresponding to the scene identifier in the utterance sentence database. The control unit 11 stores scene identification information for specifying the scene selected by the speaker in the storage unit 16.

本実施の形態において、制御部11が会話支援装置として行う処理は、機能的には、図6に示すように、発話文受入部31と、発話文候補選択部32と、発話文候補提示部33と、応答文候補検索部34と、応答文候補追加部35と、応答文候補提示部36と、応答出力部37とを含んで構成されている。   In the present embodiment, the processing performed by the control unit 11 as a conversation support device is functionally performed as shown in FIG. 6, an utterance sentence accepting unit 31, an utterance sentence candidate selection unit 32, and an utterance sentence candidate presentation unit. 33, a response sentence candidate search unit 34, a response sentence candidate addition unit 35, a response sentence candidate presentation unit 36, and a response output unit 37.

発話者は、例えば音声入力部22に対して発声して、発話文を入力する。発話文受入部31は、音声入力部22から入力される音声信号と、発話文データベースに登録されているキーワードに係る音素のデータとを比較して、入力された発話文に含まれているキーワードを検出する。この処理は、音声認識の処理として一般的な処理をそのまま利用できるので、ここでの詳しい説明を省略する。   For example, the speaker utters to the voice input unit 22 and inputs an utterance sentence. The utterance sentence receiving unit 31 compares the voice signal input from the voice input unit 22 with the phoneme data related to the keyword registered in the utterance sentence database, and the keyword included in the input utterance sentence. Is detected. Since this process can use a general process as a voice recognition process as it is, a detailed description thereof is omitted here.

なお、発話文受入部31は、操作ユニット13を介して、文字列のデータとして発話文の入力を受け入れてもよい。この場合も発話文受入部31は、当該文字列のデータとして入力された発話文に含まれているキーワードを検出する。この処理も、文字列の一致を検索する処理として広く知られているので、その詳細な説明を省略する。   Note that the utterance sentence accepting unit 31 may accept an input of an utterance sentence as character string data via the operation unit 13. Also in this case, the utterance sentence receiving unit 31 detects a keyword included in the utterance sentence input as the data of the character string. Since this process is also widely known as a process for searching for a character string match, a detailed description thereof will be omitted.

そして発話文候補選択部32は、当該検出されたキーワードを受けて、選択された言語(質問側言語情報に対応する言語)及び選択されたシーンに対応する発話文実体テーブルを参照して、発話文ごとに、関連づけられているキーワードのうち、検出されたキーワードがいくつあるかをカウントする。   Then, the utterance sentence candidate selection unit 32 receives the detected keyword, refers to the utterance sentence entity table corresponding to the selected language (the language corresponding to the question side language information) and the selected scene, and uttered. For each sentence, the number of detected keywords among the associated keywords is counted.

例えば、
「この店、いつがお休みなのかな」
といった会話調の質問が入力された場合、制御部11は、ここから、「店」、「いつ」、「休み」のキーワードを検出する。このとき、
「この店の定休日はいつですか?」
との発話文に対して、「店」、「定休日」、「休み」、「いつ」といったキーワードが関連づけられている場合、当該「この店の定休日はいつですか?」の発話文については、カウントは「3」ということになる。
For example,
"When is this shop closed?"
When the conversation-like question is input, the control unit 11 detects the keywords “store”, “when”, and “rest” from here. At this time,
“When is this shop closed?”
If the keywords such as “store”, “regular holiday”, “vacation”, and “when” are associated with the utterance statement, the utterance sentence of “When is this shop regular holiday?” Will have a count of “3”.

また、
「この店は、日本にもありますか?」
との発話文に対して、「店」、「日本」、「ある」といったキーワードが関連づけられている場合、上記質問から検出されたキーワードのうち「店」が一致するのみであるので、カウントは「1」となる。
Also,
“Is this store also in Japan?”
Is associated with keywords such as “Store”, “Japan”, and “Yes”, only “Store” matches the keywords detected from the above question. “1”.

また、ここでは、検出したキーワードの数によって発話文候補を選択する例について述べたが、文に現れる発音内容のうち、認識しやすい一部をキーワードとして設定しておき、当該キーワードが検出されるか否かによって発話文候補を選択してもよい。すなわち、この場合は、例えば「バーはどこですか」のような発話文候補に対するキーワードとして、例えば「バー」、「酒飲める(can drink)」、「バーどこ(where’s the bar)」のようなキーワードを割り当てておく。   Also, here, an example has been described in which an utterance sentence candidate is selected according to the number of detected keywords. However, among the pronunciation contents that appear in the sentence, a part that is easy to recognize is set as a keyword, and the keyword is detected. An utterance sentence candidate may be selected depending on whether or not. That is, in this case, for example, keywords such as “bar”, “can drink”, and “where's the bar” are keywords for speech sentence candidates such as “where is the bar”. Is assigned.

発話文受入部31は、操作ユニット13を介して、文字列のデータとして発話文の入力を受け入れ、当該文字列のデータとして入力された発話文に含まれているキーワードを検出する。そして発話文候補選択部32は、当該検出されたキーワードを受けて、選択された言語(質問側言語情報に対応する言語)及び選択されたシーンに対応する発話文実体テーブルを参照して、発話文ごとに、関連づけられているキーワードと比較し、検出したキーワードに一致する発話文を特定する情報を、発話文候補提示部33に出力する。   The utterance sentence accepting unit 31 accepts an input of an utterance sentence as character string data via the operation unit 13 and detects a keyword included in the utterance sentence input as the character string data. Then, the utterance sentence candidate selection unit 32 receives the detected keyword, refers to the utterance sentence entity table corresponding to the selected language (the language corresponding to the question side language information) and the selected scene, and uttered. For each sentence, the information is compared with the associated keyword, and information specifying the utterance sentence that matches the detected keyword is output to the utterance sentence candidate presentation unit 33.

[発話文候補の提示]
発話文候補提示部33は、発話文候補選択部32から入力される情報に基づいて、発話文を選択し、選択した発話文を注目発話文として、当該注目発話文の文字列を、発話文実体テーブルから読み出す。そして当該読み出した文字列を、ディスプレイ19に表示するよう、画像処理ユニット18に指示する。
[Presentation of spoken sentence candidates]
The utterance sentence candidate presentation unit 33 selects an utterance sentence based on the information input from the utterance sentence candidate selection unit 32, and uses the selected utterance sentence as the attention utterance sentence, and converts the character string of the attention utterance sentence into the utterance sentence. Read from the entity table. Then, the image processing unit 18 is instructed to display the read character string on the display 19.

例えば、発話文候補選択部32が、キーワードのカウント数を出力する場合、カウントが最大となっている発話文を注目発話文として選択する。この例の場合、「この店、いつがお休みなのかな」の質問に対して、「この店の定休日はいつですか?」の発話文についてカウントが最大となるとすると、この
「この店の定休日はいつですか?」
という発話文が、ディスプレイ19に表示される。
For example, when the utterance sentence candidate selecting unit 32 outputs the keyword count, the utterance sentence having the maximum count is selected as the attention utterance sentence. In this example, for the question “When is this shop closed?”, If the maximum number of utterances of “When is this shop closed?” When is a regular holiday? "
Is displayed on the display 19.

同様に、検出したキーワードに関連づけられた発話文を見いだして、当該見いだした発話文を特定する情報が出力される場合は、当該情報によって特定される発話文を注目発話文として選択する。この例では、例えば「お酒飲めるところ、ないかな」の質問に対して、「酒飲める」のキーワードが検出され、「バーはどこですか」の発話文が見いだされて、この「バーはどこですか」の発話文を特定する情報が出力される。そこで、この
「バーはどこですか」
という発話文が、ディスプレイ19に表示される。
Similarly, when an utterance sentence associated with the detected keyword is found and information specifying the found utterance sentence is output, the utterance sentence specified by the information is selected as an attention utterance sentence. In this example, for example, in response to the question “Where can I drink?”, The keyword “I can drink” is detected, and the utterance sentence “Where is the bar” is found, and this “Where is the bar?” "Is specified. So this "where is the bar"
Is displayed on the display 19.

また発話文候補提示部33は、このとき、発話者に対して、選択された注目発話文が、質問の意図に沿ったものであるか否かを選択させる。ここで発話者が、質問の意図に沿ったものでないとの指示操作を行った場合、制御部11は、処理を中断して、質問の入力を待機する。   At this time, the utterance sentence candidate presenting unit 33 causes the utterer to select whether or not the selected attention utterance sentence is in line with the intention of the question. Here, when the speaker performs an instruction operation that does not conform to the intention of the question, the control unit 11 interrupts the process and waits for the input of the question.

一方発話者が、注目発話文が、意図に沿ったものであるとの指示操作を行った場合、制御部11は、応答者側言語情報を参照して、応答者側の言語に対応して、注目発話文に関連づけられている音声情報を読み出す。そして当該音声情報を音声処理ユニットに出力する。例えば、応答者側言語として「英語」が設定されている場合は、「この店の定休日はいつですか?」との発話文に対応する英語の音声が再生され、スピーカーを介して鳴動される。   On the other hand, when the speaker performs an instruction operation that the attention utterance is in line with the intention, the control unit 11 refers to the responder side language information and corresponds to the language on the responder side. The voice information associated with the attention utterance is read out. Then, the audio information is output to the audio processing unit. For example, if “English” is set as the responder's language, the English voice corresponding to the utterance sentence “When is this store's regular holiday?” Is played and played through the speaker. The

[指示語に係る処理]
なお、発話文候補提示部33は、発話文受入部31が検出したキーワードに、「これ」、「あれ」、「それ」といった、予め定められた指示語が含まれている場合、この指示語に関連する処理を実行してもよい。なお、この指示語も各国語ごとに予め定めておく。
[Processing for instructions]
The utterance sentence candidate presenting unit 33, when the keyword detected by the utterance sentence accepting unit 31 includes a predetermined instruction word such as “this”, “that”, “it”, etc. You may perform the process relevant to. This instruction word is also predetermined for each language.

この処理では、発話文候補提示部33は、予め定められた指示語が、検出されたキーワードに含まれている場合に、選択されているシーンのシーン識別子に対応する被指示単語リストを、ディスプレイ19に表示させる。この処理は、例えば利用者が注目発話文が意図通りのものであるとの指示操作をした後で行ってもよい。   In this process, the utterance sentence candidate presenting unit 33 displays an instruction word list corresponding to the scene identifier of the selected scene when a predetermined instruction word is included in the detected keyword. 19 is displayed. This processing may be performed, for example, after the user performs an instruction operation that the noticed utterance is as intended.

具体的な例を挙げると、例えば利用者がシーンとして「ホテル」を選択しているとき、
「これ、ありますか?」
との質問を入力すると、「これ」、「ありますか」がそれぞれキーワードとして検出され、「これがありますか?」のような発話文が注目発話文として選択されることになる。
For example, when the user selects “Hotel” as the scene,
"Is this there?"
Is input as a keyword, and an utterance sentence such as “Is this available?” Is selected as an attention utterance sentence.

このとき発話文候補提示部33は、「ホテル」のシーン識別子に対応する被指示単語リストとして、データベースに格納されている、単語の一覧をディスプレイ19に表示する。これにより、ディスプレイ19には、ホテル内の設備として、「テレビ」、「電話」、「インターネット接続用端子」…などの単語が列挙される。発話者は、このうちの一つを選択する指示操作を行う。   At this time, the utterance sentence candidate presenting unit 33 displays a list of words stored in the database as a directed word list corresponding to the scene identifier of “hotel” on the display 19. As a result, words such as “TV”, “telephone”, “Internet connection terminal”,... Are listed on the display 19 as facilities in the hotel. The speaker performs an instruction operation to select one of them.

この場合、制御部11は、応答者側言語情報を参照して、応答者側の言語に対応して、注目発話文に関連づけられている音声情報を読み出す。そして当該音声情報を音声処理ユニット20に出力するとともに、ディスプレイ19に、選択された被指示単語のうち、応答者側の言語に対応する単語が表示される。   In this case, the control unit 11 refers to the responder side language information, and reads out the speech information associated with the noticed utterance corresponding to the responder side language. Then, the voice information is output to the voice processing unit 20, and the word corresponding to the language on the responder side is displayed on the display 19.

例えば、上記ホテル内の例で、利用者が「テレビ」を選択した場合、スピーカからは、「これがありますか?」との発話文に対応する、応答者側言語の音声が鳴動されるとともに、ディスプレイには、応答者側言語で、「テレビ」に対応する単語が表示される。   For example, in the above hotel example, when the user selects “TV”, the speaker responds to the spoken sentence “Do you have this?” The word corresponding to “TV” is displayed on the display in the responder side language.

[複数候補]
さらに発話文候補提示部33は、カウントが最大となっている発話文や、検出したキーワードに一致する発話文など、選択するべき発話文の候補が複数ある場合に、当該複数の候補の発話文の一覧を提示して、発話者に選択させてもよい。
[Multiple candidates]
Further, the utterance sentence candidate presenting unit 33, when there are a plurality of utterance sentence candidates to be selected, such as the utterance sentence having the maximum count or the utterance sentence matching the detected keyword, the utterance sentence of the plurality of candidates. May be presented to the speaker for selection.

さらに、このようにキーワードに基づく選択において一斉に選択されやすい複数の発話文(以下、類似発話文グループと呼ぶ)に対して、予めデータベースの発話文実体テーブル上で、類似発話文グループごとに固有のグループ識別子を関連付けてもよい。   Furthermore, for a plurality of utterances that are easy to be selected at the same time in the selection based on keywords (hereinafter referred to as similar utterance sentence groups), each of the similar utterance sentence groups on the utterance sentence entity table of the database is previously specified. Group identifiers may be associated.

例えば、「空港・機内」のシーンにおいて、
「通路側の席に移りたいのですが」
「窓側の席に移りたいのですが」
「他の空いている席に移りたいのですが」
の3つの発話文では、いずれも「席」、「移りたい」といったキーワードが関連付けられ、このため、検出されたキーワードに係るカウントが同数となりやすい。そこで、これらに互いに共通のグループ識別子を関連付けておく。
For example, in the “Airport / Inflight” scene,
“I want to move to the seat on the aisle.”
“I want to move to the window seat”
“I want to move to another vacant seat”
In these three utterance sentences, keywords such as “seat” and “want to move” are associated with each other, and therefore, the counts relating to the detected keywords are likely to be the same. Therefore, a common group identifier is associated with them.

また、データベースには、グループ識別子ごとに、各国語での反対質問文と選択肢と各選択肢ごとの発話文識別子とを関連付けたテーブル(反対質問文テーブル)を記録しておく(図7)。   Further, a table (opposite question sentence table) in which the opposite question sentence in each language, the options, and the utterance sentence identifier for each option are associated is recorded in the database (FIG. 7).

そして発話文候補提示部33は、カウントが最大となっている発話文が複数ある場合に、各発話文に関連付けられたグループ識別子を参照し、それらが互いに共通であるか否かを調べる。ここで互いに共通であると、発話文候補提示部33は、当該グループ識別子に関連付けて、反対質問文テーブルに登録されている反対質問文及び選択肢のうち、発話者側言語に対応するものを選択的に読み出して、当該反対質問文をディスプレイ19に表示し、及び/又は、反対質問文の音声を音声処理ユニット20に出力して鳴動させる。また、選択肢をディスプレイ19に表示して、発話者に選択させる。   Then, when there are a plurality of utterance sentences with the maximum count, the utterance sentence candidate presenting unit 33 refers to the group identifier associated with each utterance sentence and checks whether they are common to each other. Here, if they are common to each other, the utterance sentence candidate presenting unit 33 selects the one corresponding to the speaker side language among the opposite question sentences and options registered in the opposite question sentence table in association with the group identifier. The counter question message is displayed on the display 19 and / or the voice of the counter question message is output to the voice processing unit 20 to sound. Also, the options are displayed on the display 19 and the speaker is selected.

例えば発話者が、
「席を移りたいんだけど」
といった音声で質問を入力すると、「席」、「移りたい」とのキーワードが検出される。そして、これら検出されたキーワードに対するカウントが、上述の例のように、
「通路側の席に移りたいのですが」
「窓側の席に移りたいのですが」
「他の空いている席に移りたいのですが」
の3つの発話文のすべてについて「2」となって最大となる。
For example, if the speaker
"I want to move my seat"
When a question is input with such voices, the keywords “seat” and “want to move” are detected. And the counts for these detected keywords are as in the example above:
“I want to move to the seat on the aisle.”
“I want to move to the window seat”
“I want to move to another vacant seat”
For all three utterances, “2” is the maximum.

発話文候補提示部33は、これらの発話文に関連付けられたグループ識別子が、すべて同一(共通)であるので、このグループ識別子に関連付けられた反対質問文と選択肢とを読み出す。このとき、発話者側言語が日本語であれば、日本語の反対質問文と選択肢とが読み出される。   Since all the group identifiers associated with these utterances are the same (common), the utterance sentence candidate presenting unit 33 reads the opposite question sentence and the option associated with the group identifier. At this time, if the language on the speaker side is Japanese, the opposite question sentence in Japanese and the option are read out.

例えば、この反対質問文は、「どの席に移りたい?」のように、発話文候補に合わせて予め作文しておく。また、各選択肢は、上記3つの発話文に対応して、「通路側」、「窓側」、「他の空いている席」、といったように表示する。   For example, the opposite question sentence is written in advance according to the utterance sentence candidate, such as “Which seat do you want to move to?”. Each option is displayed in correspondence with the above three utterances, such as “passage side”, “window side”, “other vacant seats”, and the like.

発話者がこれら選択肢のうちから、一つを選択する指示操作を行うと、発話文候補提示部33は、当該選択された選択肢に対応づけて登録されている発話文識別子を読み出す。また、発話文候補提示部33は、応答者側言語情報を参照して、当該読み出した発話文識別子に関連付けられ、かつ応答者側の言語に対応する音声情報を読み出す。そして当該音声情報を音声処理ユニットに出力する。   When the speaker performs an instruction operation to select one of these options, the utterance sentence candidate presenting unit 33 reads an utterance sentence identifier registered in association with the selected option. Further, the utterance sentence candidate presenting unit 33 refers to the responder side language information, and reads out speech information associated with the read utterance sentence identifier and corresponding to the responder side language. Then, the audio information is output to the audio processing unit.

これにより例えば、上記選択肢から「通路側」を発話者が選択したときに、
「通路側の席に移りたいのですが」
の発話文に対応する音声情報が鳴動される。
Thus, for example, when the speaker selects “Aisle side” from the above options,
“I want to move to the seat on the aisle.”
Voice information corresponding to the utterance sentence is sounded.

[感情レベル表現]
さらに発話文候補提示部33は、発話者の指示により発話文を強調する表現を追加してもよい。この場合、外部記憶媒体Mに格納するデータベースに、強調表現単語リストとして、各国語での強調表現の単語と、対応する音声のデータとを関連付けて格納しておく。この場合において、音声の表現としては、同じ「すごく…(extremely)」を意味する単語であっても、「すごく、美味しい」のように陽気に、あるいは肯定的に表現する場合と、(体調などが)「すごく、悪い」のように陰気に、否定的に表現する場合とでは異なる。そこで、この強調表現単語リストでは、図8に示すように、各国語ごとに、強調表現の単語と、対応する音声データとして、肯定的な場合の音声データと、否定的な場合の音声データとをそれぞれ関連付けておく。図8では、強調表現の単語として、「ちょっと」、「まあまあ」、「かなり」、「すごく」の4種類が示されている。
[Emotion level expression]
Further, the utterance sentence candidate presenting unit 33 may add an expression that emphasizes the utterance sentence according to an instruction of the speaker. In this case, in the database stored in the external storage medium M, the emphasized expression word list and the corresponding voice data are stored in association with each other as the emphasized expression word list. In this case, as a voice expression, even if it is the same word meaning “extremely”, it may be expressed cheerfully or positively as “very delicious” (such as physical condition) It is different from expressing it negatively or negatively like “very bad”. Therefore, in this emphasis expression word list, as shown in FIG. 8, for each language, the emphasis expression word and the corresponding sound data include sound data in the positive case, sound data in the negative case, Are associated with each other. In FIG. 8, four types of words “high”, “so-so”, “pretty”, and “very” are shown as highlighted words.

発話文候補提示部33は、注目発話文が所望のものであるか否かを入力させる画面において、これら強調表現を選択させる。なお、利用者が強調表現を選択しない場合は、既に説明した動作を行う。また、強調表現を選択する際には、まず、肯定的か、否定的かを選択させ、さらに、データベースに登録されている強調表現の単語の一覧を提示して、どの強調表現を用いるかを選択させる。   The utterance sentence candidate presenting unit 33 selects these emphasized expressions on a screen for inputting whether or not the attention utterance sentence is a desired one. If the user does not select the emphasized expression, the operation described above is performed. Also, when selecting an emphasis expression, first select either positive or negative, then present a list of emphasis expression words registered in the database and determine which emphasis expression to use. Let them choose.

これによると、例えば注目発話文が「おいしいです。」の場合に、発話者が、肯定的で、かつ、「すごく」を選択すると、「おいしいです」に対応する応答者側言語の文が発声されるとともに、肯定的な表現での、「すごく」に対応する応答者側言語の音声データに基づく音声の鳴動が行われる。   According to this, for example, when the attention utterance is “delicious”, if the speaker is positive and selects “very”, the sentence in the responder side corresponding to “delicious” is uttered. At the same time, a sound is produced based on the speech data of the responder side language corresponding to “very” in a positive expression.

なお、発話文テーブルにおいて、各発話文について、こうした強調表現が可能であるか否かを表すフラグを関連付けておき、強調表現が可能であるとのフラグに関連付けられた発話文が注目発話文となっている場合にのみ、上記処理を行うようにしてもよい。   In the utterance sentence table, for each utterance sentence, a flag indicating whether or not such emphasized expression is possible is associated, and the utterance sentence associated with the flag that the emphasis expression is possible is the attention utterance sentence. The above processing may be performed only in the case where

もっとも、例えば「テレビはありますか?」との発話文について、「とても」との強調表現を入れることで、コミカルな会話となり、当事者間の雰囲気をよりよい方向に誘導することもできるようになるので、文法的ないし意味論的に強調表現が可能であるか否かに関わらず、強調表現の単語を選択可能としておいてもよい。   However, for example, by adding an emphasis expression of “very” to the utterance sentence “Is there a TV?”, It becomes a comical conversation, and the atmosphere between the parties can be guided in a better direction. Therefore, it is possible to select a word of emphasized expression regardless of whether the emphasized expression is possible grammatically or semantically.

[応答文の提示]
発話文候補提示部33が発話文に対応する音声情報を鳴動する等の処理を完了すると、応答文候補検索部34の処理が開始される。
[Present response]
When the utterance sentence candidate presentation unit 33 completes the process of ringing voice information corresponding to the utterance sentence, the process of the response sentence candidate search unit 34 is started.

応答文候補検索部34は、発話文候補提示部33において鳴動された発話文の発話文識別子の入力を受け、データベースを参照して、当該発話文識別子に関連付けて、応答文テーブルに記録されている応答文リストのうち、応答者側言語に対応するものを取得する。   The response sentence candidate search unit 34 receives the input of the utterance sentence identifier of the utterance sentence sung by the utterance sentence candidate presentation unit 33, refers to the database, and is recorded in the response sentence table in association with the utterance sentence identifier. The response sentence list corresponding to the responder side language is acquired.

応答文候補追加部35は、発話文候補提示部33において鳴動された発話文の発話文識別子の入力を受け、データベースを参照して、当該発話文識別子に関連付けられた特定応答可否情報を取得する。そして、当該特定応答可否情報が、肯定または否定を表す単語による応答が可能である旨の情報(「Y」)である場合は、応答文候補検索部34が取得した応答文リストに、応答者側言語における、肯定、否定を表す単語を追加して出力する。ここで肯定、否定を表す単語とは、例えば英語であれば、「Yes」や「No」といった単語である。   The response sentence candidate adding unit 35 receives the input of the utterance sentence identifier of the utterance sentence sung in the utterance sentence candidate presenting part 33, and refers to the database to acquire the specific response availability information associated with the utterance sentence identifier. . If the specific response availability information is information (“Y”) indicating that a response with a word indicating affirmation or denial is possible, the responder is included in the response message list acquired by the response message candidate search unit 34. Add words that indicate affirmation or denial in the side language and output. Here, the word indicating affirmation or negation is a word such as “Yes” or “No” in English, for example.

また、応答文候補追加部35は、取得した特定応答可否情報が、肯定または否定を表す単語による応答が不能である旨の情報(「N」)である場合は、応答文候補検索部34が取得した応答文リストをそのまま出力する。   In addition, when the acquired specific response availability information is information (“N”) indicating that the response with a word indicating affirmation or denial is impossible, the response sentence candidate adding unit 35 determines that the response sentence candidate searching unit 34 The acquired response sentence list is output as it is.

応答文候補提示部36は、応答文候補追加部35が出力する応答文リストに基づいて、応答文の文字列を応答文データベースから取得し、応答文の文字列をディスプレイ19に表示させる。   The response sentence candidate presenting unit 36 acquires the response sentence character string from the response sentence database based on the response sentence list output by the response sentence candidate adding unit 35 and causes the display 19 to display the response sentence character string.

そして応答者は、ディスプレイ19に表示された応答文の文字列から、応答文の一つを選択して、発声する。なお、このとき、応答文の一つを選択する指示操作を行わせて、応答出力部37が、当該選択された応答文に対応する応答音声データのうち、発話者側言語に対応する応答音声データを読み出して、音声処理ユニット20に出力し、応答音声データに基づく音声がスピーカを介して鳴動されるようにしてもよい。   Then, the responder selects one of the response sentences from the character string of the response sentence displayed on the display 19 and speaks. At this time, an instruction operation for selecting one of the response sentences is performed, and the response output unit 37 responds to the speaker side language among the response voice data corresponding to the selected response sentence. The data may be read out and output to the voice processing unit 20, and a voice based on the response voice data may be played through a speaker.

また、応答者が、音声入力部22に対して応答文の一つを読み上げ、制御部11が当該入力された音声から、どの応答文が音声入力されたかを判断して、当該判断結果をディスプレイ19に表示してもよい。この場合も音声認識のために、応答文ごとに音声認識のキーワードを関連付けておき、表示した応答文の候補のうち、入力された音声に含まれるキーワードが最も多く関連付けられた応答文が読み上げられたものと判断するようにしてもよい。   Also, the responder reads out one of the response sentences to the voice input unit 22, the control unit 11 determines which response sentence is input from the input voice, and displays the determination result. 19 may be displayed. In this case as well, for speech recognition, a speech recognition keyword is associated with each response sentence, and among the displayed response sentence candidates, the response sentence associated with the most keywords included in the input speech is read out. You may make it judge that it was.

[動作]
本発明の実施の形態の会話支援装置は、上述の構成を備え、次のように動作する。ここでは例えば、日本語を母国語とする発話者側が、英語を母国語とする応答者と会話を行う場合を想定して説明する。発話者側は、会話支援装置を操作して、発話者側言語として「日本語」、応答者側言語として「英語」を設定しておく。また、利用する場所に応じて、シーンを選択しておく。ここでは例えば、シーンとして「食事」が選択されたものとする。
[Operation]
The conversation support apparatus according to the embodiment of the present invention has the above-described configuration and operates as follows. Here, for example, it is assumed that a speaker who speaks Japanese as a native language has a conversation with a responder whose native language is English. The speaker side operates the conversation support device to set “Japanese” as the speaker side language and “English” as the responder side language. In addition, a scene is selected according to the place to be used. Here, for example, it is assumed that “meal” is selected as the scene.

発話者は、例えば、メニューに記載されているもののうち、店側が「おすすめ」としているものを知りたいときには、会話支援装置の音声入力部22に対して、「おすすめを教えてください」といった発話を行う。ここで、本実施の形態の会話支援装置は、入力された発話文全体ではなく、それに含まれるキーワードを用いて、予め定められた発話文群のうちから最も尤もらしいものを選択するので、必ずしもデータベースに登録されている発話文と同じものを入力する必要はない。例えば、会話支援装置自体を通訳者のように擬人的に扱い、
「お勧めがないか聞いてくれ」
のように、命令的な表現で入力を行ってもよい。
For example, when the speaker wants to know what is recommended by the store among the items listed in the menu, the speaker speaks to the voice input unit 22 of the conversation support device, such as “Please tell me the recommendation”. Do. Here, the conversation support apparatus according to the present embodiment selects the most likely one from a predetermined utterance sentence group using a keyword included in the input utterance sentence instead of the entire inputted utterance sentence. It is not necessary to input the same utterance sentence registered in the database. For example, the conversation support device itself is treated as an interpreter like an interpreter,
“Ask me for recommendations”
In this way, input may be performed using an instructional expression.

会話支援装置は入力された情報からキーワードを検出する。ここでは予め定められているキーワードのリストから「お勧め」が検出され、「食事」のシーンに対応する発話文のリストから、当該検出されたキーワードに関連づけられている発話文を検索する。ここでは
「お勧めはありますか?」
との発話文が見いだされたものとする。
The conversation support device detects a keyword from the input information. Here, “recommended” is detected from a predetermined keyword list, and the utterance sentence associated with the detected keyword is searched from the utterance sentence list corresponding to the “meal” scene. Here is "Do you recommend it?"
Utterance sentence is found.

会話支援装置は、この検索の結果を表示して、これが所望の内容であるか否かを発話者に問い合わせる表示を行う(図9)。発話者が、所望のものであることを確認して、その旨の指示操作を行うと、会話支援装置は、この発話文に関連付けられている、応答者側言語「英語」での音声データを読み出し、当該音声データに基づく音声を鳴動する。なお、この際、発話文に対応する応答者側言語での文字列をディスプレイ19に表示してもよい。強調用の単語が選択された場合も、同様に表示してもよい。   The conversation support apparatus displays the result of this search and displays the inquiry about whether or not this is the desired content (FIG. 9). When the speaker confirms that the speaker is the desired one and performs an instruction operation to that effect, the conversation support device will receive the voice data in the responder side language “English” associated with the utterance. Read and sound a sound based on the sound data. At this time, a character string in the responder side language corresponding to the spoken sentence may be displayed on the display 19. When the word for emphasis is selected, it may be displayed similarly.

また会話支援装置は、当該発話文の識別子に関連付けて記録されている、応答側言語での応答文リストを読み出す。ここで、「お勧めはありますか?」の質問に対しては、「はい」、「いいえ」といった肯定、否定の単語を以て応答可能であるので、記録されている応答文リストに、「はい」、「いいえ」に対応する応答側言語(英語)の単語を追加して提示する。   Further, the conversation support apparatus reads a response sentence list in the response side language recorded in association with the identifier of the utterance sentence. Here, the question “Do you recommend it?” Can be answered with affirmative or negative words such as “Yes” or “No”, so “Yes” appears in the recorded response list. , Responding language (English) words corresponding to “No” are added and presented.

これにより、例えばディスプレイ19に、英語で、「答えを次から選んでください」のような、応答を選択するべき旨の指示とともに、
「はい」
「いいえ」
「お勧めは売り切れです」
「メニューに書かれています」
などの応答の選択肢が表示される(図10)。
Thus, for example, on the display 19 in English, with an instruction to select a response, such as “Please select an answer from the following”,
"Yes"
"No"
"Recommended is sold out"
"It's written on the menu"
Etc. are displayed (FIG. 10).

応答側の利用者は、この選択肢から応答文を選択して読み上げる。   The responding user selects a response sentence from this option and reads it out.

また発話者が、食事中に、スプーンが欲しくなった場合に、
「これ、あるかな?」
のような発話文を入力すると、会話支援装置は当該入力された発話文から「これ」、「ある」などのキーワードを検出する。そして、当該検出したキーワードが最も数多く関連づけられている発話文、
「これは、ありますか?」
を見いだして、これが所望の内容であるか否かを発話者に問い合わせる。発話者が、所望のものであることを確認して、その旨の指示操作を行うと、会話支援装置は、さらに検出したキーワードに指示語「これ」が含まれていることを検出して、「食事」のシーンに関連付けられている被指示単語リストを表示して、発話者に選択を促す。発話者は、当該リストから、所望の単語である「スプーン」を選択する。すると、会話支援装置は、上記発話文に関連付けられている、応答者側言語「英語」での音声データを読み出し、当該音声データに基づく音声を鳴動するとともに、被指示単語リストから選択された「スプーン」に対応する英語の文字列をディスプレイ19に表示する(図11)。ここでは発話文に対応する英語での文章、
"Do you have this?"
も併せて表示された状態を示している。
And if the speaker wants a spoon while eating,
“Is this there?”
When the utterance sentence is input, the conversation support apparatus detects keywords such as “this” and “present” from the input utterance sentence. And the utterance sentence to which the detected keyword is most associated,
"Is this this?"
And ask the speaker if this is the desired content. When the speaker confirms that the speaker is the desired one and performs an instruction operation to that effect, the conversation support apparatus further detects that the instruction word “this” is included in the detected keyword, The instructed word list associated with the “meal” scene is displayed to prompt the speaker to select. The speaker selects the desired word “spoon” from the list. Then, the conversation support device reads the voice data in the responder side language “English” associated with the uttered sentence, sounds the voice based on the voice data, and selects “ An English character string corresponding to “spoon” is displayed on the display 19 (FIG. 11). Here is a sentence in English corresponding to the spoken sentence,
"Do you have this?"
Is also displayed.

応答者は、ディスプレイ19に表示された単語と、発声された音声とから発言の内容を知得する。   The responder obtains the content of the utterance from the word displayed on the display 19 and the uttered voice.

また会話支援装置は、当該発話文の識別子に関連付けて記録されている、応答側言語での応答文リストを読み出す。上記の質問に対しては、「はい」、「いいえ」といった肯定、否定の単語を以て応答可能であるので、記録されている応答文リストに、「はい」、「いいえ」に対応する応答側言語(英語)の単語を追加して提示する。   Further, the conversation support apparatus reads a response sentence list in the response side language recorded in association with the identifier of the utterance sentence. The above questions can be answered with affirmative or negative words such as “Yes” or “No”, so the responding language corresponding to “Yes” or “No” in the recorded response sentence list Add (English) words to present.

これにより、例えばディスプレイ19に、英語で、「答えを次から選んでください」のような、応答を選択するべき旨の指示とともに、
「はい」
「いいえ」
「いま、持ってきます」
などの応答の選択肢が表示される。
Thus, for example, on the display 19 in English, with an instruction to select a response, such as “Please select an answer from the following”,
"Yes"
"No"
"I will bring it now."
And other response options are displayed.

応答側の利用者は、この選択肢から応答文を選択的に読み上げる。会話支援装置の制御部11は、当該読み上げの内容を音声認識して、どの応答文が選択されたかをディスプレイ19に表示する。これにより、会話支援装置を介して、発話者と応答者との会話が成立する。   The responding user selectively reads out the response sentence from this option. The control unit 11 of the conversation support apparatus recognizes the content of the reading out by voice and displays on the display 19 which response sentence has been selected. Thereby, the conversation between the speaker and the responder is established via the conversation support device.

[当事者への指示]
さらに、本実施の形態の制御部11は、発話文候補提示部33が提示した発話文に関連して、発話者及び応答者に、所定の作業を求めてもよい。この場合は、外部記憶媒体Mに格納されているデータベースに、図12に示すような、発話文識別子と、各国語での発話者側への作業指示と、各国語での応答者側への作業指示とを関連付けた指示テーブルをさらに保持させておく。
[Instructions for parties]
Further, the control unit 11 according to the present embodiment may ask the speaker and the responder for a predetermined work in relation to the utterance sentence presented by the utterance sentence candidate presentation unit 33. In this case, in the database stored in the external storage medium M, as shown in FIG. 12, the spoken sentence identifier, the work instruction to the speaker side in the national language, and the responder side in the national language An instruction table in which work instructions are associated is further held.

そして、制御部11は、発話文候補提示部33が提示した注目発話文に対して、発話者が所望のものである旨の指示操作を行ったときに、当該注目発話文の発話文識別子に関連付けられた作業指示が、指示テーブルに登録されているか否かを調べる。   When the control unit 11 performs an instruction operation to the effect that the speaker is the desired one for the attention utterance sentence presented by the utterance sentence candidate presentation unit 33, the control part 11 sets the utterance sentence identifier of the attention utterance sentence. It is checked whether or not the associated work instruction is registered in the instruction table.

ここで、指示テーブルに作業指示が登録されていた場合は、制御部11は、設定されている発話者側言語での発話者側への作業指示を読み出して、ディスプレイ19に表示させる。また、制御部11は、当該発話文に関連して、応答文リストがディスプレイ19に表示されているときに、当該発話文の発話文識別子に関連付けられている、応答者側への作業指示のうち、応答者側言語のものを読み出してディスプレイ19に、併せて表示させる。   Here, when the work instruction is registered in the instruction table, the control unit 11 reads out the work instruction to the speaker side in the set speaker side language and displays the work instruction on the display 19. In addition, when the response sentence list is displayed on the display 19 in association with the utterance sentence, the control unit 11 sends a work instruction to the responder associated with the utterance sentence identifier of the utterance sentence. Of these, the language in the responder side is read and displayed together on the display 19.

例えば、上述の例のように「食事」のシーンにおいて、「お勧めはどれですか?」のような発話文に対して、指示テーブルに、発話者側への作業指示として「メニューを示してください」のような作業指示を関連付けておく。また、応答者側への作業指示として、「メニューで示してください」のような作業指示を関連付けておく。   For example, in the “meal” scene as in the above example, for an utterance sentence such as “Which is recommended?”, “Indicates a menu as a work instruction to the speaker side in the instruction table. Please associate a work order such as “Please”. In addition, as a work instruction to the responder side, a work instruction such as “Please show with menu” is associated.

これにより、例えば、当該発話文が選択されたときに、発話者側が「メニューを示してください」の作業指示に従ってメニューを示し、応答者側では、「メニューで示してください」との作業指示を参照し、メニューを示しながら、例えば応答文として、「これです」のような応答文を選択的に読み上げて会話を行うことができるようになる。   Thus, for example, when the utterance is selected, the speaker shows the menu in accordance with the work instruction “Please show menu”, and the responder gives the work instruction “Please show in menu”. With reference to the menu, a response sentence such as “This is” can be selectively read out as a response sentence, for example, and conversation can be performed.

[ダウンロード]
さらに、本実施の形態におけるデータベースの内容は、例えば無線通信モジュール14を介して、ネットワーク上のサーバからダウンロードできるようにしておいてもよい。具体的な例としては、例えば被指示単語リストをダウンロードできるようにしておけば、シーンに応じた単語だけでなく、時代に応じた単語なども含めることができるようになる。
[download]
Furthermore, the contents of the database in the present embodiment may be downloaded from a server on the network via the wireless communication module 14, for example. As a specific example, if an instruction word list can be downloaded, for example, not only words according to the scene but also words according to the times can be included.

本実施の形態によると、応答文がリストとして提示され、相手方に選択的に読み上げさせることで会話を成立させるので、相手方の話す内容が聞き取れない、理解できない、といった事態を回避できる。また、指示語を検出して、被指示単語のリストを提示して選択させるので、被指示単語のリストとの組み合わせで、指示語を利用して会話を成立させることができ、細かな名詞ごとの表現をデータベースに含めておく必要がない。これによりデータベースのサイズを軽減することが可能となっている。このように本実施の形態の会話支援装置によれば、その利便性を向上できる。   According to the present embodiment, the response sentences are presented as a list, and the conversation is established by selectively reading out to the other party. Therefore, it is possible to avoid a situation in which the contents spoken by the other party cannot be heard or understood. In addition, because the instruction word is detected and a list of the commanded words is presented and selected, a conversation can be established using the command word in combination with the list of commanded words. Need not be included in the database. This makes it possible to reduce the size of the database. Thus, according to the conversation support apparatus of the present embodiment, the convenience can be improved.

本発明の実施の形態に係る会話支援装置の例を表す構成ブロック図である。It is a configuration block diagram showing an example of a conversation support device according to an embodiment of the present invention. 本発明の実施の形態に係る発話文データベースの例を表す説明図である。It is explanatory drawing showing the example of the speech sentence database which concerns on embodiment of this invention. 本発明の実施の形態に係る応答文データベースの例を表す説明図である。It is explanatory drawing showing the example of the response sentence database which concerns on embodiment of this invention. 本発明の実施の形態に係る応答文テーブルの例を表す説明図である。It is explanatory drawing showing the example of the response sentence table which concerns on embodiment of this invention. 本発明の実施の形態に係る被指示単語リストの例を表す説明図である。It is explanatory drawing showing the example of the commanded word list which concerns on embodiment of this invention. 本発明の実施の形態に係る会話支援装置の例を表す機能ブロック図である。It is a functional block diagram showing the example of the conversation assistance apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る反対質問文テーブルの例を表す説明図である。It is explanatory drawing showing the example of the opposite question sentence table which concerns on embodiment of this invention. 本発明の実施の形態に係る強調単語のリストの例を表す説明図である。It is explanatory drawing showing the example of the list | wrist of the emphasized word which concerns on embodiment of this invention. 本発明の実施の形態に係る会話支援装置の画面例を表す説明図である。It is explanatory drawing showing the example of a screen of the conversation assistance apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る会話支援装置の画面例を表す説明図である。It is explanatory drawing showing the example of a screen of the conversation assistance apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る会話支援装置の画面例を表す説明図である。It is explanatory drawing showing the example of a screen of the conversation assistance apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る指示テーブルの例を表す説明図である。It is explanatory drawing showing the example of the instruction | indication table which concerns on embodiment of this invention.

符号の説明Explanation of symbols

1 携帯用ゲーム機、11 制御部、12 インタフェースユニット、13 操作ユニット、14 無線通信モジュール、15 ディスクドライブ、16 記憶部、17 電源制御部、18 画像処理ユニット、19 ディスプレイ、20 音声処理ユニット、21 音声出力部、22 音声入力部、31 発話文受入部、32 発話文候補選択部、33 発話文候補提示部、34 応答文候補検索部、35 応答文候補追加部、36 応答文候補提示部、37 応答文出力部。   DESCRIPTION OF SYMBOLS 1 Portable game machine, 11 Control part, 12 Interface unit, 13 Operation unit, 14 Wireless communication module, 15 Disk drive, 16 Storage part, 17 Power supply control part, 18 Image processing unit, 19 Display, 20 Voice processing unit, 21 Voice output unit, 22 voice input unit, 31 utterance sentence acceptance unit, 32 utterance sentence candidate selection part, 33 utterance sentence candidate presentation part, 34 response sentence candidate search part, 35 response sentence candidate addition part, 36 response sentence candidate presentation part, 37 Response sentence output part.

Claims (6)

発話文を識別する発話文識別情報と、前記発話文に対する想定応答として列挙された応答文リストと、を関連付けた応答文テーブルを記憶するデータベースにアクセス可能に接続され、
入力された発話文の前記発話文識別情報に関連づけられている、前記応答文リストを取得する応答文取得部と、
前記応答文リストに含まれる応答文を列挙して表示する応答文表示部と、
を有することを特徴とする会話支援装置。
A database storing a response text table in which speech text identification information for identifying a speech text and a response text list enumerated as an assumed response to the speech text are associated with each other;
A response sentence acquisition unit that acquires the response sentence list associated with the utterance sentence identification information of the input utterance sentence;
A response text display unit that lists and displays the response texts included in the response text list;
A conversation support apparatus characterized by comprising:
請求項1に記載の会話支援装置であって、
前記応答文テーブルにはさらに、発話文識別情報に関連付けて肯定または否定を表す単語による応答の可否を示す特定応答可否情報が記憶されており、
前記入力された発話文の前記質問識別情報に関連づけられている特定応答可否情報を参照して、肯定または否定を表す単語による応答が可能である場合に、前記取得した応答文リストに、肯定または否定の単語を追加する応答文追加部、
をさらに含むことを特徴とする会話支援装置。
The conversation support device according to claim 1,
The response sentence table further stores specific response availability information indicating whether or not a response with a word representing affirmation or denial is associated with the spoken sentence identification information,
With reference to the specific response availability information associated with the question identification information of the input utterance sentence, when a response with a word representing affirmation or denial is possible, the acquired response sentence list is affirmed or Response sentence addition part for adding negative words,
Further comprising: a conversation support device.
請求項1または2に記載の会話支援装置であって、
前記データベースは、発話文を識別する発話文識別情報に対して、発話者側への指示と応答者側への指示とを関連付けた指示テーブルを記憶しており、
入力された発話文の前記質問識別情報に関連付けられた発話者側への指示を提示し、さらに応答者側への指示を提示する指示提示部、
を含むことを特徴とする会話支援装置。
The conversation support device according to claim 1 or 2,
The database stores an instruction table that associates an instruction to the speaker side and an instruction to the responder side with respect to the utterance sentence identification information for identifying the utterance sentence,
An instruction presentation unit that presents an instruction to the speaker side associated with the question identification information of the input utterance sentence, and further presents an instruction to the responder side;
Conversation support apparatus characterized by including.
請求項1から3のいずれか一項に記載の会話支援装置であって、
前記データベースは、指示語に対応する被指示単語リストを記憶しており、
前記入力された発話文に、指示語が含まれている場合に、前記被指示単語リストを提示して質問側利用者に提示するリスト表示部、
をさらに含むことを特徴とする会話支援装置。
The conversation support device according to any one of claims 1 to 3,
The database stores a commanded word list corresponding to a command word,
A list display unit that presents the instructed word list and presents it to the question side user when an instruction word is included in the input utterance sentence;
Further comprising: a conversation support device.
発話文を識別する発話文識別情報と、前記発話文に対する想定応答として列挙された応答文リストとを関連付けた応答文テーブルを記憶するデータベースにアクセス可能なコンピュータを用い、
入力された発話文の前記発話文識別情報に関連づけられている、前記応答文リストを取得し、
前記応答文リストに含まれる応答文を列挙して表示する、
ことを特徴とする会話支援方法。
Using a computer that can access a database that stores a response sentence table that associates an utterance sentence identification information that identifies an utterance sentence and a response sentence list listed as an assumed response to the utterance sentence,
Obtaining the response sentence list associated with the utterance sentence identification information of the input utterance sentence;
List and display the response texts included in the response text list.
A conversation support method characterized by that.
発話文を識別する発話文識別情報と、前記発話文に対する想定応答として列挙された応答文リストとを関連付けた応答文テーブルを記憶するデータベースにアクセス可能なコンピュータに、
入力された発話文の前記発話文識別情報に関連づけられている、前記応答文リストを取得する手順、及び
前記応答文リストに含まれる応答文を列挙して表示する手順、
を実行させることを特徴とするプログラム。
To a computer that can access a database that stores a response sentence table that associates an utterance sentence identification information for identifying an utterance sentence and a response sentence list enumerated as an assumed response to the utterance sentence,
A procedure for acquiring the response sentence list associated with the spoken sentence identification information of the input utterance sentence, and a procedure for listing and displaying the response sentences included in the response sentence list;
A program characterized by having executed.
JP2005122825A 2005-04-20 2005-04-20 Conversation support device Expired - Fee Related JP4079275B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2005122825A JP4079275B2 (en) 2005-04-20 2005-04-20 Conversation support device
KR1020060034835A KR20060110787A (en) 2005-04-20 2006-04-18 Conversation aid device
US11/406,847 US20060247932A1 (en) 2005-04-20 2006-04-19 Conversation aid device
EP06252131A EP1715475A1 (en) 2005-04-20 2006-04-19 Conversation aid-device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005122825A JP4079275B2 (en) 2005-04-20 2005-04-20 Conversation support device

Publications (2)

Publication Number Publication Date
JP2006301968A true JP2006301968A (en) 2006-11-02
JP4079275B2 JP4079275B2 (en) 2008-04-23

Family

ID=37470178

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005122825A Expired - Fee Related JP4079275B2 (en) 2005-04-20 2005-04-20 Conversation support device

Country Status (1)

Country Link
JP (1) JP4079275B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008158985A (en) * 2006-12-26 2008-07-10 Sharp Corp Electronic equipment and control method therefor
US9484034B2 (en) 2014-02-13 2016-11-01 Kabushiki Kaisha Toshiba Voice conversation support apparatus, voice conversation support method, and computer readable medium
JP2018085002A (en) * 2016-11-25 2018-05-31 ナレルシステム株式会社 Method, computer program and device for digitally responding to voice and thought in real time
JP2022020574A (en) * 2020-07-20 2022-02-01 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド Information processing method and apparatus in user dialogue, electronic device, and storage media

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008158985A (en) * 2006-12-26 2008-07-10 Sharp Corp Electronic equipment and control method therefor
US9484034B2 (en) 2014-02-13 2016-11-01 Kabushiki Kaisha Toshiba Voice conversation support apparatus, voice conversation support method, and computer readable medium
JP2018085002A (en) * 2016-11-25 2018-05-31 ナレルシステム株式会社 Method, computer program and device for digitally responding to voice and thought in real time
JP2022020574A (en) * 2020-07-20 2022-02-01 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド Information processing method and apparatus in user dialogue, electronic device, and storage media
JP7247442B2 (en) 2020-07-20 2023-03-29 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド Information processing method, device, electronic device and storage medium in user interaction

Also Published As

Publication number Publication date
JP4079275B2 (en) 2008-04-23

Similar Documents

Publication Publication Date Title
KR20060110787A (en) Conversation aid device
US20210104238A1 (en) Voice enablement and disablement of speech processing functionality
JP6704525B2 (en) Facilitate the generation and playback of voice recorded by users
US9824687B2 (en) System and terminal for presenting recommended utterance candidates
EP2973002B1 (en) User training by intelligent digital assistant
JP3920812B2 (en) Communication support device, support method, and support program
JP4263181B2 (en) Communication support device, communication support method, and communication support program
JP6392374B2 (en) Head mounted display system and method for operating head mounted display device
JPWO2019123775A1 (en) Information processing equipment, information processing systems, information processing methods, and programs
ES2751375T3 (en) Linguistic analysis based on a selection of words and linguistic analysis device
JP4079275B2 (en) Conversation support device
JP2008234427A (en) Device, method, and program for supporting interaction between user
JP2006301967A (en) Conversation support device
JP6832503B2 (en) Information presentation method, information presentation program and information presentation system
JP2019082981A (en) Inter-different language communication assisting device and system
KR20140075994A (en) Apparatus and method for language education by using native speaker&#39;s pronunciation data and thought unit
JP2022018724A (en) Information processing device, information processing method, and information processing program
JP6383748B2 (en) Speech translation device, speech translation method, and speech translation program
JP2020184183A (en) Information processing device, information processing system, and method for controlling information processing device
KR20140073768A (en) Apparatus and method for language education by using native speaker&#39;s pronunciation data and thoughtunit
JP6856277B1 (en) Automatic voice translation system that sets the translation language by voice input, automatic voice translation method and its program
US20240119930A1 (en) Artificial intelligence device and operating method thereof
WO2023047623A1 (en) Information processing device, information processing method, and information processing program
WO2023210340A1 (en) Learning device and learning method
JP2002288170A (en) Support system for communications in multiple languages

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070918

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080130

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110215

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120215

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120215

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130215

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140215

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees