JP2016118592A - Communication Robot - Google Patents
Communication Robot Download PDFInfo
- Publication number
- JP2016118592A JP2016118592A JP2014256749A JP2014256749A JP2016118592A JP 2016118592 A JP2016118592 A JP 2016118592A JP 2014256749 A JP2014256749 A JP 2014256749A JP 2014256749 A JP2014256749 A JP 2014256749A JP 2016118592 A JP2016118592 A JP 2016118592A
- Authority
- JP
- Japan
- Prior art keywords
- conversation
- robot
- voice
- person
- speech
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Manipulator (AREA)
Abstract
Description
本発明は、人と対話するコミュニケーションロボットに関する。 The present invention relates to a communication robot that interacts with a person.
近年、一人暮らしの高齢者が増え、話し相手となって寂しさを紛らわせてくれるコミュニケーションロボットの需要が増えている。しかし、高齢者においては聴覚機能が低下して、ロボットの発話音声を聞き取ることができない場合があった。 In recent years, the number of elderly people living alone has increased, and there has been an increasing demand for communication robots that can talk with each other and add to their loneliness. However, in elderly people, the auditory function has deteriorated, and there are cases in which it is impossible to hear the speech of the robot.
これまで、従来技術としては、発話音声の音の高さと音色を状況に応じて変える音声合成応用装置(特許文献1)や、音声信号を適切な話速に変換して出力する補聴器(特許文献2)や、対話者の急ぎ具合を推定して急いでいないなら話速を遅くする話速変換装置(特許文献3)等があった。 Conventionally, as a conventional technique, a speech synthesis application device (Patent Document 1) that changes the pitch and tone of speech sound according to the situation, or a hearing aid that converts a speech signal into an appropriate speech speed (Patent Document) 2), and a speech speed conversion device (Patent Document 3) that slows the speech speed if the hurry of the conversation person is estimated and not rushed.
また、音声処理の誤認識による対話者の負担を軽減する技術として、対話者の特異的な発声(ピッチ周波数、パワー)を検出すると、誤認識があったと判断して復元処理を行う情報処理装置(特許文献4)等もある。 In addition, as a technique for reducing the burden on the interlocutor due to misrecognition of speech processing, an information processing apparatus that performs restoration processing by determining that there is misrecognition when detecting a specific utterance (pitch frequency, power) of the interlocutor (Patent Document 4) is also available.
しかしながら、特許文献1から3の技術は、発話音声の音の高さや音色、話速を変えて、対話者に聞き取り易くしようとしているが、対話者が実際に聞き取れたか確認しておらず、対話者の聴覚機能に合わせて発話音声を調整するものではなかった。
However, the techniques of
また、特許文献4は、ロボット側の誤認識による対話者の違和感を判断するものであり、対話者がロボットの発話音声を聞き取れたか判断するものではない。 Japanese Patent Laid-Open No. 2004-228867 determines whether the conversation person feels uncomfortable due to misrecognition on the robot side, and does not determine whether the conversation person can hear the speech voice of the robot.
したがって、従来技術では、対話者がロボットの発話音声を聞き取れないにも関わらず、ロボットが一方的に会話を進めてしまう場合があり、対話者がロボットとの会話においてストレスを感じる問題があった。 Therefore, in the conventional technology, there is a problem that the robot may unilaterally advance the conversation even though the conversation person cannot hear the voice of the robot, and the conversation person feels stress in the conversation with the robot. .
本発明は上記の問題点に鑑みてなされたものであり、ロボットの発話音声を対話者が聞き取ることができたか確認しながら再調整し、対話者にストレスを感じさせることなく、円滑なコミュニケーションが図れるロボットを提供することである。 The present invention has been made in view of the above-mentioned problems, and re-adjusted while confirming whether the utterance voice of the robot could be heard by the interlocutor, so that smooth communication is possible without causing the interlocutor to feel stress. It is to provide a robot that can be planned.
本発明のコミュニケーションロボットは、対話者の音声を入力する入力部と、対話者およびロボットが発話する複数の会話パターンを登録したデータベースと、データベースを参照して対話者の音声から会話パターンを認識する音声認識部と、データベースを参照して対話者の会話パターンに呼応するロボットの会話パターンを決定する会話パターン決定部と、ロボットの会話パターンを発話音声として出力する出力部と、ロボットの発話音声を対話者が聞き取れたかどうか判断する対話者反応検出部を備え、対話者反応検出部で対話者が聞き取れなかったと判断したとき、出力部で発話音声を調整して再出力することを特徴とする。 The communication robot according to the present invention recognizes a conversation pattern from a conversation person's voice by referring to the input section for inputting the conversation person's voice, a database in which a plurality of conversation patterns spoken by the conversation person and the robot are registered, and the database. A speech recognition unit, a conversation pattern determination unit that determines a conversation pattern of a robot that responds to a conversation pattern of a talker by referring to a database, an output unit that outputs the conversation pattern of the robot as an utterance speech, and an utterance speech of the robot A dialogue response detection unit for determining whether or not a dialogue person can hear is provided, and when it is judged by the dialogue response detection unit that a dialogue person cannot be heard, the output voice is adjusted and re-outputted.
また、コミュニケーションロボットにおいて、対話者の会話パターンは、対話者が聞き取れないときに発話するNGワードを含み、対話者反応検出部は、音声認識部でNGワードが検出されると対話者が聞き取れなかったと判断することを特徴とする。 In the communication robot, the conversation pattern of the conversation person includes an NG word that is uttered when the conversation person cannot hear, and the conversation person reaction detection unit cannot hear the conversation person when the speech recognition unit detects the NG word. It is characterized by judging.
また、コミュニケーションロボットにおいて、対話者反応検出部は、音声認識部で対話者の音声が認識されない無音時間が検出されると対話者が聞き取れなかったと判断することを特徴とする。 Further, in the communication robot, the conversational person reaction detection unit determines that the conversational person has not been heard when the speech recognition unit detects a silent time during which the voice of the conversational person is not recognized.
また、コミュニケーションロボットにおいて、対話者反応検出部で対話者が発話音声を聞き取れなかったと判断したとき、出力部において発話音声の音量、発話速度、発話周波数、発話抑揚の何れかを変更することを特徴とする。 Also, in the communication robot, when the conversation person reaction detection unit determines that the conversation person has not heard the utterance voice, the output section changes any of the volume of the utterance voice, the speech speed, the speech frequency, and the speech inflection. And
また、コミュニケーションロボットにおいて、対話者反応検出部で対話者が発話音声を聞き取れなかったと判断したとき、ロボットの会話パターンを対話者が聞き取れたかどうか確認する内容に変更することを特徴とする。 Further, in the communication robot, when the conversation person reaction detection unit determines that the conversation person cannot hear the uttered voice, the conversation pattern of the robot is changed to a content for confirming whether or not the conversation person has heard.
また、コミュニケーションロボットにおいて、対話者反応検出部で対話者が発話音声を聞き取れなかったと判断したとき、ロボットの会話パターンを別の会話を提案する内容に変更することを特徴とする。 Further, in the communication robot, when the conversation person reaction detection unit determines that the conversation person cannot hear the uttered voice, the conversation pattern of the robot is changed to a content for proposing another conversation.
本発明によれば、ロボットの発話音声を対話者が聞き取ることができたか確認しながら再調整し、対話者にストレスを感じさせることなく、円滑なコミュニケーションが図れるロボットを提供することができる。 ADVANTAGE OF THE INVENTION According to this invention, it can readjust the robot's speech sound while confirming whether it was able to hear, and it can provide the robot which can aim at smooth communication, without making a conversation person feel stress.
以下、本発明の実施の形態について図面を用いて説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
(実施の形態1)
図1は、本発明のコミュニケーションロボット100の基本構成を示すブロック図である。図1を参照して、本発明のコミュニケーションロボット100の構成と機能について説明する。
(Embodiment 1)
FIG. 1 is a block diagram showing a basic configuration of a
本発明のコミュニケーションロボット100は、入力部10、データベース20、音声認識部21、会話パターン決定部22、対話者反応検出部23、出力部30を備えている。
The
入力部10は、発話速度検出部11、音声周波数検出部12、音声抑揚検出部13、音量検出部14を備える。入力部10は、上記構成により、対話者1が発話する音声を入力し、対話者1の音声から発話速度、音声周波数、音声抑揚、音量を検出する。
The
データベース20は、対話者およびロボットが発話する可能性がある複数の会話パターンを登録している。音声認識部21は、データベース20を参照して、対話者1が発話する音声を会話パターンとして認識する。音声認識部21で認識された対話者1の会話パターンは、会話パターン決定部22または対話者反応検出部23に送られる。
The
会話パターン決定部22は、データベース20を参照して、対話者1の会話パターンに呼応するロボットの会話パターンを決定し、出力部30に出力する。
The conversation
出力部30は、発話速度制御部31、音声周波数制御部32、音声抑揚制御部33、音量制御部34を備える。出力部30は、ロボットの会話パターンの発話速度、音声周波数、音声抑揚、音量を調整して、ロボットの発話音声として対話者1に出力する。
The
対話者反応検出部23は、ロボットの発話音声に対して対話者1の反応を検出する。対話者反応検出部23の詳細については後述する。
The conversation person
図2は、実施形態1のコミュニケーションロボットにおける音声処理のフローチャートである。図2を参照してコミュニケーションロボットにおける音声処理について説明する。 FIG. 2 is a flowchart of voice processing in the communication robot according to the first embodiment. The voice processing in the communication robot will be described with reference to FIG.
まず、対話者1が発話した音声(S11)を入力部10に入力し(S12)、発話速度、音声周波数、音声抑揚、音量を検出して、音声認識部21で対話者1の会話パターンとして音声認識する(S13)。会話パターン決定部22では、データベース20を参照して、対話者1の会話パターンに対してロボットが呼応するための会話パターンを決定する(S14)。ロボットの会話パターンは、出力部30で発話速度、音声周波数、音声抑揚、音量が調整され、スピーカ等から発話音声として対話者1に出力される(S15)。
First, the voice (S11) uttered by the
続いて、ロボットの発話音声が対話者1に聞き取れなかった場合の対応に説明する。
Next, a description will be given of the case where the utterance voice of the robot cannot be heard by the
対話者反応検出部23は、ロボットが発話した音声を対話者1が聞き取ることができたかどうか対話者1の反応を検出する(S16)。具体的には、対話者1が聞き取れなかったことを示すNGワード、例えば、「聞こえなかった」、「何て言ったの?」、「もう一度言って」等の言葉が対話者1の会話パターンとしてデータベース20に登録されており、対話者反応検出部23は、音声認識部21がデータベース20を参照してNGワードを音声認識すると、対話者1がロボットの発話音声を聞き取れなかったと判断している。
The conversation person
ロボットの発話音声を対話者1が聞き取れなかった場合(S17)、対話者反応検出部23は、NGカウンターをカウントアップ(+1)し(S19)、NGカウント数を出力部30に送信する。出力部30は、NGカウンターのカウント数に応じて(S22〜S24)、ロボットの発話音声を再調整(S25〜S28)してスピーカ等から再出力する(S15)。
When the
図2に示す音声処理のフローでは、NGカウント数が所定回数N1になるまでは(S22)、発話音声の音量を上げながら(S25)、スピーカ等から再出力(S15)して対話者1の反応を確認(S16)している。聞き取れない状況が継続する場合、NGカウント数が所定回数N2になる(S23)までは、発話音声の発話速度を変更するステップ(S26)へ移行する。 In the voice processing flow shown in FIG. 2, until the number of NG counts reaches a predetermined number N1 (S22), the volume of the spoken voice is increased (S25), and re-output (S15) from the speaker, etc. The reaction is confirmed (S16). When the situation where it cannot be heard continues, until the NG count reaches the predetermined number N2 (S23), the process proceeds to the step (S26) of changing the speech speed of the speech.
聞き取れない状況がさらに継続する場合、NGカウント数が所定回数N3になるまでは(S24)、発話音声の発話周波数を変更するステップ(S27)、NGカウント数が所定回数N3を超えると発話音声の発話抑揚を変更するステップ(S28)へ移行させる等、対話者1がロボットの発話音声を聞き取れるように調整し続ける。
When the situation that cannot be heard continues further, until the NG count reaches the predetermined number N3 (S24), the step of changing the speech frequency of the speech (S27), and when the NG count exceeds the predetermined number N3, The adjustment is continued so that the
対話者1がロボットの発話音声を聞き取れるようになると(S17)、NGカウンターをリセットして(S18)、対話者1との次の会話に進める(S19)。
When the
なお、ロボットが発声する発話音声を調整する際、発話音量、発話速度、発話周波数、発話抑揚の変更の順序は、上記実施形態に限定されるものではない。 Note that when adjusting the utterance voice uttered by the robot, the order of changing the utterance volume, the utterance speed, the utterance frequency, and the utterance inflection is not limited to the above embodiment.
以上のように、本発明のコミュニケーションロボットは、ロボットの発話音声を対話者が聞き取ることができたか確認しながら再調整を行っているため、ロボットからの会話が一方的になって対話者がストレスを感じることなく、対話者との円滑なコミュニケーションを図ることができる。 As described above, the communication robot according to the present invention performs readjustment while confirming whether or not the conversation voice can be heard by the conversation person, so that the conversation from the robot becomes unilateral and stresses the conversation person. Smooth communication with the interlocutor can be achieved without feeling.
(実施の形態2)
図3は、実施形態2のコミュニケーションロボットにおける音声処理のフローチャートである。図3を参照して実施形態2のコミュニケーションロボットにおける音声処理について説明する。
(Embodiment 2)
FIG. 3 is a flowchart of voice processing in the communication robot according to the second embodiment. With reference to FIG. 3, the voice processing in the communication robot of the second embodiment will be described.
実施形態2のコミュニケーションロボットでは、ロボットの発話音声を再調整しても対話者の聞き取り状況が改善されない場合に、ロボットの会話パターンを対話者1が聞き取れたか確認する内容に変更して調整するステップ(S32、S33)を追加したことを特徴としている。コミュニケーションロボットの基本的な構成や音声書処理フローについては、実施形態1と同じであるため詳細な説明は省略する。
In the communication robot according to the second embodiment, when the conversation situation of the conversation person is not improved even if the utterance voice of the robot is readjusted, the conversation pattern of the robot is changed to a content for confirming whether or not the
実施形態2のコミュニケーションロボットでは、図3に示すように、ロボットの発話音声に対して発話音量、発話速度、発話周波数、発話抑揚等の変更を行っても聞き取り状況が改善されない場合(S31)、対話者1に対して聞き取れたかどうか確認するようにロボットの会話パターンを変更(S32)している。
In the communication robot of the second embodiment, as shown in FIG. 3, even if the utterance volume, the utterance speed, the utterance frequency, the utterance inflection, etc. are changed with respect to the utterance voice of the robot, the listening situation is not improved (S31). The conversation pattern of the robot is changed (S32) so as to confirm whether or not the
聞き取れたかどうか確認するとは、ロボットから、例えば、「分かった?」、「聞き取れた?」等、対話者に聞こえ具合を問いかけるような会話パターンを発話させることである。 The confirmation of whether or not it is heard is to cause the robot to utter a conversation pattern that asks the talker how to hear, such as “Did you understand?” Or “Have you heard?”, For example.
実施形態2のコミュニケーションロボットによれば、ロボットから聞き取れたかどうか確認する会話パターンで問いかけられることで、対話者がロボットからの気遣いを感じることができ、いつまでも同じ内容の会話パターンを繰り返されることによるストレスを軽減することができる。 According to the communication robot of the second embodiment, the dialogue pattern that confirms whether or not the robot can hear it makes it possible for the interlocutor to feel the care of the robot, and the stress caused by repeating the same conversation pattern indefinitely. Can be reduced.
(実施の形態3)
図4は、実施形態3のコミュニケーションロボットにおける音声処理のフローチャートである。図4を参照して実施形態3のコミュニケーションロボットにおける音声処理について説明する。
(Embodiment 3)
FIG. 4 is a flowchart of voice processing in the communication robot of the third embodiment. The voice processing in the communication robot of the third embodiment will be described with reference to FIG.
実施形態3のコミュニケーションロボットでは、発話音声の調整によっても対話者の聞き取り状況が改善されない場合に、ロボットの会話パターンを別の会話に変更するステップ(S34)を追加したことを特徴としている。コミュニケーションロボットの基本的な構成や音声書処理フローについては、実施形態1と同じであるため詳細な説明は省略する。 The communication robot according to the third embodiment is characterized in that a step (S34) for changing the conversation pattern of the robot to another conversation is added when the listening state of the conversation person is not improved even by adjusting the utterance voice. Since the basic configuration of the communication robot and the voice book processing flow are the same as those in the first embodiment, detailed description thereof is omitted.
実施形態3のコミュニケーションロボットでは、図4に示すように、ロボットが発声する発話音声に対して発話音量、発話速度、発話周波数、発話抑揚の変更を行っても聞き取り状況が改善されない場合(S31)、ロボットの会話パターンを対話者に別の会話を提案するような内容に変更している。 In the communication robot according to the third embodiment, as shown in FIG. 4, even if the speech volume, speech speed, speech frequency, and speech inflection are changed with respect to the speech voice uttered by the robot, the listening situation is not improved (S31). The conversation pattern of the robot is changed to a content that suggests another conversation to the interlocutor.
別の会話の提案とは、ロボットから、例えば、「別の話をしよう」、「他の話ある?」等の会話パターンを発話させることである。 The suggestion of another conversation is to cause the robot to utter a conversation pattern such as “Let's talk another story” or “Is there another story?”.
実施形態3のコミュニケーションロボットによれば、対話者がどうしても聞き取れない場合、別の会話に展開することで、いつまでもロボットから同じ内容の会話パターンが繰り返されることによるストレスを軽減することができる。 According to the communication robot of the third embodiment, when a conversation person cannot be heard by any means, the stress caused by repeating the conversation pattern of the same content from the robot forever can be reduced by developing the conversation in another conversation.
(実施の形態4)
図5は、実施形態4のコミュニケーションロボットにおける音声処理のフローチャートである。図5を参照して実施形態4のコミュニケーションロボットにおける音声処理について説明する。
(Embodiment 4)
FIG. 5 is a flowchart of voice processing in the communication robot of the fourth embodiment. The voice processing in the communication robot of the fourth embodiment will be described with reference to FIG.
実施形態4のコミュニケーションロボットでは、対話者が聞き取れたかどうかの確認を、音声認識部21で検出した対話者の無音時間により判断していることを特徴としている。コミュニケーションロボットの基本的な構成や音声書処理フローについては、実施形態1と同じであるため詳細な説明は省略する。
The communication robot according to the fourth embodiment is characterized in that whether or not a conversation person can hear is determined based on the silence time detected by the
実施形態4のコミュニケーションロボットでは、図5に示すように、ロボットの発話音声に対して対話者の発話が無い無音時間を音声認識部21で計測し、無音時間が所定の時間T(例えば、5秒)よりも長いときに(S36)、NGカウンターをカウントアップ(S21)し、NGカウント数に応じて、ロボットの発話音声の発話音量、発話速度、発話周波数、発話抑揚の変更を行うものである。
In the communication robot of the fourth embodiment, as shown in FIG. 5, the
実施形態4のコミュニケーションロボットによれば、対話者の無音時間により聞き取れたかどうか判断することで、対話者が全く聞き取れずに反応できなかった場合でも、対話者が聞き取り易いようにロボットの発話音声を調整することができる。 According to the communication robot of the fourth embodiment, by determining whether or not the conversation person can hear it due to the silent time of the conversation person, even if the conversation person cannot hear and react at all, the conversation voice of the robot can be easily heard. Can be adjusted.
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組合せて得られる実施形態についても本発明の技術的範囲に含まれる。 The present invention is not limited to the above-described embodiments, and various modifications can be made within the scope shown in the claims, and embodiments obtained by appropriately combining technical means disclosed in different embodiments. Is also included in the technical scope of the present invention.
1 対話者
10 入力部
11 発話速度検出部
12 音声周波数検出部
13 音声抑揚検出部
14 音量検出部
20 データベース
21 音声認識部
22 会話パターン決定部
23 対話者反応検出部
30 出力部
31 発話速度制御部
32 音声周波数制御部
33 音声抑揚制御部
34 音量制御部
100 コミュニケーションロボット
DESCRIPTION OF
Claims (6)
前記対話者およびロボットが発話する複数の会話パターンを登録したデータベースと、
前記データベースを参照して前記対話者の音声から会話パターンを認識する音声認識部と、
前記データベースを参照して前記対話者の会話パターンに呼応する前記ロボットの会話パターンを決定する会話パターン決定部と、
前記ロボットの会話パターンを発話音声として出力する出力部と、
前記ロボットの発話音声を前記対話者が聞き取れたかどうか判断する対話者反応検出部を備え、
前記対話者反応検出部で前記対話者が聞き取れなかったと判断したとき、前記出力部で前記発話音声を調整して再出力することを特徴とするコミュニケーションロボット。 An input unit for inputting the voice of the conversation person;
A database in which a plurality of conversation patterns uttered by the interlocutor and the robot are registered;
A voice recognition unit that recognizes a conversation pattern from the voice of the conversation person with reference to the database;
A conversation pattern determination unit that determines the conversation pattern of the robot that responds to the conversation pattern of the conversation person with reference to the database;
An output unit that outputs the conversation pattern of the robot as an utterance voice;
A conversational reaction detection unit for determining whether the conversational person can hear the utterance voice of the robot,
A communication robot characterized in that, when it is determined by the interlocutor reaction detection unit that the interlocutor has not been heard, the output unit adjusts and re-outputs the uttered voice.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014256749A JP2016118592A (en) | 2014-12-19 | 2014-12-19 | Communication Robot |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014256749A JP2016118592A (en) | 2014-12-19 | 2014-12-19 | Communication Robot |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016118592A true JP2016118592A (en) | 2016-06-30 |
Family
ID=56243008
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014256749A Pending JP2016118592A (en) | 2014-12-19 | 2014-12-19 | Communication Robot |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016118592A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109891501A (en) * | 2016-11-08 | 2019-06-14 | 夏普株式会社 | Voice adjusts the control method of device, control program, electronic equipment and voice adjustment device |
WO2024053765A1 (en) * | 2022-09-08 | 2024-03-14 | 엘지전자 주식회사 | Guide robot and guide robot operation method |
-
2014
- 2014-12-19 JP JP2014256749A patent/JP2016118592A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109891501A (en) * | 2016-11-08 | 2019-06-14 | 夏普株式会社 | Voice adjusts the control method of device, control program, electronic equipment and voice adjustment device |
WO2024053765A1 (en) * | 2022-09-08 | 2024-03-14 | 엘지전자 주식회사 | Guide robot and guide robot operation method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220295194A1 (en) | Interactive system for hearing devices | |
US11150866B2 (en) | Systems and methods for contextual audio detection and communication mode transactions | |
US20150281853A1 (en) | Systems and methods for enhancing targeted audibility | |
EP2081405B1 (en) | A hearing aid adapted to a specific type of voice in an acoustical environment, a method and use | |
US9666209B2 (en) | Prevention of unintended distribution of audio information | |
EP2928164A1 (en) | Transmission method and device for voice data | |
US20080262849A1 (en) | Voice control system | |
WO2019090283A1 (en) | Coordinating translation request metadata between devices | |
JP5431282B2 (en) | Spoken dialogue apparatus, method and program | |
JP6405653B2 (en) | Audio output device and audio output method | |
JPWO2007138741A1 (en) | Voice input system, interactive robot, voice input method, and voice input program | |
JP2009178783A (en) | Communication robot and its control method | |
JP2018097029A (en) | Voice recognition device and voice recognition method | |
US20160210982A1 (en) | Method and Apparatus to Enhance Speech Understanding | |
JP2010139571A (en) | Voice processing apparatus and voice processing method | |
JPWO2008007616A1 (en) | Non-voice utterance input warning device, method and program | |
JP2016118592A (en) | Communication Robot | |
WO2018198791A1 (en) | Signal processing device, method, and program | |
JP4983417B2 (en) | Telephone device having conversation speed conversion function and conversation speed conversion method | |
JP2016085420A (en) | Voice adjustment device | |
KR102088216B1 (en) | Method and device for reducing crosstalk in automatic speech translation system | |
JP6020461B2 (en) | Voice input / output device, howling prevention method and howling prevention program | |
JP2018165805A (en) | Interactive device, method for controlling interactive device, and program | |
US20080059161A1 (en) | Adaptive Comfort Noise Generation | |
JP2013114118A (en) | Speaker speaking rate control device and operation method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20161104 |