JP2016118592A - Communication Robot - Google Patents

Communication Robot Download PDF

Info

Publication number
JP2016118592A
JP2016118592A JP2014256749A JP2014256749A JP2016118592A JP 2016118592 A JP2016118592 A JP 2016118592A JP 2014256749 A JP2014256749 A JP 2014256749A JP 2014256749 A JP2014256749 A JP 2014256749A JP 2016118592 A JP2016118592 A JP 2016118592A
Authority
JP
Japan
Prior art keywords
conversation
robot
voice
person
speech
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014256749A
Other languages
Japanese (ja)
Inventor
浩一朗 杉本
Koichiro Sugimoto
浩一朗 杉本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2014256749A priority Critical patent/JP2016118592A/en
Publication of JP2016118592A publication Critical patent/JP2016118592A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a robot which re-adjusts its spoken voice while confirming whether a companion to talk with can catch the spoken voice, and can smoothly communicate without giving any stress to the companion to talk with.SOLUTION: A communication robot comprises: an input part which inputs a companion's voice; a database in which a plurality of conversation patterns that the companion and robot speak are registered; a voice recognition part which recognizes a conversation pattern from a voice of the companion by reference to the database; a conversation pattern determination part which determines a conversation pattern of the robot answering to a conversation pattern of the companion by reference to the database; an output part which outputs the conversation pattern of the robot as a spoken voice; and a companion response detection part which determines whether the companion can catch the spoken voice of the robot, When the companion response detection part determines that the companion can catch the spoken voice, the output part adjusts and outputs the spoken voice again.SELECTED DRAWING: Figure 1

Description

本発明は、人と対話するコミュニケーションロボットに関する。   The present invention relates to a communication robot that interacts with a person.

近年、一人暮らしの高齢者が増え、話し相手となって寂しさを紛らわせてくれるコミュニケーションロボットの需要が増えている。しかし、高齢者においては聴覚機能が低下して、ロボットの発話音声を聞き取ることができない場合があった。   In recent years, the number of elderly people living alone has increased, and there has been an increasing demand for communication robots that can talk with each other and add to their loneliness. However, in elderly people, the auditory function has deteriorated, and there are cases in which it is impossible to hear the speech of the robot.

これまで、従来技術としては、発話音声の音の高さと音色を状況に応じて変える音声合成応用装置(特許文献1)や、音声信号を適切な話速に変換して出力する補聴器(特許文献2)や、対話者の急ぎ具合を推定して急いでいないなら話速を遅くする話速変換装置(特許文献3)等があった。   Conventionally, as a conventional technique, a speech synthesis application device (Patent Document 1) that changes the pitch and tone of speech sound according to the situation, or a hearing aid that converts a speech signal into an appropriate speech speed (Patent Document) 2), and a speech speed conversion device (Patent Document 3) that slows the speech speed if the hurry of the conversation person is estimated and not rushed.

また、音声処理の誤認識による対話者の負担を軽減する技術として、対話者の特異的な発声(ピッチ周波数、パワー)を検出すると、誤認識があったと判断して復元処理を行う情報処理装置(特許文献4)等もある。   In addition, as a technique for reducing the burden on the interlocutor due to misrecognition of speech processing, an information processing apparatus that performs restoration processing by determining that there is misrecognition when detecting a specific utterance (pitch frequency, power) of the interlocutor (Patent Document 4) is also available.

特開平6−318100号公報JP-A-6-318100 特開平10−70790号公報Japanese Patent Laid-Open No. 10-70790 特開2010−212783号公報JP 2010-212783 A 特開平8−30290号公報JP-A-8-30290

しかしながら、特許文献1から3の技術は、発話音声の音の高さや音色、話速を変えて、対話者に聞き取り易くしようとしているが、対話者が実際に聞き取れたか確認しておらず、対話者の聴覚機能に合わせて発話音声を調整するものではなかった。   However, the techniques of Patent Documents 1 to 3 change the pitch, tone, and speech speed of the uttered voice to make it easier for the talker to hear, but have not confirmed whether the talker has actually heard it. The speech was not adjusted according to the auditory function of the person.

また、特許文献4は、ロボット側の誤認識による対話者の違和感を判断するものであり、対話者がロボットの発話音声を聞き取れたか判断するものではない。   Japanese Patent Laid-Open No. 2004-228867 determines whether the conversation person feels uncomfortable due to misrecognition on the robot side, and does not determine whether the conversation person can hear the speech voice of the robot.

したがって、従来技術では、対話者がロボットの発話音声を聞き取れないにも関わらず、ロボットが一方的に会話を進めてしまう場合があり、対話者がロボットとの会話においてストレスを感じる問題があった。   Therefore, in the conventional technology, there is a problem that the robot may unilaterally advance the conversation even though the conversation person cannot hear the voice of the robot, and the conversation person feels stress in the conversation with the robot. .

本発明は上記の問題点に鑑みてなされたものであり、ロボットの発話音声を対話者が聞き取ることができたか確認しながら再調整し、対話者にストレスを感じさせることなく、円滑なコミュニケーションが図れるロボットを提供することである。   The present invention has been made in view of the above-mentioned problems, and re-adjusted while confirming whether the utterance voice of the robot could be heard by the interlocutor, so that smooth communication is possible without causing the interlocutor to feel stress. It is to provide a robot that can be planned.

本発明のコミュニケーションロボットは、対話者の音声を入力する入力部と、対話者およびロボットが発話する複数の会話パターンを登録したデータベースと、データベースを参照して対話者の音声から会話パターンを認識する音声認識部と、データベースを参照して対話者の会話パターンに呼応するロボットの会話パターンを決定する会話パターン決定部と、ロボットの会話パターンを発話音声として出力する出力部と、ロボットの発話音声を対話者が聞き取れたかどうか判断する対話者反応検出部を備え、対話者反応検出部で対話者が聞き取れなかったと判断したとき、出力部で発話音声を調整して再出力することを特徴とする。   The communication robot according to the present invention recognizes a conversation pattern from a conversation person's voice by referring to the input section for inputting the conversation person's voice, a database in which a plurality of conversation patterns spoken by the conversation person and the robot are registered, and the database. A speech recognition unit, a conversation pattern determination unit that determines a conversation pattern of a robot that responds to a conversation pattern of a talker by referring to a database, an output unit that outputs the conversation pattern of the robot as an utterance speech, and an utterance speech of the robot A dialogue response detection unit for determining whether or not a dialogue person can hear is provided, and when it is judged by the dialogue response detection unit that a dialogue person cannot be heard, the output voice is adjusted and re-outputted.

また、コミュニケーションロボットにおいて、対話者の会話パターンは、対話者が聞き取れないときに発話するNGワードを含み、対話者反応検出部は、音声認識部でNGワードが検出されると対話者が聞き取れなかったと判断することを特徴とする。   In the communication robot, the conversation pattern of the conversation person includes an NG word that is uttered when the conversation person cannot hear, and the conversation person reaction detection unit cannot hear the conversation person when the speech recognition unit detects the NG word. It is characterized by judging.

また、コミュニケーションロボットにおいて、対話者反応検出部は、音声認識部で対話者の音声が認識されない無音時間が検出されると対話者が聞き取れなかったと判断することを特徴とする。   Further, in the communication robot, the conversational person reaction detection unit determines that the conversational person has not been heard when the speech recognition unit detects a silent time during which the voice of the conversational person is not recognized.

また、コミュニケーションロボットにおいて、対話者反応検出部で対話者が発話音声を聞き取れなかったと判断したとき、出力部において発話音声の音量、発話速度、発話周波数、発話抑揚の何れかを変更することを特徴とする。   Also, in the communication robot, when the conversation person reaction detection unit determines that the conversation person has not heard the utterance voice, the output section changes any of the volume of the utterance voice, the speech speed, the speech frequency, and the speech inflection. And

また、コミュニケーションロボットにおいて、対話者反応検出部で対話者が発話音声を聞き取れなかったと判断したとき、ロボットの会話パターンを対話者が聞き取れたかどうか確認する内容に変更することを特徴とする。   Further, in the communication robot, when the conversation person reaction detection unit determines that the conversation person cannot hear the uttered voice, the conversation pattern of the robot is changed to a content for confirming whether or not the conversation person has heard.

また、コミュニケーションロボットにおいて、対話者反応検出部で対話者が発話音声を聞き取れなかったと判断したとき、ロボットの会話パターンを別の会話を提案する内容に変更することを特徴とする。   Further, in the communication robot, when the conversation person reaction detection unit determines that the conversation person cannot hear the uttered voice, the conversation pattern of the robot is changed to a content for proposing another conversation.

本発明によれば、ロボットの発話音声を対話者が聞き取ることができたか確認しながら再調整し、対話者にストレスを感じさせることなく、円滑なコミュニケーションが図れるロボットを提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, it can readjust the robot's speech sound while confirming whether it was able to hear, and it can provide the robot which can aim at smooth communication, without making a conversation person feel stress.

本発明のコミュニケーションロボット100の基本構成を示すブロック図である。It is a block diagram which shows the basic composition of the communication robot 100 of this invention. 実施形態1における音声処理のフローチャートである。3 is a flowchart of audio processing in the first embodiment. 実施形態2における音声処理のフローチャートである。10 is a flowchart of audio processing in the second embodiment. 実施形態3における音声処理のフローチャートである。10 is a flowchart of audio processing in the third embodiment. 実施形態4における音声処理のフローチャートである。10 is a flowchart of audio processing in the fourth embodiment.

以下、本発明の実施の形態について図面を用いて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

(実施の形態1)
図1は、本発明のコミュニケーションロボット100の基本構成を示すブロック図である。図1を参照して、本発明のコミュニケーションロボット100の構成と機能について説明する。
(Embodiment 1)
FIG. 1 is a block diagram showing a basic configuration of a communication robot 100 of the present invention. With reference to FIG. 1, the structure and function of the communication robot 100 of the present invention will be described.

本発明のコミュニケーションロボット100は、入力部10、データベース20、音声認識部21、会話パターン決定部22、対話者反応検出部23、出力部30を備えている。   The communication robot 100 according to the present invention includes an input unit 10, a database 20, a voice recognition unit 21, a conversation pattern determination unit 22, a dialog person reaction detection unit 23, and an output unit 30.

入力部10は、発話速度検出部11、音声周波数検出部12、音声抑揚検出部13、音量検出部14を備える。入力部10は、上記構成により、対話者1が発話する音声を入力し、対話者1の音声から発話速度、音声周波数、音声抑揚、音量を検出する。   The input unit 10 includes an utterance speed detection unit 11, an audio frequency detection unit 12, an audio inflection detection unit 13, and a volume detection unit 14. With the above configuration, the input unit 10 inputs the voice uttered by the conversation person 1, and detects the speech speed, the voice frequency, the voice inflection, and the volume from the voice of the conversation person 1.

データベース20は、対話者およびロボットが発話する可能性がある複数の会話パターンを登録している。音声認識部21は、データベース20を参照して、対話者1が発話する音声を会話パターンとして認識する。音声認識部21で認識された対話者1の会話パターンは、会話パターン決定部22または対話者反応検出部23に送られる。   The database 20 registers a plurality of conversation patterns that may be spoken by a dialog person and a robot. The voice recognition unit 21 refers to the database 20 and recognizes the voice uttered by the conversation person 1 as a conversation pattern. The conversation pattern of the conversation person 1 recognized by the voice recognition section 21 is sent to the conversation pattern determination section 22 or the conversation person reaction detection section 23.

会話パターン決定部22は、データベース20を参照して、対話者1の会話パターンに呼応するロボットの会話パターンを決定し、出力部30に出力する。   The conversation pattern determination unit 22 refers to the database 20 to determine a robot conversation pattern that responds to the conversation pattern of the conversation person 1 and outputs it to the output unit 30.

出力部30は、発話速度制御部31、音声周波数制御部32、音声抑揚制御部33、音量制御部34を備える。出力部30は、ロボットの会話パターンの発話速度、音声周波数、音声抑揚、音量を調整して、ロボットの発話音声として対話者1に出力する。   The output unit 30 includes an utterance speed control unit 31, an audio frequency control unit 32, an audio inflection control unit 33, and a volume control unit 34. The output unit 30 adjusts the speech speed, speech frequency, speech inflection, and volume of the conversation pattern of the robot, and outputs it to the conversation person 1 as the speech speech of the robot.

対話者反応検出部23は、ロボットの発話音声に対して対話者1の反応を検出する。対話者反応検出部23の詳細については後述する。   The conversation person reaction detection unit 23 detects the reaction of the conversation person 1 with respect to the speech voice of the robot. Details of the conversation person reaction detection unit 23 will be described later.

図2は、実施形態1のコミュニケーションロボットにおける音声処理のフローチャートである。図2を参照してコミュニケーションロボットにおける音声処理について説明する。   FIG. 2 is a flowchart of voice processing in the communication robot according to the first embodiment. The voice processing in the communication robot will be described with reference to FIG.

まず、対話者1が発話した音声(S11)を入力部10に入力し(S12)、発話速度、音声周波数、音声抑揚、音量を検出して、音声認識部21で対話者1の会話パターンとして音声認識する(S13)。会話パターン決定部22では、データベース20を参照して、対話者1の会話パターンに対してロボットが呼応するための会話パターンを決定する(S14)。ロボットの会話パターンは、出力部30で発話速度、音声周波数、音声抑揚、音量が調整され、スピーカ等から発話音声として対話者1に出力される(S15)。   First, the voice (S11) uttered by the talker 1 is input to the input unit 10 (S12), and the speech speed, voice frequency, voice inflection, and volume are detected. Speech recognition (S13). The conversation pattern determination unit 22 refers to the database 20 to determine a conversation pattern for the robot to respond to the conversation pattern of the conversation person 1 (S14). The conversation pattern of the robot is adjusted in speech rate, speech frequency, speech inflection, and volume by the output unit 30, and is output to the conversation person 1 as speech speech from a speaker or the like (S15).

続いて、ロボットの発話音声が対話者1に聞き取れなかった場合の対応に説明する。   Next, a description will be given of the case where the utterance voice of the robot cannot be heard by the conversation person 1.

対話者反応検出部23は、ロボットが発話した音声を対話者1が聞き取ることができたかどうか対話者1の反応を検出する(S16)。具体的には、対話者1が聞き取れなかったことを示すNGワード、例えば、「聞こえなかった」、「何て言ったの?」、「もう一度言って」等の言葉が対話者1の会話パターンとしてデータベース20に登録されており、対話者反応検出部23は、音声認識部21がデータベース20を参照してNGワードを音声認識すると、対話者1がロボットの発話音声を聞き取れなかったと判断している。   The conversation person reaction detection unit 23 detects the reaction of the conversation person 1 whether or not the conversation person 1 has heard the voice uttered by the robot (S16). Specifically, an NG word indicating that the interlocutor 1 could not be heard, for example, words such as “I could not hear”, “What did you say?”, “Tell me again”, etc. Is registered in the database 20, and when the speech recognition unit 21 recognizes the NG word by referring to the database 20, the conversation person reaction detection unit 23 determines that the conversation person 1 has not heard the speech of the robot. Yes.

ロボットの発話音声を対話者1が聞き取れなかった場合(S17)、対話者反応検出部23は、NGカウンターをカウントアップ(+1)し(S19)、NGカウント数を出力部30に送信する。出力部30は、NGカウンターのカウント数に応じて(S22〜S24)、ロボットの発話音声を再調整(S25〜S28)してスピーカ等から再出力する(S15)。   When the conversation person 1 cannot hear the voice of the robot (S17), the conversation person reaction detection unit 23 counts up (+1) the NG counter (S19), and transmits the NG count number to the output unit 30. The output unit 30 re-adjusts the speech voice of the robot (S25 to S28) according to the count number of the NG counter (S22 to S24) and re-outputs it from the speaker or the like (S15).

図2に示す音声処理のフローでは、NGカウント数が所定回数N1になるまでは(S22)、発話音声の音量を上げながら(S25)、スピーカ等から再出力(S15)して対話者1の反応を確認(S16)している。聞き取れない状況が継続する場合、NGカウント数が所定回数N2になる(S23)までは、発話音声の発話速度を変更するステップ(S26)へ移行する。   In the voice processing flow shown in FIG. 2, until the number of NG counts reaches a predetermined number N1 (S22), the volume of the spoken voice is increased (S25), and re-output (S15) from the speaker, etc. The reaction is confirmed (S16). When the situation where it cannot be heard continues, until the NG count reaches the predetermined number N2 (S23), the process proceeds to the step (S26) of changing the speech speed of the speech.

聞き取れない状況がさらに継続する場合、NGカウント数が所定回数N3になるまでは(S24)、発話音声の発話周波数を変更するステップ(S27)、NGカウント数が所定回数N3を超えると発話音声の発話抑揚を変更するステップ(S28)へ移行させる等、対話者1がロボットの発話音声を聞き取れるように調整し続ける。   When the situation that cannot be heard continues further, until the NG count reaches the predetermined number N3 (S24), the step of changing the speech frequency of the speech (S27), and when the NG count exceeds the predetermined number N3, The adjustment is continued so that the conversation person 1 can hear the speech voice of the robot, such as shifting to the step (S28) of changing the speech inflection.

対話者1がロボットの発話音声を聞き取れるようになると(S17)、NGカウンターをリセットして(S18)、対話者1との次の会話に進める(S19)。   When the conversation person 1 can hear the speech voice of the robot (S17), the NG counter is reset (S18), and the process proceeds to the next conversation with the conversation person 1 (S19).

なお、ロボットが発声する発話音声を調整する際、発話音量、発話速度、発話周波数、発話抑揚の変更の順序は、上記実施形態に限定されるものではない。   Note that when adjusting the utterance voice uttered by the robot, the order of changing the utterance volume, the utterance speed, the utterance frequency, and the utterance inflection is not limited to the above embodiment.

以上のように、本発明のコミュニケーションロボットは、ロボットの発話音声を対話者が聞き取ることができたか確認しながら再調整を行っているため、ロボットからの会話が一方的になって対話者がストレスを感じることなく、対話者との円滑なコミュニケーションを図ることができる。   As described above, the communication robot according to the present invention performs readjustment while confirming whether or not the conversation voice can be heard by the conversation person, so that the conversation from the robot becomes unilateral and stresses the conversation person. Smooth communication with the interlocutor can be achieved without feeling.

(実施の形態2)
図3は、実施形態2のコミュニケーションロボットにおける音声処理のフローチャートである。図3を参照して実施形態2のコミュニケーションロボットにおける音声処理について説明する。
(Embodiment 2)
FIG. 3 is a flowchart of voice processing in the communication robot according to the second embodiment. With reference to FIG. 3, the voice processing in the communication robot of the second embodiment will be described.

実施形態2のコミュニケーションロボットでは、ロボットの発話音声を再調整しても対話者の聞き取り状況が改善されない場合に、ロボットの会話パターンを対話者1が聞き取れたか確認する内容に変更して調整するステップ(S32、S33)を追加したことを特徴としている。コミュニケーションロボットの基本的な構成や音声書処理フローについては、実施形態1と同じであるため詳細な説明は省略する。   In the communication robot according to the second embodiment, when the conversation situation of the conversation person is not improved even if the utterance voice of the robot is readjusted, the conversation pattern of the robot is changed to a content for confirming whether or not the conversation person 1 has heard, and is adjusted. It is characterized by adding (S32, S33). Since the basic configuration of the communication robot and the voice book processing flow are the same as those in the first embodiment, detailed description thereof is omitted.

実施形態2のコミュニケーションロボットでは、図3に示すように、ロボットの発話音声に対して発話音量、発話速度、発話周波数、発話抑揚等の変更を行っても聞き取り状況が改善されない場合(S31)、対話者1に対して聞き取れたかどうか確認するようにロボットの会話パターンを変更(S32)している。   In the communication robot of the second embodiment, as shown in FIG. 3, even if the utterance volume, the utterance speed, the utterance frequency, the utterance inflection, etc. are changed with respect to the utterance voice of the robot, the listening situation is not improved (S31). The conversation pattern of the robot is changed (S32) so as to confirm whether or not the conversation person 1 can hear it.

聞き取れたかどうか確認するとは、ロボットから、例えば、「分かった?」、「聞き取れた?」等、対話者に聞こえ具合を問いかけるような会話パターンを発話させることである。   The confirmation of whether or not it is heard is to cause the robot to utter a conversation pattern that asks the talker how to hear, such as “Did you understand?” Or “Have you heard?”, For example.

実施形態2のコミュニケーションロボットによれば、ロボットから聞き取れたかどうか確認する会話パターンで問いかけられることで、対話者がロボットからの気遣いを感じることができ、いつまでも同じ内容の会話パターンを繰り返されることによるストレスを軽減することができる。   According to the communication robot of the second embodiment, the dialogue pattern that confirms whether or not the robot can hear it makes it possible for the interlocutor to feel the care of the robot, and the stress caused by repeating the same conversation pattern indefinitely. Can be reduced.

(実施の形態3)
図4は、実施形態3のコミュニケーションロボットにおける音声処理のフローチャートである。図4を参照して実施形態3のコミュニケーションロボットにおける音声処理について説明する。
(Embodiment 3)
FIG. 4 is a flowchart of voice processing in the communication robot of the third embodiment. The voice processing in the communication robot of the third embodiment will be described with reference to FIG.

実施形態3のコミュニケーションロボットでは、発話音声の調整によっても対話者の聞き取り状況が改善されない場合に、ロボットの会話パターンを別の会話に変更するステップ(S34)を追加したことを特徴としている。コミュニケーションロボットの基本的な構成や音声書処理フローについては、実施形態1と同じであるため詳細な説明は省略する。   The communication robot according to the third embodiment is characterized in that a step (S34) for changing the conversation pattern of the robot to another conversation is added when the listening state of the conversation person is not improved even by adjusting the utterance voice. Since the basic configuration of the communication robot and the voice book processing flow are the same as those in the first embodiment, detailed description thereof is omitted.

実施形態3のコミュニケーションロボットでは、図4に示すように、ロボットが発声する発話音声に対して発話音量、発話速度、発話周波数、発話抑揚の変更を行っても聞き取り状況が改善されない場合(S31)、ロボットの会話パターンを対話者に別の会話を提案するような内容に変更している。   In the communication robot according to the third embodiment, as shown in FIG. 4, even if the speech volume, speech speed, speech frequency, and speech inflection are changed with respect to the speech voice uttered by the robot, the listening situation is not improved (S31). The conversation pattern of the robot is changed to a content that suggests another conversation to the interlocutor.

別の会話の提案とは、ロボットから、例えば、「別の話をしよう」、「他の話ある?」等の会話パターンを発話させることである。   The suggestion of another conversation is to cause the robot to utter a conversation pattern such as “Let's talk another story” or “Is there another story?”.

実施形態3のコミュニケーションロボットによれば、対話者がどうしても聞き取れない場合、別の会話に展開することで、いつまでもロボットから同じ内容の会話パターンが繰り返されることによるストレスを軽減することができる。   According to the communication robot of the third embodiment, when a conversation person cannot be heard by any means, the stress caused by repeating the conversation pattern of the same content from the robot forever can be reduced by developing the conversation in another conversation.

(実施の形態4)
図5は、実施形態4のコミュニケーションロボットにおける音声処理のフローチャートである。図5を参照して実施形態4のコミュニケーションロボットにおける音声処理について説明する。
(Embodiment 4)
FIG. 5 is a flowchart of voice processing in the communication robot of the fourth embodiment. The voice processing in the communication robot of the fourth embodiment will be described with reference to FIG.

実施形態4のコミュニケーションロボットでは、対話者が聞き取れたかどうかの確認を、音声認識部21で検出した対話者の無音時間により判断していることを特徴としている。コミュニケーションロボットの基本的な構成や音声書処理フローについては、実施形態1と同じであるため詳細な説明は省略する。   The communication robot according to the fourth embodiment is characterized in that whether or not a conversation person can hear is determined based on the silence time detected by the speech recognition unit 21. Since the basic configuration of the communication robot and the voice book processing flow are the same as those in the first embodiment, detailed description thereof is omitted.

実施形態4のコミュニケーションロボットでは、図5に示すように、ロボットの発話音声に対して対話者の発話が無い無音時間を音声認識部21で計測し、無音時間が所定の時間T(例えば、5秒)よりも長いときに(S36)、NGカウンターをカウントアップ(S21)し、NGカウント数に応じて、ロボットの発話音声の発話音量、発話速度、発話周波数、発話抑揚の変更を行うものである。   In the communication robot of the fourth embodiment, as shown in FIG. 5, the speech recognition unit 21 measures the silent time when the talker does not speak with respect to the spoken voice of the robot, and the silent time is a predetermined time T (for example, 5 (S36), the NG counter is counted up (S21), and the utterance volume, utterance speed, utterance frequency, and utterance inflection of the utterance voice of the robot are changed according to the NG count number. is there.

実施形態4のコミュニケーションロボットによれば、対話者の無音時間により聞き取れたかどうか判断することで、対話者が全く聞き取れずに反応できなかった場合でも、対話者が聞き取り易いようにロボットの発話音声を調整することができる。   According to the communication robot of the fourth embodiment, by determining whether or not the conversation person can hear it due to the silent time of the conversation person, even if the conversation person cannot hear and react at all, the conversation voice of the robot can be easily heard. Can be adjusted.

本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組合せて得られる実施形態についても本発明の技術的範囲に含まれる。   The present invention is not limited to the above-described embodiments, and various modifications can be made within the scope shown in the claims, and embodiments obtained by appropriately combining technical means disclosed in different embodiments. Is also included in the technical scope of the present invention.

1 対話者
10 入力部
11 発話速度検出部
12 音声周波数検出部
13 音声抑揚検出部
14 音量検出部
20 データベース
21 音声認識部
22 会話パターン決定部
23 対話者反応検出部
30 出力部
31 発話速度制御部
32 音声周波数制御部
33 音声抑揚制御部
34 音量制御部
100 コミュニケーションロボット
DESCRIPTION OF SYMBOLS 1 Dialoguer 10 Input part 11 Speech rate detection part 12 Voice frequency detection part 13 Voice inflection detection part 14 Volume detection part 20 Database 21 Speech recognition part 22 Conversation pattern determination part 23 Dialogue person reaction detection part 30 Output part 31 Speech speed control part 32 Voice Frequency Control Unit 33 Voice Inflection Control Unit 34 Volume Control Unit 100 Communication Robot

Claims (6)

対話者の音声を入力する入力部と、
前記対話者およびロボットが発話する複数の会話パターンを登録したデータベースと、
前記データベースを参照して前記対話者の音声から会話パターンを認識する音声認識部と、
前記データベースを参照して前記対話者の会話パターンに呼応する前記ロボットの会話パターンを決定する会話パターン決定部と、
前記ロボットの会話パターンを発話音声として出力する出力部と、
前記ロボットの発話音声を前記対話者が聞き取れたかどうか判断する対話者反応検出部を備え、
前記対話者反応検出部で前記対話者が聞き取れなかったと判断したとき、前記出力部で前記発話音声を調整して再出力することを特徴とするコミュニケーションロボット。
An input unit for inputting the voice of the conversation person;
A database in which a plurality of conversation patterns uttered by the interlocutor and the robot are registered;
A voice recognition unit that recognizes a conversation pattern from the voice of the conversation person with reference to the database;
A conversation pattern determination unit that determines the conversation pattern of the robot that responds to the conversation pattern of the conversation person with reference to the database;
An output unit that outputs the conversation pattern of the robot as an utterance voice;
A conversational reaction detection unit for determining whether the conversational person can hear the utterance voice of the robot,
A communication robot characterized in that, when it is determined by the interlocutor reaction detection unit that the interlocutor has not been heard, the output unit adjusts and re-outputs the uttered voice.
前記対話者の会話パターンは、前記対話者が聞き取れないときに発話するNGワードを含み、前記対話者反応検出部は、前記音声認識部で前記NGワードが検出されると前記対話者が聞き取れなかったと判断することを特徴とする請求項1に記載のコミュニケーションロボット。   The conversation pattern of the conversation person includes an NG word that is spoken when the conversation person cannot hear, and the conversation person reaction detection unit cannot hear the conversation person when the voice recognition unit detects the NG word. The communication robot according to claim 1, wherein the communication robot is determined. 前記対話者反応検出部は、前記音声認識部で前記対話者の音声が認識されない無音時間が検出されると前記対話者が聞き取れなかったと判断することを特徴とする請求項1に記載のコミュニケーションロボット。   2. The communication robot according to claim 1, wherein the interlocutor reaction detection unit determines that the interlocutor has not been heard when a silent time in which the speech of the interlocutor is not recognized by the speech recognition unit is detected. . 前記対話者反応検出部で前記対話者が前記発話音声を聞き取れなかったと判断したとき、前記出力部において前記発話音声の音量、発話速度、発話周波数、発話抑揚の何れかを変更することを特徴とする請求項1から3のいずれかに記載のコミュニケーションロボット。   When the conversation person reaction detection unit determines that the conversation person has not been able to hear the uttered speech, the output unit changes any one of the volume of the utterance speech, the speech speed, the speech frequency, and the speech inflection. The communication robot according to any one of claims 1 to 3. 前記対話者反応検出部で前記対話者が前記発話音声を聞き取れなかったと判断したとき、前記ロボットの会話パターンを前記対話者が聞き取れたかどうか確認する内容に変更することを特徴とする請求項1から3のいずれかに記載のコミュニケーションロボット。   2. When the conversation person reaction detection unit determines that the conversation person cannot hear the uttered voice, the conversation pattern of the robot is changed to a content for confirming whether or not the conversation person has heard. 4. The communication robot according to any one of 3. 前記対話者反応検出部で前記対話者が前記発話音声を聞き取れなかったと判断したとき、前記ロボットの会話パターンを別の会話を提案する内容に変更することを特徴とする請求項1から3のいずれかに記載のコミュニケーションロボット。   4. The robot according to claim 1, wherein when the interlocutor reaction detection unit determines that the interlocutor cannot hear the uttered voice, the conversation pattern of the robot is changed to a content for proposing another conversation. Crab communication robot.
JP2014256749A 2014-12-19 2014-12-19 Communication Robot Pending JP2016118592A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014256749A JP2016118592A (en) 2014-12-19 2014-12-19 Communication Robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014256749A JP2016118592A (en) 2014-12-19 2014-12-19 Communication Robot

Publications (1)

Publication Number Publication Date
JP2016118592A true JP2016118592A (en) 2016-06-30

Family

ID=56243008

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014256749A Pending JP2016118592A (en) 2014-12-19 2014-12-19 Communication Robot

Country Status (1)

Country Link
JP (1) JP2016118592A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109891501A (en) * 2016-11-08 2019-06-14 夏普株式会社 Voice adjusts the control method of device, control program, electronic equipment and voice adjustment device
WO2024053765A1 (en) * 2022-09-08 2024-03-14 엘지전자 주식회사 Guide robot and guide robot operation method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109891501A (en) * 2016-11-08 2019-06-14 夏普株式会社 Voice adjusts the control method of device, control program, electronic equipment and voice adjustment device
WO2024053765A1 (en) * 2022-09-08 2024-03-14 엘지전자 주식회사 Guide robot and guide robot operation method

Similar Documents

Publication Publication Date Title
US20220295194A1 (en) Interactive system for hearing devices
US11150866B2 (en) Systems and methods for contextual audio detection and communication mode transactions
US20150281853A1 (en) Systems and methods for enhancing targeted audibility
EP2081405B1 (en) A hearing aid adapted to a specific type of voice in an acoustical environment, a method and use
US9666209B2 (en) Prevention of unintended distribution of audio information
EP2928164A1 (en) Transmission method and device for voice data
US20080262849A1 (en) Voice control system
WO2019090283A1 (en) Coordinating translation request metadata between devices
JP5431282B2 (en) Spoken dialogue apparatus, method and program
JP6405653B2 (en) Audio output device and audio output method
JPWO2007138741A1 (en) Voice input system, interactive robot, voice input method, and voice input program
JP2009178783A (en) Communication robot and its control method
JP2018097029A (en) Voice recognition device and voice recognition method
US20160210982A1 (en) Method and Apparatus to Enhance Speech Understanding
JP2010139571A (en) Voice processing apparatus and voice processing method
JPWO2008007616A1 (en) Non-voice utterance input warning device, method and program
JP2016118592A (en) Communication Robot
WO2018198791A1 (en) Signal processing device, method, and program
JP4983417B2 (en) Telephone device having conversation speed conversion function and conversation speed conversion method
JP2016085420A (en) Voice adjustment device
KR102088216B1 (en) Method and device for reducing crosstalk in automatic speech translation system
JP6020461B2 (en) Voice input / output device, howling prevention method and howling prevention program
JP2018165805A (en) Interactive device, method for controlling interactive device, and program
US20080059161A1 (en) Adaptive Comfort Noise Generation
JP2013114118A (en) Speaker speaking rate control device and operation method thereof

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20161104