JP6874437B2 - コミュニケーションロボット、プログラム及びシステム - Google Patents
コミュニケーションロボット、プログラム及びシステム Download PDFInfo
- Publication number
- JP6874437B2 JP6874437B2 JP2017047405A JP2017047405A JP6874437B2 JP 6874437 B2 JP6874437 B2 JP 6874437B2 JP 2017047405 A JP2017047405 A JP 2017047405A JP 2017047405 A JP2017047405 A JP 2017047405A JP 6874437 B2 JP6874437 B2 JP 6874437B2
- Authority
- JP
- Japan
- Prior art keywords
- communication robot
- utterance
- target person
- unit
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Toys (AREA)
- Manipulator (AREA)
Description
第1の発明は、音声出力部を備えたコミュニケーションロボットであって、被写体を撮影して撮影画像を生成する撮影部と、前記撮影部によって得られた撮影画像に基づいて、発話対象者を特定する対象者特定手段と、前記コミュニケーションロボットの配置位置周辺の混雑度を判定する混雑度判定手段と、前記混雑度判定手段による判定結果に応じて所定の処理を行うとともに、前記対象者特定手段により特定した前記発話対象者に対する発話データを、前記音声出力部から出力する発話手段と、を備えるコミュニケーションロボットである。
第2の発明は、第1の発明のコミュニケーションロボットにおいて、前記撮影部によって得られた撮影画像から人物を特定する人特定手段と、前記人特定手段によって特定した人物の顔の器官を検出する器官検出手段と、を備え、前記発話手段は、前記器官検出手段により検出した顔の器官から耳を特定し、特定した耳に近接した位置で、前記発話データを出力すること、を特徴とするコミュニケーションロボットである。
第3の発明は、第2の発明のコミュニケーションロボットにおいて、前記対象者特定手段は、前記器官検出手段により検出した顔の器官から目を特定し、特定した目の向きに基づいて前記発話対象者を特定すること、を特徴とするコミュニケーションロボットである。
第4の発明は、第2の発明のコミュニケーションロボットにおいて、前記器官検出手段により検出した顔の器官から目を特定し、このコミュニケーションロボットの顔の位置を、特定した目に対面する位置に変更する顔位置変更手段を備え、前記発話手段は、前記顔位置変更手段によって顔の位置を変更した後に、前記発話データを出力すること、を特徴とするコミュニケーションロボットである。
第5の発明は、第1の発明から第4の発明までのいずれかのコミュニケーションロボットにおいて、前記所定の処理として、前記対象者特定手段により特定した前記発話対象者と、このコミュニケーションロボットとを近接させるための処理を行うこと、を特徴とするコミュニケーションロボットである。
第6の発明は、第5の発明のコミュニケーションロボットにおいて、前記所定の処理として、前記対象者特定手段により特定した前記発話対象者までの距離が前記混雑度に対応した距離になるように、このコミュニケーションロボットを移動させる処理を行うこと、を特徴とするコミュニケーションロボットである。
第7の発明は、第1の発明から第4の発明までのいずれかのコミュニケーションロボットにおいて、指向性のある音を出力する指向音声出力部を備え、前記所定の処理として、前記混雑度が閾値以上の場合に、前記対象者特定手段により特定した前記発話対象者の位置を特定する処理を行い、前記発話手段は、特定した前記位置に向けて、前記指向音声出力部から前記発話データを出力すること、を特徴とするコミュニケーションロボットである。
第8の発明は、第1の発明から第7の発明までのいずれかのコミュニケーションロボットにおいて、前記コミュニケーションロボットの配置位置周辺の音声を取得する周辺音取得手段と、前記周辺音取得手段によって取得した前記音声の音量レベルを判定する音量判定手段と、を備え、前記混雑度判定手段は、前記音量判定手段により判定した音量レベルに基づいて、前記混雑度を判定すること、を特徴とするコミュニケーションロボットである。
第9の発明は、第1の発明から第8の発明までのいずれかのコミュニケーションロボットにおいて、前記混雑度判定手段は、前記撮影部によって得られた前記撮影画像に基づいて、前記混雑度を判定すること、を特徴とするコミュニケーションロボットである。
第10の発明は、第1の発明から第9の発明までのいずれかのコミュニケーションロボットにおいて、前記所定の処理として、前記音声出力部から出力される音声をうち消す音を、前記対象者特定手段により特定した前記発話対象者とは異なる方向に、前記音声出力部とは異なる他の音声出力部から出力する処理を行うこと、を特徴とするコミュニケーションロボットである。
第11の発明は、第1の発明から第10の発明までのいずれかのコミュニケーションロボットとしてコンピュータを機能させるためのプログラムである。
第12の発明は、被写体を撮影して撮影画像を生成する撮影部及び音声出力部を備えたコミュニケーションロボットと、前記コミュニケーションロボットに対して通信可能に接続されたサーバと、を備えるコミュニケーションロボットシステムであって、前記サーバは、前記コミュニケーションロボットによって得られた撮影画像に基づいて、発話対象者を特定する対象者特定手段と、前記コミュニケーションロボットの配置位置周辺の混雑度を判定する混雑度判定手段と、前記混雑度判定手段により判定された前記混雑度に基づく処理データと、前記対象者特定手段により特定した前記発話対象者に対する発話データとを、前記コミュニケーションロボットに送信するデータ送信手段と、を備え、前記コミュニケーションロボットは、前記サーバから受信した前記処理データを実行する混雑処理手段と、前記サーバから受信した前記発話データを前記音声出力部から出力する発話手段と、を備えること、を特徴とするコミュニケーションロボットシステムである。
(実施形態)
図1は、本実施形態に係るコミュニケーションロボット1における運用の具体例を示す図である。
コミュニケーションロボット1は、このコミュニケーションロボット1に対して関心を持っているユーザP(発話対象者)を特定する。
そして、コミュニケーションロボット1は、特定したユーザPの話を聞く処理をする。
また、コミュニケーションロボット1は、特定したユーザPに対して話かける処理をする。
このように、コミュニケーションロボット1は、ヒアリングをするロボットであり、かつ、おしゃべりをするロボットである。
コミュニケーションロボット1は、例えば、展示場内、店舗内等のスペースSに配置されている。なお、コミュニケーションロボット1は、ユーザPを特定するために、図1に示すように、スペースSを見渡せる位置に配置することが望ましい。
コミュニケーションロボット1は、例えば、スペースSにいるユーザを含む画像データ(撮影画像)を取得して分析する。
そして、コミュニケーションロボット1は、コミュニケーションロボット1に話かけたそうにしているユーザPを特定した場合に、ユーザPに近づく。そして、コミュニケーションロボット1は、ユーザPが発した音声データを受け付けて、発話内容を取得する。
また、コミュニケーションロボット1は、コミュニケーションロボット1の話を聞きたそうにしているユーザPを特定した場合に、ユーザPに近づく。そして、コミュニケーションロボット1は、発話データを出力することで、ユーザPに話しかける。
図2は、本実施形態に係るコミュニケーションロボット1の機能ブロック図である。
図2に示すように、コミュニケーションロボット1は、制御部10と、記憶部30と、カメラ41(撮影部)と、スピーカ部42と、マイク部43と、モータ部44とを備える。
制御部10は、コミュニケーションロボット1の全体を制御する中央処理装置(CPU)である。制御部10は、記憶部30に記憶されているオペレーティングシステム(OS)やアプリケーションプログラムを適宜読み出して実行することにより、上述したハードウェアと協働し、各種機能を実行する。
画像取得部11は、カメラ41を介して撮影した画像データを取得する。画像取得部11は、画像データを、1つ取得してもよいし、動画のように連続して複数取得してもよい。
器官検出部13は、人物特定部12によって特定した各ユーザの顔の各器官(目、鼻、口等)を検出する。この顔の各器官の位置を求める手法としては、様々な公知の手法があるが、例えば、回帰モデルを用いた顔の器官検出手法を用いることができる。そして、回帰モデルを用いた顔の器官検出手法に関しては、例えば、米国特許出願公開第2014/0185924号明細書に記載されている。
ユーザ特定部14は、このコミュニケーションロボット1の話を聞きたそうにしている、又は、このコミュニケーションロボット1に話かけたそうにしているユーザPを特定する。ユーザ特定部14は、例えば、器官検出部13により検出した顔の目の向きや、口の動き等を考慮して、ユーザPを特定する。
音量判定部16は、周辺音取得部15が取得した音声データの音量レベルを判定する。
混雑度判定部17は、例えば、音量判定部16により判定した音量レベルに基づいて、このコミュニケーションロボット1の位置での混雑度を判定する。
また、混雑度判定部17は、人物特定部12で特定したユーザ数に基づいて、このコミュニケーションロボット1の位置での混雑度を判定してもよい。混雑度判定部17は、例えば、特定したユーザ数が多ければ、混雑度を大と判定し、特定したユーザ数が少なければ、混雑度を小と判定する。
そして、混雑度判定部17は、音量レベルと、ユーザ数との両方によって、混雑度を判定してもよい。
足移動部19は、混雑度判定部17により判定した混雑度に応じて、ユーザ特定部14で特定したユーザPの方向に、このコミュニケーションロボット1を移動させる。足移動部19は、足部モータ44bを制御して、コミュニケーションロボット1を移動させる。
なお、消音データは、例えば、音楽等のBGMとともに出力してもよい。このような、ノイズキャンセルの仕組みは、様々な技術により行うことができるが、例えば、特許第5648485号公報に記載の手法により行うことができる。
音声受付部22は、マイク43aを介してユーザPが発した音声データを受け付ける。音声受付部22は、ユーザPを特定した後の音声データを受け付けてもよいし、画像取得部11が取得した画像データに基づいて、ユーザPの口が動いている間の音声データを受け付けてもよい。
音声認識部23は、音声受付部22が受け付けた音声データから、ユーザPが発した音声内容を認識する。
なお、各処理の詳細については、後述する。
記憶部30は、プログラム記憶部31と、発話データ記憶部32と、消音データ記憶部33とを備える。
プログラム記憶部31は、プログラムを記憶する記憶領域である。プログラム記憶部31は、上述した制御部10の各種機能を実行するための制御プログラム31a(プログラム)を記憶している。
発話データ記憶部32は、コミュニケーションロボット1がスピーカ42aから出力する発話データを記憶する記憶領域である。
消音データ記憶部33は、コミュニケーションロボット1がスピーカ42bから出力する消音データを記憶する記憶領域である。
スピーカ部42は、音声出力装置である。スピーカ部42は、スピーカ42a(音声出力部)及びスピーカ42b(他の音声出力部、消音出力部)を備える。
スピーカ42aは、例えば、コミュニケーションロボット1の口の部分に対応する位置に設けられている。そして、スピーカ42aは、制御部10の指示に基づいて、ユーザPに対してあたかもコミュニケーションロボット1がしゃべっているかのように、発話データを音声出力する。
スピーカ42bは、例えば、コミュニケーションロボット1の胴体部分に対応する位置に設けられて、制御部10の指示に基づいて、消音データを出力する。
マイク43aは、例えば、コミュニケーションロボット1の耳の部分に対応する位置に設けられている。そして、マイク43aは、制御部10の指示に基づいて、ユーザPが発した音声データを入力する。
マイク43bは、例えば、コミュニケーションロボット1の胴体部分に対応する位置に設けられて、制御部10の指示に基づいて、コミュニケーションロボット1の周囲の音声データを入力する。
頭部モータ44aは、コミュニケーションロボット1の頭部を動かすモータである。頭部モータ44aは、制御部10によって制御され、スペースS内にいる様々なユーザを被写体として撮影するために、頭部を上下左右に動かす。また、頭部モータ44aは、特定したユーザPの方向を向くように、頭部を上下左右に動かす。
足部モータ44bは、コミュニケーションロボット1の足部にあり、コミュニケーションロボット1を移動させるためのモータである。
次に、コミュニケーションロボット1の処理について説明する。
図3は、本実施形態に係るコミュニケーションロボット1でのロボット制御処理を示すフローチャートである。
図4は、本実施形態に係るコミュニケーションロボット1でのユーザ特定処理を示すフローチャートである。
図5は、本実施形態に係るコミュニケーションロボット1での混雑度判定処理を示すフローチャートである。
なお、コミュニケーションロボット1は、このロボット制御処理を、例えば、コミュニケーションロボット1の電源が投入されている間に、適宜のタイミング(例えば、1分おき等)で実行する。
S11において、制御部10は、ユーザ特定処理を行う。ユーザ特定処理では、このコミュニケーションロボット1の話を聞きたそうにしているユーザPや、このコミュニケーションロボット1に対して話かけたそうにしているユーザPを特定するための処理である。
図4のS30において、制御部10(人物特定部12)は、画像データから顔画像を検出することで、人物であるユーザを特定する。この処理において、画像データに複数人を含む場合には、制御部10は、人物であるユーザを複数特定する。
S31において、制御部10は、ユーザを特定できたか否かを判断する。ユーザを特定できた場合(S31:YES)には、制御部10は、処理をS32に移す。他方、ユーザを特定できなかった場合(S31:NO)には、制御部10は、本処理を終了し、処理を図3に移す。なお、ユーザを特定できなかった場合とは、例えば、画像データに人を含まない場合をいう。
S33において、制御部10(ユーザ特定部14)は、検出した各ユーザの目が向いている方向を特定する。
S35において、制御部10(ユーザ特定部14)は、目が正面を向いているユーザを、ユーザPとして特定する。ここで、制御部10は、目が正面を向いているユーザが複数存在する場合には、ランダムにユーザPを特定してもよい。また、制御部10は、このコミュニケーションロボット1との間の距離に基づいて、ユーザPを特定してもよい。さらに、制御部10は、画像から判別したユーザの大きさに基づいて、ユーザPを特定してもよい。その後、制御部10は、本処理を終了し、処理を図3に移す。
S13において、制御部10は、混雑度判定処理を行う。
図5のS40において、制御部10(周辺音取得部15)は、マイク43bを介して、このコミュニケーションロボット1の位置における周囲の音声データを受け付ける。
S41において、制御部10(音量判定部16)は、受け付けた音声データの音量レベルを判定する。制御部10は、音量レベルを、例えば、大、中、小の3段階のいずれであるかを判定する。
S15において、制御部10(足移動部19)は、足部モータ44bを制御して、ユーザPに近づくように、ユーザPのいる方向へ移動させる。
S17において、制御部10(消音出力部20)は、消音データをスピーカ42bから出力させる。ここで、消音データは、ユーザPが発する音声データを打ち消す音のデータである。
なお、コミュニケーションロボット1の制御部10は、音声認識後の処理として、ユーザPに音声認識結果に応じた音声データを出力したり、音声認識結果に応じた動作を行ったりして、ユーザPとの間でコミュニケーションを行うことができる。
S21において、制御部10(発話部21)は、発話データ記憶部32から抽出した発話データを、スピーカ42aを介して出力させる。
S22において、制御部10は、出力していた消音データを停止させる。その後、制御部10は、本処理を終了する。
次に、このコミュニケーションロボット1を用いたロボット制御処理の具体例について説明する。
図6は、本実施形態に係るコミュニケーションロボット1のロボット制御処理における具体例を示す図である。
まず、コミュニケーションロボット1の制御部10は、図6(A)に示すような、目が正面を向いているユーザP1を含む画像データ50を取得する(図3のS10)。そして、制御部10は、ユーザP1を、コミュニケーションロボット1に関心を持ったユーザであると特定する(図3のS11及び図4)。
そして、図6(B)及び(C)に示すように、制御部10は、ユーザP1の位置に向かって移動し(図3のS15)、ユーザP1の顔を見るように頭の向きを変更して(図3のS16)、ユーザP1からの音声データを受け付け可能な状態にする。また、制御部10は、スピーカ42bから消音データを出力させる(図3のS17)。
(1)撮影した画像データからユーザPを特定し、コミュニケーションロボット1の周囲の混雑度を判断し、混雑度に基づく処理の後にユーザPに対して発話データを出力するので、混雑した状態であっても、ユーザPに聞こえるように話かけることができる。また、混雑した状態であっても混雑度に基づく処理をするので、コミュニケーションロボット1は、ユーザPの話を聞くことができる。
(2)撮影した画像データから人物を特定して、顔の器官を検出し、目の向きに基づいてユーザPを特定するので、コミュニケーションロボット1の方向を向いているユーザPを、コミュニケーションロボット1に対して関心を持っているものとして、話しかけをすることができる。
(4)ユーザPとの距離を近づけるように、コミュニケーションロボット1を移動させるので、囁くような小声で話しかけても、ユーザPに聞こえるようにできる。また、大きな音量で音声データを出力する訳ではないので、第三者には、会話内容を聞かれるリスクを抑えることができる。
(6)コミュニケーションロボット1と、ユーザPとを結ぶ位置を除く範囲には、会話を聞き取りにくくする消音データを出力するので、第三者には、会話の内容を聞き取りにくくできる。
(7)画像データの取得から音声認識処理又は発話処理までの全ての処理を、コミュニケーションロボット1が行うことができる。よって、コミュニケーションロボット1のみを準備すればよく、設置を容易に行うことができる。
(1)本実施形態では、コミュニケーションロボットが、対象のユーザに対して音声データを出力するスピーカを有するものとして説明したが、これに限定されない。
図7は、変形形態に係るコミュニケーションロボットの具体例を示す図である。
コミュニケーションロボットとは別にスピーカを有して、コミュニケーションロボットに外付けしてもよい。そして、図7(A)に示すように、スピーカ72(指向音声出力部)は、指向性を有するものであってもよい。その場合には、コミュニケーションロボット1が対象のユーザP2に近づかなくても、コミュニケーションロボット1は、スピーカ72によって対象のユーザP2に向かって音声データを出力できる。
(2)本実施形態では、コミュニケーションロボットが対象のユーザの音声データを受け付けるマイクを有するものとして説明したが、これに限定されない。コミュニケーションロボットとは別にマイクを有し、コミュニケーションロボットに外付けしてもよい。そして、図7(B)に示すように、マイク73(指向音声入力部)は、指向性を有するものであってもよい。その場合には、コミュニケーションロボット1が対象のユーザP3に近づかなくても、コミュニケーションロボット1は、マイク73によって対象のユーザP3が発した音声データを受け付けることができる。
(4)本実施形態では、ユーザの目の向きが正面である場合に、コミュニケーションロボットを見ているとみなして、ユーザを特定するものとして説明したが、これに限定されない。さらに、ユーザの口が動いている場合に、ユーザを特定してもよい。その場合には、コミュニケーションロボットは、ユーザの話を聞くものとして動作すればよい。
(5)本実施形態では、ユーザの見ている方向を、目の目線の方向としてもよい。例えば、制御部は、検出した顔画像から目を抽出することができるが、抽出した目の眼球と瞳孔との相対位置に基づいて、目線の向きを取得できる。その結果、コミュニケーションロボット1を直視しているユーザを、対象にすることができる。
コミュニケーションロボットが話かける場合に、ユーザの耳を検出し、ユーザの耳に近接した位置で発話データを音声出力してもよい。そのようにすることで、あたかもユーザの耳元で囁くように演出でき、コミュニケーションロボットが発した音声データを、第三者により聞き取れないようにできる。
また、コミュニケーションロボットが話を聞く場合に、ユーザの口を検出し、マイク43aをユーザの口に近接した位置にしてもよい。そのようにすることで、あたかもコミュニケーションロボットの耳を近づけて聞くように演出でき、ユーザが発した音声データを、第三者により聞き取れないようにできる。
(8)本実施形態では、画像データの取得から音声認識処理又は発話処理までの全ての処理を、コミュニケーションロボットが行うものとして説明したが、これに限定されない。このコミュニケーションロボットに対して通信接続されたサーバを備え、サーバが、少なくとも一部の処理を行うようにしてもよい。
10 制御部
11 画像取得部
12 人物特定部
13 器官検出部
14 ユーザ特定部
15 周辺音取得部
16 音量判定部
17 混雑度判定部
18 顔位置変更部
19 足移動部
20 消音出力部
21 発話部
22 音声受付部
23 音声認識部
30 記憶部
31a 制御プログラム
33 消音データ記憶部
41 カメラ
42a,42b,72 スピーカ
43a,43b,73 マイク
44 モータ部
P,P1〜P3 ユーザ
Claims (11)
- 音声出力部を備えたコミュニケーションロボットであって、
被写体を撮影して撮影画像を生成する撮影部と、
前記撮影部によって得られた撮影画像から人物を特定する人特定手段と、
前記人特定手段によって特定した人物の顔の器官を検出する器官検出手段と、
前記人特定手段によって特定した人物から発話対象者を特定する対象者特定手段と、
前記コミュニケーションロボットの配置位置周辺の混雑度を判定する混雑度判定手段と、
前記混雑度判定手段による判定結果に応じて所定の処理を行うとともに、前記対象者特定手段により特定した前記発話対象者に対する発話データを、前記音声出力部から出力する発話手段と、
を備え、
前記発話手段は、前記器官検出手段により検出した顔の器官から耳を特定し、特定した耳に近接した位置で、前記発話データを出力すること、
を特徴とするコミュニケーションロボット。 - 請求項1に記載のコミュニケーションロボットにおいて、
人型のロボットであり、
前記撮影部は、目の部分に対応する位置に設けられ、
前記音声出力部は、口の部分に対応する位置に設けられ、
前記発話手段は、前記音声出力部と、特定した耳とが近接した位置で、前記発話データを出力すること、
を特徴とするコミュニケーションロボット。 - 請求項1又は請求項2に記載のコミュニケーションロボットにおいて、
前記対象者特定手段は、前記器官検出手段により検出した顔の器官から目を特定し、特定した目の向きに基づいて前記発話対象者を特定すること、
を特徴とするコミュニケーションロボット。 - 請求項1又は請求項2に記載のコミュニケーションロボットにおいて、
前記器官検出手段により検出した顔の器官から目を特定し、このコミュニケーションロボットの顔の位置を、特定した目に対面する位置に変更する顔位置変更手段を備え、
前記発話手段は、前記顔位置変更手段によって顔の位置を変更した後に、前記発話データを出力すること、
を特徴とするコミュニケーションロボット。 - 請求項1から請求項4までのいずれかに記載のコミュニケーションロボットにおいて、
前記所定の処理として、前記対象者特定手段により特定した前記発話対象者と、このコミュニケーションロボットとを近接させるための処理を行うこと、
を特徴とするコミュニケーションロボット。 - 請求項5に記載のコミュニケーションロボットにおいて、
前記所定の処理として、前記対象者特定手段により特定した前記発話対象者までの距離が前記混雑度に対応した距離になるように、このコミュニケーションロボットを移動させる処理を行うこと、
を特徴とするコミュニケーションロボット。 - 請求項1から請求項6までのいずれかに記載のコミュニケーションロボットにおいて、
前記コミュニケーションロボットの配置位置周辺の音声を取得する周辺音取得手段と、
前記周辺音取得手段によって取得した前記音声の音量レベルを判定する音量判定手段と、
を備え、
前記混雑度判定手段は、前記音量判定手段により判定した音量レベルに基づいて、前記混雑度を判定すること、
を特徴とするコミュニケーションロボット。 - 請求項1から請求項7までのいずれかに記載のコミュニケーションロボットにおいて、
前記混雑度判定手段は、前記撮影部によって得られた前記撮影画像に基づいて、前記混雑度を判定すること、
を特徴とするコミュニケーションロボット。 - 請求項1から請求項8までのいずれかに記載のコミュニケーションロボットにおいて、
前記所定の処理として、前記音声出力部から出力される音声をうち消す音を、前記対象者特定手段により特定した前記発話対象者とは異なる方向に、前記音声出力部とは異なる他の音声出力部から出力する処理を行うこと、
を特徴とするコミュニケーションロボット。 - 請求項1から請求項9までのいずれかに記載のコミュニケーションロボットとしてコンピュータを機能させるためのプログラム。
- 被写体を撮影して撮影画像を生成する撮影部及び音声出力部を備えたコミュニケーションロボットと、
前記コミュニケーションロボットに対して通信可能に接続されたサーバと、
を備えるコミュニケーションロボットシステムであって、
前記サーバは、
前記コミュニケーションロボットによって得られた撮影画像から人物を特定する人特定手段と、
前記人特定手段によって特定した人物の顔の器官を検出し、前記人物の耳を特定する器官検出手段と、
前記人特定手段によって特定した人物から発話対象者を特定する対象者特定手段と、
前記コミュニケーションロボットの配置位置周辺の混雑度を判定する混雑度判定手段と、
前記混雑度判定手段により判定された前記混雑度に基づく処理データと、前記対象者特定手段により特定した前記発話対象者に対する発話データとを、前記コミュニケーションロボットに送信するデータ送信手段と、
を備え、
前記コミュニケーションロボットは、
前記サーバから受信した前記処理データを実行する混雑処理手段と、
前記混雑処理手段による前記処理データを実行後、前記発話対象者の耳に近接した位置で、前記サーバから受信した前記発話データを前記音声出力部から出力する発話手段と、
を備えること、
を特徴とするコミュニケーションロボットシステム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017047405A JP6874437B2 (ja) | 2017-03-13 | 2017-03-13 | コミュニケーションロボット、プログラム及びシステム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017047405A JP6874437B2 (ja) | 2017-03-13 | 2017-03-13 | コミュニケーションロボット、プログラム及びシステム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018149625A JP2018149625A (ja) | 2018-09-27 |
JP6874437B2 true JP6874437B2 (ja) | 2021-05-19 |
Family
ID=63679843
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017047405A Active JP6874437B2 (ja) | 2017-03-13 | 2017-03-13 | コミュニケーションロボット、プログラム及びシステム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6874437B2 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7253900B2 (ja) * | 2018-11-13 | 2023-04-07 | 株式会社日立製作所 | コミュニケーションロボット |
JP7180470B2 (ja) | 2019-03-18 | 2022-11-30 | トヨタ自動車株式会社 | コミュニケーションシステム、及びコミュニケーションシステムの制御方法 |
JP7300335B2 (ja) * | 2019-07-17 | 2023-06-29 | 日本信号株式会社 | 案内ロボット及び案内ロボット用のプログラム |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4303602B2 (ja) * | 2004-01-09 | 2009-07-29 | 本田技研工業株式会社 | 顔面像取得システム |
US7424118B2 (en) * | 2004-02-10 | 2008-09-09 | Honda Motor Co., Ltd. | Moving object equipped with ultra-directional speaker |
JP2006187825A (ja) * | 2005-01-05 | 2006-07-20 | Yaskawa Electric Corp | ロボット装置およびその制御方法 |
JP4793904B2 (ja) * | 2005-03-24 | 2011-10-12 | 株式会社国際電気通信基礎技術研究所 | コミュニケーションロボットシステムおよびコミュニケーションロボット |
JP4539600B2 (ja) * | 2006-04-11 | 2010-09-08 | トヨタ自動車株式会社 | 案内ロボット |
JP2008087140A (ja) * | 2006-10-05 | 2008-04-17 | Toyota Motor Corp | 音声認識ロボットおよび音声認識ロボットの制御方法 |
JP5648485B2 (ja) * | 2011-01-06 | 2015-01-07 | 大日本印刷株式会社 | 秘匿化データ生成装置、秘匿化データ生成方法、秘匿化装置、秘匿化方法及びプログラム |
-
2017
- 2017-03-13 JP JP2017047405A patent/JP6874437B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018149625A (ja) | 2018-09-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10848889B2 (en) | Intelligent audio rendering for video recording | |
US20220159403A1 (en) | System and method for assisting selective hearing | |
US11696063B2 (en) | Automatic active noise reduction (ANR) control to improve user interaction | |
KR102481454B1 (ko) | 방향성 인터페이스를 갖는 핸즈 프리 디바이스 | |
US9949056B2 (en) | Method and apparatus for presenting to a user of a wearable apparatus additional information related to an audio scene | |
US20230045237A1 (en) | Wearable apparatus for active substitution | |
WO2019206186A1 (zh) | 唇语识别方法及其装置、增强现实设备以及存储介质 | |
US10922044B2 (en) | Wearable audio device capability demonstration | |
JP5862585B2 (ja) | コミュニケーションシステム及びロボット | |
JP6874437B2 (ja) | コミュニケーションロボット、プログラム及びシステム | |
JP6562790B2 (ja) | 対話装置および対話プログラム | |
JP2009166184A (ja) | ガイドロボット | |
WO2022253003A1 (zh) | 语音增强方法及相关设备 | |
JP2009178783A (ja) | コミュニケーションロボット及びその制御方法 | |
US20230164509A1 (en) | System and method for headphone equalization and room adjustment for binaural playback in augmented reality | |
WO2019228329A1 (zh) | 个人听力装置、外部声音处理装置及相关计算机程序产品 | |
JP5130298B2 (ja) | 補聴器の動作方法、および補聴器 | |
TW202203207A (zh) | 用於擴展現實共享空間的音訊控制 | |
JP3838159B2 (ja) | 音声認識対話装置およびプログラム | |
JP2018149626A (ja) | コミュニケーションロボット、プログラム及びシステム | |
WO2022181013A1 (ja) | 会議システム | |
JP7286303B2 (ja) | 会議支援システム及び会議用ロボット | |
CN111696566B (zh) | 语音处理方法、装置和介质 | |
JP2022054447A (ja) | ウェアラブルコンピューティングデバイスの音声インターフェースのための方法、システムおよびコンピュータプログラム製品(ウェアラブルコンピューティングデバイス音声インターフェース) | |
EP3288035A2 (en) | Personal audio lifestyle analytics and behavior modification feedback |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200129 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201210 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201215 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210126 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210323 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210405 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6874437 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |