JP2018149626A - コミュニケーションロボット、プログラム及びシステム - Google Patents

コミュニケーションロボット、プログラム及びシステム Download PDF

Info

Publication number
JP2018149626A
JP2018149626A JP2017047406A JP2017047406A JP2018149626A JP 2018149626 A JP2018149626 A JP 2018149626A JP 2017047406 A JP2017047406 A JP 2017047406A JP 2017047406 A JP2017047406 A JP 2017047406A JP 2018149626 A JP2018149626 A JP 2018149626A
Authority
JP
Japan
Prior art keywords
communication robot
voice
unit
user
congestion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017047406A
Other languages
English (en)
Inventor
伊藤 直之
Naoyuki Ito
直之 伊藤
浩介 岩崎
Kosuke Iwasaki
浩介 岩崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2017047406A priority Critical patent/JP2018149626A/ja
Publication of JP2018149626A publication Critical patent/JP2018149626A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)
  • Image Analysis (AREA)

Abstract

【課題】環境によらず、人の話を聞くことで人とのコミュニケーションを円滑に行うことができるコミュニケーションロボット、プログラム及びシステムを提供する。【解決手段】マイク43aを備えたコミュニケーションロボット1は、被写体を撮影して画像データを生成するカメラ41と、カメラ41によって得られた画像データに基づいて、ユーザPを特定するユーザ特定部14と、コミュニケーションロボット1の配置位置周辺の混雑度を判定する混雑度判定部17と、混雑度判定部17による判定結果に応じて所定の処理を行うとともに、マイク43aを介して音声を受け付ける音声受付部22と、音声受付部22が受け付けた音声を認識して、発話内容を取得する音声認識部23と、を備える。【選択図】図2

Description

本発明は、コミュニケーションロボット、プログラム及びシステムに関する。
従来、人間との間でコミュニケーション行動を行うコミュニケーションロボットがある。人間同士でのコミュニケーションと同じように、コミュニケーションロボットと人間との間でのコミュニケーションは、周囲の騒音が大きい場合等の混雑時には、コミュニケーションが取りにくくなる。そこで、混雑時におけるコミュニケーションロボットの動作として、混雑を緩和する行動を、コミュニケーションロボットに行わせることが開示されている(例えば、特許文献1)。
特許第4793904号公報
特許文献1に記載のコミュニケーションロボットは、混雑を緩和する行動を行うものにすぎなかった。混雑しているか否かにかかわらず、人とのコミュニケーションを行うために、コミュニケーションロボットには、人の話を聞いたり、人に話をしたりすることが求められる。
そこで、本発明は、環境によらず、人の話を聞くことで人とのコミュニケーションを円滑に行うことができるコミュニケーションロボット、プログラム及びシステムを提供することを目的とする。
本発明は、以下のような解決手段により、前記課題を解決する。
第1の発明は、音声入力部を備えたコミュニケーションロボットであって、被写体を撮影して撮影画像を生成する撮影部と、前記撮影部によって得られた撮影画像に基づいて、発話対象者を特定する対象者特定手段と、前記コミュニケーションロボットの配置位置周辺の混雑度を判定する混雑度判定手段と、前記混雑度判定手段による判定結果に応じて所定の処理を行うとともに、前記音声入力部を介して音声を受け付ける音声受付手段と、前記音声受付手段が受け付けた音声を認識して発話内容を取得する音声認識手段と、を備えるコミュニケーションロボットである。
第2の発明は、第1の発明のコミュニケーションロボットにおいて、前記所定の処理として、前記対象者特定手段により特定した前記発話対象者と、このコミュニケーションロボットとを近接させるための処理を行うこと、を特徴とするコミュニケーションロボットである。
第3の発明は、第2の発明のコミュニケーションロボットにおいて、前記所定の処理として、前記対象者特定手段により特定した前記発話対象者までの距離が前記混雑度に対応した距離になるように、このコミュニケーションロボットを移動させる処理を行うこと、を特徴とするコミュニケーションロボットである。
第4の発明は、第1の発明から第3の発明までのいずれかのコミュニケーションロボットにおいて、前記撮影部によって得られた撮影画像から人物を特定する人特定手段と、前記人特定手段によって特定した人物の顔の器官を検出する器官検出手段と、を備え、前記対象者特定手段は、前記器官検出手段により検出した顔の器官から目を特定し、特定した目の向きに基づいて前記発話対象者を特定すること、を特徴とするコミュニケーションロボットである。
第5の発明は、第4の発明のコミュニケーションロボットにおいて、前記対象者特定手段は、さらに前記器官検出手段により検出した顔の器官から口を特定し、特定した口が動いている人物を、前記発話対象者として特定すること、
を特徴とするコミュニケーションロボットである。
第6の発明は、第4の発明又は第5の発明のコミュニケーションロボットにおいて、前記器官検出手段により検出した顔の器官から目を特定し、このコミュニケーションロボットの顔の位置を、特定した目に対面する位置に変更する顔位置変更手段を備えること、を特徴とするコミュニケーションロボットである。
第7の発明は、第4の発明又は第5の発明のコミュニケーションロボットにおいて、前記所定の処理として、前記器官検出手段により検出した顔の器官から口を特定し、前記音声入力部の位置を、特定した口に対面する位置に変更する処理を行うこと、を特徴とするコミュニケーションロボットである。
第8の発明は、第4の発明から第6の発明までのいずれかのコミュニケーションロボットにおいて、前記音声受付手段は、前記対象者特定手段により特定した前記発話対象者の口が動いている間の音声を受け付けること、を特徴とするコミュニケーションロボットである。
第9の発明は、第1の発明のコミュニケーションロボットにおいて、特定方向から発せられた音を入力する指向音声入力部を備え、前記所定の処理として、前記混雑度が閾値以上の場合に、前記対象者特定手段により特定した前記発話対象者の位置を特定し、特定した前記位置への方向が前記特定方向になるように、前記指向音声入力部の方向を設定する処理を行い、前記音声受付手段は、前記指向音声入力部を介して音声を受け付けること、を特徴とするコミュニケーションロボットである。
第10の発明は、第1の発明から第9の発明までのいずれかのコミュニケーションロボットにおいて、前記コミュニケーションロボットの配置位置周辺の音声を取得する周辺音取得手段と、前記周辺音取得手段によって取得した前記音声の音量レベルを判定する音量判定手段と、を備え、前記混雑度判定手段は、前記音量判定手段により判定した音量レベルに基づいて、前記混雑度を判定すること、を特徴とするコミュニケーションロボットである。
第11の発明は、第1の発明から第10の発明までのいずれかのコミュニケーションロボットにおいて、前記混雑度判定手段は、前記撮影部によって得られた前記撮影画像に基づいて、前記混雑度を判定すること、を特徴とするコミュニケーションロボットである。
第12の発明は、第1の発明から第11の発明までのいずれかのコミュニケーションロボットにおいて、前記所定の処理として、前記発話対象者が発した音声をうち消す音を、前記対象者特定手段によって特定された前記発話対象者に対する方向とは異なる方向に、消音出力部から出力する処理を行うこと、を特徴とするコミュニケーションロボットである。
第13の発明は、第1の発明から第12の発明までのいずれかのコミュニケーションロボットとしてコンピュータを機能させるためのプログラムである。
第14の発明は、被写体を撮影して撮影画像を生成する撮影部及び音声入力部を備えたコミュニケーションロボットと、前記コミュニケーションロボットに対して通信可能に接続されたサーバと、を備えるコミュニケーションロボットシステムであって、前記サーバは、前記コミュニケーションロボットによって得られた撮影画像に基づいて、発話対象者を特定する対象者特定手段と、前記コミュニケーションロボットの配置位置周辺の混雑度を判定する混雑度判定手段と、前記混雑度判定手段により判定された前記混雑度に基づく処理データを、前記コミュニケーションロボットに送信するデータ送信手段と、を備え、前記コミュニケーションロボットは、前記サーバから受信した前記処理データを実行する混雑処理手段と、前記音声入力部を介して音声を受け付ける音声受付手段と、前記音声受付手段が受け付けた音声を認識して発話内容を取得する音声認識手段と、を備えること、を特徴とするコミュニケーションロボットシステムである。
本発明によれば、環境によらず、人の話を聞くことで人とのコミュニケーションを円滑に行うことができるコミュニケーションロボット、プログラム及びシステムを提供することができる。
本実施形態に係るコミュニケーションロボットにおける運用の具体例を示す図である。 本実施形態に係るコミュニケーションロボットの機能ブロック図である。 本実施形態に係るコミュニケーションロボットでのロボット制御処理を示すフローチャートである。 本実施形態に係るコミュニケーションロボットでのユーザ特定処理を示すフローチャートである。 本実施形態に係るコミュニケーションロボットでの混雑度判定処理を示すフローチャートである。 本実施形態に係るコミュニケーションロボットのロボット制御処理における具体例を示す図である。 変形形態に係るコミュニケーションロボットの具体例を示す図である。
以下、本発明を実施するための形態について、図を参照しながら説明する。なお、これは、あくまでも一例であって、本発明の技術的範囲はこれに限られるものではない。
(実施形態)
図1は、本実施形態に係るコミュニケーションロボット1における運用の具体例を示す図である。
コミュニケーションロボット1は、このコミュニケーションロボット1に対して関心を持っているユーザP(発話対象者)を特定する。
そして、コミュニケーションロボット1は、特定したユーザPの話を聞く処理をする。
また、コミュニケーションロボット1は、特定したユーザPに対して話かける処理をする。
このように、コミュニケーションロボット1は、ヒアリングをするロボットであり、かつ、おしゃべりをするロボットである。
コミュニケーションロボット1は、例えば、展示場内、店舗内等のスペースSに配置されている。なお、コミュニケーションロボット1は、ユーザPを特定するために、図1に示すように、スペースSを見渡せる位置に配置することが望ましい。
コミュニケーションロボット1は、例えば、高さが1m程度の人型のロボットである。
コミュニケーションロボット1は、例えば、スペースSにいるユーザを含む画像データ(撮影画像)を取得して分析する。
そして、コミュニケーションロボット1は、コミュニケーションロボット1に話かけたそうにしているユーザPを特定した場合に、ユーザPに近づく。そして、コミュニケーションロボット1は、ユーザPが発した音声データを受け付けて、発話内容を取得する。
また、コミュニケーションロボット1は、コミュニケーションロボット1の話を聞きたそうにしているユーザPを特定した場合に、ユーザPに近づく。そして、コミュニケーションロボット1は、発話データを出力することで、ユーザPに話しかける。
<コミュニケーションロボット1>
図2は、本実施形態に係るコミュニケーションロボット1の機能ブロック図である。
図2に示すように、コミュニケーションロボット1は、制御部10と、記憶部30と、カメラ41(撮影部)と、スピーカ部42と、マイク部43と、モータ部44とを備える。
制御部10は、コミュニケーションロボット1の全体を制御する中央処理装置(CPU)である。制御部10は、記憶部30に記憶されているオペレーティングシステム(OS)やアプリケーションプログラムを適宜読み出して実行することにより、上述したハードウェアと協働し、各種機能を実行する。
制御部10は、画像取得部11(画像取得手段)と、人物特定部12(人特定手段)と、器官検出部13(器官検出手段)と、ユーザ特定部14(対象者特定手段)と、周辺音取得部15(周辺音取得手段)と、音量判定部16(音量判定手段)と、混雑度判定部17(混雑度判定手段)と、顔位置変更部18(顔位置変更手段)と、足移動部19(混雑処理手段)と、消音出力部20(混雑処理手段)と、発話部21(発話手段)と、音声受付部22(音声受付手段)と、音声認識部23(音声認識手段)とを備える。
画像取得部11は、カメラ41を介して撮影した画像データを取得する。画像取得部11は、画像データを、1つ取得してもよいし、動画のように連続して複数取得してもよい。
人物特定部12は、画像取得部11が取得した画像データを分析して、ユーザを特定する。人物特定部12は、例えば、画像データから顔画像を検出することで、ユーザを特定する。ここで特定するユーザは、複数であってよい。
器官検出部13は、人物特定部12によって特定した各ユーザの顔の各器官(目、鼻、口等)を検出する。この顔の各器官の位置を求める手法としては、様々な公知の手法があるが、例えば、回帰モデルを用いた顔の器官検出手法を用いることができる。そして、回帰モデルを用いた顔の器官検出手法に関しては、例えば、米国特許出願公開第2014/0185924号明細書に記載されている。
ユーザ特定部14は、このコミュニケーションロボット1の話を聞きたそうにしている、又は、このコミュニケーションロボット1に話かけたそうにしているユーザPを特定する。ユーザ特定部14は、例えば、器官検出部13により検出した顔の目の向きや、口の動き等を考慮して、ユーザPを特定する。
周辺音取得部15は、マイク43bを介して、このコミュニケーションロボット1の位置周辺の音声データを取得する。
音量判定部16は、周辺音取得部15が取得した音声データの音量レベルを判定する。
混雑度判定部17は、例えば、音量判定部16により判定した音量レベルに基づいて、このコミュニケーションロボット1の位置での混雑度を判定する。
また、混雑度判定部17は、人物特定部12で特定したユーザ数に基づいて、このコミュニケーションロボット1の位置での混雑度を判定してもよい。混雑度判定部17は、例えば、特定したユーザ数が多ければ、混雑度を大と判定し、特定したユーザ数が少なければ、混雑度を小と判定する。
そして、混雑度判定部17は、音量レベルと、ユーザ数との両方によって、混雑度を判定してもよい。
顔位置変更部18は、ユーザ特定部14で特定したユーザPの目に対面する位置に、このコミュニケーションロボット1の顔の位置を変更する。顔位置変更部18は、頭部モータ44aを制御して、コミュニケーションロボット1の顔の位置を変更する。
足移動部19は、混雑度判定部17により判定した混雑度に応じて、ユーザ特定部14で特定したユーザPの方向に、このコミュニケーションロボット1を移動させる。足移動部19は、足部モータ44bを制御して、コミュニケーションロボット1を移動させる。
消音出力部20は、ユーザ特定部14によりユーザPを特定した場合に、ユーザPのいる方向とは異なる方向に対して、スピーカ42bから消音データを出力する。ここで、消音データとは、ユーザP又はコミュニケーションロボット1が発する音を打ち消すことができる音をいい、例えば、特殊な雑音等である。そうすることで、ユーザPから発せられた声は、コミュニケーション対象であるコミュニケーションロボット1には聞こえるが、ユーザPの周囲にいる他のユーザには、聞き取りにくいものにできる。また、コミュニケーションロボット1の音は、コミュニケーション対象であるユーザPには聞こえるが、他のユーザには聞き取りにくいものにできる。
なお、消音データは、例えば、音楽等のBGMとともに出力してもよい。このような、ノイズキャンセルの仕組みは、様々な技術により行うことができるが、例えば、特許第5648485号公報に記載の手法により行うことができる。
発話部21は、発話データをスピーカ42aから出力させる。発話データは、予め決まったものであってもよいし、日付、時間帯や、ユーザPの属性(子供又は大人が把握可能な身長等)によって異なるものであってもよい。
音声受付部22は、マイク43aを介してユーザPが発した音声データを受け付ける。音声受付部22は、ユーザPを特定した後の音声データを受け付けてもよいし、画像取得部11が取得した画像データに基づいて、ユーザPの口が動いている間の音声データを受け付けてもよい。
音声認識部23は、音声受付部22が受け付けた音声データから、ユーザPが発した音声内容を認識する。
なお、各処理の詳細については、後述する。
記憶部30は、制御部10が各種の処理を実行するために必要なプログラム、データ等を記憶するための半導体メモリ素子等の記憶領域である。
記憶部30は、プログラム記憶部31と、発話データ記憶部32と、消音データ記憶部33とを備える。
プログラム記憶部31は、プログラムを記憶する記憶領域である。プログラム記憶部31は、上述した制御部10の各種機能を実行するための制御プログラム31a(プログラム)を記憶している。
発話データ記憶部32は、コミュニケーションロボット1がスピーカ42aから出力する発話データを記憶する記憶領域である。
消音データ記憶部33は、コミュニケーションロボット1がスピーカ42bから出力する消音データを記憶する記憶領域である。
カメラ41は、撮影装置である。カメラ41は、例えば、コミュニケーションロボット1の目の部分に対応する位置に設けられている。そして、カメラ41は、コミュニケーションロボット1が向いた方向の被写体を撮影する。
スピーカ部42は、音声出力装置である。スピーカ部42は、スピーカ42a(音声出力部)及びスピーカ42b(他の音声出力部、消音出力部)を備える。
スピーカ42aは、例えば、コミュニケーションロボット1の口の部分に対応する位置に設けられている。そして、スピーカ42aは、制御部10の指示に基づいて、ユーザPに対してあたかもコミュニケーションロボット1がしゃべっているかのように、発話データを音声出力する。
スピーカ42bは、例えば、コミュニケーションロボット1の胴体部分に対応する位置に設けられて、制御部10の指示に基づいて、消音データを出力する。
マイク部43は、音声入力装置である。マイク部43は、マイク43a(音声入力部)及びマイク43bを備える。
マイク43aは、例えば、コミュニケーションロボット1の耳の部分に対応する位置に設けられている。そして、マイク43aは、制御部10の指示に基づいて、ユーザPが発した音声データを入力する。
マイク43bは、例えば、コミュニケーションロボット1の胴体部分に対応する位置に設けられて、制御部10の指示に基づいて、コミュニケーションロボット1の周囲の音声データを入力する。
モータ部44は、コミュニケーションロボット1に動作をさせるためのモータである。モータ部44は、頭部モータ44aと、足部モータ44bとを備える。
頭部モータ44aは、コミュニケーションロボット1の頭部を動かすモータである。頭部モータ44aは、制御部10によって制御され、スペースS内にいる様々なユーザを被写体として撮影するために、頭部を上下左右に動かす。また、頭部モータ44aは、特定したユーザPの方向を向くように、頭部を上下左右に動かす。
足部モータ44bは、コミュニケーションロボット1の足部にあり、コミュニケーションロボット1を移動させるためのモータである。
<コミュニケーションロボット1の処理>
次に、コミュニケーションロボット1の処理について説明する。
図3は、本実施形態に係るコミュニケーションロボット1でのロボット制御処理を示すフローチャートである。
図4は、本実施形態に係るコミュニケーションロボット1でのユーザ特定処理を示すフローチャートである。
図5は、本実施形態に係るコミュニケーションロボット1での混雑度判定処理を示すフローチャートである。
なお、コミュニケーションロボット1は、このロボット制御処理を、例えば、コミュニケーションロボット1の電源が投入されている間に、適宜のタイミング(例えば、1分おき等)で実行する。
図3のステップS(以下、「S」という。)10において、コミュニケーションロボット1の制御部10(画像取得部11)は、カメラ41を介して画像データを取得する。そして、制御部10は、取得した画像データを、記憶部30に記憶させる。
S11において、制御部10は、ユーザ特定処理を行う。ユーザ特定処理では、このコミュニケーションロボット1の話を聞きたそうにしているユーザPや、このコミュニケーションロボット1に対して話かけたそうにしているユーザPを特定するための処理である。
ここで、ユーザ特定処理について、図4に基づき説明する。
図4のS30において、制御部10(人物特定部12)は、画像データから顔画像を検出することで、人物であるユーザを特定する。この処理において、画像データに複数人を含む場合には、制御部10は、人物であるユーザを複数特定する。
S31において、制御部10は、ユーザを特定できたか否かを判断する。ユーザを特定できた場合(S31:YES)には、制御部10は、処理をS32に移す。他方、ユーザを特定できなかった場合(S31:NO)には、制御部10は、本処理を終了し、処理を図3に移す。なお、ユーザを特定できなかった場合とは、例えば、画像データに人を含まない場合をいう。
S32において、制御部10(器官検出部13)は、特定した各ユーザの顔画像から各器官を検出する。例えば、画像データに2人のユーザが含まれる場合には、制御部10は、2人のユーザの器官をそれぞれ検出する。
S33において、制御部10(ユーザ特定部14)は、検出した各ユーザの目が向いている方向を特定する。
S34において、制御部10(ユーザ特定部14)は、目が正面を向いているユーザが存在するか否かを判断する。目が正面を向いているユーザが存在する場合(S34:YES)には、制御部10は、処理をS35に移す。他方、目が正面を向いているユーザが存在しない場合(S34:NO)には、制御部10は、本処理を終了し、処理を図3に移す。なお、目が正面を向いている場合には、そのユーザがコミュニケーションロボット1を見ているということを示す。
S35において、制御部10(ユーザ特定部14)は、目が正面を向いているユーザを、ユーザPとして特定する。ここで、制御部10は、目が正面を向いているユーザが複数存在する場合には、ランダムにユーザPを特定してもよい。また、制御部10は、このコミュニケーションロボット1との間の距離に基づいて、ユーザPを特定してもよい。さらに、制御部10は、画像から判別したユーザの大きさに基づいて、ユーザPを特定してもよい。その後、制御部10は、本処理を終了し、処理を図3に移す。
図3に戻り、S12において、制御部10は、ユーザ特定処理によって、ユーザPが特定できたか否かを判断する。ユーザPが特定できた場合(S12:YES)には、制御部10は、処理をS13に移す。他方、ユーザPが特定できなかった場合(S12;NO)には、制御部10は、本処理を終了する。
S13において、制御部10は、混雑度判定処理を行う。
ここで、混雑度判定処理について、図5に基づき説明する。
図5のS40において、制御部10(周辺音取得部15)は、マイク43bを介して、このコミュニケーションロボット1の位置における周囲の音声データを受け付ける。
S41において、制御部10(音量判定部16)は、受け付けた音声データの音量レベルを判定する。制御部10は、音量レベルを、例えば、大、中、小の3段階のいずれであるかを判定する。
S42において、制御部10(混雑度判定部17)は、判定した音量レベルに基づいて、混雑度を判定する。その際、制御部10は、図4のS30で特定したユーザ数を考慮してもよい。制御部10は、例えば、音量レベルが大である場合には、混雑度を大と判定する。また、制御部10は、例えば、音量レベルが中であっても、ユーザ数が10以上である場合には、混雑度を大と判定してもよい。その後、制御部10は、本処理を終了し、処理を図3に移す。
図3に戻り、S14において、制御部10は、混雑度判定処理によって判定した混雑度が大(閾値以上)であるか否かを判断する。混雑度が大である場合(S14:YES)には、制御部10は、処理をS15に移す。他方、混雑度が大ではない場合(S14:NO)には、制御部10は、処理をS16に移す。
S15において、制御部10(足移動部19)は、足部モータ44bを制御して、ユーザPに近づくように、ユーザPのいる方向へ移動させる。
S16において、制御部10(顔位置変更部18)は、頭部モータ44aを制御して、このコミュニケーションロボット1が、あたかもユーザPの顔を見ているかのように、このコミュニケーションロボット1の頭の向きを変更する。このようにすることで、ユーザPは、このコミュニケーションロボット1が自身の方向を見ていると感じることができ、例えば、コミュニケーションロボット1に対して話かけることができる。
S17において、制御部10(消音出力部20)は、消音データをスピーカ42bから出力させる。ここで、消音データは、ユーザPが発する音声データを打ち消す音のデータである。
S18において、制御部10(音声受付部22)は、所定時間内(例えば、10秒以内)に、ユーザPの音声データを受け付けたか否かを判断する。ここで、制御部10は、ユーザPの音声データを受け付けたか否かを、例えば、マイク43aを介して受け付けた音声データと、マイク43bを介して受け付けた音声データとによって判断する。ユーザPの音声データを受け付けた場合に、マイク43aを介して制御部10が受け付けた音声データには、音量の大きい音声データを含む。また、それと同時に、マイク43bを介して制御部10が受け付けた音声データには、マイク43aを介して受け付けた音声データを、小さい音量で受け付ける。これらのことから、制御部10は、ユーザPの音声データを受け付けたか否かを判断できる。ユーザPの音声データを受け付けた場合(S18:YES)には、制御部10は、処理をS19に移す。他方、ユーザPの音声データを受け付けていない場合(S18:NO)には、制御部10は、処理をS20に移す。
S19において、制御部10(音声認識部23)は、受け付けた音声データを音声認識して、音声内容を取得する。その後、制御部10は、処理をS22に移す。
なお、コミュニケーションロボット1の制御部10は、音声認識後の処理として、ユーザPに音声認識結果に応じた音声データを出力したり、音声認識結果に応じた動作を行ったりして、ユーザPとの間でコミュニケーションを行うことができる。
他方、S20において、制御部10(消音出力部20)は、消音データをスピーカ42bから出力する。ここで、スピーカ42bから出力させる消音データは、S17で出力させた消音データに代えて、コミュニケーションロボット1が発する音声データを打ち消す音のデータである。
S21において、制御部10(発話部21)は、発話データ記憶部32から抽出した発話データを、スピーカ42aを介して出力させる。
コミュニケーションロボット1の制御部10は、発話データ出力後の処理として、発話データの内容に応じた動作を行ったり、ユーザPから発話データに対する返答として発せられる音声データを受け付けたりして、ユーザPとの間でコミュニケーションを行うことができる。
S22において、制御部10は、出力していた消音データを停止させる。その後、制御部10は、本処理を終了する。
<ロボット制御処理の具体例>
次に、このコミュニケーションロボット1を用いたロボット制御処理の具体例について説明する。
図6は、本実施形態に係るコミュニケーションロボット1のロボット制御処理における具体例を示す図である。
まず、コミュニケーションロボット1の制御部10は、図6(A)に示すような、目が正面を向いているユーザP1を含む画像データ50を取得する(図3のS10)。そして、制御部10は、ユーザP1を、コミュニケーションロボット1に関心を持ったユーザであると特定する(図3のS11及び図4)。
次に、制御部10は、混雑度を判定する(図3のS13及び図5)。この例の場合、周囲のユーザが喋っており雑音がするいわゆる“ガヤガヤ”している状況であり、受け付けた音声データの音量レベルが大であるとする。よって、制御部10は、混雑度を大と判定する。
そして、図6(B)及び(C)に示すように、制御部10は、ユーザP1の位置に向かって移動し(図3のS15)、ユーザP1の顔を見るように頭の向きを変更して(図3のS16)、ユーザP1からの音声データを受け付け可能な状態にする。また、制御部10は、スピーカ42bから消音データを出力させる(図3のS17)。
これにより、コミュニケーションロボット1は、ユーザP1が話す音声データを受け付ける(図3のS18がYES)場合に、よりはっきりとしたユーザP1の音声データを、マイク43aを介して受け付けることができる。また、コミュニケーションロボット1の周囲の第三者には、消音データによって、ユーザP1が発する音声データを聞き取りにくくすることができる。
また、コミュニケーションロボット1は、発話データを出力する場合に、コミュニケーションロボット1が発する音声データを打ち消す消音データをスピーカ42bから出力して(図3のS20)、発話データを音声出力する(図3のS21)。よって、よりはっきりとしたコミュニケーションロボット1の発話データを音声としてユーザP1に届けることができる。また、コミュニケーションロボット1の周囲の第三者には、消音データによって、コミュニケーションロボット1から出力される音声データを聞き取りにくくすることができる。
このように、本実施形態のコミュニケーションロボット1によれば、以下のような効果がある。
(1)撮影した画像データからユーザPを特定し、コミュニケーションロボット1の周囲の混雑度を判断し、混雑度に基づく処理の後にユーザPに対して発話データを出力するので、混雑した状態であっても、ユーザPに聞こえるように話かけることができる。また、混雑した状態であっても混雑度に基づく処理をするので、コミュニケーションロボット1は、ユーザPの話を聞くことができる。
(2)撮影した画像データから人物を特定して、顔の器官を検出し、目の向きに基づいてユーザPを特定するので、コミュニケーションロボット1の方向を向いているユーザPを、コミュニケーションロボット1に対して関心を持っているものとして、話しかけをすることができる。
(3)コミュニケーションロボット1の顔の向きを、ユーザPの目に対面する位置にするので、人との間のコミュニケーションのように、違和感なく話しかけられているように、ユーザPに感じさせることができる。
(4)ユーザPとの距離を近づけるように、コミュニケーションロボット1を移動させるので、囁くような小声で話しかけても、ユーザPに聞こえるようにできる。また、大きな音量で音声データを出力する訳ではないので、第三者には、会話内容を聞かれるリスクを抑えることができる。
(5)コミュニケーションロボット1の周辺の音声データの音量に基づいて混雑度を判定するので、ユーザPとの間の会話のためにどの程度の近づき加減で行えばよいかを、周囲の音量によって変えることができる。
(6)コミュニケーションロボット1と、ユーザPとを結ぶ位置を除く範囲には、会話を聞き取りにくくする消音データを出力するので、第三者には、会話の内容を聞き取りにくくできる。
(7)画像データの取得から音声認識処理又は発話処理までの全ての処理を、コミュニケーションロボット1が行うことができる。よって、コミュニケーションロボット1のみを準備すればよく、設置を容易に行うことができる。
以上、本発明の実施形態について説明したが、本発明は上述した実施形態に限定されるものではない。また、実施形態に記載した効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、実施形態に記載したものに限定されない。なお、上述した実施形態及び後述する変形形態は、適宜組み合わせて用いることもできるが、詳細な説明は省略する。
(変形形態)
(1)本実施形態では、コミュニケーションロボットが、対象のユーザに対して音声データを出力するスピーカを有するものとして説明したが、これに限定されない。
図7は、変形形態に係るコミュニケーションロボットの具体例を示す図である。
コミュニケーションロボットとは別にスピーカを有して、コミュニケーションロボットに外付けしてもよい。そして、図7(A)に示すように、スピーカ72(指向音声出力部)は、指向性を有するものであってもよい。その場合には、コミュニケーションロボット1が対象のユーザP2に近づかなくても、コミュニケーションロボット1は、スピーカ72によって対象のユーザP2に向かって音声データを出力できる。
(2)本実施形態では、コミュニケーションロボットが対象のユーザの音声データを受け付けるマイクを有するものとして説明したが、これに限定されない。コミュニケーションロボットとは別にマイクを有し、コミュニケーションロボットに外付けしてもよい。そして、図7(B)に示すように、マイク73(指向音声入力部)は、指向性を有するものであってもよい。その場合には、コミュニケーションロボット1が対象のユーザP3に近づかなくても、コミュニケーションロボット1は、マイク73によって対象のユーザP3が発した音声データを受け付けることができる。
(3)本実施形態では、コミュニケーションロボットが対象のユーザに近づくように移動するものを例に説明したが、これに限定されない。コミュニケーションロボットが、表示装置を有し、表示装置に、「近づいて!」といった表示をさせることで、対象のユーザが自らコミュニケーションロボットに近づくようにして、コミュニケーションロボットの近くに対象のユーザを誘導するものであってもよい。
(4)本実施形態では、ユーザの目の向きが正面である場合に、コミュニケーションロボットを見ているとみなして、ユーザを特定するものとして説明したが、これに限定されない。さらに、ユーザの口が動いている場合に、ユーザを特定してもよい。その場合には、コミュニケーションロボットは、ユーザの話を聞くものとして動作すればよい。
(5)本実施形態では、ユーザの見ている方向を、目の目線の方向としてもよい。例えば、制御部は、検出した顔画像から目を抽出することができるが、抽出した目の眼球と瞳孔との相対位置に基づいて、目線の向きを取得できる。その結果、コミュニケーションロボット1を直視しているユーザを、対象にすることができる。
(6)本実施形態では、コミュニケーションロボットがユーザの顔を見ているように頭の向きを変更するものを例に説明したが、これに限定されない。
コミュニケーションロボットが話かける場合に、ユーザの耳を検出し、ユーザの耳に近接した位置で発話データを音声出力してもよい。そのようにすることで、あたかもユーザの耳元で囁くように演出でき、コミュニケーションロボットが発した音声データを、第三者により聞き取れないようにできる。
また、コミュニケーションロボットが話を聞く場合に、ユーザの口を検出し、マイク43aをユーザの口に近接した位置にしてもよい。そのようにすることで、あたかもコミュニケーションロボットの耳を近づけて聞くように演出でき、ユーザが発した音声データを、第三者により聞き取れないようにできる。
(7)本実施形態では、混雑度を、コミュニケーションロボットの周囲の音声データの音量に基づいて判定するものを例に説明したが、これに限定されない。混雑度の判定に、音量以外の周波数等を考慮してもよい。また、音声データではなく、コミュニケーションロボットが取得した画像データに含まれるユーザ数に基づいて、混雑度を判定してもよい。
(8)本実施形態では、画像データの取得から音声認識処理又は発話処理までの全ての処理を、コミュニケーションロボットが行うものとして説明したが、これに限定されない。このコミュニケーションロボットに対して通信接続されたサーバを備え、サーバが、少なくとも一部の処理を行うようにしてもよい。
1 コミュニケーションロボット
10 制御部
11 画像取得部
12 人物特定部
13 器官検出部
14 ユーザ特定部
15 周辺音取得部
16 音量判定部
17 混雑度判定部
18 顔位置変更部
19 足移動部
20 消音出力部
21 発話部
22 音声受付部
23 音声認識部
30 記憶部
31a 制御プログラム
33 消音データ記憶部
41 カメラ
42a,42b,72 スピーカ
43a,43b,73 マイク
44 モータ部
P,P1〜P3 ユーザ

Claims (14)

  1. 音声入力部を備えたコミュニケーションロボットであって、
    被写体を撮影して撮影画像を生成する撮影部と、
    前記撮影部によって得られた撮影画像に基づいて、発話対象者を特定する対象者特定手段と、
    前記コミュニケーションロボットの配置位置周辺の混雑度を判定する混雑度判定手段と、
    前記混雑度判定手段による判定結果に応じて所定の処理を行うとともに、前記音声入力部を介して音声を受け付ける音声受付手段と、
    前記音声受付手段が受け付けた音声を認識して発話内容を取得する音声認識手段と、
    を備えるコミュニケーションロボット。
  2. 請求項1に記載のコミュニケーションロボットにおいて、
    前記所定の処理として、前記対象者特定手段により特定した前記発話対象者と、このコミュニケーションロボットとを近接させるための処理を行うこと、
    を特徴とするコミュニケーションロボット。
  3. 請求項2に記載のコミュニケーションロボットにおいて、
    前記所定の処理として、前記対象者特定手段により特定した前記発話対象者までの距離が前記混雑度に対応した距離になるように、このコミュニケーションロボットを移動させる処理を行うこと、
    を特徴とするコミュニケーションロボット。
  4. 請求項1から請求項3までのいずれかに記載のコミュニケーションロボットにおいて、
    前記撮影部によって得られた撮影画像から人物を特定する人特定手段と、
    前記人特定手段によって特定した人物の顔の器官を検出する器官検出手段と、
    を備え、
    前記対象者特定手段は、前記器官検出手段により検出した顔の器官から目を特定し、特定した目の向きに基づいて前記発話対象者を特定すること、
    を特徴とするコミュニケーションロボット。
  5. 請求項4に記載のコミュニケーションロボットにおいて、
    前記対象者特定手段は、さらに前記器官検出手段により検出した顔の器官から口を特定し、特定した口が動いている人物を、前記発話対象者として特定すること、
    を特徴とするコミュニケーションロボット。
  6. 請求項4又は請求項5に記載のコミュニケーションロボットにおいて、
    前記器官検出手段により検出した顔の器官から目を特定し、このコミュニケーションロボットの顔の位置を、特定した目に対面する位置に変更する顔位置変更手段を備えること、
    を特徴とするコミュニケーションロボット。
  7. 請求項4又は請求項5に記載のコミュニケーションロボットにおいて、
    前記所定の処理として、前記器官検出手段により検出した顔の器官から口を特定し、前記音声入力部の位置を、特定した口に対面する位置に変更する処理を行うこと、
    を特徴とするコミュニケーションロボット。
  8. 請求項4から請求項6までのいずれかに記載のコミュニケーションロボットにおいて、
    前記音声受付手段は、前記対象者特定手段により特定した前記発話対象者の口が動いている間の音声を受け付けること、
    を特徴とするコミュニケーションロボット。
  9. 請求項1に記載のコミュニケーションロボットにおいて、
    特定方向から発せられた音を入力する指向音声入力部を備え、
    前記所定の処理として、前記混雑度が閾値以上の場合に、前記対象者特定手段により特定した前記発話対象者の位置を特定し、特定した前記位置への方向が前記特定方向になるように、前記指向音声入力部の方向を設定する処理を行い、
    前記音声受付手段は、前記指向音声入力部を介して音声を受け付けること、
    を特徴とするコミュニケーションロボット。
  10. 請求項1から請求項9までのいずれかに記載のコミュニケーションロボットにおいて、
    前記コミュニケーションロボットの配置位置周辺の音声を取得する周辺音取得手段と、
    前記周辺音取得手段によって取得した前記音声の音量レベルを判定する音量判定手段と、
    を備え、
    前記混雑度判定手段は、前記音量判定手段により判定した音量レベルに基づいて、前記混雑度を判定すること、
    を特徴とするコミュニケーションロボット。
  11. 請求項1から請求項10までのいずれかに記載のコミュニケーションロボットにおいて、
    前記混雑度判定手段は、前記撮影部によって得られた前記撮影画像に基づいて、前記混雑度を判定すること、
    を特徴とするコミュニケーションロボット。
  12. 請求項1から請求項11までのいずれかに記載のコミュニケーションロボットにおいて、
    前記所定の処理として、前記発話対象者が発した音声をうち消す音を、前記対象者特定手段によって特定された前記発話対象者に対する方向とは異なる方向に、消音出力部から出力する処理を行うこと、
    を特徴とするコミュニケーションロボット。
  13. 請求項1から請求項12までのいずれかに記載のコミュニケーションロボットとしてコンピュータを機能させるためのプログラム。
  14. 被写体を撮影して撮影画像を生成する撮影部及び音声入力部を備えたコミュニケーションロボットと、
    前記コミュニケーションロボットに対して通信可能に接続されたサーバと、
    を備えるコミュニケーションロボットシステムであって、
    前記サーバは、
    前記コミュニケーションロボットによって得られた撮影画像に基づいて、発話対象者を特定する対象者特定手段と、
    前記コミュニケーションロボットの配置位置周辺の混雑度を判定する混雑度判定手段と、
    前記混雑度判定手段により判定された前記混雑度に基づく処理データを、前記コミュニケーションロボットに送信するデータ送信手段と、
    を備え、
    前記コミュニケーションロボットは、
    前記サーバから受信した前記処理データを実行する混雑処理手段と、
    前記音声入力部を介して音声を受け付ける音声受付手段と、
    前記音声受付手段が受け付けた音声を認識して発話内容を取得する音声認識手段と、
    を備えること、
    を特徴とするコミュニケーションロボットシステム。
JP2017047406A 2017-03-13 2017-03-13 コミュニケーションロボット、プログラム及びシステム Pending JP2018149626A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017047406A JP2018149626A (ja) 2017-03-13 2017-03-13 コミュニケーションロボット、プログラム及びシステム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017047406A JP2018149626A (ja) 2017-03-13 2017-03-13 コミュニケーションロボット、プログラム及びシステム

Publications (1)

Publication Number Publication Date
JP2018149626A true JP2018149626A (ja) 2018-09-27

Family

ID=63679854

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017047406A Pending JP2018149626A (ja) 2017-03-13 2017-03-13 コミュニケーションロボット、プログラム及びシステム

Country Status (1)

Country Link
JP (1) JP2018149626A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020075326A (ja) * 2018-11-08 2020-05-21 トヨタ自動車株式会社 ロボット

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005193351A (ja) * 2004-01-09 2005-07-21 Honda Motor Co Ltd 顔画像取得方法およびそのシステム
JP2006187825A (ja) * 2005-01-05 2006-07-20 Yaskawa Electric Corp ロボット装置およびその制御方法
JP2006263873A (ja) * 2005-03-24 2006-10-05 Advanced Telecommunication Research Institute International コミュニケーションロボットシステムおよびコミュニケーションロボット
JP2007276080A (ja) * 2006-04-11 2007-10-25 Toyota Motor Corp 案内ロボット
JP2008087140A (ja) * 2006-10-05 2008-04-17 Toyota Motor Corp 音声認識ロボットおよび音声認識ロボットの制御方法
JP2008126329A (ja) * 2006-11-17 2008-06-05 Toyota Motor Corp 音声認識ロボットおよび音声認識ロボットの制御方法
JP2009222969A (ja) * 2008-03-17 2009-10-01 Toyota Motor Corp 音声認識ロボットおよび音声認識ロボットの制御方法
JP5648485B2 (ja) * 2011-01-06 2015-01-07 大日本印刷株式会社 秘匿化データ生成装置、秘匿化データ生成方法、秘匿化装置、秘匿化方法及びプログラム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005193351A (ja) * 2004-01-09 2005-07-21 Honda Motor Co Ltd 顔画像取得方法およびそのシステム
JP2006187825A (ja) * 2005-01-05 2006-07-20 Yaskawa Electric Corp ロボット装置およびその制御方法
JP2006263873A (ja) * 2005-03-24 2006-10-05 Advanced Telecommunication Research Institute International コミュニケーションロボットシステムおよびコミュニケーションロボット
JP2007276080A (ja) * 2006-04-11 2007-10-25 Toyota Motor Corp 案内ロボット
JP2008087140A (ja) * 2006-10-05 2008-04-17 Toyota Motor Corp 音声認識ロボットおよび音声認識ロボットの制御方法
JP2008126329A (ja) * 2006-11-17 2008-06-05 Toyota Motor Corp 音声認識ロボットおよび音声認識ロボットの制御方法
JP2009222969A (ja) * 2008-03-17 2009-10-01 Toyota Motor Corp 音声認識ロボットおよび音声認識ロボットの制御方法
JP5648485B2 (ja) * 2011-01-06 2015-01-07 大日本印刷株式会社 秘匿化データ生成装置、秘匿化データ生成方法、秘匿化装置、秘匿化方法及びプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020075326A (ja) * 2018-11-08 2020-05-21 トヨタ自動車株式会社 ロボット

Similar Documents

Publication Publication Date Title
CN106992013B (zh) 语音情感修改
US11696063B2 (en) Automatic active noise reduction (ANR) control to improve user interaction
US20230045237A1 (en) Wearable apparatus for active substitution
JP2021007216A (ja) 映像データを用いて容易化された音源強調
CN114556972A (zh) 用于辅助选择性听觉的系统和方法
US10013999B1 (en) Voice-based realtime audio attenuation
WO2019206186A1 (zh) 唇语识别方法及其装置、增强现实设备以及存储介质
JP6562790B2 (ja) 対話装置および対話プログラム
JP2008509455A (ja) ユーザとシステムとの間の通信方法及びシステム
WO2022033236A1 (zh) 音频增强方法、装置、存储介质及可穿戴设备
JP6874437B2 (ja) コミュニケーションロボット、プログラム及びシステム
JP2009178783A (ja) コミュニケーションロボット及びその制御方法
JP2020126195A (ja) 音声対話装置、音声対話装置の制御装置及び制御プログラム
TW202203207A (zh) 用於擴展現實共享空間的音訊控制
JP2007142957A (ja) 遠隔対話方法及び装置
JP2018149626A (ja) コミュニケーションロボット、プログラム及びシステム
WO2016157678A1 (ja) 情報処理装置、情報処理方法及びプログラム
JP7286303B2 (ja) 会議支援システム及び会議用ロボット
EP3288035B1 (en) Personal audio analytics and behavior modification feedback
EP4178220A1 (en) Voice-input device
US11657814B2 (en) Techniques for dynamic auditory phrase completion
CN111696564B (zh) 语音处理方法、装置和介质
US12032155B2 (en) Method and head-mounted unit for assisting a hearing-impaired user
CN111696565B (zh) 语音处理方法、装置和介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200129

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201215

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210803