JP2017159396A - 案内ロボット制御システム、プログラム及び案内ロボット - Google Patents

案内ロボット制御システム、プログラム及び案内ロボット Download PDF

Info

Publication number
JP2017159396A
JP2017159396A JP2016045573A JP2016045573A JP2017159396A JP 2017159396 A JP2017159396 A JP 2017159396A JP 2016045573 A JP2016045573 A JP 2016045573A JP 2016045573 A JP2016045573 A JP 2016045573A JP 2017159396 A JP2017159396 A JP 2017159396A
Authority
JP
Japan
Prior art keywords
guidance
user
unit
control system
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016045573A
Other languages
English (en)
Other versions
JP6607092B2 (ja
Inventor
伊藤 直之
Naoyuki Ito
直之 伊藤
靖寿 松葉
Yasuhisa Matsuba
靖寿 松葉
松本 征二
Seiji Matsumoto
征二 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2016045573A priority Critical patent/JP6607092B2/ja
Priority to PCT/JP2016/081751 priority patent/WO2017086108A1/ja
Publication of JP2017159396A publication Critical patent/JP2017159396A/ja
Application granted granted Critical
Publication of JP6607092B2 publication Critical patent/JP6607092B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

【課題】ユーザの意図を考慮して声掛けを行うことができる案内ロボット制御システム、プログラム及び案内ロボットを提供する。【解決手段】案内ロボット制御システム100は、時系列に連続した複数のフレーム画像を取得する画像取得部11と、取得した複数のフレーム画像を分析して、フレーム画像ごとにユーザPが見ている方向を判別する方向判別部12aと、判別した方向とに基づいて、時間経過に伴う方向の変化の大きさを表す方向変化量を算出する方向変化量算出部13aと、算出した方向の変化に基づいて、案内をするか否かを判断する案内判断部13dと、案内をすると判断された場合に、ユーザPに対する案内データを記憶する案内データ記憶部22から案内データを抽出して、コミュニケーションロボット1による案内を行う案内部17と、を備える。【選択図】図1

Description

本発明は、案内ロボット制御システム、プログラム及び案内ロボットに関する。
従来、来訪者に対して案内サービスを提供するロボットが開示されている(例えば、特許文献1)。
特開2008−260107号公報
特許文献1に記載のロボットは、来訪者等のユーザの移動に関するパターンに応じた案内サービスを提供するものであったので、ユーザの意図によらずに、案内サービスを強制的に提供する可能性があった。
そこで、本発明は、ユーザの意図を考慮して声掛けを行うことができる案内ロボット制御システム、プログラム及び案内ロボットを提供することを目的とする。
本発明は、以下のような解決手段により、前記課題を解決する。
第1の発明は、ユーザに対する案内データを記憶する案内データ記憶部と、時系列に連続した複数のフレーム画像を取得する画像取得手段と、前記画像取得手段により取得した前記複数のフレーム画像を分析して、前記フレーム画像ごとにユーザが見ている方向を判別する方向判別手段と、前記方向判別手段により判別した方向に基づいて、時間経過に伴う前記方向の変化の大きさを表す方向変化量を算出する方向変化量算出手段と、前記方向変化量算出手段によって算出した方向の変化に基づいて、案内をするか否かを判断する案内判断手段と、前記案内判断手段により案内をすると判断された場合に、前記案内データ記憶部から案内データを抽出してロボットによる案内を行う案内手段と、を備える案内ロボット制御システムである。
第2の発明は、第1の発明の案内ロボット制御システムにおいて、前記画像取得手段が取得したフレーム画像における前記ユーザの位置情報に基づいて、前記ユーザと、ロボットとの距離を算出する距離算出手段を備え、前記案内判断手段は、前記距離算出手段が算出した前記距離が規定範囲内である場合に、案内をすると判断すること、を特徴とする案内ロボット制御システムである。
第3の発明は、第1の発明又は第2の発明の案内ロボット制御システムにおいて、前記画像取得手段が取得したフレーム画像における前記ユーザの位置情報に基づいて、前記ユーザの移動速度を算出する移動速度算出手段を備え、前記案内判断手段は、前記移動速度算出手段が算出した前記移動速度が規定範囲内である場合に、案内をすると判断すること、を特徴とする案内ロボット制御システムである。
第4の発明は、第3の発明の案内ロボット制御システムにおいて、ロボットは、移動が可能であり、前記画像取得手段が取得したフレーム画像における前記ユーザの位置情報に基づいて、前記ユーザの移動方向を算出する移動方向算出手段と、前記移動方向算出手段により算出した前記ユーザの移動方向及び前記移動速度算出手段が算出した前記移動速度に基づいて、前記ロボットを移動させる移動制御手段と、備えること、を特徴とする案内ロボット制御システムである。
第5の発明は、第1の発明から第3の発明までのいずれかの案内ロボット制御システムにおいて、前記方向判別手段は、前記ユーザの眼球と瞳孔との相対位置に基づき、前記ユーザが見ている方向を判別し、前記画像取得手段が取得したフレーム画像における前記ユーザの位置情報に基づいて、前記ユーザの移動方向を算出する移動方向算出手段と、前記画像取得手段により取得した前記複数のフレーム画像を分析して、前記ユーザの顔データを取得する顔取得手段と、前記フレーム画像ごとに前記ユーザの顔の向きを判別する顔方向判別手段と、を備え、前記案内判断手段は、前記移動方向算出手段が算出した前記ユーザの移動方向と、前記顔方向判別手段で判別した複数のフレーム画像に共通の顔の向きとが異なる方向である場合に、案内をすると判断すること、を特徴とする案内ロボット制御システムである。
第6の発明は、第5の発明の案内ロボット制御システムにおいて、前記方向判別手段は、前記顔取得手段により取得した顔データに基づいて、顔の器官を検出し、それらの位置関係から顔の向きを判定し、前記ユーザの見ている方向を取得すること、を特徴とする案内ロボット制御システムである。
第7の発明は、第1の発明から第6の発明までのいずれかの案内ロボット制御システムにおいて、前記画像取得手段により取得した少なくとも1つ以上の前記フレーム画像を分析して、前記ユーザの表情を判別する表情判別手段を備え、前記案内データ記憶部は、表情に対応する案内データを記憶し、前記案内手段は、前記案内データ記憶部を参照して、前記表情判別手段により判別された前記ユーザの表情に基づく案内データを抽出して案内を行うこと、を特徴とする案内ロボット制御システムである。
第8の発明は、第7の発明の案内ロボット制御システムにおいて、案内データによる案内をした後に、少なくとも前記画像取得手段による処理と、前記表情判別手段による処理とを実行し、案内前の前記ユーザの表情と、案内後の前記ユーザの表情とを比較する表情比較手段を備え、前記案内手段は、前記案内データ記憶部を参照して、前記表情比較手段による比較結果に基づく案内データを抽出して案内を行うこと、を特徴とする案内ロボット制御システムである。
第9の発明は、第1の発明から第8の発明までのいずれかの案内ロボット制御システムにおいて、前記画像取得手段により取得した少なくとも1つ以上の前記フレーム画像を分析して、前記ユーザの属性を判別する属性判別手段を備え、前記案内データ記憶部は、ユーザの属性に対応する案内データを記憶し、前記案内手段は、前記案内データ記憶部を参照して、前記属性判別手段により判別した前記ユーザの属性に対応する案内データを抽出して案内を行うこと、を特徴とする案内ロボット制御システムである。
第10の発明は、第1の発明から第9の発明までのいずれかの案内ロボット制御システムとして、ロボットのプロセッサを機能させるためのプログラムである。
第11の発明は、ユーザに対する案内データを記憶する案内データ記憶部と、撮影部と、時系列に連続した複数のフレーム画像を取得する画像取得手段と、前記画像取得手段により取得した前記複数のフレーム画像を分析して、前記フレーム画像ごとにユーザが見ている方向を判別する方向判別手段と、前記方向判別手段により判別した方向に基づいて、時間経過に伴う前記方向の変化の大きさを表す方向変化量を算出する方向変化量算出手段と、前記方向変化量算出手段によって算出した方向の変化に基づいて、案内をするか否かを判断する案内判断手段と、前記案内判断手段により案内をすると判断された場合に、前記案内データ記憶部から案内データを抽出して案内を行う案内手段と、を備える案内ロボットである。
本発明によれば、ユーザの意図を考慮して声掛けを行うことができる案内ロボット制御システム、プログラム及び案内ロボットを提供することができる。
第1実施形態に係る案内ロボット制御システムの運用に適する場面例を示す図である。 第1実施形態に係るコミュニケーションロボットの機能ブロック図である。 第1実施形態に係るコミュニケーションロボットの案内データ記憶部の例を示す図である。 第1実施形態に係るコミュニケーションロボットでのロボット制御処理を示すフローチャートである。 第1実施形態に係るコミュニケーションロボットでの画像分析処理を示すフローチャートである。 第1実施形態に係るコミュニケーションロボットでのユーザ決定処理を示すフローチャートである。 第1実施形態に係るコミュニケーションロボットでの案内後処理を示すフローチャートである。 第1実施形態に係る案内ロボット制御システムの具体例を示す図である。 第2実施形態に係る案内ロボット制御システムの運用に適する場面例を示す図である。 第2実施形態に係る案内ロボット制御システムの機能ブロック図である。 第2実施形態に係るコミュニケーションロボットの案内データ記憶部の例を示す図である。 第2実施形態に係るコミュニケーションロボットでのロボット制御処理を示すフローチャートである。 第2実施形態に係るコミュニケーションロボットでの画像分析処理を示すフローチャートである。 第2実施形態に係るコミュニケーションロボットでのユーザ決定処理を示すフローチャートである。 第2実施形態に係る案内ロボット制御システムの具体例を示す図である。 変形形態に係る案内ロボット制御システムの具体例を示す図である。
以下、本発明を実施するための形態について、図を参照しながら説明する。なお、これは、あくまでも一例であって、本発明の技術的範囲はこれに限られるものではない。
(第1実施形態)
<案内ロボット制御システム100>
図1は、第1実施形態に係る案内ロボット制御システム100の運用に適する場面例を示す図である。
案内ロボット制御システム100は、コミュニケーションロボット1(案内ロボット)を用いたシステムである。コミュニケーションロボット1は、例えば、展示場内、店舗内等のスペースSに配置されている。なお、コミュニケーションロボット1は、スペースSを見渡せる位置に配置することが望ましい。
コミュニケーションロボット1は、例えば、高さが1m程度の人型のロボットである。
そして、コミュニケーションロボット1は、スペースSにいるユーザPを含む(図1の例では、ユーザP1〜P3)フレーム画像を取得して分析し、声掛け対象のユーザPを判断して、ユーザPに対して声掛け(案内)をする。コミュニケーションロボット1は、以下に説明する例では、きょろきょろしているユーザPを、何か困っていると推測して、声掛け対象であると判断する。
<コミュニケーションロボット1>
図2は、第1実施形態に係るコミュニケーションロボット1の機能ブロック図である。
図3は、第1実施形態に係るコミュニケーションロボット1の案内データ記憶部22の例を示す図である。
図2に示すように、コミュニケーションロボット1は、制御部10と、記憶部20と、カメラ31(撮影部)と、スピーカ32と、モータ部33とを備える。
制御部10は、コミュニケーションロボット1の全体を制御する中央処理装置(CPU)である。制御部10は、記憶部20に記憶されているオペレーティングシステム(OS)やアプリケーションプログラムを適宜読み出して実行することにより、上述したハードウェアと協働し、各種機能を実行する。
制御部10は、画像取得部11(画像取得手段)と、画像分析部12と、ユーザ決定処理部13と、案内データ抽出部15と、移動制御部16(移動制御手段)と、案内部17(案内手段)と、表情比較部18(表情比較手段)とを備える。
画像取得部11は、カメラ31を介してフレーム画像を複数取得する。取得した複数のフレーム画像は、時系列に連続したものである。
画像分析部12は、画像取得部11が取得したフレーム画像を分析する。画像分析部12は、方向判別部12a(方向判別手段)と、距離算出部12b(距離算出手段)と、表情判別部12c(表情判別手段)と、属性判別部12d(属性判別手段)とを備える。
方向判別部12aは、フレーム画像に含まれるユーザPごとに、そのユーザPの見ている方向を判別する。
距離算出部12bは、フレーム画像に含まれるユーザPごとに、コミュニケーションロボット1とそのユーザPとの距離を算出する。
表情判別部12cは、フレーム画像に含まれるユーザPごとに、そのユーザPの顔の表情を判別する。
属性判別部12dは、フレーム画像に含まれるユーザPごとに、そのユーザPの属性を判別する。ここで、ユーザPの属性とは、例えば、年齢、性別等をいう。
ユーザ決定処理部13は、画像分析部12によって分析されたフレーム画像に基づき、声掛けをするユーザPを決定する。ユーザ決定処理部13は、方向変化量算出部13a(方向変化量算出手段)と、移動速度算出部13b(移動速度算出手段)と、移動方向算出部13c(移動方向算出手段)と、案内判断部13d(案内判断手段)とを備える。
方向変化量算出部13aは、方向判別部12aにより判別されたそのユーザPの見ている方向の時間経過に伴う変化の大きさである方向変化量を算出する。
移動速度算出部13bは、距離算出部12bにより算出されたそのユーザPの距離の時間経過に伴う変化に基づいて、移動速度を算出する。
移動方向算出部13cは、距離算出部12bにより算出されたそのユーザPの距離の時間経過に伴う変化に基づいて、移動方向を算出する。
案内判断部13dは、方向変化量等に基づいて、声掛けするユーザPを決定する。
案内データ抽出部15は、決定したユーザPに対して案内する案内データを、案内データ記憶部22から抽出する。
移動制御部16は、移動方向算出部13cにより算出された移動方向に基づいて、決定したユーザPに近づくようにコミュニケーションロボット1を移動させる。
案内部17は、案内データ抽出部15により抽出された案内データを、スピーカ32を介して出力する。
表情比較部18は、案内前後での表情判別部12cにより判別された顔の表情を比較する。
なお、各処理の詳細については、後述する。
記憶部20は、制御部10が各種の処理を実行するために必要なプログラム、データ等を記憶するための半導体メモリ素子等の記憶領域である。
記憶部20は、プログラム記憶部21と、案内データ記憶部22と、画像データ記憶部23とを備える。
プログラム記憶部21は、プログラムを記憶する記憶領域である。プログラム記憶部21は、上述した制御部10の各種機能を実行するための制御プログラム21a(プログラム)を記憶している。
案内データ記憶部22は、コミュニケーションロボット1が発する案内データを記憶する記憶領域である。案内データ記憶部22は、図3に示すように、ユーザPの顔の表情及び属性に対応付けて、声掛けをする案内データを記憶している。また、声掛け後のユーザPの顔の表情に対応付けて、次の案内データを記憶している。
図2に戻り、画像データ記憶部23は、画像取得部11が取得したフレーム画像を記憶する記憶領域である。
カメラ31は、撮影装置である。カメラ31は、例えば、コミュニケーションロボット1の目の部分に対応する位置に設けられている。そして、カメラ31は、コミュニケーションロボット1が向いた方向の被写体を撮影する。
スピーカ32は、音声出力装置である。スピーカ32は、例えば、コミュニケーションロボット1の口の部分に対応する位置に設けられている。そして、スピーカ32は、制御部10の指示に基づいて音声を出力する。
モータ部33は、コミュニケーションロボット1に動作をさせるためのモータである。モータ部33は、頭部モータ33aと、足部モータ33bとを備える。
頭部モータ33aは、コミュニケーションロボット1の頭部を動かすモータである。頭部モータ33aは、制御部10によって制御され、スペースS内にいる様々なユーザPを被写体として撮影するために、頭部を上下左右に動かす。
足部モータ33bは、コミュニケーションロボット1の足部にあり、コミュニケーションロボット1を移動させるためのモータである。
<コミュニケーションロボット1の処理>
次に、コミュニケーションロボット1の処理について説明する。
図4は、第1実施形態に係るコミュニケーションロボット1でのロボット制御処理を示すフローチャートである。
図5は、第1実施形態に係るコミュニケーションロボット1での画像分析処理を示すフローチャートである。
図6は、第1実施形態に係るコミュニケーションロボット1でのユーザ決定処理を示すフローチャートである。
図7は、第1実施形態に係るコミュニケーションロボット1での案内後処理を示すフローチャートである。
図4のステップS(以下、「S」という。)10において、コミュニケーションロボット1の制御部10(画像取得部11)は、画像取得処理を行う。画像取得処理において、制御部10は、常にカメラ31を介してフレーム画像を取得しており、取得したフレーム画像に1以上のユーザPを含むか否かを判断する。そして、フレーム画像に1以上のユーザPを含むと判断された場合には、制御部10は、適宜のタイミング(例えば、0.1秒ごと)で取得したフレーム画像を、画像データ記憶部23に記憶させる。
S11において、制御部10は、処理条件になったか否かを判断する。処理条件とは、例えば、画像データ記憶部23に複数のフレーム画像(例えば、30枚)が記憶された場合や、規定の時間(例えば、3秒)が経過した場合等をいう。処理条件になったと判断された場合(S11:YES)には、制御部10は、処理をS12に移す。他方、処理条件になっていないと判断された場合(S11:NO)には、制御部10は、処理をS10に移す。
S12において、制御部10(画像分析部12)は、画像データ記憶部23に記憶されたフレーム画像を分析する画像分析処理を行う。
ここで、画像分析処理について、図5に基づき説明する。
図5のS30において、制御部10は、画像データ記憶部23から1つのフレーム画像を抽出する。
S31において、制御部10(方向判別部12a)は、フレーム画像に含まれるユーザPごとに、ユーザPの見ている方向を判別する。例えば、フレーム画像に2人のユーザP1,P2が含まれる場合には、制御部10は、ユーザP1の見ている方向と、ユーザP2の見ている方向とを各々判別する。制御部10は、例えば、フレーム画像から顔画像を検出し、顔の各パーツ(器官)の配置位置に基づいて、顔の向きを判別できる。よって、制御部10は、判別した顔の向きをユーザPの見ている方向することができる。
この顔の各器官(目、鼻、口等)の位置を求める手法としては、様々な公知の手法があるが、例えば、回帰モデルを用いた顔の器官検出手法を用いることができる。そして、回帰モデルを用いた顔の器官検出手法に関しては、例えば、米国特許出願公開第2014/0185924号明細書に記載されている。
S32において、制御部10(距離算出部12b)は、フレーム画像に含まれるユーザPごとにユーザPと、コミュニケーションロボット1との距離を算出する。制御部10は、例えば、フレーム画像に含まれるユーザPの大きさや、フレーム画像の背景等に基づいて、ユーザPと、コミュニケーションロボット1との大まかな距離を算出できる。
S33において、制御部10(表情判別部12c)は、フレーム画像に含まれるユーザPごとに顔の表情を判別する。制御部10は、顔の表情として、目、鼻、口の形状等から、例えば、笑顔(ポジティブな表情)であるか、悲しい顔(ネガティブな表情)であるか等を判別できる。
S34において、制御部10は、画像データ記憶部23に含まれる処理対象のフレーム画像の全てに対して処理をしたか否かを判断する。処理対象のフレーム画像の全てに対して処理をした場合(S34:YES)には、制御部10は、本処理を終了し、処理を図4に移す。他方、処理対象のフレーム画像の全てに対して処理をしていない場合(S34:NO)には、制御部10は、処理をS35に移す。
S35において、制御部10は、画像データ記憶部23に含まれる処理対象のフレーム画像のうち、未処理のフレーム画像を1つ抽出する。その後、制御部10は、処理をS31に移す。
図4に戻り、S13において、制御部10(ユーザ決定処理部13)は、ユーザ決定処理を行う。
ここで、ユーザ決定処理について、図6に基づき説明する。
図6のS40において、制御部10は、画像分析処理をしたフレーム画像を時系列に並べる。
S41において、制御部10(方向変化量算出部13a)は、並べ替え後の複数のフレーム画像に基づき、ユーザPごとの方向変化量を算出する。ここで、方向変化量とは、時間経過に伴うユーザPの見ている方向の変化の大きさを表すものをいう。具体的には、ユーザPが激しくきょろきょろしている場合には、きょろきょろしている度合いが高く、制御部10は、方向変化量を高く算出する。
S42において、制御部10(移動速度算出部13b)は、並べ替え後の複数のフレーム画像に基づき、ユーザPごとの移動速度を算出する。制御部10は、複数のフレーム画像のユーザPの位置の変化に基づいて、移動速度を算出できる。なお、制御部10は、移動速度として、規定範囲より速いか否かを算出するものであってもよい。
S43において、制御部10(移動方向算出部13c)は、並べ替え後の複数のフレーム画像に基づき、ユーザPごとの移動方向を算出する。制御部10は、複数のフレーム画像のユーザPの位置の変化に基づいて、移動方向を算出できる。
S44において、制御部10(ユーザ決定処理部13)は、並べ替え後の複数のフレーム画像に基づき、ユーザPごとに最も多く表れていた表情を判別する。
S45において、制御部10(案内判断部13d)は、各指標に基づいて、声掛け優先度を算出する。
ここで、声掛け優先度は、方向変化量と、ユーザPの位置と、移動速度と、表情とに対して各々重み付けをして算出された度合いである。この例では、困っているユーザPを優先して声掛けをするので、重み付けの度合いは、方向変化量に対するものを最も高くする。そして、制御部10は、方向変化量が大きく、移動速度が小さく、表情がネガティブである場合には、声掛け優先度が最も高くなるように重み付けをする。また、制御部10は、ユーザPとコミュニケーションロボット1との距離が、規定範囲(例えば、10m)内である場合に、そのユーザPを声掛け対象にする。
S46において、制御部10(案内判断部13d)は、声掛け優先度に基づいて声掛けするユーザPを決定する。
なお、ユーザPが、方向変化量が小さい場合には、移動速度が遅く、表情がネガティブであっても優先度が小さい値になる。そのような場合、つまり、優先度が所定値未満であれば、制御部10は、声掛けするユーザPがいないと判断してもよい。
その後、制御部10は、本処理を終了し、処理を図4に移す。
図4に戻り、S14において、制御部10(ユーザ決定処理部13)は、ユーザ決定処理によりユーザPが決定されたか否かを判断する。ユーザPが決定された場合(S14:YES)には、制御部10は、処理をS15に移す。他方、ユーザPが決定されなかった場合(S14:NO)には、制御部10は、本処理を終了する。
S15において、制御部10(属性判別部12d)は、決定したユーザPの属性を判別する。具体的には、制御部10は、フレーム画像から抽出したユーザPの画像から、おおよその年齢等を判別する。制御部10は、年齢を判別せずとも、子供であるか、大人であるかを判別するものであってもよい。その場合には、制御部10は、ユーザPの画像から身長を推定して、子供か否かを判別してもよい。
S16において、制御部10(案内データ抽出部15)は、図6のS44で判別したユーザPの表情及びS15で判別した属性に基づいて、案内データ記憶部22(図3)を参照して案内データを抽出する。
S17において、制御部10(移動制御部16)は、移動処理を行う。移動処理として、制御部10は、図6のS42及びS43で算出したユーザPの移動速度及び移動方向に基づき、モータ部33(足部モータ33b)を制御して、ユーザPに近づくようにコミュニケーションロボット1を移動させる。
S18において、制御部10(案内部17)は、案内処理を行う。案内処理として、制御部10は、移動後にユーザPに対して話しかける(声掛けする)ように、S16で抽出した案内データを、スピーカ32を介して出力する。
S19において、制御部10は、案内後処理を行う。
ここで、案内後処理について、図7に基づき説明する。
図7のS50において、制御部10(画像取得部11)は、カメラ31を介して、案内データを出力後のユーザPを含むフレーム画像を取得する。
S51において、制御部10(表情判別部12c)は、取得したフレーム画像を分析して顔の表情を判別する。
S52において、制御部10(表情比較部18)は、表情比較処理を行う。表情比較処理として、制御部10は、案内データの出力前の顔の表情(図6のS44での処理)と、S51で取得した顔の表情とを比較する。
S53において、制御部10(案内データ抽出部15)は、表情の比較結果に応じた案内データを、案内データ記憶部22(図3)から抽出する。
S54において、制御部10(案内部17)は、案内処理として、S53において抽出した案内データを、スピーカ32を介して出力させる。その後、制御部10は、処理を図4に移す。
図4に戻り、制御部10は、本処理を終了する。
<具体例の説明>
ここで、この案内ロボット制御システム100を用いた具体例について説明する。
図8は、第1実施形態に係る案内ロボット制御システム100の具体例を示す図である。
まず、コミュニケーションロボット1の制御部10は、図8(A)に示すような、迷子になり、きょろきょろしている子供C1のフレーム画像を取得する(図4のS10)ことで、声掛け対象であると判断する(図4のS14がYES)。
次に、制御部10は、案内データ記憶部22(図3参照)から、属性が子供であり、表情がネガティブである場合の、声掛け時の案内データを抽出する(図4のS16)。
そして、図8(A)及び(B)に示すように、制御部10は、子供C1の位置に向かって移動して(図4のS17)、抽出した案内データを、スピーカ32を介して出力する(図4のS18)。
これにより、コミュニケーションロボット1は、子供C1の状態を、子供C1の動作や表情によって推測して、子供C1の意図に合った声掛けをすることができる。
その後、制御部10は、子供C1のフレーム画像を取得し、図8(C)に示すように、子供C1の表情がネガティブのままであれば、制御部10は、案内データ記憶部22から声掛け後の該当の表情の案内データを抽出して、スピーカ32を介して出力する(図4のS19)。
このように、第1実施形態の案内ロボット制御システム100によれば、以下のような効果がある。
(1)複数のフレーム画像からユーザPの見ている方向の変化量を算出する。方向変化量は、ユーザPがきょろきょろしているような場合には、大きい値になるので、コミュニケーションロボット1は、そのユーザPが困っていると判断して声掛けをする。よって、ユーザPの見ている方向の変化量の大きさによって、困っているか否かというユーザPの状態を推測し、困っていると推測したユーザPに対して、コミュニケーションロボット1がユーザPの意図に合った声掛けを優先的に行うことができる。
(2)ユーザPの位置とコミュニケーションロボット1の位置とが、規定範囲内である場合には、コミュニケーションロボット1がユーザPに対して声掛けをする。よって、近くにいるユーザPに対して、コミュニケーションロボット1が優先的に話しかけることができる。
(3)ユーザPの移動速度が規定範囲内である場合には、コミュニケーションロボット1がユーザPに対して声掛けをする。よって、ユーザPがゆっくり歩いていたり、立ち止まったりする場合に、コミュニケーションロボット1が優先的に話しかけることができる。
(4)ユーザPの移動位置を推測して、コミュニケーションロボット1が近づくことで、ユーザPに対するコミュニケーションロボット1による話しかけが、より自然に行われるようにできる。
(5)ユーザPの表情に基づいて、案内データを選定して、コミュニケーションロボット1が、ユーザPに対して声掛けをする。よって、コミュニケーションロボット1は、ユーザPの表情に合った内容の案内による話しかけをすることができる。
(6)声掛け前後のユーザPの表情の変化に基づいて、コミュニケーションロボット1は、さらに次の案内をする。よって、コミュニケーションロボット1は、よりコミュニケーションがとれた内容の話しかけをすることができる。
(7)ユーザPの年齢等の属性をフレーム画像から判別して、ユーザPの属性に対応する案内データを選定して、コミュニケーションロボット1が、ユーザPに対して声掛けをする。よって、ユーザPの属性に合った内容の案内による話しかけをすることができる。
(8)フレーム画像の取得から案内データの出力までの全ての処理を、コミュニケーションロボット1が行うことができる。よって、コミュニケーションロボット1のみを準備すればよく、設置を容易に行うことができる。
(第2実施形態)
第2実施形態では、コミュニケーションロボットにユーザの呼び込みを行わせるものについて説明する。なお、以降の説明において、上述した第1実施形態と同様の機能を果たす部分には、同一の符号又は末尾に同一の符号を付して、重複する説明を適宜省略する。
<案内ロボット制御システム200>
図9は、第2実施形態に係る案内ロボット制御システム200の運用に適する場面例を示す図である。
図10は、第2実施形態に係る案内ロボット制御システム200の機能ブロック図である。
図11は、第2実施形態に係るコミュニケーションロボット201の案内データ記憶部222の例を示す図である。
案内ロボット制御システム200は、コミュニケーションロボット201を、例えば、展示ブースや店舗の出入口等のスペース200Sの入口に配置する。そして、案内ロボット制御システム200は、ユーザP(この例では、ユーザP4)に対してスペース200Sへの入室等をさせるための呼び込みを、コミュニケーションロボット201が行うために用いるシステムである。
案内ロボット制御システム200は、コミュニケーションロボット201と、カメラ205とを備える。コミュニケーションロボット201と、カメラ205とは、スペース200Sの入口付近に設置される。
カメラ205は、この例では、監視カメラである。カメラ205は、スペース200Sを通りかかるユーザPのフレーム画像を取得して、コミュニケーションロボット201に対してフレーム画像を送信する。
コミュニケーションロボット201は、カメラ205から受信したユーザPのフレーム画像を分析し、声掛け対象のユーザPを判断して、ユーザPに対して案内をする。コミュニケーションロボット201は、カメラ205の前を通り過ぎるユーザPに対して、スペース200Sに対する興味がありそうか否かを判断して声掛けをする。
<コミュニケーションロボット201>
図10に示すように、コミュニケーションロボット201は、制御部210と、記憶部220と、スピーカ32と、モータ部33とを備える。
制御部210は、画像受付部211(画像取得手段)と、画像分析部212と、ユーザ決定処理部213と、顔データ照合部(顔照合手段)214と、案内データ抽出部215と、移動制御部16と、案内部17と、表情比較部18とを備える。
画像受付部211は、カメラ205が送信したフレーム画像を受信することで、フレーム画像を受け付ける。
画像分析部212は、画像受付部211が受け付けたフレーム画像を分析する。画像分析部212は、方向取得部212a(ユーザ方向取得手段)と、距離算出部12bと、表情判別部212cと、顔取得部212e(顔取得手段)とを備える。
方向取得部212aは、フレーム画像を分析してユーザPを特定し、ユーザPごとにそのユーザPの見ている方向を判別して、ユーザPの見ている方向を取得する。
表情判別部212cは、顔取得部212eが取得したユーザPの顔データに基づいて、そのユーザPの顔の表情を判別する。
顔取得部212eは、フレーム画像に含まれるユーザPごとに、そのユーザPの顔データを取得する。
ユーザ決定処理部213は、画像分析部212によって分析されたフレーム画像に基づき、時間経過に伴う変化によって、声掛けをするユーザPを決定する。ユーザ決定処理部213は、移動速度算出部13bと、移動方向算出部13cと、案内判断部213dとを備える。
案内判断部213dは、方向取得部212aにより取得したユーザPの見ている方向、移動方向算出部13cにより算出した移動方向等に基づいて、声掛けするユーザPを決定する。
顔データ照合部214は、顔データ記憶部224に記憶された顔データと、顔取得部212eにより取得した顔データとを照合する。
案内データ抽出部215は、ユーザ決定処理部213により決定したユーザPに対して案内する案内データを、案内データ記憶部222から抽出する。その際、案内データ抽出部215は、顔データ照合部214により照合できた場合には、前回とは異なる案内データを抽出する。
記憶部220は、プログラム記憶部21と、案内データ記憶部222と、画像データ記憶部23と、顔データ記憶部224とを備える。
プログラム記憶部21は、上述した制御部210の各種機能を実行するための制御プログラム221aを記憶している。
案内データ記憶部222は、図11に示すように、ユーザPの顔の表情に対応付けて、声掛けをする案内データを記憶している。また、声掛け後のユーザPの顔の表情に対応付けて、次の案内データを記憶している。
顔データ記憶部224は、顔データを記憶する記憶領域である。顔データ記憶部224は、案内データを出力した場合に、顔取得部212eが取得した顔データと、出力した案内データとを対応付けて記憶する。
<カメラ205>
カメラ205は、例えば、Webカメラに代表されるライブカメラである。カメラ205は、ステレオカメラであってもよい。ステレオカメラとは、複数個のレンズで微妙にずれた位置から同時に撮影し、視差を生み出すことによって、物体の奥行きに関する情報を取得できるようにしたカメラをいう。
カメラ205は、画像取得部251と、画像送信部252とを備える。
画像取得部251は、フレーム画像を取得する制御部である。
画像送信部252は、取得したフレーム画像を、通信ネットワークNを介して送信する制御部である。
コミュニケーションロボット201と、カメラ205とは、通信ネットワークNを介して通信可能に接続されている。通信ネットワークNは、例えば、インターネット回線や携帯端末通信網等である。また、通信ネットワークNは、例えば、Bluetooth(登録商標)規格に基づく短距離無線通信等を用いるものであってもよい。
<コミュニケーションロボット201の処理>
次に、コミュニケーションロボット201の処理について説明する。
図12は、第2実施形態に係るコミュニケーションロボット201でのロボット制御処理を示すフローチャートである。
図13は、第2実施形態に係るコミュニケーションロボット201での画像分析処理を示すフローチャートである。
図14は、第2実施形態に係るコミュニケーションロボット201でのユーザ決定処理を示すフローチャートである。
図12のS210において、コミュニケーションロボット201の制御部210(画像受付部211)は、カメラ205が送信したフレーム画像を受信する。そして、制御部210は、受信したフレーム画像を、画像データ記憶部23に記憶させる。
S211において、制御部210(画像分析部212)は、画像データ記憶部23に記憶されたフレーム画像を分析する画像分析処理を行う。
ここで、画像分析処理について、図13に基づき説明する。
図13のS230において、制御部210(方向取得部212a)は、フレーム画像に含まれるユーザPを検出し、ユーザPの見ている方向を取得する。例えば、フレーム画像に2人のユーザP1,P2が含まれる場合には、制御部210は、ユーザP1及びP2を検出し、各々のユーザPの見ている方向を取得する。
ユーザPの検出としては、様々な公知の手法があるが、例えば、動体検知の手法を用いることができる。動体検知の手法は、予め、ユーザPが写っていないフレーム画像を、背景画像データとして記憶しておき、背景画像データと、処理対象のフレーム画像との差分を求めることで、動体であるユーザPを検出するものである。また、HOG特徴量を用いた人検出等を用いることもできる。HOG特徴量を用いた人検出に関しては、「N. Dalal and B.Triggs. Histograms of Oriented Gradients for Human Detection. In CVPR, pages 886−893, 2005」に記載されている。
また、ユーザPの見ている方向として、制御部210は、例えば、ユーザPの顔の向きを取得する。ユーザPの顔の向きは、顔検出の手法を用いて、制御部210(顔取得部212e)によって顔が検出ができた場合に、カメラ205に対して正面方向であるとするものである。顔検出の手法としては、様々な公知の手法があるが、例えば、Haar−like特徴を用いた顔検出を用いることができる。Haar−like特徴を用いた顔検出に関しては、「P. Viola and M. J. Jones: “Rapid Object Detection Using a Boosted Cascade of Simple Features”,Proceedings of the 2001 IEEE Computer Society Conference on Computer Vision and Pattern Recognition, pp.511−518, (2001).」に記載されている。
なお、制御部210は、フレーム画像から顔画像を検出し、その中から目を抽出して、眼球と瞳孔との相対位置に基づいてユーザPの見ている方向を取得してもよい。
S231及びS232の処理は、第1実施形態(図5)のS32及びS33の処理と同様である。なお、S232では、制御部210(顔取得部212e)が顔データを取得し、取得した顔データに基づいて、制御部210(表情判別部212c)が表情を判別する。その後、制御部210は、処理を図12に移す。
図12に戻り、S212において、制御部210(ユーザ決定処理部213)は、ユーザ決定処理を行う。
ここで、ユーザ決定処理について、図14に基づき説明する。
図14のS240において、制御部210は、画像分析処理をしたフレーム画像を時系列に並べる。
S241において、制御部210(方向取得部212a)は、並べ替え後の複数のフレーム画像に基づき、ユーザPごとの見ている方向を取得する。ここでは、複数のフレーム画像において、ユーザPが見ている方向が同じ方向である場合に、制御部210は、その方向を、見ている方向として取得する。よって、例えば、ユーザPがきょろきょろしている場合には、制御部210は、見ている方向を取得しない。
S242からS244までの処理は、第1実施形態(図6)のS42からS44までの処理と同様である。なお、ユーザPごとの移動方向の算出においては、例えば、Mean−shift特徴を用いた人体トラッキングを用いることができる。Mean−shift特徴を用いた人体トラッキングに関しては、「Collins R.: ‘Mean−Shift Blob Tracking through Scale Space’, Proc. IEEE Conf. Computer Vision and Pattern Recognition, Wisconsin, USA, 2003, pp. 234−240.」に記載されている。
S245において、制御部210(案内判断部213d)は、各指標に基づいて、声掛け優先度を算出する。
ここで、声掛け優先度は、ユーザPの見ている方向と、移動方向と、ユーザPの位置と、移動速度とに対して各々重み付けをして算出された度合いである。この例では、スペース200Sに興味を持っているが、通り過ぎようとしているユーザPを優先して声掛けをするので、重み付けの度合いは、ユーザPの見ている方向と、移動方向が異なる方向であり、ユーザPが正面方向(カメラ205の方向)を向いている場合を、最も高くする。そして、制御部210は、上記の条件を満たし、移動速度が遅い場合には、声掛け優先度が最も高くなるように重み付けをする。また、制御部210は、ユーザPとコミュニケーションロボット201との距離が、規定範囲(例えば、5m)内である場合に、そのユーザPを声掛け対象にする。
S246において、制御部210(案内判断部213d)は、声掛け優先度に基づいて声掛けするユーザPを決定する。
なお、ユーザPが正面方向を向いていない場合には、ユーザPの見ている方向と、移動方向が異なる方向であって、ユーザPとコミュニケーションロボット201との距離が、規定範囲内であっても、制御部210は、声掛けするユーザPがいないと判断してもよい。
その後、制御部210は、本処理を終了し、処理を図12に移す。
図12に戻り、S213において、制御部210(ユーザ決定処理部213)は、ユーザ決定処理によりユーザPが決定されたか否かを判断する。ユーザPが決定された場合(S213:YES)には、制御部210は、処理をS214に移す。他方、ユーザPが決定されなかった場合(S213:NO)には、制御部210は、本処理を終了する。
S214において、制御部210(顔データ照合部214)は、図13のS232において取得した顔データを、顔データ記憶部224の顔データと照合する。
S215において、制御部210(顔データ照合部214)は、照合できたか否かを判断する。照合できた場合(S215:YES)には、制御部210は、処理をS216に移す。他方、照合できなかった場合(S215:NO)には、制御部210は、処理をS216aに移す。なお、照合できた場合とは、過去にそのユーザPに対する声掛けをした場合である。
S216において、制御部210は、顔データ記憶部224及び案内データ記憶部222を参照し、出力済の案内データとは異なる案内データであって、ユーザPの表情に対応した案内データを、案内データ記憶部222から抽出する。
他方、S216aにおいて、制御部210は、案内データ記憶部222を参照し、ユーザPの表情に対応した案内データを抽出する。
S217及びS218の処理は、第1実施形態(図4)のS17及びS18の処理と同様である。
S219において、制御部210は、ユーザPの顔データと、出力した案内データとを対応付けて、顔データ記憶部224に記憶させる。
S220において、制御部210は、案内後処理を行う。案内後処理は、第1実施形態(図7)と同様である。その後、制御部210は、本処理を終了する。
<具体例の説明>
次に、この案内ロボット制御システム200を用いた具体例について説明する。
図15は、第2実施形態に係る案内ロボット制御システム200の具体例を示す図である。
コミュニケーションロボット201及びカメラ205は、スペース200Sの入口付近に設置されている。そして、カメラ205の画像取得部251は、フレーム画像を随時取得し、画像送信部252は、取得したフレーム画像を、コミュニケーションロボット201に対して随時送信している。
制御部210は、図15(A)に示すように、スペース200Sの前を歩いており、顔の向きがコミュニケーションロボット201を向いているユーザP4を、声掛け対象とする(図12のS213がYES)。
次に、制御部210は、取得した顔データが顔データ記憶部224に記憶されているか否かを判断し、記憶されていないと判断した場合に、案内データ記憶部222(図11参照)から、表情に対応した声掛け時の案内データを抽出する(図12のS216a)。そして、コミュニケーションロボット201は、抽出した案内データを、スピーカ32を介して出力する(図12のS218)。この例は、コミュニケーションロボット201は、ユーザP4に対して「どうぞ店内にお立ち寄りください。」と声掛けをする。
そして、そこでユーザP4が立ち止まってコミュニケーションロボット201を見た場合には、さらに声掛けをする(図12のS220)。
しばらくたって、同じユーザP4が、図15(B)に示すように、スペース200Sの前を歩いており、顔の向きがコミュニケーションロボット201を向いている場合には、制御部210は、ユーザP4を、声掛け対象とする(図12のS213がYES)。
次に、制御部210は、取得した顔データが顔データ記憶部224に記憶されているか否かを判断し、先ほど案内をしたユーザP4であると判断した場合に、案内データ記憶部222(図11参照)から、表情に対応した、先ほどとは異なる声掛け時の案内データを抽出する(図12のS216)。そして、コミュニケーションロボット201は、抽出した案内データを、スピーカ32を介して出力する(図12のS218)。この例は、コミュニケーションロボット201は、ユーザP4に対して「さっきも通ったよね?」と声掛けをする。
このように、第2実施形態によれば、案内ロボット制御システム200は、以下のような効果がある。
(1)コミュニケーションロボット201は、ユーザPの見ている方向と、ユーザPの移動方向との関係によって、そのユーザPに声掛けをするか否かを判断して声掛けをする。よって、例えば、スペース200Sの前を通り過ぎながらスペース200Sの方向を見ているユーザPに対して、このスペース200Sに興味があると推測して、ユーザPに声掛けをすることができる。
(2)コミュニケーションロボット201は、ユーザPの見ている方向を、ユーザPの顔が検出できたか否かによって取得できるので、処理を容易に行うことができる。
(3)コミュニケーションロボット201は、案内した相手であるユーザPの顔データを記憶しておくので、同じユーザPに対して、次に案内をする場合には、前回のものとは異なる案内データを出力することができる。よって、顔認証の機能を用いることで、案内を変えることができるため、異なる声掛けをすることができる。
(4)コミュニケーションロボット201は、カメラ205が取得したフレーム画像を用いて処理をするので、コミュニケーションロボット201が移動しても、カメラ205は固定されており、フレーム画像を取得する位置が変わらないので、例えば、時系列に並べた複数のフレーム画像の処理を容易に行うことができる。
以上、本発明の実施形態について説明したが、本発明は上述した実施形態に限定されるものではない。また、実施形態に記載した効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、実施形態に記載したものに限定されない。なお、上述した実施形態及び後述する変形形態は、適宜組み合わせて用いることもできるが、詳細な説明は省略する。
(変形形態)
(1)第1実施形態では、コミュニケーションロボットがカメラを備え、第2実施形態では、コミュニケーションロボットがカメラからフレーム画像を受信するものを例に説明したが、これに限定されない。
例えば、第1実施形態では、コミュニケーションロボットがカメラからフレーム画像を受信してもよい。その場合には、カメラの位置は、コミュニケーションロボットの近傍に限定されず、スペースの天井等に設置してもよい。また、複数台のカメラからフレーム画像を取得してもよい。
また、第2実施形態では、カメラを備えたコミュニケーションロボットを使用してもよい。その場合には、画像処理を容易に行うようにするために、コミュニケーションロボットは、移動をせずにフレーム画像の取得位置を変えない方が望ましい。
(2)各実施形態では、コミュニケーションロボットが各種処理を行うものを例に説明したが、これに限定されない。コミュニケーションロボットに対して通信可能に接続されたサーバを備え、サーバが各種処理を行ってもよい。その場合には、コミュニケーションロボットは、少なくとも、サーバが送信した案内データを出力するスピーカと、コミュニケーションロボットが動作をするためのモータ部とを備えるものであればよい。また、コミュニケーションロボットと、サーバとの両方の装置によって各種処理を行ってもよい。
(3)各実施形態では、適宜のタイミングで取得したフレーム画像を用いるものを例に説明したが、これに限定されない。例えば、動画データを用いてもよい。その場合には、動画データから複数のフレーム画像を取得して、フレーム画像ごとに画像分析処理をすればよい。
(4)各実施形態では、取得したフレーム画像に含まれる全てのユーザに対して、画像分析処理を行うものを例に説明したが、これに限定されない。取得したフレーム画像から1のユーザを選択し、選択したユーザの画像を分析して声掛け対象にするか否かを判断してもよい。
(5)各実施形態では、案内データを出力後、案内データ出力前後でのユーザの表情を比較してさらに案内データを出力するものを例に説明したが、これに限定されない。例えば、ユーザがコミュニケーションロボットから離れるまでは、案内データを出力し続けてもよい。
(6)第1実施形態では、ユーザの見ている方向を、顔の方向として、首を動かしている場合に、きょろきょろしているとして方向変化量を大きくするものを説明したが、これに限定されない。例えば、ユーザの見ている方向を、目線の方向としてもよい。例えば、制御部は、フレーム画像から顔画像を検出し、その中から目を抽出することで、眼球と瞳孔との相対位置に基づいて目線の向きを取得できる。その場合、ユーザの移動方向と、顔の向きが異なり、ユーザの見ている方向がきょろきょろしている場合に、声掛け対象にすることができる。
(7)第2実施形態では、Webカメラやステレオカメラを用いるものを例に説明したが、これに限定されない。例えば、Kinect(登録商標)に代表される深度情報を取得するセンサを有するカメラを用いてもよい。このkinectを用いれば、フレーム画像からユーザの顔を検出し、ユーザの移動方向を算出する処理をより簡易に行うことができる。
(8)第2実施形態では、ユーザの属性に関する処理をしていないが、第1実施形態と同様に、ユーザの属性を判別して、判別したユーザの属性に対応する案内データを抽出するようにしてもよい。
(9)第2実施形態では、コミュニケーションロボットが以前に声掛けしたユーザと同じであると判断した場合には、以前とは異なる案内データを出力させるものを説明したが、これに限定されない。例えば、図16に示すように、ユーザの移動方向に応じて、異なる案内データを出力させるものであってもよい。
図16は、変形形態に係る案内ロボット制御システム300の具体例を示す図である。
図16(A)は、スペース300Sに向かって歩いており、顔の向きがコミュニケーションロボット301(カメラ305)を向いているユーザP5を、声掛け対象とした場合である。この場合には、コミュニケーションロボット301は、移動方向に対応した案内データである「いらっしゃいませ。ご案内しましょうか?」を出力して、ユーザP5に声掛けをする。
次に、図16(B)は、スペース300Sから出てきて、顔の向きがコミュニケーションロボット301を向いているユーザP6を、声掛け対象とした場合である。この場合には、コミュニケーションロボット301は、移動方向に対応した案内データである「ありがとうございました」を出力して、ユーザP6に声掛けをする。
このように、コミュニケーションロボット301は、ユーザPの移動方向に対応した案内データを抽出して出力する。よって、コミュニケーションロボット301は、スペース300Sに入るユーザP5と、スペース300Sから出てきたユーザP6とに対して、異なる声掛けをすることができ、ユーザPの状況に対応した異なる適切な声掛けを、コミュニケーションロボット301にさせることができる。
1,201,301 コミュニケーションロボット
10,210 制御部
11 画像取得部
12,212 画像分析部
12a 方向判別部
12b 距離算出部
12c,212c 表情判別部
12d 属性判別部
13,213 ユーザ決定処理部
13a 方向変化量算出部
13b 移動速度算出部
13c 移動方向算出部
13d,213d 案内判断部
16 移動制御部
17 案内部
18 表情比較部
20,220 記憶部
21a,221a 制御プログラム
22,222 案内データ記憶部
31,205,305 カメラ
32 スピーカ
33 モータ部
100,200,300 案内ロボット制御システム
211 画像受付部
212a 方向取得部
212e 顔取得部
214 顔データ照合部
224 顔データ記憶部
251 画像取得部
252 画像送信部
C1 子供
P,P1〜P6 ユーザ
S,200S,300S スペース

Claims (11)

  1. ユーザに対する案内データを記憶する案内データ記憶部と、
    時系列に連続した複数のフレーム画像を取得する画像取得手段と、
    前記画像取得手段により取得した前記複数のフレーム画像を分析して、前記フレーム画像ごとにユーザが見ている方向を判別する方向判別手段と、
    前記方向判別手段により判別した方向に基づいて、時間経過に伴う前記方向の変化の大きさを表す方向変化量を算出する方向変化量算出手段と、
    前記方向変化量算出手段によって算出した方向の変化に基づいて、案内をするか否かを判断する案内判断手段と、
    前記案内判断手段により案内をすると判断された場合に、前記案内データ記憶部から案内データを抽出してロボットによる案内を行う案内手段と、
    を備える案内ロボット制御システム。
  2. 請求項1に記載の案内ロボット制御システムにおいて、
    前記画像取得手段が取得したフレーム画像における前記ユーザの位置情報に基づいて、前記ユーザと、ロボットとの距離を算出する距離算出手段を備え、
    前記案内判断手段は、前記距離算出手段が算出した前記距離が規定範囲内である場合に、案内をすると判断すること、
    を特徴とする案内ロボット制御システム。
  3. 請求項1又は請求項2に記載の案内ロボット制御システムにおいて、
    前記画像取得手段が取得したフレーム画像における前記ユーザの位置情報に基づいて、前記ユーザの移動速度を算出する移動速度算出手段を備え、
    前記案内判断手段は、前記移動速度算出手段が算出した前記移動速度が規定範囲内である場合に、案内をすると判断すること、
    を特徴とする案内ロボット制御システム。
  4. 請求項3に記載の案内ロボット制御システムにおいて、
    ロボットは、移動が可能であり、
    前記画像取得手段が取得したフレーム画像における前記ユーザの位置情報に基づいて、前記ユーザの移動方向を算出する移動方向算出手段と、
    前記移動方向算出手段により算出した前記ユーザの移動方向及び前記移動速度算出手段が算出した前記移動速度に基づいて、前記ロボットを移動させる移動制御手段と、
    備えること、
    を特徴とする案内ロボット制御システム。
  5. 請求項1から請求項3までのいずれかに記載の案内ロボット制御システムにおいて、
    前記方向判別手段は、前記ユーザの眼球と瞳孔との相対位置に基づき、前記ユーザが見ている方向を判別し、
    前記画像取得手段が取得したフレーム画像における前記ユーザの位置情報に基づいて、前記ユーザの移動方向を算出する移動方向算出手段と、
    前記画像取得手段により取得した前記複数のフレーム画像を分析して、前記ユーザの顔データを取得する顔取得手段と、
    前記フレーム画像ごとに前記ユーザの顔の向きを判別する顔方向判別手段と、
    を備え、
    前記案内判断手段は、前記移動方向算出手段が算出した前記ユーザの移動方向と、前記顔方向判別手段で判別した複数のフレーム画像に共通の顔の向きとが異なる方向である場合に、案内をすると判断すること、
    を特徴とする案内ロボット制御システム。
  6. 請求項5に記載の案内ロボット制御システムにおいて、
    前記方向判別手段は、前記顔取得手段により取得した顔データに基づいて、顔の器官を検出し、それらの位置関係から顔の向きを判定し、前記ユーザの見ている方向を取得すること、
    を特徴とする案内ロボット制御システム。
  7. 請求項1から請求項6までのいずれかに記載の案内ロボット制御システムにおいて、
    前記画像取得手段により取得した少なくとも1つ以上の前記フレーム画像を分析して、前記ユーザの表情を判別する表情判別手段を備え、
    前記案内データ記憶部は、表情に対応する案内データを記憶し、
    前記案内手段は、前記案内データ記憶部を参照して、前記表情判別手段により判別された前記ユーザの表情に基づく案内データを抽出して案内を行うこと、
    を特徴とする案内ロボット制御システム。
  8. 請求項7に記載の案内ロボット制御システムにおいて、
    案内データによる案内をした後に、少なくとも前記画像取得手段による処理と、前記表情判別手段による処理とを実行し、
    案内前の前記ユーザの表情と、案内後の前記ユーザの表情とを比較する表情比較手段を備え、
    前記案内手段は、前記案内データ記憶部を参照して、前記表情比較手段による比較結果に基づく案内データを抽出して案内を行うこと、
    を特徴とする案内ロボット制御システム。
  9. 請求項1から請求項8までのいずれかに記載の案内ロボット制御システムにおいて、
    前記画像取得手段により取得した少なくとも1つ以上の前記フレーム画像を分析して、前記ユーザの属性を判別する属性判別手段を備え、
    前記案内データ記憶部は、ユーザの属性に対応する案内データを記憶し、
    前記案内手段は、前記案内データ記憶部を参照して、前記属性判別手段により判別した前記ユーザの属性に対応する案内データを抽出して案内を行うこと、
    を特徴とする案内ロボット制御システム。
  10. 請求項1から請求項9までのいずれかに記載の案内ロボット制御システムとして、ロボットのプロセッサを機能させるためのプログラム。
  11. ユーザに対する案内データを記憶する案内データ記憶部と、
    撮影部と、
    時系列に連続した複数のフレーム画像を取得する画像取得手段と、
    前記画像取得手段により取得した前記複数のフレーム画像を分析して、前記フレーム画像ごとにユーザが見ている方向を判別する方向判別手段と、
    前記方向判別手段により判別した方向に基づいて、時間経過に伴う前記方向の変化の大きさを表す方向変化量を算出する方向変化量算出手段と、
    前記方向変化量算出手段によって算出した方向の変化に基づいて、案内をするか否かを判断する案内判断手段と、
    前記案内判断手段により案内をすると判断された場合に、前記案内データ記憶部から案内データを抽出して案内を行う案内手段と、
    を備える案内ロボット。
JP2016045573A 2015-11-16 2016-03-09 案内ロボット制御システム、プログラム及び案内ロボット Expired - Fee Related JP6607092B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016045573A JP6607092B2 (ja) 2016-03-09 2016-03-09 案内ロボット制御システム、プログラム及び案内ロボット
PCT/JP2016/081751 WO2017086108A1 (ja) 2015-11-16 2016-10-26 情報提示装置、情報提示方法、プログラム、情報処理装置及び案内ロボット制御システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016045573A JP6607092B2 (ja) 2016-03-09 2016-03-09 案内ロボット制御システム、プログラム及び案内ロボット

Publications (2)

Publication Number Publication Date
JP2017159396A true JP2017159396A (ja) 2017-09-14
JP6607092B2 JP6607092B2 (ja) 2019-11-20

Family

ID=59854509

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016045573A Expired - Fee Related JP6607092B2 (ja) 2015-11-16 2016-03-09 案内ロボット制御システム、プログラム及び案内ロボット

Country Status (1)

Country Link
JP (1) JP6607092B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020075290A1 (ja) * 2018-10-12 2020-04-16 株式会社ユニキャスト 顧客対応システム
JP2020067562A (ja) * 2018-10-24 2020-04-30 Kddi株式会社 ユーザの顔の映像に基づいて発動タイミングを推定する装置、プログラム及び方法
CN112238454A (zh) * 2019-07-17 2021-01-19 本田技研工业株式会社 机器人管理装置、机器人管理方法以及机器人管理系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007006427A (ja) * 2005-05-27 2007-01-11 Hitachi Ltd 映像監視装置
JP2007249427A (ja) * 2006-03-14 2007-09-27 Honda Motor Co Ltd 情報管理システム
JP2008142876A (ja) * 2006-12-13 2008-06-26 Mitsubishi Heavy Ind Ltd ロボットによるサービスシステムにおけるサービス対象者判別方法と該方法を用いたロボットによるサービスシステム
JP2008260107A (ja) * 2007-04-13 2008-10-30 Yaskawa Electric Corp 移動ロボットシステム
JP2009104426A (ja) * 2007-10-24 2009-05-14 Advanced Telecommunication Research Institute International インタラクティブ看板システム
JP2009248193A (ja) * 2008-04-01 2009-10-29 Toyota Motor Corp 接客システム及び接客方法
JP2012161851A (ja) * 2011-02-03 2012-08-30 Advanced Telecommunication Research Institute International ロボットシステムおよびそれに用いる空間陣形認識装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007006427A (ja) * 2005-05-27 2007-01-11 Hitachi Ltd 映像監視装置
JP2007249427A (ja) * 2006-03-14 2007-09-27 Honda Motor Co Ltd 情報管理システム
JP2008142876A (ja) * 2006-12-13 2008-06-26 Mitsubishi Heavy Ind Ltd ロボットによるサービスシステムにおけるサービス対象者判別方法と該方法を用いたロボットによるサービスシステム
JP2008260107A (ja) * 2007-04-13 2008-10-30 Yaskawa Electric Corp 移動ロボットシステム
JP2009104426A (ja) * 2007-10-24 2009-05-14 Advanced Telecommunication Research Institute International インタラクティブ看板システム
JP2009248193A (ja) * 2008-04-01 2009-10-29 Toyota Motor Corp 接客システム及び接客方法
JP2012161851A (ja) * 2011-02-03 2012-08-30 Advanced Telecommunication Research Institute International ロボットシステムおよびそれに用いる空間陣形認識装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
見持圭一,他2名: "ロボット連携による人物の位置・姿勢・動き情報認識法", 電子情報通信学会誌, vol. 第91巻,第5号, JPN6019028195, 2008, JP, pages 387 - 394, ISSN: 0004080918 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020075290A1 (ja) * 2018-10-12 2020-04-16 株式会社ユニキャスト 顧客対応システム
JPWO2020075290A1 (ja) * 2018-10-12 2021-10-28 株式会社ユニキャスト 顧客対応システム
JP2020067562A (ja) * 2018-10-24 2020-04-30 Kddi株式会社 ユーザの顔の映像に基づいて発動タイミングを推定する装置、プログラム及び方法
JP7032284B2 (ja) 2018-10-24 2022-03-08 Kddi株式会社 ユーザの顔の映像に基づいて発動タイミングを推定する装置、プログラム及び方法
CN112238454A (zh) * 2019-07-17 2021-01-19 本田技研工业株式会社 机器人管理装置、机器人管理方法以及机器人管理系统
JP2021018481A (ja) * 2019-07-17 2021-02-15 本田技研工業株式会社 ロボット管理装置、ロボット管理方法およびロボット管理システム
JP7273637B2 (ja) 2019-07-17 2023-05-15 本田技研工業株式会社 ロボット管理装置、ロボット管理方法およびロボット管理システム
CN112238454B (zh) * 2019-07-17 2024-03-01 本田技研工业株式会社 机器人管理装置、机器人管理方法以及机器人管理系统

Also Published As

Publication number Publication date
JP6607092B2 (ja) 2019-11-20

Similar Documents

Publication Publication Date Title
KR102196686B1 (ko) 신원 인증 방법 및 장치
US20160086023A1 (en) Apparatus and method for controlling presentation of information toward human object
JP4642128B2 (ja) 画像処理方法、画像処理装置及びシステム
JP6921694B2 (ja) 監視システム
KR101159164B1 (ko) 위조 영상 판별 장치 및 그 방법
KR101108835B1 (ko) 얼굴 인증 시스템 및 그 인증 방법
CN107392137B (zh) 人脸识别方法及装置
US11080557B2 (en) Image authentication apparatus, method, and storage medium using registered image
JP2014182480A (ja) 人物認識装置、及び方法
KR101724971B1 (ko) 광각 카메라를 이용한 얼굴 인식 시스템 및 그를 이용한 얼굴 인식 방법
KR100824757B1 (ko) 걸음걸이를 이용한 생체 인식 방법
JP6607092B2 (ja) 案内ロボット制御システム、プログラム及び案内ロボット
JP6610349B2 (ja) 案内ロボット制御システム、プログラム及び案内ロボット
WO2020065954A1 (ja) 認証装置、認証方法および記憶媒体
JP5061563B2 (ja) 検出装置、生体判定方法、およびプログラム
CN111626240B (zh) 一种人脸图像识别方法、装置、设备及可读存储介质
KR102063745B1 (ko) 측면 프로파일링 기반 신원확인 장치 및 방법
JP5940944B2 (ja) 視聴状況判定装置、識別器構築装置、視聴状況判定方法、識別器構築方法およびプログラム
KR20140022627A (ko) 인증 장치 및 방법
JP5718973B2 (ja) 顔認識装置、顔認識方法、およびコンピュータプログラム
US20230222193A1 (en) Information processing device, permission determination method, and program
KR20070118806A (ko) 임베디드 시스템용 안면 검출방법
KR102249663B1 (ko) 귀 인식 기반 신원확인 방법 및 시스템
KR101718244B1 (ko) 얼굴 인식을 위한 광각 영상 처리 장치 및 방법
CN115668186A (zh) 认证方法、信息处理装置、以及认证程序

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20160928

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190723

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190821

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190924

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191007

R150 Certificate of patent or registration of utility model

Ref document number: 6607092

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees