JP2018051669A - ロボットシステム及びプログラム - Google Patents

ロボットシステム及びプログラム Download PDF

Info

Publication number
JP2018051669A
JP2018051669A JP2016189147A JP2016189147A JP2018051669A JP 2018051669 A JP2018051669 A JP 2018051669A JP 2016189147 A JP2016189147 A JP 2016189147A JP 2016189147 A JP2016189147 A JP 2016189147A JP 2018051669 A JP2018051669 A JP 2018051669A
Authority
JP
Japan
Prior art keywords
moving object
robot system
area
unit
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016189147A
Other languages
English (en)
Inventor
靖寿 松葉
Yasuhisa Matsuba
靖寿 松葉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2016189147A priority Critical patent/JP2018051669A/ja
Publication of JP2018051669A publication Critical patent/JP2018051669A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

【課題】コミュニケーションロボットのデザインを維持しつつ視野角を広げることが可能なロボットシステム及びプログラムを提供する。【解決手段】ロボット制御システム100は、視野方向を回転可能なコミュニケーションロボット4のカメラ52と、カメラ52より広域な視野角を有する広視野カメラ3と、広視野カメラ3により撮像した画像から動体を検出する動体検出部13と、動体検出部13により検出した動体が入る回動方向及び回動角度を、記憶部20に記憶されたカメラ52の視野角を参照して算出し、エリアを特定するエリア特定部16と、エリア特定部16により特定したデータに基づいて、カメラ52の視野方向を制御する方向制御部45と、を備える。【選択図】図1

Description

本発明は、ロボットシステム及びプログラムに関する。
従来、人と違和感なくコミュニケーションをするためのコミュニケーションロボットが開示されている(例えば、特許文献1)。
特開2004−42151号公報
一般的に、コミュニケーションロボットは、眼の位置に有するカメラを用いて人を特定する。このカメラは、コミュニケーションロボットのデザインを維持するために、通常は、視野角の狭いものが使用される。
視野角が狭いカメラを使用すると、コミュニケーションロボットのデザインを維持できるが、視野角の外側を撮影できないため、視野角の外側にいる人を把握できない。
そこで、本発明は、コミュニケーションロボットのデザインを維持しつつ視野角を広げることが可能なロボットシステム及びプログラムを提供することを目的とする。
本発明は、以下のような解決手段により、前記課題を解決する。
第1の発明は、視野方向を回転可能な第1撮像手段と、前記第1撮像手段より広域な視野角を有する第2撮像手段と、前記第2撮像手段により撮像した画像から動体を検出する動体検出手段と、前記動体検出手段により検出した前記動体が前記第1撮像手段の視野角に入る回動方向及び回動角度を、記憶部に格納された前記第1撮像手段の視野角を参照して特定する方向特定手段と、前記方向特定手段により特定したデータに基づき、前記視野方向を制御する方向制御手段と、を備えるロボットシステムである。
第2の発明は、第1の発明のロボットシステムにおいて、前記動体検出手段により検出した前記動体の大きさを判断し、検出した前記動体に対して優先度を付与する優先付け手段を備え、前記方向特定手段は、前記優先付け手段による優先度に基づき、高い優先度の前記動体の位置を特定すること、を特徴とするロボットシステムである。
第3の発明は、第2の発明のロボットシステムにおいて、前記優先付け手段は、前記動体検出手段により検出した複数の前記動体の密度が高いほど、高い優先度を付与すること、を特徴とするロボットシステムである。
第4の発明は、第2の発明又は第3の発明のロボットシステムにおいて、前記優先付け手段は、前記動体検出手段により検出した前記動体の前記第2撮像手段との距離が近いほど、高い優先度を付与すること、を特徴とするロボットシステムである。
第5の発明は、第2の発明から第4の発明までのいずれかのロボットシステムにおいて、前記優先付け手段は、前記動体検出手段により検出した前記動体の向いている方向が、前記第2撮像手段の方向を向いているほど、高い優先度を付与すること、を特徴とするロボットシステムである。
第6の発明は、第1の発明から第5の発明までのいずれかのロボットシステムにおいて、前記第2撮像手段の視野角を、前記第1撮像手段の視野角より小さい複数のエリアに分割し、画像の中心からの角度を、各エリアの位置として記憶するエリア記憶部を備え、前記方向特定手段は、前記動体検出手段により検出した前記動体の位置を含むエリアを、前記エリア記憶部を参照して特定し、前記方向制御手段は、前記方向特定手段により特定したエリアの角度に基づき、前記視野方向を制御すること、を特徴とするロボットシステムである。
第7の発明は、第1の発明から第6の発明までのいずれかのロボットシステムにおいて、前記第2撮像手段から時系列に連続した複数の画像を取得する画像取得手段を備え、前記動体検出手段は、前記画像取得手段により取得した前記複数の画像から動体を検出すること、を特徴とするロボットシステムである。
第8の発明は、第1の発明から第7の発明までのいずれかのロボットシステムにおいて、
前記第1撮像手段が取得した画像から対象者を検出する対象者検出手段を備え、前記方向制御手段は、前記対象者検出手段により対象者を検出できなかった場合に、前記方向特定手段により特定したデータに基づき、前記視野方向を制御すること、を特徴とするロボットシステムである。
第9の発明は、第1の発明から第8の発明までのいずれかのロボットシステムとしてコンピュータを機能させるためのプログラムである。
本発明によれば、ロボットのデザインを維持しつつ視野角を広げることが可能なロボットシステム及びプログラムを提供することができる。
本実施形態に係るロボット制御システムの運用に適する場面例を示す図である。 本実施形態に係るロボット制御システムの機能ブロック図である。 本実施形態に係るサーバのエリア記憶部を説明するための図である。 本実施形態に係るロボット制御システムでのロボット制御処理を示すフローチャートである。 本実施形態に係るサーバでの広視野画像処理を示すフローチャートである。 本実施形態に係るサーバでの広視野画像処理を説明するための図である。 変形形態に係るロボット制御システムの構成例を示す図である。
以下、本発明を実施するための形態について、図を参照しながら説明する。なお、これは、あくまでも一例であって、本発明の技術的範囲はこれに限られるものではない。
(実施形態)
<ロボット制御システム100>
図1は、本実施形態に係るロボット制御システム100の運用に適する場面例を示す図である。
ロボット制御システム100(ロボットシステム)は、広視野カメラ3(第2撮像手段)と、コミュニケーションロボット4とを用いたシステムである。広視野カメラ3及びコミュニケーションロボット4は、例えば、展示場内、店舗内等のスペースSに配置されている。広視野カメラ3は、スペースSの壁Wに固定して設置される。また、コミュニケーションロボット4は、広視野カメラ3の略垂直位置に、スペースSの壁Wを背にするように配置される。
コミュニケーションロボット4は、例えば、高さが1m程度の人型のロボットである。
そして、コミュニケーションロボット4は、スペースSにいるユーザP(図1の例では、ユーザP1〜P4)のうち、声掛けや案内等のコミュニケーションをとりたいユーザPの方向を向くように、頭部4aを制御して、ユーザPとの間でコミュニケーションを行う。
次に、ロボット制御システム100の全体構成について説明する。
図2は、本実施形態に係るロボット制御システム100の機能ブロック図である。
図2に示すロボット制御システム100は、サーバ1と、広視野カメラ3と、コミュニケーションロボット4とを備える。サーバ1と、広視野カメラ3と、コミュニケーションロボット4とは、通信ネットワークNを介して通信可能に接続されている。
通信ネットワークNは、例えば、インターネット回線や携帯端末通信網等である。また、通信ネットワークNは、例えば、Bluetooth(登録商標)規格に基づく短距離無線通信等を一部に用いるものであってもよい。
<サーバ1>
サーバ1は、広視野カメラ3が取得した画像を分析する。そして、サーバ1は、画像分析結果として得たユーザPの位置に関する情報を、コミュニケーションロボット4に対して送信する。この情報を得たコミュニケーションロボット4は、コミュニケーションロボット4の頭部4aを動かして、ユーザPを撮影することができる。
サーバ1は、制御部10と、記憶部20と、通信インタフェース部29とを備える。
制御部10は、サーバ1の全体を制御する中央処理装置(CPU)である。制御部10は、記憶部20に記憶されているオペレーティングシステム(OS)やアプリケーションプログラムを適宜読み出して実行することにより、上述したハードウェアと協働し、各種機能を実行する。
制御部10は、依頼データ受信部11と、画像受信部12(画像取得手段)と、動体検出部13(動体検出手段)と、人検出部14(動体検出手段)と、優先付け部15(優先付け手段)と、エリア特定部16(方向特定手段)と、通知部17とを備える。
依頼データ受信部11は、コミュニケーションロボット4から依頼データを受信する。
画像受信部12は、広視野カメラ3が撮影した画像を取得する。画像受信部12は、例えば、時系列に連続した複数の画像を取得する。
動体検出部13は、画像受信部12が取得した画像に基づいて、画像に含まれる動体を検出する。
人検出部14は、動体検出部13が検出した動体の大きさを判断することで、ユーザPを検出する。ここで検出するユーザPは、複数であってよい。人検出部14は、例えば、動体の大きさが閾値の範囲内であるか否かによって、ユーザPを検出する。
優先付け部15は、人検出部14が検出したユーザPに対して、優先付けをする。
優先付け部15は、人検出部14が判断した検出した動体の大きさに関する判断結果を用いて、優先付けを行ってもよい。優先付け部15は、複数のユーザPの密度に基づいて、密度の高いユーザPほど高い優先度になるように優先付けを行ってもよい。また、優先付け部15は、広視野カメラ3との間の距離に基づいて、距離が近いユーザPほど高い優先度になるように優先付けを行ってもよい。さらに、優先付け部15は、広視野カメラ3の方向を向いているか否かに基づき、広視野カメラ3の方向を向いているユーザPほど高い優先度になるように優先付けを行ってもよい。
エリア特定部16は、優先付け部15が優先付けをしたユーザPのうち、高い優先度が付与されたユーザPのエリアを特定する。
通知部17は、エリア特定部16が特定したエリアに関するデータを、依頼データに対する結果データとして、コミュニケーションロボット4に対して送信する。
記憶部20は、制御部10が各種の処理を実行するために必要なプログラム、データ等を記憶するためのハードディスク、半導体メモリ素子等の記憶領域である。
記憶部20は、プログラム記憶部21と、エリア記憶部22とを備える。
プログラム記憶部21は、各種のプログラムを記憶する記憶領域である。プログラム記憶部21は、上述した制御部10の各種機能を実行するためのプログラム21aを記憶している。
エリア記憶部22は、広視野カメラ3から取得した画像を複数のエリアに分けて、各エリアの角度を、エリア名に対応付けて記憶する記憶領域である。エリア記憶部22に記憶する情報の決定方法については、後述する。
通信インタフェース部29は、広視野カメラ3や、コミュニケーションロボット4との間の通信を行うためのインタフェースである。
<広視野カメラ3>
広視野カメラ3は、視野角が広いカメラであり、例えば、120度や、180度等の視野角を有する。広視野カメラ3は、その他、360度を撮影可能な全方位カメラ等であってもよい。
広視野カメラ3は、サーバ1からの指示に基づいて撮像し、画像を取得する。また、広視野カメラ3は、常に画像を取得していてもよい。
<コミュニケーションロボット4>
コミュニケーションロボット4は、制御部40と、記憶部50と、カメラ52(第1撮像手段)と、スピーカ53と、モータ部54と、通信インタフェース部59とを備える。
制御部40は、コミュニケーションロボット4の全体を制御するCPUである。制御部40は、記憶部50に記憶されているOSやアプリケーションプログラムを適宜読み出して実行することにより、上述したハードウェアと協働し、各種機能を実行する。
制御部40は、画像取得部41と、対象者検出部42(対象者検出手段)と、依頼データ送信部43と、結果データ受信部44と、方向制御部45(方向制御手段)と、コミュニケーション処理部48とを備える。
画像取得部41は、カメラ52が撮影した画像を取得する。
対象者検出部42は、画像取得部41が取得した画像を分析して、対象者であるユーザPを検出する。ここで、対象者検出部42は、ユーザPを、人検出や顔検出等の技術によって判断する。
依頼データ送信部43は、対象者検出部42による検出結果に応じて、依頼データをサーバ1に対して送信する。具体的には、対象者検出部42による検出結果が、対象者がいないとの検出結果であった場合に、依頼データ送信部43は、依頼データを送信する。
結果データ受信部44は、サーバ1から依頼データに対する結果データを受信する。結果データは、サーバ1が送信したエリア特定部16が特定したエリアに関するデータである。
方向制御部45は、結果データ受信部44が受信した結果データに基づいて、頭部モータ54aを制御して、コミュニケーションロボット4の頭部4aを動かす。結果として、方向制御部45は、カメラ52の視野方向を制御する。
コミュニケーション処理部48は、コミュニケーションロボット4にコミュニケーション処理を行わせる。具体的には、コミュニケーション処理部48は、例えば、声掛けや案内等に関する音声を、スピーカ53から出力させる。
記憶部50は、制御部40が各種の処理を実行するために必要なプログラム、データ等を記憶するための半導体メモリ素子等の記憶領域である。
カメラ52は、撮影装置である。カメラ52は、例えば、コミュニケーションロボット4の眼の部分に対応する位置に設けられている。そして、カメラ52は、コミュニケーションロボット4が向いた方向の被写体を撮像する。カメラ52は、例えば、45度〜60度程度の視野角を有する。また、カメラ52は、コミュニケーションロボット4の頭部4aに有するため、頭部4aが動くことによって、視野方向を回転可能になっている。
スピーカ53は、音声出力装置である。スピーカ53は、例えば、コミュニケーションロボット4の口の部分に対応する位置に設けられている。そして、スピーカ53は、制御部10の指示に基づいて音声を出力する。
モータ部54は、コミュニケーションロボット4に動作をさせるためのモータである。モータ部54は、頭部モータ54aを備える。
頭部モータ54aは、コミュニケーションロボット4の頭部4aを動かすモータである。頭部モータ54aは、制御部40(方向制御部45)によって制御され、頭部4aを左右方向に動かす。
通信インタフェース部59は、サーバ1との間の通信を行うためのインタフェースである。
<エリアの決定方法>
次に、広視野カメラ3により取得する画像のエリア決定方法について説明する。
図3は、本実施形態に係るサーバ1のエリア記憶部22を説明するための図である。
図3(A)は、広視野カメラ3の視野角が120度の場合の一例であり、図3(B)は、広視野カメラ3の視野角が180度の場合の一例である。
図3(A−1)は、広視野カメラ3が取得する画像の画像領域61と、正面を向いているコミュニケーションロボット4のカメラ52が取得する画像の画像領域62とを示す。ここで、サーバ1の記憶部20には、カメラ52の視野角が予め記憶されている。そして、サーバ1の制御部10は、画像領域61のうち、画像領域62を除いた左側を、「エリアA」とし、画像領域62の部分を、「エリアB」とし、残りの部分を、「エリアC」して、各エリアを決定する。
ここで、「エリアB」の横幅61bは、「エリアA」の横幅61a及び「エリアC」の横幅61cより広い。これは、例えば、カメラ52を「エリアA」の方向に向けた場合に、エリアAの全体を含んだ画像を、カメラ52に取得させるためである。
次に、各エリアの位置を、コミュニケーションロボット4の頭部4aを動かす角度として、制御部10は、各エリアに対応する角度を算出する。
隣り合う2つのエリアの各中心により形成される角度θは、広視野カメラ3の視野角をaとし、エリア数をnとした場合に、簡単に算出する方法として、以下の式を用いる。
Figure 2018051669
図3(A)の例では、視野角aが120、エリア数nが3であるので、角度θは、式1を用いて、30度と算出できる。
この算出結果を使用して、制御部10は、図3(A−2)に示すエリア記憶部22を作成することができる。なお、広視野カメラ3の画像領域61のうち、正面に位置する「エリアB」の角度を0度とする。
次に、図3(B−1)は、広視野カメラ3が取得する画像の画像領域71と、正面を向いているコミュニケーションロボット4のカメラ52が取得する画像の画像領域72とを示す。サーバ1の制御部10は、画像領域71のうち、画像領域72を除いた領域を、左側から順番に「エリアD」、「エリアE」とし、画像領域72の部分を「エリアF」とする。そして、制御部10は、画像領域71のうち、画像領域72を除いた領域を、右側から順番に「エリアH」と、「エリアG」として、各エリアを決定する。
ここで、上述と同様に、「エリアF」の横幅71cは、他のエリアの横幅71a,71b,71d,71eより広い。
図3(B−2)は、式1を用いて算出した角度をエリア名に対応付けたエリア記憶部22を示す。この場合、視野角aが180、エリア数nが5であるので、角度θは、式1を用いて、22.5度と算出できる。
<ロボット制御システム100の処理>
次に、ロボット制御システム100の処理について説明する。
図4は、本実施形態に係るロボット制御システム100でのロボット制御処理を示すフローチャートである。
図5は、本実施形態に係るサーバ1での広視野画像処理を示すフローチャートである。
図6は、本実施形態に係るサーバ1での広視野画像処理を説明するための図である。
図4のステップS(以下、「S」という。)10において、コミュニケーションロボット4の制御部40(画像取得部41)は、カメラ52を介して画像を取得する。
S11において、制御部40(対象者検出部42)は、S10で取得した画像を分析する。制御部40は、例えば、人検出や、顔検出等の公知な方法を用いて、S10で取得した画像から人(対象者)を検出する。
人検出の手法としては、例えば、HOG特徴量を用いるものがある。HOG特徴量を用いた人検出に関しては、「N. Dalal and B.Triggs. Histograms of Oriented Gradients for Human Detection. In CVPR, pages 886−893, 2005」に記載されている。
また、顔検出の手法としては、例えば、Haar−like特徴を用いるものがある。Haar−like特徴を用いた顔検出に関しては、「P. Viola and M. J. Jones: “Rapid Object Detection Using a Boosted Cascade of Simple Features”,Proceedings of the 2001 IEEE Computer Society Conference on Computer Vision and Pattern Recognition, pp.511−518, (2001).」に記載されている。
なお、制御部40が人を検出した場合に、その人をユーザPとする。
S12において、制御部40(対象者検出部42)は、ユーザPを検出できたか否かを判断する。ユーザPを検出できた場合(S12:YES)には、制御部40は、処理をS13に移す。他方、ユーザPを検出できなかった場合(S12:NO)には、制御部40は、処理をS14に移す。
S13において、制御部40(コミュニケーション処理部48)は、コミュニケーション処理を行う。コミュニケーション処理は、例えば、ユーザPに対して声掛けをする処理等をいう。その後、制御部40は、本処理を終了する。なお、制御部40は、この処理においてはコミュニケーション処理を行わず、記憶部50に記憶されたコミュニケーション処理を行う他の処理プログラムを呼び出してもよい。その後、制御部40は、本処理を終了する。
他方、S14において、制御部40(依頼データ送信部43)は、依頼データを、サーバ1に対して送信する。依頼データは、広視野カメラ3による画像処理を依頼するためのデータである。
S15において、サーバ1の制御部10(依頼データ受信部11)は、コミュニケーションロボット4から依頼データを受信する。
S16において、制御部10は、広視野画像処理を行う。
ここで、広視野画像処理について、図5に基づき説明する。
図5のS30において、制御部10(画像受信部12)は、広視野カメラ3が取得した画像を受信する。ここで、制御部10は、広視野カメラ3から時系列に連続した複数の画像を受信する。図6(A)は、複数の画像のうちの1つの画像の例であり、広視野カメラ3から取得した画像81を示す。
図5に戻り、S31において、制御部10(動体検出部13)は、動体検出処理を行う。
動体検出処理では、制御部10は、まず、公知の混合正規分布の定義に、複数の画像を当てはめて、背景モデルを作成する。次に、制御部10は、各画像と、背景モデルとの差分を取ることで、移動物体(動体)を検出する。混合正規分布を用いた手法に関しては、「P. KaewTraKulPong and R. Bowden, “An Improved Adaptive Background Mixture Model for Real−Time Tracking with Shadow Detection,” Proc.European Workshop Advanced Video Based Surveillance Systems,2001.」等に記載されている。
この手法では、例えば、スペースSが屋外である場合に、風による物体のゆらぎや日差しの出入り等、画素単位で見れば前景となりうる領域に対しても、統計モデルを適用することで背景領域として捉えることができ、ロバスト性の高い動体検出を実現できる。
S32において、制御部10(動体検出部13)は、S31で検出した移動物体の近隣画素をラベリングし、動体候補枠を設定する。動体候補枠は、ラベリングした画素を囲む矩形である。
図6(B)は、動体候補枠82aを設定した画像82を示す。画像82には、様々な大きさの動体候補枠82aが設定されている。
図5に戻り、S33において、制御部10(人検出部14)は、動体枠候補から動体枠を選定し、選定した動体枠の移動物体を、ユーザPとして検出する。制御部10は、予め設定した矩形の閾値により、動体枠を選定する。矩形の閾値は、例えば、広視野カメラ3の画像からユーザPとして検出したい最大と最小とのサイズである。
図6(C)は、動体枠83aを選定した画像83である。図6(B)の画像82と比較して、小さい矩形の動体候補枠82aが除外されている。
上述の処理では、選定した動体枠の移動物体を、一律にユーザPとして検出しているが、さらに精度の高い方法を用いることができる。例えば、選定した動体枠の移動物体に対して画像認識をすることで、制御部10は、ユーザPとして検出するか否かを判断してもよい。
図5に戻り、S34において、制御部10(優先付け部15)は、ユーザPとして検出した動体枠に優先付けをする。
制御部10は、複数の動体枠の密度に基づいて、密度の高い動体枠を高い優先度になるように優先付ける。また、制御部10は、動体枠の大きさに基づいて、大きい動体枠を高い優先度になるように優先付ける。動体枠の大きさが、ユーザPとの距離に対応するためである。動体枠の密度と、大きさとは、どちらか一方を採用してもよいし、両方を採用してもよい。また、動体枠の密度と、大きさとの両方を採用した場合には、密度を優先させても、大きさを優先させてもよい。
S35において、制御部10(エリア特定部16)は、優先付け部15が優先付けをした高い優先度の動体枠を有するエリアを特定する。制御部10は、各エリアと、優先度とを対応付けてもよい。
S36において、制御部10は、結果データを生成する。制御部10は、エリア記憶部22から抽出した、各エリア及び角度と、S35で特定したエリアの優先度とを対応付けた結果データを生成する。図6に示す例で、密度の高い動体枠に対して優先度を高く優先付けた場合には、結果データは、例えば、「エリアC−右に30度−優先度高」、「エリアA−左に30度−優先度中」、「エリアB−0度−優先度低」といったものである。
なお、制御部10は、例えば、「エリアC−右に30度−優先度高」といった、優先度が高いデータのみを生成してもよい。
その後、制御部10は、本処理を終了し、処理を図4に移す。
図4に戻り、S17において、制御部10(通知部17)は、結果データをコミュニケーションロボット4に対して送信する。その後、制御部10は、本処理を終了する。
S18において、コミュニケーションロボット4の制御部40(結果データ受信部44)は、サーバ1が送信した結果データを受信する。
S19において、制御部40(方向制御部45)は、結果データに基づいて、コミュニケーションロボット4の頭部4aの向きを変える頭部制御処理を行う。
例えば、受信した結果データが、優先度が高いデータのみである場合には、制御部40は、結果データに含まれる角度になるように頭部4aを動かす。また、受信した結果データが、優先度の高低を含めて全てのデータである場合には、制御部40は、結果データに含まれる優先度に基づいて、頭部4aを動かす。
その後、制御部40は、処理をS10に移す。
S10において、制御部40は、カメラ52が撮影した画像を取得する。この画像は、頭部4aを、ユーザPを含む位置に動かした後にカメラ52が撮影したものであるので、画像に、ユーザPが含まれる(S11がYES)。よって、その後、制御部40は、コミュニケーション処理を行うことができる(S13)。
このように、本実施形態のロボット制御システム100によれば、以下のような効果がある。
(1)広視野カメラ3からの画像を分析し、検出したユーザPのエリアの方向を、サーバ1がコミュニケーションロボット4に送信することで、コミュニケーションロボット4は、ユーザPのいるエリアに頭部4aを動かすことができる。よって、コミュニケーションロボット4は、カメラ52でユーザPを撮影でき、ユーザPとの間でのコミュニケーションを行うことができる。
これにより、コミュニケーションロボット4は、そのデザイン性を保持しつつ、ユーザPを検出する機能を拡張できる。
(2)サーバ1は、広視野カメラ3が取得した画像から検出したユーザPに対して優先付けを行うことができる。そして、優先付けは、例えば、複数のユーザPの密度、ユーザPと広視野カメラ3との距離によって行う。よって、よりコミュニケーションを行いやすいユーザPに対して、優先度を高く設定できる。
(3)サーバ1は、広視野カメラ3が取得した画像を、複数のエリアに分割して、エリアごとに、コミュニケーションロボット4の頭部4aを動かす角度を対応付けたエリア記憶部22を有する。そして、エリア記憶部22を参照して、コミュニケーションロボット4に送信する結果データを生成する。よって、エリアごとの角度を、コミュニケーションロボット4に送信できるので、コミュニケーションロボット4での処理を容易にできる。
(4)サーバ1は、広視野カメラ3が取得した画像からユーザPを検出するのに、公知の画像処理技術を用いて行うことができる。よって、サーバ1での処理を、簡単に構築できる。
(5)コミュニケーションロボット4は、カメラ52が撮影した画像にユーザPを含まない場合に、サーバ1から受信した結果データを用いる。よって、コミュニケーションロボット4のカメラ52がユーザPを撮影できない場合であっても、結果データを用いることで、ユーザPがいるエリアの画像を、カメラ52が撮影できるようになる。
以上、本発明の実施形態について説明したが、本発明は上述した実施形態に限定されるものではない。また、実施形態に記載した効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、実施形態に記載したものに限定されない。なお、上述した実施形態及び後述する変形形態は、適宜組み合わせて用いることもできるが、詳細な説明は省略する。
(変形形態)
(1)本実施形態では、サーバにおいて画像に関する処理を行うものを説明したが、これに限定されない。サーバを有さない構成としてもよく、例えば、コミュニケーションロボットが全ての処理を行ってもよいし、コミュニケーションロボットのカメラや、広視野カメラのカメラ装置が処理を行ってもよい。また、各装置での処理は、どのような分担にしてもよい。また、サーバを有する構成とした場合であっても、画像に関する処理を全て行わずに、その一部処理を行うようにしてもよい。
(2)本実施形態では、コミュニケーションロボットがカメラから取得した画像に関する処理を行うものを例に説明したが、これに限定されない。コミュニケーションロボットがサーバに対してカメラから取得した画像を送信し、サーバがコミュニケーションロボットに備えたカメラの画像に関する処理を行ってもよい。その場合には、コミュニケーションロボットは、カメラの他、少なくとも、サーバが送信した音声データを出力するスピーカと、コミュニケーションロボットが頭部を動かすためのモータ部とを備えればよい。また、コミュニケーションロボットと、サーバとの両方の装置によって各種処理を行ってもよい。
(3)本実施形態では、各エリアをコミュニケーションロボットのカメラが撮影するための角度をサーバで算出し、コミュニケーションロボットに送信するものを例に説明したが、これに限定されない。サーバでは、コミュニケーションロボットのカメラの視野内にユーザが入る回動方向及び回動角度を算出するものであってもよい。そして、回動方向及び回動角度に関するデータを、コミュニケーションロボットに送信するものであってもよい。
また、コミュニケーションロボットの頭部の動作は、左右方向によらず、上下方向を含むものであってもよい。
(4)本実施形態では、優先付けに関して、ユーザの密度が高い場合や、ユーザが広視野カメラに近い場合に、高い優先度を付与するものとして説明したが、これに限定されない。例えば、ユーザが広視野カメラの方向を向いているか否かを判断し、広視野カメラの方向を向いている場合に、高い優先度を付与するようにしてもよい。そのようにすることで、コミュニケーションロボットに対して顔を向けているユーザを、コミュニケーションロボットに対して背中を向けているユーザよりも優先して、コミュニケーションロボットが、コミュニケーションを行うことができる。
(5)本実施形態では、優先付けに関して、動体枠の大きさにより、広視野カメラとユーザとの距離の長短を判別するものとして説明したが、これに限定されない。広視野カメラに距離を計測する距離センサを設け、又は、広視野カメラとは別に距離センサを備えて、距離センサを用いて、ユーザとの距離を測定してもよい。また、広視野カメラからの画像をサーバが画像処理をする際に、画像認識技術により、ユーザとの距離や、ユーザの向いている方向を判別してもよい。
(6)本実施形態では、複数の画像を用いた動体検出処理によって、移動物体を検出し、移動物体を含む動体候補枠から動体枠を選定して、動体枠の移動物体をユーザ(人)として検出するものを説明したが、これに限定されない。例えば、人検出等の画像認識技術を用いて画像から直接ユーザを検出し、それを、移動物体として認識させてもよい。
(7)本実施形態では、広視野カメラから時系列に連続した複数の画像を受信して用いるものを例に説明したが、これに限定されない。例えば、動画データを用いてもよい。その場合には、動画データから時系列に連続した複数の画像を取得すればよい。
(8)本実施形態では、サーバは、コミュニケーションロボットから依頼データを受信したことを契機として、広視野カメラから画像を取得して画像処理を行うものを例に説明したが、これに限定されない。サーバは、定期的に広視野カメラから画像を取得して、画像処理を行ってもよい。その場合には、サーバは、画像処理後に、画像処理後のデータ(実施形態でいう結果データ)を、コミュニケーションロボットに送信する。そのようにすることで、コミュニケーションロボット側では、広視野カメラによる結果データが必要なときに、すぐに結果データを得ることができる。
(9)本実施形態では、広視野カメラを、コミュニケーションロボットとは別に備えるものとして説明したが、これに限定しない。例えば、図7に示すように、コミュニケーションロボットに広視野カメラを備えてもよい。
図7は、変形形態に係るロボット制御システム200の構成例を示す図である。
図7に示すロボット制御システム200は、広視野カメラ203と、コミュニケーションロボット204と、図示しないサーバ1とを備える。コミュニケーションロボット204は、背中に相当する位置からアーム205がコミュニケーションロボット204の頭部204aの上部に伸びており、アーム205の先端に、広視野カメラ203を備えている。このような構成のコミュニケーションロボット204であっても、上述した実施形態と同様の処理を行うことができ、コミュニケーションロボット204が移動するものであっても、移動した後であっても適用できる。
1 サーバ
3,203 広視野カメラ
4,204 コミュニケーションロボット
4a,204a 頭部
10,40 制御部
12 画像受信部
13 動体検出部
14 人検出部
15 優先付け部
16 エリア特定部
17 通知部
20,50 記憶部
21a プログラム
22 エリア記憶部
41 画像取得部
42 対象者検出部
43 依頼データ送信部
44 結果データ受信部
45 方向制御部
52 カメラ
53 スピーカ
54a 頭部モータ
100,200 ロボット制御システム
P,P1〜P4 ユーザ
S スペース

Claims (9)

  1. 視野方向を回転可能な第1撮像手段と、
    前記第1撮像手段より広域な視野角を有する第2撮像手段と、
    前記第2撮像手段により撮像した画像から動体を検出する動体検出手段と、
    前記動体検出手段により検出した前記動体が前記第1撮像手段の視野角に入る回動方向及び回動角度を、記憶部に格納された前記第1撮像手段の視野角を参照して特定する方向特定手段と、
    前記方向特定手段により特定したデータに基づき、前記視野方向を制御する方向制御手段と、
    を備えるロボットシステム。
  2. 請求項1に記載のロボットシステムにおいて、
    前記動体検出手段により検出した前記動体の大きさを判断し、検出した前記動体に対して優先度を付与する優先付け手段を備え、
    前記方向特定手段は、前記優先付け手段による優先度に基づき、高い優先度の前記動体の位置を特定すること、
    を特徴とするロボットシステム。
  3. 請求項2に記載のロボットシステムにおいて、
    前記優先付け手段は、前記動体検出手段により検出した複数の前記動体の密度が高いほど、高い優先度を付与すること、
    を特徴とするロボットシステム。
  4. 請求項2又は請求項3に記載のロボットシステムにおいて、
    前記優先付け手段は、前記動体検出手段により検出した前記動体の前記第2撮像手段との距離が近いほど、高い優先度を付与すること、
    を特徴とするロボットシステム。
  5. 請求項2から請求項4までのいずれかに記載のロボットシステムにおいて、
    前記優先付け手段は、前記動体検出手段により検出した前記動体の向いている方向が、前記第2撮像手段の方向を向いているほど、高い優先度を付与すること、
    を特徴とするロボットシステム。
  6. 請求項1から請求項5までのいずれかに記載のロボットシステムにおいて、
    前記第2撮像手段の視野角を、前記第1撮像手段の視野角より小さい複数のエリアに分割し、画像の中心からの角度を、各エリアの位置として記憶するエリア記憶部を備え、
    前記方向特定手段は、前記動体検出手段により検出した前記動体の位置を含むエリアを、前記エリア記憶部を参照して特定し、
    前記方向制御手段は、前記方向特定手段により特定したエリアの角度に基づき、前記視野方向を制御すること、
    を特徴とするロボットシステム。
  7. 請求項1から請求項6までのいずれかに記載のロボットシステムにおいて、
    前記第2撮像手段から時系列に連続した複数の画像を取得する画像取得手段を備え、
    前記動体検出手段は、前記画像取得手段により取得した前記複数の画像から動体を検出すること、
    を特徴とするロボットシステム。
  8. 請求項1から請求項7までのいずれかに記載のロボットシステムにおいて、
    前記第1撮像手段が取得した画像から対象者を検出する対象者検出手段を備え、
    前記方向制御手段は、前記対象者検出手段により対象者を検出できなかった場合に、前記方向特定手段により特定したデータに基づき、前記視野方向を制御すること、
    を特徴とするロボットシステム。
  9. 請求項1から請求項8までのいずれかに記載のロボットシステムとしてコンピュータを機能させるためのプログラム。
JP2016189147A 2016-09-28 2016-09-28 ロボットシステム及びプログラム Pending JP2018051669A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016189147A JP2018051669A (ja) 2016-09-28 2016-09-28 ロボットシステム及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016189147A JP2018051669A (ja) 2016-09-28 2016-09-28 ロボットシステム及びプログラム

Publications (1)

Publication Number Publication Date
JP2018051669A true JP2018051669A (ja) 2018-04-05

Family

ID=61833374

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016189147A Pending JP2018051669A (ja) 2016-09-28 2016-09-28 ロボットシステム及びプログラム

Country Status (1)

Country Link
JP (1) JP2018051669A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021018482A (ja) * 2019-07-17 2021-02-15 本田技研工業株式会社 ロボット管理装置、ロボット管理方法およびロボット管理システム
WO2022124470A1 (ko) * 2020-12-11 2022-06-16 삼성전자주식회사 로봇 및 그 제어 방법

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021018482A (ja) * 2019-07-17 2021-02-15 本田技研工業株式会社 ロボット管理装置、ロボット管理方法およびロボット管理システム
JP7273638B2 (ja) 2019-07-17 2023-05-15 本田技研工業株式会社 ロボット管理装置、ロボット管理方法およびロボット管理システム
WO2022124470A1 (ko) * 2020-12-11 2022-06-16 삼성전자주식회사 로봇 및 그 제어 방법

Similar Documents

Publication Publication Date Title
KR101337060B1 (ko) 화상 처리 장치 및 화상 처리 방법
JP5454570B2 (ja) 追尾対象判定装置、追尾対象判定方法、および追尾対象判定プログラム
JP6141079B2 (ja) 画像処理システム、画像処理装置、それらの制御方法、及びプログラム
JP4642128B2 (ja) 画像処理方法、画像処理装置及びシステム
US20140176752A1 (en) Object detection method, object detection apparatus and image pickup apparatus
JP5662670B2 (ja) 画像処理装置、画像処理方法、及びプログラム
WO2020237565A1 (zh) 一种目标追踪方法、装置、可移动平台及存储介质
JP6590609B2 (ja) 画像解析装置及び画像解析方法
JPWO2019204118A5 (ja)
US20210182571A1 (en) Population density determination from multi-camera sourced imagery
KR102043366B1 (ko) 최대 공통 뷰를 이용한 공간참조 영상들간의 궤적 유사도 측정방법
JP2018120283A (ja) 情報処理装置、情報処理方法及びプログラム
JP2019149006A (ja) 画像選択プログラム、情報処理装置、システム、および画像選択方法
JP6624800B2 (ja) 画像処理装置、画像処理方法、及び画像処理システム
JP2007257088A (ja) ロボット装置及びそのコミュニケーション方法
JP2018081402A (ja) 画像処理装置、画像処理方法、及びプログラム
JP2012226645A (ja) 画像処理装置および方法、記録媒体並びにプログラム
JP2018051669A (ja) ロボットシステム及びプログラム
WO2019165613A1 (zh) 移动设备的控制方法、设备和存储装置
JP2003022442A (ja) 物体検出/位置測定方法およびその装置、ならびにこの方法の実行プログラムおよびその記録媒体
JP2009239391A (ja) 複眼撮影装置およびその制御方法並びにプログラム
JP2020052822A (ja) 情報処理装置、認証システムおよびそれらの制御方法、プログラム
US20150062355A1 (en) Information processing device, information processing method and program
JP2022048077A (ja) 画像処理装置およびその制御方法
JP2019062436A (ja) 画像処理装置、画像処理方法、及びプログラム