JP2012213828A - ロボット制御装置及びプログラム - Google Patents
ロボット制御装置及びプログラム Download PDFInfo
- Publication number
- JP2012213828A JP2012213828A JP2011080455A JP2011080455A JP2012213828A JP 2012213828 A JP2012213828 A JP 2012213828A JP 2011080455 A JP2011080455 A JP 2011080455A JP 2011080455 A JP2011080455 A JP 2011080455A JP 2012213828 A JP2012213828 A JP 2012213828A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- robots
- user
- command
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Manipulator (AREA)
Abstract
【課題】ロボット制御装置及びプログラムにおいて、複数のロボットによる協調動作によりユーザとのインタラクションを行うことを目的とする。
【解決手段】複数のロボットが現場で存在を把握している対象の識別情報及び属性情報を複数のロボットから取得し記憶部に格納して管理する状況管理部と、状況管理部の管理内容に基づき所定の条件が満たされると複数のロボットに同時に、或いは、順次特定動作を行わせる指令を発行する動作指令部を備えるように構成する。
【選択図】図1
【解決手段】複数のロボットが現場で存在を把握している対象の識別情報及び属性情報を複数のロボットから取得し記憶部に格納して管理する状況管理部と、状況管理部の管理内容に基づき所定の条件が満たされると複数のロボットに同時に、或いは、順次特定動作を行わせる指令を発行する動作指令部を備えるように構成する。
【選択図】図1
Description
本発明は、複数のロボットを制御するロボット制御装置及びプログラムに関する。
ユーザとインタラクション(Interaction)を行うサービスロボット、コミュニケーションロボットなどが知られている。これらのロボットは、自発的に、或いは、ユーザからの要求に応答して、ユーザに案内情報を提供したり、サービスを提供することができる。また、これらのロボットには、自律判断、自律走行などが可能な自律型ロボットなども含まれる。
従来、例えばテーマパーク、ショッピングセンターなどの施設内に複数の自律型ロボットが存在する場合、個々のロボットの注意対象などはばらばらであり、各ロボットが独自に動作する。このため、レクリエーション、販売促進などにロボットを活用しようとしても、ユーザに十分効果的な印象、演出効果などを与えることができない場合があった。例えば、施設内でユーザの近くを2台のロボットが移動する場合、一方のロボットがユーザに挨拶しても、他方のロボットが挨拶せずにユーザの前を横切ったのでは、ユーザはこの施設に対して好意的な印象を抱く可能性は低い。
従来のロボット制御方法では、施設内の複数のロボットが夫々独自に動作するので、複数のロボットによる協調動作によりユーザとのインタラクションを行うことはできないという問題があった。
そこで、本発明は、複数のロボットによる協調動作によりユーザとのインタラクションを行うことが可能なロボット制御装置及びプログラムを提供することを目的とする。
本発明の一観点によれば、複数のロボットが現場で存在を把握している対象の識別情報及び属性情報を前記複数のロボットから取得し、記憶部に格納して管理する状況管理部と、前記状況管理部の管理内容に基づき、所定の条件が満たされると前記複数のロボットに同時に、或いは、順次特定動作を行わせる指令を発行する動作指令部を備えたことを特徴とするロボット制御装置が提供される。
本発明の一観点よれば、コンピュータに、複数のロボットを制御させるプログラムであって、前記複数のロボットが現場で存在を把握している対象の識別情報及び属性情報を前記複数のロボットから取得し、記憶部に格納して管理する状況管理手順と、前記状況管理手順の管理内容に基づき、所定の条件が満たされると前記複数のロボットに同時に、或いは、順次特定動作を行わせる指令を発行する動作指令手順を前記コンピュータに実行されることを特徴とするプログラムが提供される。
なお、本発明の一観点では、複数のロボットが現場で存在を把握する対象(人または物)としては、人としてのユーザの他、物としては、動物を含む人以外の対象物全てを含む。
開示のロボット制御装置及びプログラムによれば、複数のロボットによる協調動作によりユーザとのインタラクションを行うことが可能となる。
開示のロボット制御装置及びプログラムでは、施設などの共通の動作環境内に存在する複数の自律型ロボットを制御する。各ロボットは、現在注視している注視対象のユーザを識別するための情報をロボット制御装置に通知する。ロボット制御装置は、各ロボットの注視対象のユーザの情報を管理し、管理内容に基づき所定の条件が満たされると複数のロボットに同時に、或いは、順次、所定の動作を行うよう指示する。
以下に、開示のロボット制御装置及びプログラムの各実施例を図面と共に説明する。
図1は、本発明の一実施例におけるロボットシステムの一例の構成を示す図である。図1に示すロボットシステム1は、ロボット制御装置2及び複数の自律型ロボット3−1〜3−N(Nは2以上の自然数)がネットワーク4を介して接続される構成を有する。各ロボット3−1〜3−Nは、テーマパーク、ショッピングセンターなどの施設内、即ち、共通の動作環境内に存在し、施設を訪れるユーザとインタラクションを行い、自発的に、或いは、ユーザからの要求に応答して、ユーザに案内情報を提供したり、サービスを提供したりするサービス提供機能を有する。サービス提供機能自体は周知である。ネットワーク4は、例えば無線通信ネットワークで形成されている。ロボット制御装置2は、CPU(Central Processing Unit)などのプロセッサと記憶を備えた汎用のコンピュータシステムで形成可能である。
図1中破線で示すように、ロボット制御装置2は、ロボットシステム1全体を制御する上位のアプリケーション100を実行するホスト装置101に接続されていても良い。ホスト装置101は、汎用のコンピュータシステムで形成可能である。
ロボット制御装置2は、状況管理部21、対象認識部22、動作指令部23、通信部24、及び記憶部25〜27を有する。状況管理部21は、各ロボット3−1〜3−Nの状況(または、状態)を通知され、記憶部25に各ロボット3−1〜3−Nが現在位置する現場の状況、注視状況などの情報を格納することで各ロボット3−1〜3−Nの状況を管理する。記憶部25に格納される情報は、例えば注視状況管理テーブルの形式で管理されても良い。このように管理される状況には、各ロボット3−1〜3−Nの注視対象の情報、各ロボット3−1〜3−Nが把握しているユーザまたは物の情報などが含まれる。対象認識部22は、各ロボット3−1〜3−Nの状況から、各ロボット3−1〜3−Nが検知した注視対象を、記憶部26に格納されたユーザ識別特徴量、ユーザ属性などの情報に基づいて認識する周知の認識機能を有する。記憶部26に格納される情報は、特徴量データベースの形式で管理されても良い。動作指令部23は、記憶部25に格納され状況管理部21により管理されている情報に従って、各ロボット3−1〜3−Nに対する注視指令などの動作指令を、記憶部26に格納された動作ルールなどの情報に基づいて発行する。通信部24は、各ロボット3−1〜3−Nとネットワーク4を介して通信を行う周知の通信機能を有する。記憶部25〜27のうち2以上の記憶部を単一の記憶部で形成しても良い。
ロボット制御装置2がコンピュータシステムで形成される場合、状況管理部21、対象認識部22、及び動作指令部23の機能は、コンピュータシステムのプロセッサにより実行可能である。
各ロボット3−1〜3−Nは、図1においてロボット3−1について示すように、通信部31、制御部32、対象認識部33、センサ群34、振る舞い実行部35、被制御部36、及び記憶部37,38,39を有する。通信部31は、各ロボット3−1〜3−Nとネットワーク4を介して通信を行う周知の通信機能を有する。制御部32は、CPUなどのプロセッサで形成され、制御部32が属するロボット全体の制御を司る。制御部32は、ロボット制御装置2からの動作指令に基づいて振る舞い実行部35を介して被制御部36を制御すると共に、独自に動作指令を発行して振る舞い実行部35を介して被制御部36を制御する機能を有する。制御部32は、CPUが実行するプログラムを格納する記憶部を含んでも良い。プログラムを格納する記憶部は、コンピュータ読み取り可能な記憶媒体で形成可能である。センサ群34は、カメラ、RFID(Radio Frequency IDentification)タグリーダなどの相手を認識可能とする情報を検知するセンサを含む。各ロボット3−1〜3−Nが認識する相手は、ユーザに限らず、人以外の物体や動物・植物などの生物、他のロボットなどや、未知の人や物、生物なども含まれる。対象認識部33は、センサ群34が検知した注視対象を、記憶部37に格納されたユーザ識別特徴量、ユーザ属性などの情報に基づいて認識する周知の認識機能を有し、対象認識部22と同じ構成を有しても良い。つまり、記憶部37に格納される情報は、特徴量データベースの形式で管理されても良い。振る舞い実行部35は、制御部32からの指令に応答し、記憶部38に格納された振る舞いなどの情報に基づいて振る舞い実行部35が属するロボットが実行するべき振る舞いを決定する。また、振る舞い実行部35は、決定した振る舞いの実行指令を被制御部36に対して発行する。被制御部36は、ロボットの首、身体、腕などの部分(図示せず)を動かすアクチュエータまたはモータ(図示せず)、ロボットの走行させるモータ(図示せず)、ユーザへのメッセージを出力する表示部(図示せず)またはスピーカを含む音声出力部(図示せず)などの、ロボットが振る舞いを実行する際に制御される部分を含む。記憶部37,38,39は、単一の記憶部で形成しても良い。
各ロボット3−1〜3−N内の対象認識部33は、センサ群34の例えばカメラが撮影した画像から顔画像処理により注視対象を含む相手を認識する。制御部32は、認識した相手のユーザ属性などの識別情報を通信部31及びネットワーク4を介してロボット制御装置2に送信する。また、制御部32は、記憶部39に、センサ群34の例えばカメラにより撮影した画像などにより、現在、そのロボットが現場で存在を把握している対象(人または物)のリストを記憶することにより、管理している。各ロボット3−1〜3−Nにおいて、対象認識部33が認識した相手が知らない相手であれば、制御部32は認識した相手のユーザ特徴量情報をロボット制御装置2に送信する。この場合、ユーザ特徴量情報を受信したロボット制御装置2は、送信元のロボットが未知の相手であると判断してこの相手に新たな識別情報を割り振って特徴量情報と共に記憶部26に格納することで管理する。
各ロボット3−1〜3−Nは、ロボット制御装置2からの注視指令を受信していない場合でも、独自の判断で注視対象を注視したり、振る舞いを行ったりする。また、各ロボット3−1〜3−Nは、上位のホスト装置101から優先度の高い特定動作に関する動作指令を受けた場合には、この特定動作を優先して実行する。
図2は、ロボットとユーザの関係の一例を説明する図であり、ロボットとユーザの平面図に相当する。この例では、N=3であり、設備内のロボット3−1,3−2,3−3の識別情報の一例である識別子(ID)が夫々R1,R2,R3であるものとする。図2中、HA,HB,HCは既知のユーザ(名前Luke, Leia, Padme)A,B,CのID、UHXは未知のユーザX(名前不明)のID、OA,OCは既知の対象物のIDを示す。各ロボット3−1〜3−3は、例えば人型であれば首または身体を旋回させることでユーザまたは対象物である相手を注視できるものとし、点線の矢印は各ロボット3−1〜3−3から相手への注視を示す。この例では、ロボット3−1は対象物OAを注視しており、ロボット3−2,3−3は共にIDがHBのユーザBを注視している。
図3は、ロボットシステムの動作の一例を説明するフローチャートである。図3に示すロボット制御処理は、ロボット制御装置2がコンピュータシステムで形成される場合、コンピュータシステムのプロセッサがコンピュータシステムの記憶部に格納されたロボット制御プログラムを実行することにより実現可能である。図3において、ステップS1は、各ロボット3−1〜3−Nから通知される情報を取得し、取得した情報を記憶部25に格納して管理する。
各ロボット3−1〜3−Nからは、随時、或いは、一定間隔、或いは、状況に変化があった時、各ロボット3−1〜3−Nが現在、現場での存在を把握しているユーザや対象物に関する情報がネットワーク4を介して送信されてくる。送付されてくる情報は、図4に示す如く各ロボット3−1〜3−Nが現場で存在を把握しているユーザまたは物のID情報、及び図5に示す如く各ロボット3−1〜3−Nが把握しているユーザまたは物の属性情報を含む。図4は、例えばロボット3−1から通知される把握対象の一例を説明する図である。図4に示す把握対象の通知には、属性とその値、即ち、IDが含まれる。図6は、例えばロボット3−1から通知されるユーザBに関する属性情報の一例を説明する図である。図6に示す属性情報には、属性とその値、IDまたは名前が含まれる。
図4は、ロボットIDがR1のロボット3−1が現場で存在を把握しているユーザのIDがHA,HB,UHXであり、現場で存在を把握している物がOAであることを示す。図6は、図4においてIDがHBのユーザBに関する属性情報である。尚、同様にして、IDがHA,UHX,OAの注視対象についても、これらの属性情報が通知されることは言うまでもない。図4の例では、IDがR1のロボット3−1はIDがOAの物を注視しているため、図6の注視中属性なる属性は「0」であるが、IDがHBのユーザBを注視中であれば「1」になる。また、ロボット3−1はIDがHBのユーザBを注視していないので、ユーザBの笑顔度やアクティブさ(または、動作の活性度)などの属性情報は不明であり、図6では「NA(Not Available)」である。また、ロボット3−1はIDがHBのユーザBを注視中ではないため、注視開始時刻なる属性情報も「NA」である。図6に示す注視対象スコアなる属性情報については、後述する。
一方、各ロボット3−1〜3−Nが自分の記憶部37内の特徴量データベースに登録されていない未知のユーザまたは物を検知した場合には、図5に示す如く未知のユーザまたは物の特徴量情報が送付されてくる。図5は、例えばロボット3−1から通知される未知のユーザまたは物の特徴量情報の一例を説明する図である。図5に示す特徴量情報の通知には、属性とその値またはIDが含まれる。属性が未知の対象IDの場合の値は不明(Unknown)である。
注視対象が、各ロボット3−1〜3−N内の対象認識部33により識別可能な既知のユーザまたは物の場合、注視対象のID情報が各ロボット3−1〜3−Nから送付されてくるが、未知のユーザまたは物の場合には、未知の注視対象を識別するための特徴量が各ロボット3−1〜3−Nにおいて周知の方法で生成(または、抽出)されて送付されてくる。特徴量は、例えば顔識別のための特徴量である。なお、各ロボット3−1〜3−Nから未知の注視対象の画像が送付されてくる場合には、ロボット制御装置2側で画像から未知の注視対象を識別するための特徴量を周知の方法で生成(または、抽出)すれば良い。ロボット制御装置2は、あるロボットから通知された未知のユーザまたは物に新たなID情報(例えば、UHX)を割り振って記憶部22に登録するので、その後に別のロボットから送付されてくる特徴量などが例えばUHXがIDに割り振られたユーザであると、識別される特徴量であると判断された場合には、同じ未知のユーザ(UHX)をその別のロボットも検知していると判断できる。また、ロボットから通知された未知のユーザまたは物に割り振られた新たなID情報(例えば、UHX)は、各ロボット3−1〜3−Nに返答される。従って、各ロボット3−1〜3−Nは、自分の記憶部37内の識別のための特徴量データベースに、受信した新たなID情報(例えば、UHX)と該当する特徴量を登録する。以後、ロボット制御装置2から例えばIDがUHXのユーザを探して注視する指令がくれば、各ロボット3−1〜3−Nはこの指令を実行可能である。
図3の説明に戻るに、ステップS2は、取得した通知の内容に基づいて、例えば記憶部26にユーザ識別特徴量及びユーザ属性の情報を格納すると共に、例えば記憶部25内の注視状況管理テーブルを更新する。
図7は、ステップS2の処理の一例を説明するフローチャートである。図7において、ステップS21は、各ロボット3−1〜3−Nからの通知を集約し、ステップS22は、未知のユーザの特徴量情報の通知があるか否かを判定する。ステップS22の判定結果がYESであると、ステップS23は、通知された特徴量情報に新しいユーザのID情報を割り振り、処理はステップS24へ進む。ステップS24は、新しく割り振ったID情報とその特徴量情報の組を各ロボット3−1〜3−Nに対して通知し、処理はステップS22へ戻る。
ステップS22の判定結果がNOであると、ステップS25は、例えば記憶部26内の現場に存在する対象ユーザまたは対象物のリストを更新するリスト更新処理を行う。具体的には、各ロボット3−1〜3−Nから通知された例えば図4に示す如き把握対象の情報の和集合を求めて、例えば図8に示す如きリストを更新する。図8は、現場に存在する対象ユーザまたは対象物のリストの一例を示す図である。ステップS26は、リストから最初の対象ユーザまたは対象物を選択する。
ステップS27は、各ロボット3−1〜3−Nからの該当対象(ステップS26またはS29で選択されたユーザまたは物)に関する属性情報を統合し、該当対象の統合属性情報を作成する属性情報統合処理を行う。図9、図10、及び図11は、夫々ロボット3−1,3−2,3−3から通知されるIDがHBのユーザBに関する属性情報の一例を示す図である。また、図12は、IDがHBのユーザBに関する属性情報に対する属性情報統合処理の結果を示す図である。このように、ステップS25で更新したリストの各ユーザまたは各物毎に、図9〜図11の属性情報を統合する属性情報統合処理が行われ、属性情報統合処理の結果が各リストのエントリと紐付されて図12に示すように管理される。
複数のロボットから、同一ユーザに対する異なる注視対象スコアや、異なる笑顔度などの属性情報を同時に通知された場合には、その属性の数値の性質に応じて適した統合方法が異なる。統合方法としては、例えば最大値を採用、平均値を採用、注視対象ユーザに一番近いロボットから通知される属性情報を採用、多数決、重みづけ平均処理などを採用しても良い。ユーザの動作のアクティブさに関しては、同一ユーザに対して別々のロボットから違う値が通知された場合、見る方向によってアクティブさの見え方が違う(そのユーザの動きが見えやすい方向と見えにくい方向がある)観点から、最大値を採用するのが良い。一方、笑顔度に関しては、同一ユーザに対して別々のロボットから違う値が通知された場合、より正確に笑顔度を評価できる観点から、注視対象ユーザを、より正面から見ているロボットから通知された値を採用するのが良い。(図9〜11などでは図示を省略しているが、本実施例においては、注視対象ユーザの顔をロボットが注視している方向の情報も通知されている。)
上記の例では、3台のロボット3−1〜3−3からユーザBに関する属性情報が通知されて属性情報統合処理が行われる。まず、各ロボット3−1〜3−3夫々の位置、及び各ロボット3−1〜3−3からユーザBまでの距離及び方向の計測結果から、ユーザBの存在位置(x,y)が計算されて記憶部25に格納される。各ロボット3−1〜3−3夫々の位置については、本実施例においては各ロボットを定位置に設置して移動させないので設置時の既知情報を利用できるが、移動可能なロボットを使用する場合には各ロボットに搭載されるセンサ群34や周辺環境に設置されるセンサなどの計測結果を利用して周知の方法で計測可能である。各ロボット3−1〜3−3からユーザBまでの距離及び方向の計測結果は、例えばセンサ群34のカメラなどを用いて周知の方法で計測可能である。笑顔度に関してはロボット3−2のみが正面からユーザBの顔をとらえていて笑顔度が計測されているため、ロボット3−2から通知される笑顔度の値を採用している。このように、どれか1台のロボットが注視対象ユーザの顔表情をとらえていれば、その笑顔度を計測可能なメリットがある。
上記の例では、3台のロボット3−1〜3−3からユーザBに関する属性情報が通知されて属性情報統合処理が行われる。まず、各ロボット3−1〜3−3夫々の位置、及び各ロボット3−1〜3−3からユーザBまでの距離及び方向の計測結果から、ユーザBの存在位置(x,y)が計算されて記憶部25に格納される。各ロボット3−1〜3−3夫々の位置については、本実施例においては各ロボットを定位置に設置して移動させないので設置時の既知情報を利用できるが、移動可能なロボットを使用する場合には各ロボットに搭載されるセンサ群34や周辺環境に設置されるセンサなどの計測結果を利用して周知の方法で計測可能である。各ロボット3−1〜3−3からユーザBまでの距離及び方向の計測結果は、例えばセンサ群34のカメラなどを用いて周知の方法で計測可能である。笑顔度に関してはロボット3−2のみが正面からユーザBの顔をとらえていて笑顔度が計測されているため、ロボット3−2から通知される笑顔度の値を採用している。このように、どれか1台のロボットが注視対象ユーザの顔表情をとらえていれば、その笑顔度を計測可能なメリットがある。
また、ロボット3−2,3−3からの通知で、注視中フラグが「1」になっているので、図12の統合属性情報では、注視中ロボットが「R2,R3」となっている。存在開始時刻は、この例では、ユーザBが時刻「15:12:13」に初めてこの現場に現れたので(即ち、ロボット3−3の注視開始時刻)、その時刻が採用されている。この時刻は、必ずしも現在注視中のロボットの注視開始時刻とは一致しない。つまり、初めてこの現場に該当するユーザが現れた時刻を意味するので、最初にこのユーザを見つけたロボットが注視開始した時刻が採用される。
注視対象スコアは、本実施例では後述するように、各ロボットにより計算されて通知されるもので、例えばユーザがロボットに対してどの程度の興味を示しているかを定量的に示す。この例では、ロボット3−1はユーザBを注視していない状態のため、注視対象スコアを計算できず、図9に示す如く「0.0」なる注視対象スコアが通知される。一方、ロボット3−2,3−3はユーザBを注視しているので、計算結果が通知されている。ロボット3−2からは図10に示す如く「0.7」、ロボット3−3からは図11に示す如く「0.6」なる注視対象スコアが通知される。このように、注視対象スコアが異なる場合、統合するにあたっては様々な方法を用いることができるが、この例では最大値を採用している。従って、この例では、より良くユーザBを観察している(即ち、正面から顔を見ているなどの状況にある)ロボット3−2から通知された注視対象スコアが採用される。
なお、本実施例では、注視対象スコアは各ロボットで個別に計算された結果を集約して最終的に1つの値にしているが、各ロボットでは計算せず、図12に示す統合属性情報の各パラメータから算出するように定義しても良い。
図7の説明に戻るに、ステップS28は、対象ユーザまたは対象物のリストの最後の対象まで処理が終了したか否かを判定する。ステップS28の判定結果がNOであると、ステップS29は、リストから次の対象を選択し、処理はステップS27へ戻る。一方、ステップS28の判定結果がYESであると、処理は終了する。
図3の説明に戻るに、ステップS4は、図14に示す如き現場の雰囲気スコアをロボットシステム1の用途に応じたアルゴリズムに応じて算出し、記憶部25に格納する。現場の雰囲気スコアは、各ロボット3−1〜3−Nから通知される各ユーザの注視対象スコアの集計処理の結果から推定できる、現場の雰囲気を表す情報である。現在把握されている、現場にいる夫々のユーザの注視対象スコアを合算、或いは、平均を求めて、現場の雰囲気を求めることもできる。注視対象スコアが高い程、多くのユーザが楽しんでいるとみなし、雰囲気スコアを高く推定する。
図14は、現場の雰囲気スコアを説明する図であり、図9〜図11の属性情報がロボット3−1〜3−3から通知される場合の算出結果を示す。雰囲気スコアは、「0」の時最低で、「1」の時最高であるものとする。この例では、HBの注視対象スコアが0.7で最大値であり、UHXの注視対象スコアが0.2 で最小値なので、この最大値と最小値を捨てて、HAとHCの注視対象スコアの平均値を現場の雰囲気スコアとして算出している。このように、各ユーザの態度の定量スコア(この例では、注視対象スコア)に基づいて、現場の雰囲気を定量化して、定量化された雰囲気スコアの値に基づいて後述するように1台または複数第のロボットの動作(または、話題)を決定して指令することができる。
ステップS5は、注視対象スコアに応じて、或いは、注視対象スコア及び雰囲気スコアに応じて、各ロボット3−1〜3−Nの動作指示を決定する動作指示決定処理を行う。ステップS6は、各ロボット3−1〜3−Nに動作指示のための動作指令(または、スクリプト)を送信し、処理はステップS1へ戻る。
ロボット制御装置2の動作指令部23は、状況管理部21の管理結果に基づき、所定の条件が満たされたときに記憶部27に格納された動作ルールに従ってロボット3−1〜3−Nに対して動作指示を決定して動作指令を発行する。動作指令ルールは特に限定されないが、例えば一番注視対象スコアの高いユーザを複数のロボットで同時に注視しながら商品説明などを行ったり、注視対象スコアが上位の2〜3人のユーザを複数のロボットで順次注視しながら商品説明などを行うなど、上位のアプリケーション100の要請に応じて効果的な戦略(即ち、動作指令ルール)を選定できる。なお、注視対象ユーザを把握できていないロボットは、注視対象ユーザ以外のユーザを見ていても良い。
動作指令ルールの第1の例では、2台以上のロボットが同じ対象(例えば、同一ユーザの顔または同一対象物)を見ていると判断された時に、該当する2台以上のロボットに特定の動作を同時に、或いは、順次行わせる。例えば、本日初めて現場に来たユーザ(所定の条件1)を、2台以上のロボットが同時に見ている(所定の条件2)と判定された時、これらの2台以上のロボットに同時に、ユーザを注視したまま例えば「こんにちは」という動作をさせるか、或いは、順次各ロボットにユーザを注視しながら「こんにちは」という動作をさせる。「こんにちは」というロボットの特定動作は、おじぎなどの動作及び音声または表示の少なくとも1つを含めば良い。
動作指令ルールの第2の例では、1台或いは2台以上のロボットが、ある注視対象に対して特定動作をした後、所定の時間内に別の1台或いは2台以上のロボットがこの注視対象を見ていると判断された時に、特定動作を同時に或いは順次行わせる。例えば、あるユーザに同時に「こんにちは」と挨拶する特定動作を2台のロボットが行った後、所定の時間内(例えば、5秒以内)に他の1台のロボットが同じユーザを見つけた時、そのロボットにも遅れて「こんにちは」という特定動作をさせる。
動作指令ルールの第3の例では、ある1台のロボット或いは2台以上のロボットが、ある注視対象に対して特定動作をした後、別の1台或いは2台以上のロボットにこの注視対象を探索させる動作をさせ、所定の時間内にこの注視対象を見つけたと判定したロボットには特定動作をさせる。例えば、あるユーザに同時に「こんにちは」と挨拶する特定動作を2台のロボットが行った後、他の複数のロボットに対してこのユーザを探索させる指示を出し、所定の時間内(例えば、5秒以内)にこのユーザを1台或いは2台以上のロボットが新たに見つけた場合、当該ロボットに「いらっしゃい」という特定動作をさせる。
図15は、動作指令ルールの第1の例に従った動作の一例を説明するフローチャートである。図15において、ステップS601は、複数のロボットが同一ユーザを注視しているか否かを判定し、判定結果がYESであると処理はステップS602へ進む。ステップS602は、該当ユーザが現場に現れてt秒以内か否かを判定し、判定結果がYESであると処理はステップS603へ進む。ステップS601またはS602の判定結果がNOであると、処理は終了する。
ステップS603は、該当ユーザが既知ユーザであるか否かを判定し、判定結果がYESであると処理はステップS604へ進み、判定結果がNOであると処理はステップS605へ進む。ステップS604は、ステップS601で検知された複数のロボットに対し、同時に該当ユーザ(例えば、ユーザA)に対して「こんにちは、Aさん」と該当ユーザの名前を含む挨拶をする特定動作を行わせる動作指令を発行し、処理は終了する。ステップS605は、ステップS601で検知された複数のロボットに対し、同時に該当ユーザ(例えば、ユーザX)に対して「こんにちは、はじめまして」と該当ユーザの名前を含まない挨拶をする特定動作を行わせる動作指令を発行し、処理は終了する。従って、複数のロボットが存在する現場において、各ロボットの注視状況を管理し、その状況に応じてロボットに特定動作の指令を行うことができる。
このように、この例では新しく現場に来たユーザを複数のロボットが見ていた場合に、「こんにちは」などの挨拶動作をさせ、このユーザ気づいたロボットに挨拶をさせる。例えば、上位アプリケーション100からは、「新しいユーザが現れたら挨拶せよ」という指示をするだけで、動作指令部23が自動的にこのようなロボットの特定動作を組み込むことができる。このため、上位アプリケーション100の開発者は、このような細かい指示を盛り込む必要はなく、上位アプリケーション100の開発効率が向上できる。ユーザにとっては、あたかも気がきくロボット集団にサービスを依頼するような感じになる。
図16は、動作指令ルールの第1の例に従った動作の他の例を説明するフローチャートである。図16において、ステップS611は、現場に新しくきたユーザがいるか否かを判定し、判定結果がYESであると処理はステップS612へ進む。ステップS612は、該当ユーザがその現場に現れてt秒以内か否かを判定し、判定結果がYESであると処理はステップS613へ進む。ステップS611またはS612の判定結果がNOであると、処理は終了する。
ステップS613は、該当ユーザが既知ユーザであるか否かを判定し、判定結果がYESであると処理はステップS614へ進み、判定結果がNOであると処理はステップS615へ進む。ステップS614は、現場にいる全てのロボットに対し、t1秒以内に該当ユーザ(例えば、ユーザA)を見つけたらt2秒後に「いらっしゃいませ、Aさん」と該当ユーザの名前を含む挨拶をする特定動作を行わせる動作指令を発行し、処理は終了する。ステップS615は、現場にいる全てのロボットに対し、t1秒以内に該当ユーザ(例えば、ユーザX)を見つけたらt2秒後に「いらっしゃいませ」と該当ユーザの名前を含まない挨拶をする特定動作を行わせる動作指令を発行し、処理は終了する。従って、複数のロボットが存在する現場において、各ロボットの注視状況を管理し、その状況に応じてロボットに特定動作の指令を行うことができる。
このように、この例では新しく現場に来たユーザを1台以上のロボットが発見したときに、複数のロボットで同時に、「いらっしゃいませ」と挨拶動作をさせる。例えば、上位アプリケーション100からは、「新しいユーザが現れたら挨拶せよ」という指示をするだけで、動作指令部23が自動的にこのようなロボットの特定動作を組み込むことができる。このため、上位アプリケーション100の開発者は、このような細かい指示を盛り込む必要はなく、上位アプリケーション100の開発効率が向上できる。ユーザにとっては、あたかも気がきくロボット集団にサービスを依頼するような感じになる。
次に、推定された現場の雰囲気に基づいてロボットが行う動作(または、話題)の変更について説明する。現場の雰囲気の推定結果に応じて各ロボットの動作を適宜変更することで、ロボットシステムが提供するサービスを向上することができる。
現場で雰囲気が沈んでいるときには、図17と共に後述するように、ユーザへの呼び掛け動作や、ユーザの興味を引くための動作をロボットに行わせることもできる。例えば、ショッピングセンターなどで、販促活動をロボットがしている場合、現場の雰囲気スコアがある閾値以下のとき、ユーザ(この場合は客)の呼び込み動作をしたり、冗談を言う話題を挿入したりする。
また、ロボットがレクリエーションゲームのリーダーを演じているとき、図18と共に後述するように、現場が活性化しているときには、より難易度の高いゲームに移行させることもできる。逆に、現場が不活性な時は、難易度の低いゲームに移行させることもできる。
更に、介護施設などでロボットがレクリエーション(例えば、旗上げゲームなど)のリーダーを演じてしているとき、現場の雰囲気スコアがある下側閾値a1以下の時、ユーザ(この場合、施設の利用者など)の反応が悪いと判断してゲームの難易度を下げたり(旗上げの速さを遅くするなど)、現場の雰囲気スコアがある上側閾値a2(>a1)以上の時、現場が活性化していると判断してゲームの難易度を上げたり(旗上げの速さを速くするなど)することもできる。ここで、ゲームの難易度を上げたり下げたりする指示については、そのような難易度のゲームの振る舞いを実行するように指示する方法もあるし、あるいはゲームの難易度を表すパラメータ値などの振る舞いの度合を設定するパラメータ値(上記の例では旗上げの速さを設定するパラメータ値など)の再設定を指示する方法もある。
上記の如く現場の雰囲気の推定結果(定量化結果)に基づいてロボットの動作(または、話題)を変更する方法は、ロボットが複数台である場合に限らず、ロボットが1台の場合であっても、同様の動作原理に基づき、達成可能である。
図17は、図3のステップS5が実行する動作指示決定処理の一例を説明するフローチャートである。図17において、ステップS401は、各ユーザの注視対象スコアに基づく雰囲気スコアを計算する。ステップS402は、雰囲気スコアが閾値a1(0≦a1<1)以下であるか否かを判定し、判定結果がNOであると処理はステップS401へ戻る。ステップS402の判定結果がYESであると、ステップS403は客の呼び込み動作や冗談を言う話題を指示する指令を発行してロボットに送信し、処理はステップS401へ戻る。ステップS403で行う具体的動作の内容(動作指示あるいはスクリプト)は、動作指令部23が自身が持つ動作ルール27に基づいて自動的に決定しても良いが、上位アプリケーションからそのアプリケーションの都合に合わせて指定するようにしても良い。また、ステップS403で行う具体的動作内容は、客の呼び込み動作や冗談を言う話題に限定されるものではない。
このように、例えばショッピングセンターなどで、販促活動をロボットがしている場合、現場の雰囲気スコアがある閾値a1以下のとき、客の呼び込み動作をしたり、冗談を言う話題を挿入したりする。上位アプリケーション100開発者はこのような指示を盛り込まなくても、自動的に呼びかけ動作などをロボットに行わせることができる。
図18は、図3のステップS5が実行する動作指示決定処理の他の例を説明するフローチャートである。図18において、ステップS411は、各ユーザの注視対象スコアに基づき雰囲気スコアaを計算する。ステップS412は、雰囲気スコアaが下側(または、下限)閾値a1以下であるか否かを判定し、判定結果がYESであると処理はステップS413へ進み、判定結果がNOであると処理はステップS414へ進む。ステップS413は、ゲームの難易度を下げる指示を各ロボットに出力し、処理はステップS411へ戻る。ステップS414は、雰囲気スコアaが上側(または、上限)閾値a2以上であるか否かを判定し、判定結果がNOであると処理はステップS411へ戻り、判定結果がYESであると処理はステップS415へ進む。ステップS415は、ゲームの難易度を上げる指示を各ロボットに出力し、処理はステップS411へ戻る。雰囲気スコアは、「0」から「1」の値をとるので、0≦a1<a2≦1である。a1<a<a2の範囲では、ゲームの難易度がちょうど良いと判断して、現在の難易度を継続する。ここで、ステップS413やステップS415において、ゲームの難易度を上げたり下げたりする指示については、そのような難易度のゲームの振る舞いを実行するように指示する方法もあるし、あるいはゲームの難易度を表すパラメータ値などの振る舞いの度合を設定するパラメータ値(上記の例では旗上げの速さを設定するパラメータ値など)の再設定を指示する方法もある。
なお、図3では各処理が一連のループでシーケンシャルに実行される例を説明しているが、図21に示すように、ステップS1からステップS4までの処理(各ロボットからの通知に基づく状況管理部21などの処理)と、ステップS5からステップS6までの処理(状況管理部の処理内容に基づく動作指令部23などの処理)は並列的に実行されても良い。図21は、各ロボットからの通知に基づく状況管理部などの処理と、状況管理部の処理内容に基づく動作指令部などの処理が並列的に実行される一例を説明するフローチャートである。図21中、図3と同一ステップには同一符号を付し、その説明は省略する。
次に、各ロボット3−1〜3−Nにおいて管理されるユーザの特徴量及び属性情報について、図19と共に説明する。図19は、各ロボットにおけるユーザの特徴量及び属性情報の管理を説明するフローチャートである。図19において、ステップS71は、新規ユーザのIDと特徴量情報がロボット制御装置2から届いているか否かを判定する。ステップS71の判定結果がYESであると、ステップS72は、新規ユーザのIDと特徴量の組を自身の記憶部37内のデータベースに登録し、処理はステップS71へ戻る。ちなみに、ステップS71で言う新規ユーザとは、図7のステップS24にて、各ロボットに通知されるものを指している。
ステップS71の判定結果がNOであると、ステップS73は、ロボットの周辺をセンサ群34のカメラで見たり、センサ群34のRFIDタグリーダで周辺にいるユーザを検知することなど自身のセンサ群34を利用することにより、自身の周辺にいるユーザや対象物を把握し、その把握結果により、そのロボットの現在把握している対象ユーザ及び対象物のリスト(自身の記憶部39)を更新して、記憶するとともに管理する。すなわち、この更新処理により、新たに自身のセンサ群34により検知可能になった対象ユーザや対象物は該リストに追加され、これまでは把握されていたが今回は検知できなくなってしまった対象ユーザや対象物は該リストから削除される。ステップS74は、更新された対象ユーザ及び対象物のリストをロボット制御装置2に通知する。ステップS75は、対象ユーザ及び対象物のリストの最初の対象(ユーザまたは物)を選択する。ステップS76は、選択した対象ユーザが既知ユーザであるか否かを判定し、判定結果がNOであると処理はステップS77へ進み、判定結果がYESであると処理はステップS78へ進む。
ステップS77は、未知ユーザの特徴量情報をロボット制御装置2に通知し、処理はステップS78へ進む。ステップS78は、選択された対象の計測可能な属性情報を計測して、ロボット自身の記憶部37内のデータベースに登録する。ステップS79は、対象の注視対象スコアを算出し、ロボット自身の記憶部37内のデータベースに登録する。
ステップS79で行う各ロボット3−1〜3−Nにおける注視対象スコアの計算について説明する。注視対象スコアは、複数のユーザから注視対象を決定するためや現場の雰囲気を計算するために計算する。各ロボット3−1〜3−Nは、夫々が現在見ているユーザの注視対象スコアを計算してロボット制御装置2に通知する。下記の(式1)のような計算に従って、該注視対象スコア(Score)を計算する。パラメータPi(ただし、i=1〜M)は注視対象スコアを計算するにあたって考慮するパラメータのそれぞれを示し、全てのパラメータPiは、「0」〜「1」の範囲に正規化する。ここでは、ユーザがそのロボットに対して、どの程度、興味・関心を示しているかを計量しようとしているので、パラメータPiとしては、ユーザの興味・関心が反映されると思われるようなM個のパラメータを設計者が選べばよい。たとえば、そのユーザの笑顔度、そのユーザがロボットを見ているか否かを示すアイコンタクトの有無、及び、そのユーザのアクティブさの3つのパラメータを選ぶ(この場合、M=3で、P1〜P3の3つのパラメータを評価する)。なぜなら、そのユーザの笑顔の度合が高ければ、よりロボットに興味・関心を持っているととらえることができ、そのユーザがロボットのほうを見ていれば見ていない場合に比べてより興味・関心を持っているととらえることができ、また、そのユーザが活発にロボットに手を振ったりしているなどアクティブさの度合が高ければより興味・関心を示していると考えることができるからである。例えば、注視対象ユーザの時々刻々と変化する笑顔度をパラメータとする場合、「0」の時最低で、「1」の時最高の笑顔を表すものとして、0〜1の間の値に正規化した値をとるものとする。そのユーザのアイコンタクトの有無をパラメータとする場合、「1」の時アイコンタクトが有る状態(そのユーザがそのロボットを見ている状態)にあり、「0」の時アイコンタクトが無い状態(そのユーザがそのロボットを見ていない状態)にあるものとする(つまり、「0」か「1」の2値をとる)。そのユーザのアクティブさをパラメータとする場合、注視対象ユーザの動作活性度またはオプティカルフロー量を示すものとし、「0」の場合は動きがほとんどない場合、「1」の場合は動きが非常に活発にある場合を表すものとして、0〜1の間の値をとる正規化した値とする。
ステップS79で行う各ロボット3−1〜3−Nにおける注視対象スコアの計算について説明する。注視対象スコアは、複数のユーザから注視対象を決定するためや現場の雰囲気を計算するために計算する。各ロボット3−1〜3−Nは、夫々が現在見ているユーザの注視対象スコアを計算してロボット制御装置2に通知する。下記の(式1)のような計算に従って、該注視対象スコア(Score)を計算する。パラメータPi(ただし、i=1〜M)は注視対象スコアを計算するにあたって考慮するパラメータのそれぞれを示し、全てのパラメータPiは、「0」〜「1」の範囲に正規化する。ここでは、ユーザがそのロボットに対して、どの程度、興味・関心を示しているかを計量しようとしているので、パラメータPiとしては、ユーザの興味・関心が反映されると思われるようなM個のパラメータを設計者が選べばよい。たとえば、そのユーザの笑顔度、そのユーザがロボットを見ているか否かを示すアイコンタクトの有無、及び、そのユーザのアクティブさの3つのパラメータを選ぶ(この場合、M=3で、P1〜P3の3つのパラメータを評価する)。なぜなら、そのユーザの笑顔の度合が高ければ、よりロボットに興味・関心を持っているととらえることができ、そのユーザがロボットのほうを見ていれば見ていない場合に比べてより興味・関心を持っているととらえることができ、また、そのユーザが活発にロボットに手を振ったりしているなどアクティブさの度合が高ければより興味・関心を示していると考えることができるからである。例えば、注視対象ユーザの時々刻々と変化する笑顔度をパラメータとする場合、「0」の時最低で、「1」の時最高の笑顔を表すものとして、0〜1の間の値に正規化した値をとるものとする。そのユーザのアイコンタクトの有無をパラメータとする場合、「1」の時アイコンタクトが有る状態(そのユーザがそのロボットを見ている状態)にあり、「0」の時アイコンタクトが無い状態(そのユーザがそのロボットを見ていない状態)にあるものとする(つまり、「0」か「1」の2値をとる)。そのユーザのアクティブさをパラメータとする場合、注視対象ユーザの動作活性度またはオプティカルフロー量を示すものとし、「0」の場合は動きがほとんどない場合、「1」の場合は動きが非常に活発にある場合を表すものとして、0〜1の間の値をとる正規化した値とする。
各パラメータPiの重みづけWi(0<Wi≦1)は、どのパラメータPiを重視して、注視対象を決定するかを設定するもので、Wiの総和を「1」とする(W1+W2+ … +WM =1)。この注視対象スコアの計算例は、注視対象ユーザがどの程度各ロボット3−1〜3−Nに興味を示しているかを示す指標である。
Score = Σ(Wi×Pi) (式1)
各ロボット3−1〜3−Nは、現在見ているユーザの注視対象スコアを、ユーザIDと共にロボット制御装置2に通知する。Piの値を0〜1の範囲に正規化していること、及び、Wiの総和を1にしていることから、Scoreの値は、0〜1の値をとる。
各ロボット3−1〜3−Nは、現在見ているユーザの注視対象スコアを、ユーザIDと共にロボット制御装置2に通知する。Piの値を0〜1の範囲に正規化していること、及び、Wiの総和を1にしていることから、Scoreの値は、0〜1の値をとる。
なお、パラメータPiにそのユーザが現場に現れてからの経過時間を評価するパラメータを含めても良い。例えば、販促現場などで、現場に現れた直後の客を重視して商品説明をしたり、逆に長くその場にいる客を重視して商品説明をするなどの判断を重視する場合に有効である。図13は、経過時間パラメータを説明する図である。図13(a)は、経過時間に応じて単調に増加し、ある一定時間後に「1」になる経過時間パラメータの一例を示す。このような経過時間パラメータを用いることで、ロボットの前に長時間いるユーザを注視対象として重視することができる。また、このようなユーザが出現した後、一定時間「1」の値をとり、その後図13(b)に示すように一度単調減少した後に、単調増加して一定時間後に再度「1」になるよう場合には、そのユーザが現れた瞬間を重視し、その後一定時間経った後に再び重視するようにすることもできる。
ステップS80は、対象の属性情報をロボット制御装置2に通知する。ステップS81は、対象ユーザまたは対象物のリストの最後まで処理されたか否かを判定し、判定結果がYESであると処理はステップS71へ戻る。ステップS81の判定結果がNOであると、ステップS82に分岐し、対象ユーザまたは対象物リストの次の対象を選択し、処理はステップS76へ戻る。
次に、各ロボット3−1〜3−Nの振る舞いの制御処理を、図20と共に説明する。図20は、ロボットの振る舞いの制御処理を説明するフローチャートである。図20において、ステップS91は、ロボット制御装置2からの振る舞い指示があるか否かを判定し、判定結果がYESであると処理はステップS92へ進み、判定結果がNOであると処理はステップS94へ進む。ステップS92は、振る舞い指示を受け入れるか否かを判定し、判定結果がYESであると処理はステップS93へ進み、判定結果がNOであると処理はステップS94へ進む。ステップS93は、振る舞い指示に従った動作を実行し、処理はステップS91へ戻る。ステップS94は、ロボット自身の判断で振る舞いの動作を実行し、処理はステップS91へ戻る。各ロボット3−1〜3−Nでは、制御部32において図19に示す如きユーザの特徴量及び属性情報の管理を行う処理、及び、図20に示す如き振る舞いの制御処理が並列的に実行される。
上記実施例によれば、現場を共有する複数のロボットが協調して、特定のユーザに注意を向けて振る舞うので、現場の雰囲気をより強く演出したり、複数のロボットの注意をより明確に示すことで、ユーザの印象をより強くすることができる。従って、例えば介護施設や保育施設におけるレクリエーションなどにおいて、より高い演出効果、雰囲気の盛り上げなどが期待できる。店舗などの販促場面でも同様の効果が期待でき、販促効果を向上できる。
また、各ロボットのセンサ群による検知情報を統合して、現場の雰囲気情報などを評価することで、各ロボットが個別に判断する場合と比べて、雰囲気の判断精度が向上できると共に、各ロボットによるちぐはぐな動作を防止できる。
更に、ロボット制御装置が複数のロボットにより協調してユーザに応対するインタラクションスキルを自動的に管理するため、これらの複数のロボットを利用してアプリケーションを作成しようとするサービス開発者は、夫々の細かいインタラクションスキルの全てをシナリオ化して書き下す手間が省け、複数のロボットのアプリケーションの開発効率を大幅に向上することができる。また、複数のロボットのインタラクションスキルをロボット制御装置が自動的に挿入するので、サービス開発者のスキルが低い場合でも、効果的なインタラクションを行うアプリケーションの開発が可能となる。これは、人間のワーカーに仕事を頼む場合に例えれば「気の利く集団」に仕事を頼むような場合に相当し、そうした場合に一から接客を教えなくても良いというメリットを生じることとあたかも同じである。即ち、「気の利くロボット集団」を実現する技術に相当する。
ただし、本発明は、特にレクリエーションなどに活用された場合などに、機械的に効率的なロボット集団であること以外に、例えば自然な子供たちの集まりのような集団を模するようにロボットを動作させることもできる。この場合、各ロボットは自分の内部状態(例えば、やる気がない、或いは、今相手にしているユーザと盛り上がっているなどの各ロボットの感情)に応じて、上位からの動作指令を拒否することもできる。
上記実施例では、ロボットシステムが複数のロボットを有する場合について説明したが、本発明は、ロボットが1台の場合(即ち、図1においてN=1の場合)についても適用可能である。つまり、施設内(現場)に存在するユーザの状態検出値(例えば、興味度スコア)を個別に算出し、その算出結果ランキングに応じて注視する対象ユーザを決定する処理は、ロボットが1台の場合にも適用できる。ロボットが1台(あるいはロボット台数が少ない)の場合、同時に観察できるユーザの数は限定されるが、ロボットが現在見てないユーザの注視対象スコアは、直前(例えば数分以内の過去)に見たときに算出した注視対象スコアの記憶値で代用することにより、現場にいるユーザの注視対象スコアのランキングを行うことは可能である。同様に、施設内に存在する各ユーザ個別の状態検出値に基づき、施設全体の雰囲気スコアを算出し、算出された雰囲気スコアに応じてロボットの振る舞い、話題などを変える処理は、ロボットが1台の場合にも適用可能である。
以上の実施例を含む実施形態に関し、更に以下の付記を開示する。
(付記1)
複数のロボットが現場で存在を把握している対象の識別情報及び属性情報を前記複数のロボットから取得し、記憶部に格納して管理する状況管理部と、
前記状況管理部の管理内容に基づき、所定の条件が満たされると前記複数のロボットに同時に、或いは、順次特定動作を行わせる指令を発行する動作指令部
を備えたことを特徴とするロボット制御装置。
(付記2)
前記状況管理部は、前記複数のロボットの夫々が現場で存在を把握している対象が各ロボットに対してどの程度の興味を示しているかを定量的に示す注視対象スコアを各ロボットから取得し、
前記動作指令部は、前記注視対象スコアが所定の条件を満たすと前記複数のロボットに同時に、或いは、順次特定動作を行わせる指令を発行することを特徴とする、付記1記載のロボット制御装置。
(付記3)
前記状況管理部は、各ロボットから通知される各対象の注視対象スコアの集計処理の結果から現場の雰囲気を表す雰囲気スコアを推定し、
前記動作指令部は、前記雰囲気スコアが所定の条件を満たすと前記複数のロボットに同時に、或いは、順次特定動作を行わせる指令を発行することを特徴とする、付記2記載のロボット制御装置。
(付記4)
前記動作指令部は、前記複数のロボットの振る舞い、話題、振る舞いの度合を設定するパラメータ及び各ロボットが注視する対象の少なくとも1つを決定する指令を発行することを特徴とする、付記1乃至3のいずれか1項記載のロボット制御装置。
(付記5)
前記動作指令部は、各ロボットの自律的動作より優先度の高い動作の指令を発行し、各ロボットは自身の内部状態に応じて前記優先度の高い動作を拒否することを特徴とする、付記1乃至4のいずれか1項記載のロボット制御装置。
(付記6)
ロボットが現場で存在を把握している対象の識別情報及び属性情報を前記ロボットから取得し、記憶部に格納して管理する状況管理部と、
前記状況管理部の管理内容に基づき、所定の条件が満たされると前記ロボットに特定動作を行わせる指令を発行する動作指令部を備え、
前記状況管理部は、前記ロボットが現場で存在を把握している対象が前記ロボットに対してどの程度の興味を示しているかを定量的に示す注視対象スコアを前記ロボットから取得すると共に、必要に応じ前記ロボットから通知される各対象の注視対象スコアの集計処理の結果から現場の雰囲気を表す雰囲気スコアを推定し、
前記動作指令部は、前記注視対象スコアまたは前記雰囲気スコアが所定の条件を満たすと前記ロボットに前記特定動作を行わせる指令を発行することを特徴とする、ロボット制御装置。
(付記7)
コンピュータに、複数のロボットを制御させるプログラムであって、
前記複数のロボットが現場で存在を把握している対象の識別情報及び属性情報を前記複数のロボットから取得し、記憶部に格納して管理する状況管理手順と、
前記状況管理手順の管理内容に基づき、所定の条件が満たされると前記複数のロボットに同時に、或いは、順次特定動作を行わせる指令を発行する動作指令手順
を前記コンピュータに実行されることを特徴とするプログラム。
(付記8)
前記状況管理手順は、前記複数のロボットの夫々が現場で存在を把握している対象が各ロボットに対してどの程度の興味を示しているかを定量的に示す注視対象スコアを各ロボットから取得し、
前記動作指令手順は、前記注視対象スコアが所定の条件を満たすと前記複数のロボットに同時に、或いは、順次特定動作を行わせる指令を発行することを特徴とする、付記7記載のプログラム。
(付記9)
前記状況管理手順は、各ロボットから通知される各対象の注視対象スコアの集計処理の結果から現場の雰囲気を表す雰囲気スコアを推定し、
前記動作指令手順は、前記雰囲気スコアが所定の条件を満たすと前記複数のロボットに同時に、或いは、順次特定動作を行わせる指令を発行することを特徴とする、付記8記載のプログラム。
(付記10)
前記動作指令手順は、前記複数のロボットの振る舞い、話題、振る舞いの度合を設定するパラメータ及び各ロボットが注視する対象の少なくとも1つを決定する指令を発行することを特徴とする、付記7乃至9のいずれか1項記載のプログラム。
(付記11)
前記動作指令手順は、各ロボットの自律的動作より優先度の高い動作の指令を発行し、各ロボットは自身の内部状態に応じて前記優先度の高い動作を拒否することを特徴とする、付記7乃至10のいずれか1項記載のプログラム。
(付記12)
コンピュータに、ロボットを制御させるプログラムであって、
前記ロボットが現場で存在を把握している対象の識別情報及び属性情報を前記ロボットから取得し、記憶部に格納して管理する状況管理手順と、
前記状況管理手順の管理内容に基づき、所定の条件が満たされると前記ロボットに特定動作を行わせる指令を発行する動作指令手順を備え、
前記状況管理手順は、前記ロボットの夫々が現場で存在を把握している対象が前記ロボットに対してどの程度の興味を示しているかを定量的に示す注視対象スコアを前記ロボットから取得すると共に、必要に応じ前記ロボットから通知される各対象の注視対象スコアの集計処理の結果から現場の雰囲気を表す雰囲気スコアを推定し、
前記動作指令部は、前記注視対象スコアまたは前記雰囲気スコアが所定の条件を満たすと前記ロボットに前記特定動作を行わせる指令を発行することを特徴とする、ロボット制御装置。
(付記1)
複数のロボットが現場で存在を把握している対象の識別情報及び属性情報を前記複数のロボットから取得し、記憶部に格納して管理する状況管理部と、
前記状況管理部の管理内容に基づき、所定の条件が満たされると前記複数のロボットに同時に、或いは、順次特定動作を行わせる指令を発行する動作指令部
を備えたことを特徴とするロボット制御装置。
(付記2)
前記状況管理部は、前記複数のロボットの夫々が現場で存在を把握している対象が各ロボットに対してどの程度の興味を示しているかを定量的に示す注視対象スコアを各ロボットから取得し、
前記動作指令部は、前記注視対象スコアが所定の条件を満たすと前記複数のロボットに同時に、或いは、順次特定動作を行わせる指令を発行することを特徴とする、付記1記載のロボット制御装置。
(付記3)
前記状況管理部は、各ロボットから通知される各対象の注視対象スコアの集計処理の結果から現場の雰囲気を表す雰囲気スコアを推定し、
前記動作指令部は、前記雰囲気スコアが所定の条件を満たすと前記複数のロボットに同時に、或いは、順次特定動作を行わせる指令を発行することを特徴とする、付記2記載のロボット制御装置。
(付記4)
前記動作指令部は、前記複数のロボットの振る舞い、話題、振る舞いの度合を設定するパラメータ及び各ロボットが注視する対象の少なくとも1つを決定する指令を発行することを特徴とする、付記1乃至3のいずれか1項記載のロボット制御装置。
(付記5)
前記動作指令部は、各ロボットの自律的動作より優先度の高い動作の指令を発行し、各ロボットは自身の内部状態に応じて前記優先度の高い動作を拒否することを特徴とする、付記1乃至4のいずれか1項記載のロボット制御装置。
(付記6)
ロボットが現場で存在を把握している対象の識別情報及び属性情報を前記ロボットから取得し、記憶部に格納して管理する状況管理部と、
前記状況管理部の管理内容に基づき、所定の条件が満たされると前記ロボットに特定動作を行わせる指令を発行する動作指令部を備え、
前記状況管理部は、前記ロボットが現場で存在を把握している対象が前記ロボットに対してどの程度の興味を示しているかを定量的に示す注視対象スコアを前記ロボットから取得すると共に、必要に応じ前記ロボットから通知される各対象の注視対象スコアの集計処理の結果から現場の雰囲気を表す雰囲気スコアを推定し、
前記動作指令部は、前記注視対象スコアまたは前記雰囲気スコアが所定の条件を満たすと前記ロボットに前記特定動作を行わせる指令を発行することを特徴とする、ロボット制御装置。
(付記7)
コンピュータに、複数のロボットを制御させるプログラムであって、
前記複数のロボットが現場で存在を把握している対象の識別情報及び属性情報を前記複数のロボットから取得し、記憶部に格納して管理する状況管理手順と、
前記状況管理手順の管理内容に基づき、所定の条件が満たされると前記複数のロボットに同時に、或いは、順次特定動作を行わせる指令を発行する動作指令手順
を前記コンピュータに実行されることを特徴とするプログラム。
(付記8)
前記状況管理手順は、前記複数のロボットの夫々が現場で存在を把握している対象が各ロボットに対してどの程度の興味を示しているかを定量的に示す注視対象スコアを各ロボットから取得し、
前記動作指令手順は、前記注視対象スコアが所定の条件を満たすと前記複数のロボットに同時に、或いは、順次特定動作を行わせる指令を発行することを特徴とする、付記7記載のプログラム。
(付記9)
前記状況管理手順は、各ロボットから通知される各対象の注視対象スコアの集計処理の結果から現場の雰囲気を表す雰囲気スコアを推定し、
前記動作指令手順は、前記雰囲気スコアが所定の条件を満たすと前記複数のロボットに同時に、或いは、順次特定動作を行わせる指令を発行することを特徴とする、付記8記載のプログラム。
(付記10)
前記動作指令手順は、前記複数のロボットの振る舞い、話題、振る舞いの度合を設定するパラメータ及び各ロボットが注視する対象の少なくとも1つを決定する指令を発行することを特徴とする、付記7乃至9のいずれか1項記載のプログラム。
(付記11)
前記動作指令手順は、各ロボットの自律的動作より優先度の高い動作の指令を発行し、各ロボットは自身の内部状態に応じて前記優先度の高い動作を拒否することを特徴とする、付記7乃至10のいずれか1項記載のプログラム。
(付記12)
コンピュータに、ロボットを制御させるプログラムであって、
前記ロボットが現場で存在を把握している対象の識別情報及び属性情報を前記ロボットから取得し、記憶部に格納して管理する状況管理手順と、
前記状況管理手順の管理内容に基づき、所定の条件が満たされると前記ロボットに特定動作を行わせる指令を発行する動作指令手順を備え、
前記状況管理手順は、前記ロボットの夫々が現場で存在を把握している対象が前記ロボットに対してどの程度の興味を示しているかを定量的に示す注視対象スコアを前記ロボットから取得すると共に、必要に応じ前記ロボットから通知される各対象の注視対象スコアの集計処理の結果から現場の雰囲気を表す雰囲気スコアを推定し、
前記動作指令部は、前記注視対象スコアまたは前記雰囲気スコアが所定の条件を満たすと前記ロボットに前記特定動作を行わせる指令を発行することを特徴とする、ロボット制御装置。
以上、開示のロボット制御装置及びプログラムを実施例により説明したが、本発明は上記実施例に限定されるものではなく、本発明の範囲内で種々の変形及び改良が可能であることは言うまでもない。
1 ロボットシステム
2 ロボット制御装置
3−1〜3−N ロボット
4 ネットワーク
21 状況管理部
22,33 対象認識部
23 動作指定部
24,31 通信部
25〜27,37〜39 記憶部
34 センサ群
35 振る舞い実行部
36 被制御部
2 ロボット制御装置
3−1〜3−N ロボット
4 ネットワーク
21 状況管理部
22,33 対象認識部
23 動作指定部
24,31 通信部
25〜27,37〜39 記憶部
34 センサ群
35 振る舞い実行部
36 被制御部
Claims (5)
- 複数のロボットが現場で存在を把握している対象の識別情報及び属性情報を前記複数のロボットから取得し、記憶部に格納して管理する状況管理部と、
前記状況管理部の管理内容に基づき、所定の条件が満たされると前記複数のロボットに同時に、或いは、順次特定動作を行わせる指令を発行する動作指令部
を備えたことを特徴とするロボット制御装置。 - 前記状況管理部は、前記複数のロボットの夫々が現場で存在を把握している対象が各ロボットに対してどの程度の興味を示しているかを定量的に示す注視対象スコアを各ロボットから取得し、
前記動作指令部は、前記注視対象スコアが所定の条件を満たすと前記複数のロボットに同時に、或いは、順次特定動作を行わせる指令を発行することを特徴とする、請求項1記載のロボット制御装置。 - 前記状況管理部は、各ロボットから通知される各対象の注視対象スコアの集計処理の結果から現場の雰囲気を表す雰囲気スコアを推定し、
前記動作指令部は、前記雰囲気スコアが所定の条件を満たすと前記複数のロボットに同時に、或いは、順次特定動作を行わせる指令を発行することを特徴とする、請求項2記載のロボット制御装置。 - 前記動作指令部は、前記複数のロボットの振る舞い、話題、振る舞いの度合を設定するパラメータ及び各ロボットが注視する対象の少なくとも1つを決定する指令を発行することを特徴とする、請求項1乃至3のいずれか1項記載のロボット制御装置。
- コンピュータに、複数のロボットを制御させるプログラムであって、
前記複数のロボットが現場で存在を把握している対象の識別情報及び属性情報を前記複数のロボットから取得し、記憶部に格納して管理する状況管理手順と、
前記状況管理手順の管理内容に基づき、所定の条件が満たされると前記複数のロボットに同時に、或いは、順次特定動作を行わせる指令を発行する動作指令手順
を前記コンピュータに実行されることを特徴とするプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011080455A JP2012213828A (ja) | 2011-03-31 | 2011-03-31 | ロボット制御装置及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011080455A JP2012213828A (ja) | 2011-03-31 | 2011-03-31 | ロボット制御装置及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012213828A true JP2012213828A (ja) | 2012-11-08 |
Family
ID=47267153
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011080455A Pending JP2012213828A (ja) | 2011-03-31 | 2011-03-31 | ロボット制御装置及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012213828A (ja) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015173857A (ja) * | 2014-03-17 | 2015-10-05 | 株式会社東芝 | 電子機器及び情報処理方法 |
WO2016170808A1 (ja) * | 2015-04-22 | 2016-10-27 | ソニー株式会社 | 移動体制御システム、制御方法、および記憶媒体 |
JPWO2016132729A1 (ja) * | 2015-02-17 | 2017-11-30 | 日本電気株式会社 | ロボット制御装置、ロボット、ロボット制御方法およびプログラム |
WO2018100829A1 (ja) * | 2016-11-29 | 2018-06-07 | ソニー株式会社 | 情報処理装置および情報処理方法 |
JP2019021166A (ja) * | 2017-07-20 | 2019-02-07 | 日本信号株式会社 | 画像処理装置 |
KR20190037669A (ko) * | 2017-09-29 | 2019-04-08 | 주식회사 토룩 | 자율 행동 로봇을 이용하여 대화 서비스를 제공하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체 |
JP2019118991A (ja) * | 2017-12-28 | 2019-07-22 | 富士通株式会社 | 制御プログラム、制御方法及び情報処理装置 |
JP2021047873A (ja) * | 2016-06-13 | 2021-03-25 | 日本電気株式会社 | 応対ロボット、応対方法及びプログラム |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002178283A (ja) * | 2000-12-12 | 2002-06-25 | Honda Motor Co Ltd | 自律ロボット |
JP2005279897A (ja) * | 2004-03-30 | 2005-10-13 | Advanced Telecommunication Research Institute International | ロボットシステム |
JP2006102861A (ja) * | 2004-10-04 | 2006-04-20 | Advanced Telecommunication Research Institute International | ロボットおよびロボットシステム |
JP2007118129A (ja) * | 2005-10-27 | 2007-05-17 | Advanced Telecommunication Research Institute International | コミュニケーションロボットおよびそれを用いた注意制御システム |
JP2007237300A (ja) * | 2006-03-07 | 2007-09-20 | Toyota Motor Corp | 制御装置、ロボット・システム及びロボット制御方法 |
JP2008254122A (ja) * | 2007-04-05 | 2008-10-23 | Honda Motor Co Ltd | ロボット |
JP2008254167A (ja) * | 2007-03-30 | 2008-10-23 | Sungkyunkwan Univ Foundation For Corporate Collaboration | 認識/推論の水準に応じた階層的構造の室内情報を有する移動サービスロボットの中央情報処理システム及び方法 |
JP2009266200A (ja) * | 2008-04-24 | 2009-11-12 | Korea Advanced Inst Of Sci Technol | ロボットの好感度形成装置及びその方法 |
-
2011
- 2011-03-31 JP JP2011080455A patent/JP2012213828A/ja active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002178283A (ja) * | 2000-12-12 | 2002-06-25 | Honda Motor Co Ltd | 自律ロボット |
JP2005279897A (ja) * | 2004-03-30 | 2005-10-13 | Advanced Telecommunication Research Institute International | ロボットシステム |
JP2006102861A (ja) * | 2004-10-04 | 2006-04-20 | Advanced Telecommunication Research Institute International | ロボットおよびロボットシステム |
JP2007118129A (ja) * | 2005-10-27 | 2007-05-17 | Advanced Telecommunication Research Institute International | コミュニケーションロボットおよびそれを用いた注意制御システム |
JP2007237300A (ja) * | 2006-03-07 | 2007-09-20 | Toyota Motor Corp | 制御装置、ロボット・システム及びロボット制御方法 |
JP2008254167A (ja) * | 2007-03-30 | 2008-10-23 | Sungkyunkwan Univ Foundation For Corporate Collaboration | 認識/推論の水準に応じた階層的構造の室内情報を有する移動サービスロボットの中央情報処理システム及び方法 |
JP2008254122A (ja) * | 2007-04-05 | 2008-10-23 | Honda Motor Co Ltd | ロボット |
JP2009266200A (ja) * | 2008-04-24 | 2009-11-12 | Korea Advanced Inst Of Sci Technol | ロボットの好感度形成装置及びその方法 |
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015173857A (ja) * | 2014-03-17 | 2015-10-05 | 株式会社東芝 | 電子機器及び情報処理方法 |
JPWO2016132729A1 (ja) * | 2015-02-17 | 2017-11-30 | 日本電気株式会社 | ロボット制御装置、ロボット、ロボット制御方法およびプログラム |
US10613538B2 (en) | 2015-04-22 | 2020-04-07 | Sony Corporation | Mobile body control system, control method, and storage medium |
WO2016170808A1 (ja) * | 2015-04-22 | 2016-10-27 | ソニー株式会社 | 移動体制御システム、制御方法、および記憶媒体 |
US11385647B2 (en) | 2015-04-22 | 2022-07-12 | Sony Corporation | Mobile body control system, control method, and storage medium |
US11430207B2 (en) | 2016-06-13 | 2022-08-30 | Nec Corporation | Reception apparatus, reception system, reception method and storage medium |
JP2022168015A (ja) * | 2016-06-13 | 2022-11-04 | 日本電気株式会社 | 応対ロボット、応対方法及びプログラム |
JP7452593B2 (ja) | 2016-06-13 | 2024-03-19 | 日本電気株式会社 | 応対ロボット、応対方法及びプログラム |
US11850728B2 (en) | 2016-06-13 | 2023-12-26 | Nec Corporation | Reception apparatus, reception system, reception method, and storage medium |
US11514663B2 (en) | 2016-06-13 | 2022-11-29 | Nec Corporation | Reception apparatus, reception system, reception method, and storage medium |
JP2021047873A (ja) * | 2016-06-13 | 2021-03-25 | 日本電気株式会社 | 応対ロボット、応対方法及びプログラム |
JP2021177417A (ja) * | 2016-11-29 | 2021-11-11 | ソニーグループ株式会社 | 情報処理装置、情報処理方法およびプログラム |
US11327467B2 (en) | 2016-11-29 | 2022-05-10 | Sony Corporation | Information processing device and information processing method |
WO2018100829A1 (ja) * | 2016-11-29 | 2018-06-07 | ソニー株式会社 | 情報処理装置および情報処理方法 |
JP7151835B2 (ja) | 2016-11-29 | 2022-10-12 | ソニーグループ株式会社 | 情報処理装置、情報処理方法およびプログラム |
JPWO2018100829A1 (ja) * | 2016-11-29 | 2019-10-17 | ソニー株式会社 | 情報処理装置および情報処理方法 |
US12007749B2 (en) | 2016-11-29 | 2024-06-11 | Sony Group Corporation | Information processing device and information processing method |
JP6993802B2 (ja) | 2017-07-20 | 2022-02-04 | 日本信号株式会社 | 画像処理装置 |
JP2019021166A (ja) * | 2017-07-20 | 2019-02-07 | 日本信号株式会社 | 画像処理装置 |
KR101985793B1 (ko) * | 2017-09-29 | 2019-06-04 | 주식회사 토룩 | 자율 행동 로봇을 이용하여 대화 서비스를 제공하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체 |
KR20190037669A (ko) * | 2017-09-29 | 2019-04-08 | 주식회사 토룩 | 자율 행동 로봇을 이용하여 대화 서비스를 제공하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체 |
JP7147167B2 (ja) | 2017-12-28 | 2022-10-05 | 富士通株式会社 | 制御プログラム、制御方法及び情報処理装置 |
JP2019118991A (ja) * | 2017-12-28 | 2019-07-22 | 富士通株式会社 | 制御プログラム、制御方法及び情報処理装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2012213828A (ja) | ロボット制御装置及びプログラム | |
JP6549682B2 (ja) | グループ推奨の仮想アシスタント生成 | |
US11413764B2 (en) | Serving robot and method for receiving customer using the same | |
US20180322145A1 (en) | Information processing device, system, information processing method, and program | |
Honig et al. | Toward socially aware person-following robots | |
JP2022040183A (ja) | コンピュータによるエージェントのための合成音声の選択 | |
CN105431813B (zh) | 基于生物计量身份归属用户动作 | |
US11876925B2 (en) | Electronic device and method for controlling the electronic device to provide output information of event based on context | |
US20170132821A1 (en) | Caption generation for visual media | |
JP4985970B2 (ja) | オブジェクトの表示を制御する技術 | |
US20180015370A1 (en) | System and method for retaining a strategy video game player by predicting the player game satisfaction using player game behavior data | |
WO2019051645A1 (zh) | 一种机器人动态学习方法、系统、机器人以及云端服务器 | |
TWI714044B (zh) | 用於識別和描述群體的方法、協調裝置和電腦程式產品 | |
US20130117265A1 (en) | Communication assistance device, communication assistance method, and computer readable recording medium | |
JP2009104481A (ja) | ユーザのコミュニケーションを支援する技術 | |
CN102902704A (zh) | 信息处理设备、短语输出方法和程序 | |
JP2020137549A (ja) | 装置、方法、及びプログラム | |
JP7044244B2 (ja) | 強化学習システム | |
CN110169021B (zh) | 用于过滤多条消息的方法和设备 | |
JP2014115897A (ja) | 情報処理装置、管理装置、情報処理方法、管理方法、情報処理プログラム、管理プログラム及びコンテンツ提供システム | |
US20130117296A1 (en) | Communication assistance device, communication assistance method, and computer readable recording medium | |
CN110175064A (zh) | 控制界面显示方法、装置和遥控设备 | |
JP2016177443A (ja) | 情報処理装置及び方法 | |
WO2019133615A1 (en) | A method for personalized social robot interaction | |
JP2013208681A (ja) | インタラクション装置およびインタラクション制御プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140204 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20141107 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20141202 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20150331 |