JP6142307B2 - 注目対象推定システムならびにロボットおよび制御プログラム - Google Patents

注目対象推定システムならびにロボットおよび制御プログラム Download PDF

Info

Publication number
JP6142307B2
JP6142307B2 JP2013202377A JP2013202377A JP6142307B2 JP 6142307 B2 JP6142307 B2 JP 6142307B2 JP 2013202377 A JP2013202377 A JP 2013202377A JP 2013202377 A JP2013202377 A JP 2013202377A JP 6142307 B2 JP6142307 B2 JP 6142307B2
Authority
JP
Japan
Prior art keywords
person
behavior
exhibit
attention
attention object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013202377A
Other languages
English (en)
Other versions
JP2015066625A (ja
Inventor
神田 崇行
崇行 神田
聡 佐竹
聡 佐竹
尊優 飯尾
尊優 飯尾
林 宏太郎
宏太郎 林
フェレリ フローラン
フェレリ フローラン
横山 太郎
太郎 横山
浩司 川邊
浩司 川邊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
ATR Advanced Telecommunications Research Institute International
Original Assignee
Honda Motor Co Ltd
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd, ATR Advanced Telecommunications Research Institute International filed Critical Honda Motor Co Ltd
Priority to JP2013202377A priority Critical patent/JP6142307B2/ja
Publication of JP2015066625A publication Critical patent/JP2015066625A/ja
Application granted granted Critical
Publication of JP6142307B2 publication Critical patent/JP6142307B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Description

この発明は、注目対象推定システムならびにロボットおよびその制御プログラムに関し、特にたとえば、展示物が展示された展示会場内で、人の注目対象を推定する、注目対象推定システムならびにロボットおよびその制御プログラムに関する。
この発明の背景技術として、特許文献1には、顔画像からモデルを用いて顔方向や視線方向を計測することで、人物の注目位置を検出する方法が開示されている。特許文献2には、複数のカメラで異なる方向から同一被写体を撮影することで、被写体の正面または顔が向いている方向を検出できる装置が開示されている。非特許文献1には、視線情報から停留点を検出することで、ユーザが強い興味を示す注目点を検出する方法が開示されている。
特開2012−22538号公報 特開2005−286419号公報
西田謙太郎,吉高淳夫,平嶋宗,"停留点の時間的な発生頻度に着目した注目点検出法の検討",情報処理学会研究報告,第121−126頁,2007年2月9日
上記のような背景技術を利用して、たとえば展示会場で訪問者の注目対象、つまり訪問者が興味を持って見ている展示物の推定を行う場合、検出された顔方向,視線方向,体方向等から直接、注目対象を決定するアプローチとなる。
しかしながら、訪問者が展示物を見ながら説明員と対話している場合、背景技術を利用したのでは、展示物よりも説明員が注目対象に決定される可能性が高い。なぜなら、対話時、体方向は専ら説明員の方向を向いており、顔ないし視線の方向は、展示物と説明員との間を行き来するので、展示物よりも説明員に向かう方向の検出確率の方が高いからである。
また、訪問者は、展示物の周りをぐるぐる回りながら細部に見入る振る舞いをすることがあるが、この場合、体の向きが進行方向つまり展示物への方向と交差する向きを向いているために、展示物が注目対象として検出されない可能性がある。
それゆえに、この発明の主たる目的は、新規な、注目対象推定システムならびにロボットおよび制御プログラムを提供することである。
この発明の他の目的は、注目対象を精度よく推定できる、注目対象推定システムならびにロボットおよび制御プログラムを提供することである。
この発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明等は、本発明の理解を助けるために後述する実施の形態との対応関係を示したものであって、本発明を何ら限定するものではない。
第1の発明は、展示物を展示した展示会場を訪問した人の注目度を推定する注目度推定システムであって、人の展示会場での振る舞いを分類して、その振る舞いごとに、人の注目対象と、これに対応する人の位置,頭向きおよび体向きの理想的な動きとを、人の振る舞いとして記述したインバースモデル、人の位置,頭向きおよび体向きを観測する観測手段、観測手段による観測値の推移とインバースモデルとの比較に基づいて注目対象を推定する注目対象推定手段を備える。
第1の発明では、注目対象推定システム(100)は、インバースモデル(154),観測手段(12a,12b,14)および注目対象推定手段(S11)を備える。インバースモデルには、人の展示会場での振る舞いを分類して、その振る舞いごとに、人の注目対象と、これに対応する人の位置(P(t)),頭向き(θh(t))および体向き(θb)の理想的な動きとが、人の振る舞いとして記述してある。観測手段は、人の位置,頭向きおよび体向きを観測している。注目対象推定手段は、観測手段による観測値の推移とインバースモデルとの比較に基づき注目対象(CA,TA,D)を推定する。
第1の発明によれば、観測値の推移から人の振る舞いを介して注目対象を推定するので、注目対象を精度よく推定できる。
の発明は、第の発明に従属する注目対象推定システムであって、注目対象は、長期的な注目対象を示す第1変数(CA)、短期的な注目対象を示す第2変数(TA)、および目的地を示す第3変数(D)で記述され、理想的な動きは、観測手段で観測される人の位置の変化に基づく移動方向(θv(t))および移動速度(v)と、観測手段で観測される頭向き(θh)および体向き(θb)とで記述される。
の発明によれば、注目対象を3変数で記述することで、展示会場での人の振る舞いの分類が可能になる。
の発明は、第の発明に従属する注目対象推定システムであって、振る舞いの分類は、目的地に向かって歩く第1の振る舞い、および注目している展示物に向かって歩く第2の振る舞いを含み、インバースモデルには、第1の振る舞いについて、第1変数に不存在(NULL)が、第2変数に不存在が、第3変数に目的地が、移動方向として目的地への方向が、移動速度として歩行速度(vpref)が、頭向きとして目的地に向かう向き(θD(t))が、体向きとして目的地に向かう向きが、それぞれ記述され、第2の振る舞いについて、第1変数に展示物が、第2変数に不存在が、第3変数に展示物が、移動方向に展示物への方向が、移動速度に歩行速度よりも所定速度遅い速度(vpref−ve)が、頭向きに展示物に向かう向き(θD(t))が、体向きに展示物に向かう向き(θD(t))が、それぞれ記述される。
の発明によれば、目的地に向かって歩く第1の振る舞いと、注目している展示物に向かって歩く第2の振る舞いとを、注目点を持つと落ちる移動速度に基づき互いに区別で
きる。
の発明は、第の発明に従属する注目対象推定システムであって、振る舞いの分類は、目的地に向かって展示物をちら見しながら歩く第3の振る舞いをさらに含み、インバースモデルには、第3の振る舞いについて、第1変数に不存在が、第2変数に展示物が、第3変数に目的地が、移動方向に展示物への方向が、移動速度に歩行速度よりも所定速度遅い速度(vpref−ve)が、頭向きに、目的地に向かう向きに対して展示物に引っ張られる向きを加えた向き(θD(t)+kh(θTA(t)−θD(t)))が、体向きに、目的地に向かう向きに対して展示物に引っ張られる向きを加えた向き(θD(t)+kb(θTA(t)−θD(t)))が、それぞれ記述される。
の発明によれば、上記第1,第2の振る舞いと、目的地に向かって展示物をちら見しながら歩く第3の振る舞いとを、ちら見により引っ張られる頭と体向きに基づき互いに区別できる。
の発明は、第5の発明に従属する注目対象推定システムであって、頭向きが引っ張られる程度(kh)は、体向きが引っ張られる程度(kb)よりも大きい。
の発明によれば、ちら見の有無をより確実に判別できる。
の発明は、第ないしのいずれかの発明に従属する注目対象推定システムであって、振る舞いの分類は、展示物を見て回る第4の振る舞いをさらに含み、インバースモデルには、第4の振る舞いについて、第1変数に展示物が、第2変数に不存在が、第3変数に不存在が、移動方向に展示物の周りを回る方向が、移動速度に閲覧状態の速度(vlook)が、頭向きに展示物に向かう向き(θCA(t))が、体向きに展示物に向かう向き(θCA(t))が、それぞれ記述される。
ただし、上記第4の振る舞い(および下記第5の振る舞い)では、展示物の周りを単純に回る動作に限らず、適宜、逆回りしたり、展示物に近付いたり、減速ないし立ち止まったりしてもよい。
の発明によれば、上記第1〜第3の振る舞いと、展示物を見て回る第4の振る舞いとを、移動方向さらには移動速度の違いに基づき互いに区別できる。
の発明は、第の発明に従属する注目対象推定システムであって、振る舞いの分類は、展示物を見て回りながら他の展示物もちら見する回る第5の振る舞いをさらに含み、インバースモデルには、第5の振る舞いについて、第1変数に展示物が、第2変数に別の展示物が、第3変数に不存在が、移動方向に展示物の周りを回る方向が、移動速度に閲覧状態の速度(vlook)が、頭向きに別の展示物に向かう向き(θTA(t))が、体向きに展示物に向かう向き(θCA(t))が、それぞれ記述される。
の発明によれば、上記第4の振る舞いと、展示物を見て回りながら他の展示物もちら見する回る第5の振る舞いとを、頭向きの違いに基づき互いに区別できる。
の発明は、第ないしのいずれかの発明に従属する注目対象推定システムであって、人の展示会場での行動パターンを分類して、その行動パターンごとに、人が展示会場を訪問した目的と、これに対応する人の注目対象の遷移とを記述した訪問目的モデル、および、注目対象推定手段による推定結果の推移と訪問目的モデルとの比較に基づいて、人が展示会場を訪問した目的を推定する訪問目的推定手段をさらに備える。
の発明では、注目対象推定システムは、訪問目的モデル(156)および訪問目的推定手段(S13)をさらに備える。訪問目的モデルには、人の展示会場での行動パターンの分類と、その行動パターンごとに、人が展示会場を訪問した目的と、これに対応する人の注目対象の遷移とが記述してある。訪問目的推定手段は、注目対象推定手段による推定結果の推移と訪問目的モデルとの比較に基づいて、人が展示会場を訪問した目的を推定する。
の発明によれば、注目対象推定手段による推定結果を利用して、大局的な訪問目的の推定が可能になる。
の発明は、展示物が展示された展示会場内で人とのインターラクションを行うロボットであって、人の展示会場での振る舞いを分類して、その振る舞いごとに、人の注目対象と、これに対応する人の位置,頭向きおよび体向きの理想的な動きとを記述したインバースモデル、および、人の展示会場での行動パターンを分類して、その行動パターンごとに、人が展示会場を訪問した目的と、これに対応する人の注目対象の遷移とを記述した訪問目的モデル、を記憶した記憶手段、人の位置,頭向きおよび体向きを観測する観測手段から観測値を取得する取得手段、観測値の推移とインバースモデルとの比較に基づいて人の注目対象を推定する注目対象推定手段、注目対象推定手段の推定結果の推移と訪問目的モデルとの比較に基づいて、人が展示会場を訪問した目的を推定する訪問目的推定手段、および、注目対象推定手段および訪問目的推定手段の少なくとも一方の推定結果に基づいて、人とのインターラクションを制御するインターラクション制御手段を備える。
の発明では、ロボット(10)は、展示物が展示された展示会場内で人とのインターラクションを行うものであり、記憶手段(150)、取得手段(S31)、注目対象推定手段(S11)、訪問目的推定手段(S13)、およびインターラクション制御手段(S15)を備える。記憶手段(150)は、インバースモデル(154)および訪問目的モデル(156)を記憶する。インバースモデルには、人の展示会場での振る舞いを分類して、その振る舞いごとに、人の注目対象と、これに対応する人の位置,頭向きおよび体向きの理想的な動きとが記述してある。訪問目的モデルには、人の展示会場での行動パターンを分類して、その行動パターンごとに、人が展示会場を訪問した目的と、これに対応する人の注目対象の遷移とが記述してある。
外部の観測手段(12a,12b,14)が人の位置,頭向きおよび体向きを観測しており、取得手段は、この観測手段から観測値を取得する。注目対象推定手段は、観測値の推移とインバースモデルとの比較に基づいて人の注目対象を推定し、訪問目的推定手段は、注目対象推定手段の推定結果の推移と訪問目的モデルとの比較に基づいて、人が展示会場を訪問した目的を推定する。そして、インターラクション制御手段は、注目対象推定手段および訪問目的推定手段の少なくとも一方の推定結果に基づいて、人とのインターラクションを制御する。
の発明によれば、観測値の推移から人の振る舞いを介して注目対象を精度よく推定し、さらに、注目対象の遷移から大局的な訪問目的をも推定して、人の注目対象および/または訪問目的に応じたインターラクションをロボットに行わせることができる。
10の発明は、展示物が展示された展示会場内で人とのインターラクションを行うロボット(10)の制御プログラム(152)であって、ロボット(10)のコンピュータ(90,94)を、人の展示会場での振る舞いを分類して、その振る舞いごとに、人の注目対象と、これに対応する人の位置,頭向きおよび体向きの理想的な動きとを記述したインバースモデル(154)、および、人の展示会場での行動パターンを分類して、その行動パターンごとに、人が展示会場を訪問した目的と、これに対応する人の注目対象の遷移とを記述した訪問目的モデル(156)、を記憶した記憶手段(150)、人の位置,頭
向きおよび体向きを観測する観測手段(12a,12b,14)から観測値を取得する取得手段(S31)、観測値の推移とインバースモデルとの比較に基づいて人の注目対象を推定する注目対象推定手段(S11)、注目対象推定手段(S11)の推定結果の推移と訪問目的モデルとの比較に基づいて、人が展示会場を訪問した目的を推定する訪問目的推定手段(S13)、および、注目対象推定手段および訪問目的推定手段の少なくとも一方の推定結果に基づいて、人とのインターラクションを制御するインターラクション制御手段(S15)として機能させる。
10の発明によっても、第の発明と同様に、観測値の推移から人の振る舞いを介して注目対象を精度よく推定し、さらに、注目対象の遷移から大局的な訪問目的をも推定して、人の注目対象および/または訪問目的に応じたインターラクションをロボットに行わせることができる。
この発明によれば、注目対象を精度よく推定できる、注目対象推定システムならびにロボットおよび制御プログラムが実現される。
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
この発明の一実施例であるロボット制御システムが適用された環境の一例(展示会場)を示す図解図である。 図1に示すロボット制御システムの構成の一例を示す図解図である。 図1に示す中央制御装置の電気的な構成の一例を示すブロック図である。 図1に示すロボットを正面から見た図解図である。 図1に示すロボットの電気的な構成の一例を示すブロック図である。 図1に示す展示会場の地図を示す図解図である。 図1の展示会場を訪れた訪問者の典型的な行動(振る舞い)を示す図解図であり、(A)は訪問者が展示物を見ることなく展示会場を通り抜ける場合を、(B)は訪問者が1つ1つの展示物を見て回る場合を、(C)は訪問者が展示会場内をぶらぶらしている場合を、それぞれ示す。 図7のような行動を行う訪問者の注目対象を検出するためのインバースモデルを示す図解図である。 訪問者が出口に向かって歩く際の、観測値の時系列変化と、注目対象を示す図解図であり、(A)は、展示室に入った直後の第1時点での状態を、(B)は第1展示物の前を通り過ぎる第2時点での状態を、それぞれ示している。 訪問者が注目している展示物(ここでは第2展示物E2)に向かって歩く際の、観測値の時系列変化と、注目対象を示す図解図である。 訪問者が目的地(ここでは出口)に向かって展示物(ここでは第1展示物E1)をちら見しながら歩く際の、観測値の時系列変化と、注目対象を示す図解図であり、(A)は、展示室に入った直後の第1時点での状態を、(B)は第1展示物の前を通り過ぎる第2時点での状態を、それぞれ示している。 訪問者が展示物を見て回る(ただし、展示物の周りを単純に回る動作に限らず、適宜、逆回りしたり、展示物に近付いたり、減速ないし立ち止まったりしてもよい)際(ここでは第1展示物E1に注目している時点)の、観測値の時系列変化と、注目対象を示す図解図である。 訪問者が展示物(ここでは第1展示物E1)を見ながら他の展示物(ここでは第3展示物)もちら見する際(ただし、展示物を見て回る動作では、展示物の周りを単純に回る動作に限らず、適宜、逆回りしたり、展示物に近付いたり、減速ないし立ち止まったりしてもよい)の、観測値の時系列変化と、注目対象を示す図解図である。 訪問者が展示会場を訪れた大局的な訪問目的と、その行動パターンを記述する訪問目的モデルを示す図解図である。 図1に示すロボットのメモリマップを示す図解図である。 図1に示すロボットのプロセッサによる処理を示すフロー図である。 図16の処理に含まれる注目対象推定処理の詳細を示すフロー図である。 図16の処理に含まれる訪問目的推定処理の詳細を示すフロー図である。 図16の処理に含まれるインターラクション制御処理の詳細を示すフロー図である。 図18の訪問目的推定処理を概念的に示した図解図である。
図1を参照して、この実施例のロボット制御システム100は、展示物E(ここでは第1〜第3展示物E1〜E3)が置かれた展示会場などの空間(環境)で利用される。展示会場の中では、人(ユーザ)およびロボット10が任意に移動することができ、天井には複数の距離画像センサ12(12a,12b,…)が設けられている。
ロボット10は、相互作用指向のロボット(コミュニケーションロボット)でもあり、人のようなコミュニケーション(インターラクションともいう)の対象との間で、身振り手振りのような身体動作および音声の少なくとも一方を含むコミュニケーション行動を実行する機能を備えている。また、ロボット10はコミュニケーションの一環として、展示物Eについての説明(コンテンツ)をユーザに対して出力したり、展示会場を案内したりするサービスを行う。ロボット10は、サービスを行う上で必要であれば、展示会場内を自律的に移動したり、中央制御装置14が付与する行動命令に基づいて動作したりする。
また、実施例の空間は展示物Eが置かれた展示会場であるが、これに限らずショッピングモール、会社のフロア、博物館またはアトラクション会場などでも、ロボット制御システム100は利用可能である。
なお、図1では簡単のため、ユーザは1人しか示していないが、展示会場にはさらに多くのユーザがいてもよい。同様にロボット10も1台しか示していないが、ロボット制御システム100は2台以上のロボット10を同時に制御することができる。
図2を参照して、ロボット制御システム100の中央制御装置14は、一定時間(たとえば、1秒)毎に距離画像センサ12a,12bによって、任意に移動するユーザの位置を検出すると共に、ユーザの向き(頭の向きおよび体の向き)を検出する。また、中央制御装置14は、ネットワーク1000を介してロボット10と無線通信を行い、必要であればロボット10の行動を制御する。
図3は中央制御装置14の電気的な構成を示すブロック図である。図3を参照して、中央制御装置14は、距離画像センサ12a,12b,プロセッサ16,メモリ18,通信LANボード20および無線通信装置22を含む。プロセッサ16は、マイクロコンピュータあるいはCPUと呼ばれることもある。プロセッサ16には、先述した距離画像センサ12aおよび距離画像センサ12bに加えて、他の距離画像センサ12が接続されてもよい。なお、距離画像センサ12a,12b,…を区別する必要がない場合、単に「距離画像センサ12」と言う。
距離画像センサ12は、赤外光またはレーザーなどの光を照射し、対象物から反射した光(反射光)をCCDセンサなどの光学センサによって捉える。距離画像センサ12は、光が戻るまでの時間を画素ごとに計測することで、対象物までの実際の距離を測距する。実施例の距離画像センサ12には、ASUS(登録商標)社製のXtionと呼ばれる製品が採用されている。なお、他の実施例では、距離画像センサ12は、Microsoft(登録商標)社製のKinect(登録商標)センサ、パナソニック社製(登録商標)製の3次元距離画像センサD−IMager(登録商標)などを使用することも可能である。この種のセンサは、3次元距離計測センサ、3Dスキャナなどと呼ばれる場合もある。
プロセッサ16は、このような距離画像センサ12を通じて対象の3次元情報を取得する。距離画像センサ12からの3次元情報には、対象物の形状および対象物までの距離が含まれている。たとえば、ユーザが距離画像センサ12によってセンシングされると、ユーザを上から見たときの頭部および両肩の形状と、頭部および両肩までの距離が3次元情報として得られる。
たとえば、空間には35個の距離画像センサ12が所定の位置(既知)に設置されており、コンピュータ12は、各々から3次元情報を取得して、3次元空間(ワールド座標系)における位置(たとえば、重心など特徴点の位置座標(x,y,z))およびユーザの向き(たとえば、頭部および両肩など特徴部位の向き)を計算することが出来る。
メモリ18はROM,HDDおよびRAMを含む。ROMおよびHDDには、中央制御装置14の動作を制御するための制御プログラムが予め記憶される。また、RAMは、プロセッサ16のワークメモリやバッファメモリとして用いられる。
通信LANボード20は、たとえばDSPで構成され、プロセッサ16から与えられた送信データを無線通信装置22に与え、無線通信装置22は送信データを、ネットワーク1000を介してロボット10に送信する。たとえば、送信データは、ロボット10の自立移動に必要なデータや、サービスを行うために必要なデータおよびロボット10に指示する行動命令の信号(コマンド)などである。また、通信LANボード20は、無線通信装置22を介してデータを受信し、受信したデータをプロセッサ16に与える。
図4はこの実施例のロボット10の外観を示す正面図である。図4を参照して、ロボット10は台車40を含み、台車40の下面にはロボット10を自律移動させる2つの車輪42および1つの従輪44が設けられる。2つの車輪42は車輪モータ46(図5参照)によってそれぞれ独立に駆動され、台車40すなわちロボット10を前後左右の任意方向に動かすことができる。また、従輪44は車輪42を補助する補助輪である。したがって、ロボット10は、配置された空間内を自律制御によって移動可能である。
台車40の上には、円柱形のセンサ取り付けパネル48が設けられ、このセンサ取り付けパネル48には、多数の赤外線距離センサ50が取り付けられる。これらの赤外線距離センサ50は、センサ取り付けパネル48すなわちロボット10の周囲の物体(人や障害物など)との距離を測定するものである。
なお、この実施例では、距離センサとして、赤外線距離センサを用いるようにしてあるが、赤外線距離センサに代えて、LRFや、超音波距離センサおよびミリ波レーダなどを用いることもできる。
センサ取り付けパネル48の上には、胴体52が直立するように設けられる。また、胴体52の前方中央上部(人の胸に相当する位置)には、上述した赤外線距離センサ50がさらに設けられ、ロボット10の前方の主として人との距離を計測する。また、胴体52には、その側面側上端部のほぼ中央から伸びる支柱54が設けられ、支柱54の上には、全方位カメラ56が設けられる。全方位カメラ56は、ロボット10の周囲を撮影するものであり、後述する眼カメラ80とは区別される。この全方位カメラ56としては、たとえばCCDやCMOSのような固体撮像素子を用いるカメラを採用することができる。なお、これら赤外線距離センサ50および全方位カメラ56の設置位置は、当該部位に限定されず適宜変更され得る。
胴体52の両側上端部(人の肩に相当する位置)には、それぞれ、肩関節58Rおよび肩関節58Lによって、上腕60Rおよび上腕60Lが設けられる。図示は省略するが、肩関節58Rおよび肩関節58Lは、それぞれ、直交する3軸の自由度を有する。すなわち、肩関節58Rは、直交する3軸のそれぞれの軸廻りにおいて上腕60Rの角度を制御できる。肩関節58Rの或る軸(ヨー軸)は、上腕60Rの長手方向(または軸)に平行な軸であり、他の2軸(ピッチ軸およびロール軸)は、その軸にそれぞれ異なる方向から直交する軸である。同様にして、肩関節58Lは、直交する3軸のそれぞれの軸廻りにおいて上腕60Lの角度を制御できる。肩関節58Lの或る軸(ヨー軸)は、上腕60Lの長手方向(または軸)に平行な軸であり、他の2軸(ピッチ軸およびロール軸)は、その軸にそれぞれ異なる方向から直交する軸である。
また、上腕60Rおよび上腕60Lのそれぞれの先端には、肘関節62Rおよび肘関節62Lが設けられる。図示は省略するが、肘関節62Rおよび肘関節62Lは、それぞれ1軸の自由度を有し、この軸(ピッチ軸)の軸回りにおいて前腕64Rおよび前腕64Lの角度を制御できる。
前腕64Rおよび前腕64Lのそれぞれの先端には、手66Rおよび手66Lがそれぞれ設けられる。各手66には、人と同じように親指、人差し指、中指、薬指および小指が設けられている。手66の親指および人差し指の根本には指関節(図示せず)が設けられており、それぞれを独立して動かすことができる。また、中指、薬指および小指は一体成型され、親指および人差し指と同様、根元に指関節が設けられている。そして、中指、薬指および小指はまとめて動かすことが出来る。
また、手66Rおよび手66Lのそれぞれ根元には、手首が設けられる。図示は省略するが、左右の手首は、それぞれ1軸の自由度を有し、この軸(ヨー軸)の軸回りにおいて手66Rおよび手66Lの角度を制御できる。また、図示は省略するが手66Rおよび手66Lの親指、人差し指および残りの3本の指(中指、薬指および小指)の指関節は、それぞれ1自由度を有し、この軸の軸回りにおいて指の角度を制御できる。
従って、ロボット10は、親指、中指、薬指および小指が折り曲げられた指さしの状態の手66で任意の対象をポインティングしたり、手を開いた状態で上腕60、前腕64および手66の全体を使って任意の対象をポインティングしたりすることが可能となる。そのため、上腕60、前腕64および手66はポインティング手段と呼ばれることもある。
なお、他の実施例では、人と同じようにそれぞれの指が独立し、かつ人の指と同じ数の指関節を持つ手66が採用されてもよい。この場合、ロボット10は、ポインティングだけでなく、物を指で掴んだり、手話によるコミュニケーションを行ったりすることが可能となる。
また、図示は省略するが、台車40の前面、肩関節58Rと肩関節58Lとを含む肩に相当する部位、上腕60R、上腕60L、前腕64R、前腕64L、手66Rおよび手66Lには、それぞれ、接触センサ68(図5で包括的に示す)が設けられる。台車40の前面の接触センサ68は、台車40への人や他の障害物の接触を検知する。したがって、ロボット10は、自身の移動中に障害物との接触が有ると、それを検知し、直ちに車輪42の駆動を停止してロボット10の移動を急停止させることができる。また、その他の接触センサ68は、当該各部位に触れたかどうかを検知する。なお、接触センサ68の設置位置は、当該部位に限定されず、適宜な位置(人の胸、腹、脇、背中および腰に相当する位置)に設けられてもよい。
胴体52の中央上部(人の首に相当する位置)には首関節70が設けられ、さらにその上には頭部72が設けられる。図示は省略するが、首関節70は、3軸の自由度を有し、3軸の各軸廻りに角度制御可能である。或る軸(ヨー軸)はロボット10の真上(鉛直上向き)に向かう軸であり、他の2軸(ピッチ軸、ロール軸)は、それぞれ、それと異なる方向で直交する軸である。
頭部72には、人の口に相当する位置に、スピーカ74が設けられる。スピーカ74は、ロボット10が、それの周辺の人に対して音声ないし音によってコミュニケーションを取るために用いられる。また、人の耳に相当する位置には、マイク76Rおよびマイク76Lが設けられる。以下、右のマイク76Rと左のマイク76Lとをまとめてマイク76と言うことがある。マイク76は、周囲の音、とりわけコミュニケーションを実行する対象である人の音声を取り込む。さらに、人の目に相当する位置には、眼球部78Rおよび眼球部78Lが設けられる。眼球部78Rおよび眼球部78Lは、それぞれ眼カメラ80Rおよび眼カメラ80Lを含む。以下、右の眼球部78Rと左の眼球部78Lとをまとめて眼球部78と言うことがある。また、右の眼カメラ80Rと左の眼カメラ80Lとをまとめて眼カメラ80と言うことがある。
眼カメラ80は、ロボット10に接近した人の顔や他の部分ないし物体などを撮影して、それに対応する映像信号を取り込む。また、眼カメラ80は、上述した全方位カメラ56と同様のカメラを用いることができる。たとえば、眼カメラ80は、眼球部78内に固定され、眼球部78は、眼球支持部(図示せず)を介して頭部72内の所定位置に取り付けられる。図示は省略するが、眼球支持部は、2軸の自由度を有し、それらの各軸廻りに角度制御可能である。たとえば、この2軸の一方は、頭部72の上に向かう方向の軸(ヨー軸)であり、他方は、一方の軸に直交しかつ頭部72の正面側(顔)が向く方向に直行する方向の軸(ピッチ軸)である。眼球支持部がこの2軸の各軸廻りに回転されることによって、眼球部78ないし眼カメラ80の先端(正面)側が変位され、カメラ軸すなわち視線方向が移動される。なお、上述のスピーカ74、マイク76および眼カメラ80の設置位置は、当該部位に限定されず、適宜な位置に設けられてよい。
このように、この実施例のロボット10は、車輪42の独立2軸駆動、肩関節58の3自由度(左右で6自由度)、肘関節62の1自由度(左右で2自由度)、手首の1自由度(左右で2自由度)、指関節の1自由度(左右の各指で6自由度)、首関節70の3自由度および眼球支持部の2自由度(左右で4自由度)の合計25自由度を有する。
図5はロボット10の電気的な構成を示すブロック図である。この図5を参照して、ロボット10は、プロセッサ90を含む。プロセッサ90は、マイクロコンピュータ或いはプロセッサとも呼ばれ、バス92を介して、メモリ94、モータ制御ボード96、センサ入力/出力ボード98、音声入力/出力ボード110および通信LANボード130に接続される。
メモリ94はROMおよびRAMを含む。ROMには、ロボット10の動作を制御するための制御プログラムが予め記憶される。たとえば、各センサの出力(センサ情報)を検知するための検知プログラムや、外部コンピュータ(中央制御装置14)との間で必要なデータやコマンドを送受信するための通信プログラムなどが記憶される。また、RAMは、プロセッサ90のワークメモリやバッファメモリとして用いられる。
モータ制御ボード96は、たとえばDSPで構成され、各腕や首関節および眼球部などの各軸モータの駆動を制御する。すなわち、モータ制御ボード96は、プロセッサ90からの制御データを受け、右眼球部78Rの2軸のそれぞれの角度を制御する2つのモータ(図5では、まとめて「右眼球モータ112」と示す)の回転角度を制御する。同様に、モータ制御ボード96は、プロセッサ90からの制御データを受け、左眼球部78Lの2軸のそれぞれの角度を制御する2つのモータ(図5では、まとめて「左眼球モータ114」と示す)の回転角度を制御する。
また、モータ制御ボード96は、プロセッサ90からの制御データを受け、肩関節58Rの直交する3軸のそれぞれの角度を制御する3つのモータと肘関節62Rの角度を制御する1つのモータとの計4つのモータ(図5では、まとめて「右腕モータ116」と示す)の回転角度を制御する。同様に、モータ制御ボード96は、プロセッサ90からの制御データを受け、肩関節58Lの直交する3軸のそれぞれの角度を制御する3つのモータと肘関節62Lの角度を制御する1つのモータとの計4つのモータ(図5では、まとめて「左腕モータ118」と示す)の回転角度を制御する。
また、モータ制御ボード96は、プロセッサ90からの制御データを受け、右の手首の1軸の角度を制御する1つのモータと右手66Rの3つの指関節のそれぞれの角度を制御する3つのモータとの4つのモータ(図5では、まとめて「右手モータ120」と示す)の回転角度を制御する。同様に、モータ制御ボード96は、プロセッサ90からの制御データを受け、左手の手首の1軸の角度を制御する1つのモータと左手66Lの3つの指関節のそれぞれの角度を制御する3つのモータとの4つのモータ(図5では、まとめて「左手モータ122」と示す)の回転角度を制御する。
ここで、指関節の角度は、モータの回転がそのまま反映されるわけではなく、モータの回転によって動作する流体圧シリンダによって制御される。具体的には、流体圧シリンダには、動作流体を移動させるピストンが移動自在に収容されており、このピストンの位置がモータの回転によって変化する。そして、流体圧シリンダの動きに応じて指関節の角度が変化する。なお、流体圧シリンダを用いたロボットの手については、たとえば特開2013−96514号公報に詳しく説明されているので、ここでは、その公開公報を参照することによって、詳細な説明を省略する。
さらに、モータ制御ボード96は、プロセッサ90からの制御データを受け、首関節70の直交する3軸のそれぞれの角度を制御する3つのモータ(図5では、まとめて「頭部モータ124」と示す)の回転角度を制御する。
そして、モータ制御ボード96は、プロセッサ90からの制御データを受け、車輪42を駆動する2つのモータ(図5では、まとめて「車輪モータ46」と示す)の回転角度を制御する。なお、この実施例では、車輪モータ46を除くモータは、制御を簡素化するためにステッピングモータ(すなわち、パルスモータ)を用いる。ただし、車輪モータ46と同様に直流モータを用いるようにしてもよい。また、ロボット10の身体部位を駆動するアクチュエータは、電流を動力源とするモータに限らず適宜変更されてもよい。たとえば、他の実施例では、エアアクチュエータなどが適用されてもよい。
センサ入力/出力ボード98は、モータ制御ボード96と同様に、DSPで構成され、各センサからの信号を取り込んでプロセッサ90に与える。すなわち、赤外線距離センサ50のそれぞれからの反射時間に関するデータがこのセンサ入力/出力ボード98を通じてプロセッサ90に入力される。また、全方位カメラ56からの映像信号が、必要に応じてセンサ入力/出力ボード98で所定の処理を施してからプロセッサ90に入力される。眼カメラ80からの映像信号も、同様に、プロセッサ90に入力される。また、上述した複数の接触センサ68(図5では、まとめて「接触センサ68」と示す)からの信号がセンサ入力/出力ボード98を介してプロセッサ90に与えられる。
音声入力/出力ボード110もまた、同様に、DSPで構成され、プロセッサ90から与えられる音声合成データに従った音声または声がスピーカ74から出力される。また、マイク76からの音声入力が、音声入力/出力ボード110を介してプロセッサ90に与えられる。
通信LANボード130は、たとえばDSPで構成され、プロセッサ90から与えられた送信データを無線通信装置132に与え、無線通信装置132は送信データを、ネットワーク1000を介して外部コンピュータ(中央制御装置14)に送信する。また、通信LANボード130は、無線通信装置132を介してデータを受信し、受信したデータをプロセッサ90に与える。たとえば、送信データとしては、全方位カメラ56および目カメラ80によって撮影された周囲の映像データなどである。
図6には、図1の展示会場に対応する地図が示される。図6を参照して、この展示会場には、入口付近に第1展示物E1が、出口付近には第2展示物E2および第3展示物E3が、それぞれ配置されている。地図上では、展示会場の一隅を原点Oとして、互いに直交する壁面沿いにX軸およびY軸が定義されており、各展示物E1〜E3等の位置は、X−Y座標系で記述される。
訪問者の移動速度はv、移動方向はθv(t)、頭の向きはθh、体の向きはθbのように表現される。なお、移動速度vと移動方向θv(t)は、訪問者の現在位置P(t)(適宜“位置P(t)”または単に“位置P”のように略記)の変化に基づき計算される。各種の方向θは、たとえば、X軸またはY軸もしくは適宜な基準線に対する角度であってもよいし、位置P(t)を始点とする単位ベクトルであってもよい。
図7には、展示会場を訪れた人(訪問者)の典型的な行動(振る舞い)が示される。図7(A)の訪問者は、展示物を見ることなく、足早に展示会場を通り抜けている。図7(B)の訪問者は、1つ1つの展示物をじっくり見て回っている。図7(C)の訪問者は、見るべき展示物が定まらず、展示会場内をぶらぶらしている。
言い換えると、訪問者が図7(A)のような振る舞いを示す場合、訪問の目的は展示物を見ることではない(別の目的があって展示室を通過している:“出口に向かうこと”が目的とも言える)と推定される。訪問者が図7(B)のような振る舞いを示す場合、訪問の目的は展示物を見て回ることであると推定される。訪問者が図7(C)のような振る舞いを示す場合、訪問の目的は興味を引く展示物を見つけること(何を見るべきか迷っている状態)であると推定される。
なお、訪問者が特定の展示物に直行するような振る舞いを示す場合、訪問の目的はその展示物を見ることであると推定される。また、訪問者が展示物をちら見しながら展示会場を通り抜けるような振る舞いを示す場合、訪問の目的は展示物を見ることではないが、展示物に興味はあると推定される。さらに、訪問者が展示物を見ながら別の展示物(あるいはロボット)をちら見するような振る舞いを示す場合、訪問の目的は展示物を見ることであるが、ちら見の対象にも興味があると推定される。
この実施例では、まず、訪問者の振る舞いを上記のように分類して、その振る舞いごとに、注目対象と、これに対応する観測値の理想的な動きとを記述したモデルを“インバースモデル”として定義する。
図8には、インバースモデルの一例が示される。この例では、“目的地に向かって歩く”,“注目している展示物に向かって歩く”,“目的地に向かって(展示物を)ちら見しながら歩く”,“展示物を見て回る”および“展示物を見ながら別の展示物もちら見する”という5種類の振る舞い毎に、注目対象として“長期的な注目対象CA”,“短期的な注目対象TA”および“目的地D”と、これに対応する観測値として“移動方向θv(t)”,“移動速度v”,“顔の向きθh”および“体の向きθb”とが記述されている。
“目的地に向かって歩く”場合、注目対象は“CA=NULL(存在せず),TA=NULL,D=目的地(たとえば出口)”であり、これに対応する観測値は、移動方向θv(t)が目的地への方向(言い換えると、位置P(t)が目的地Dつまり出口に向かう直線Lに沿って移動している状態:図7(A)参照)、移動速度が平均的な歩行速度(v=vpref)、そして頭の向きおよび体の向きが共に目的地Dつまり出口に向かう向き(θh=θb=θD(t))となる。
“注目している展示物に向かって歩く”場合、注目対象は“CA=展示物(たとえば第2展示物E2),TA=NULL,D=展示物(たとえば第2展示物E2)”であり、これに対応する観測値は、移動方向θv(t)が目的地Dつまり展示物(たとえば第2展示物E2)への方向、移動速度が“注目点を持つと落ちる速度”つまり平均的な歩行速度から一定程度減速した速度(v=vpref−ve)、そして頭の向きおよび体の向きが共に目的地Dつまり展示物(たとえば第2展示物E2)に向かう向き(θh=θb=θD(t))となる(図10参照:後述)。
“目的地に向かって(展示物を)ちら見しながら歩く”場合、注目対象はCA=NULL,TA=展示物(たとえば第1展示物E1),D=目的地(たとえば出口)であり、これに対応する観測値は、移動方向θv(t)が目的地Dつまり出口への方向、移動速度が“注目点を持つことで落ちる速度”(v=vpref−ve)、頭の向きが“展示物に引っ張られる向き”つまり目的地D(出口)に向かう向きから展示物の方向に一定程度逸れた向き(θD(t)+kh(θTA(t)−θD(t)):これを“ちら見の頭向きモデル”と呼ぶ)、そして体の向きも“展示物に引っ張られる向き”つまり目的地D(出口)に向かう向きから展示物の方向に一定程度逸れた向き(θD(t)+kb(θTA(t)−θD(t)):これを“ちら見の体向きモデル”と呼ぶ)となる。
なお、ちら見の頭向きモデルおよびちら見の体向きモデルにおいて、展示物に引っ張られる程度を示す係数khおよびkbは、一般にkh>kbである。つまり、体よりも頭の向きの方が、移動に伴い展示物側に大きく逸れる(図11(A),図11(B)参照:後述)。
“展示物を見て回る”場合(ただし、展示物の周りを単純に回る動作に限らず、適宜、逆回りしたり、展示物に近付いたり、減速ないし立ち止まったりしてもよい)、注目対象はCA=展示物(たとえば第1展示物E1),TA=NULL,D=NULLであり、これに対応する観測値は、移動方向θv(t)が展示物(たとえば第1展示物E1)の周りを回る方向(言い換えると、位置P(t)が展示物を中心とする円弧Cに沿って移動している状態:図7(B)参照)、移動速度が閲覧状態の速度(v=vlook:立ち止まっているか、ゆっくり移動している状態)、頭の向きおよび体の向きが共に注目対象CA(たとえば第1展示物E1)に向かう向き(θh=θb=θCA(t))となる。
“展示物を見ながら別の展示物もちら見する”場合(ただし、展示物を見て回る動作では、展示物の周りを単純に回る動作に限らず、適宜、逆回りしたり、展示物に近付いたり、減速ないし立ち止まったりしてもよい)、注目対象はCA=展示物(たとえば第1展示物E1),TA=別の展示物(たとえば第3展示物E3),D=NULLであり、これに対応する観測値は、移動方向θv(t)が展示物(たとえば第1展示物E1)の周りを回る方向(言い換えると、位置P(t)が展示物を中心とする円弧Cに沿って移動している状態:図7(B)参照)、移動速度が閲覧状態の速度(v=vlook)、頭の向きが注目対象TA(たとえば第3展示物E3)に向かう向き(θb=θTA(t))、そして体の向きが注目対象CA(たとえば第1展示物E1)に向かう向き(θh=θCA(t))となる。
そして、このようなインバースモデルに基づき、観測値(位置P(t),頭向きθh,体向きθb(t))の時系列変化と最もよく一致する、振る舞いおよび注目対象(CA,TA,D)を求めることで、注目対象を推定することができる。
図9には、図7(A)に示したように訪問者が出口に向かって歩く際の、観測値の時系列変化と、注目対象が示される。図9(A)は、展示室に入った直後の第1時点での状態を、図9(B)は第1展示物E1の前を通り過ぎる第2時点での状態を、それぞれ示している。図9(A)および図9(B)を比較すればわかるように、第1時点および第2時点のいずれでも、観測値は“移動方向=出口への方向,v=vpref,θh=θb=θD(t)”である。つまり、観測値の時系列変化は、“移動方向=出口への方向,v=vpref,θh=θb=θD(t)”のまま一定である。
そして、インバースモデルとの比較から、この時系列変化に最もよく一致する振る舞いおよび注目対象は“目的地に向かって歩く”および“CA=NULL,TA=NULL,D=出口”なので、注目対象は、長期的なものも短期的なものも存在せず、訪問者は出口に向かって単に歩いている状態と推定される。
図10には、訪問者が注目している展示物(ここでは第2展示物E2)に向かって歩く際の、観測値の時系列変化と、注目対象が示される。観測値の時系列変化は、“移動方向=第2展示物E2への方向,v=vpref−ve,θh=θb=θD(t)”のまま一定である。インバースモデルとの比較から、この時系列変化に最もよく一致する振る舞いおよび注目対象は“目的地に向かって歩く”および“CA=第2展示物E2,TA=NULL,D=第2展示物E2”なので、注目対象は、長期的なものが第2展示物E2で、短期的なものは存在せず、訪問者は注目している第2展示物E2に向かって歩いている状態と推定される。
図11には、訪問者が目的地(ここでは出口)に向かって展示物(ここでは第1展示物E1)をちら見しながら歩く際の、観測値の時系列変化と、注目対象が示される。図11(A)は、展示室に入った直後の第1時点での状態を、図11(B)は第1展示物E1の前を通り過ぎる第2時点での状態を、それぞれ示している。図11(A)および図11(B)を比較すればわかるように、観測値のうち移動方向θv(t)および移動速度vは、第1時点および第2時点で同じ値(θv(t)=出口への方向,v=vpref−ve)であるが、頭の向きθhおよび体の向きθbは、位置P(t)の移動に伴って第1展示物E1に引っ張られるように回転していることから、θh=ちら見の頭モデル,θb=ちら見の体モデルとなる。
そして、インバースモデルとの比較から、この時系列変化に最もよく一致する振る舞いおよび注目対象は“目的地に向かってちら見しながら歩く”および“CA=NULL,TA=第1展示物E1,D=出口”なので、長期的な注目対象は存在しないが、短期的な注目対象が第1展示物E1であり、訪問者は出口に向かって第1展示物E1をちら見しながら歩いている状態と推定される。
なお、図9〜図11から明らかなように、展示物に注目しながら歩いている状態は、“注目点を持つと落ちる速度”によって、単に目的地に向かって歩いている状態から区別される。また、展示物をちら見しながら歩いている状態は、“展示物に引っ張られる頭および体の向き”によって、単に目的地に向かって歩いている状態から区別される。
図12には、図7(B)に示したように訪問者が展示物を見て回る際(ここでは第1展示物E1に注目している時点)の、観測値の時系列変化と、注目対象が示される。観測値の時系列変化は、“移動方向=展示物の周りを回る方向,v=vlook,θh=θb=θCA”のまま一定である。インバースモデルとの比較から、この時系列変化に最もよく一致する振る舞いおよび注目対象は“展示物を見て回る”および“CA=第1展示物E1,TA=NULL,D=NULL”なので、注目対象は、長期的なものが第1展示物E1で、短期的なものは存在せず、訪問者は展示物を見まわっている状態と推定される。
図13には、訪問者が展示物(ここでは第1展示物E1)を見ながら他の展示物(ここでは第3展示物E3)もちら見する際の、観測値の時系列変化と、注目対象が示される。観測値のうち移動方向θv(t),移動速度vおよび体の方向θbは、“移動方向=展示物の周りを回る方向,v=vlook,θb=θCA(t)”のまま一定であるが、頭の方向θhは“θh=θCA(t)”と“θh=θTA(t)”の間で変化する。インバースモデルとの比較から、この時系列変化に最もよく一致する振る舞いおよび注目対象は“展示物を見ながら他の展示物もちら見する”および“CA=第1展示物E1,TA=第3展示物E3,D=NULL”なので、長期的な注目対象(第1展示物E1)と、短期的な注目対象(第3展示物E3)とがあり、訪問者は第1展示物E1を見ながら第3展示物E3もちら見している状態と推定される。
図14には、訪問者が展示会場を訪れた大局的な訪問目的(以下“訪問目的”ないし“Global Purpose”と呼ぶ)と、その行動パターンを記述するモデルが示される。この例では、訪問目的は、passing−by(通り抜ける),Exhaustive−visit(見て回る),wandering(ぶらぶらする)の3つに分類される。
passing−byは、展示物に興味を示さず展示会場を素通りするような行動パターンであり、出口に向かうケースが尤もらしく、出口への方向から外れれば外れるほど尤度が低くなるようなモデルで表現される。
Exhaustive−visitは、展示物に興味を持ち、1つ1つ見て回るるような行動パターンであり、未訪問の展示物に興味を示す可能性が高く、既訪問の展示物からは興味が移り易くなるようなモデルで表現される。
wanderingは、特に興味を持つ展示物はなく、興味を引くものを探すような行動パターンであり、注目対象(CA,TA)の移り変わり(入れ替わり)
が多い軌跡ほど尤もらしいようなモデルで表現される。
ロボット10は、観測値(P(t),θb,θh)の時系列変化に尤もよく一致する振る舞いおよび注目対象を図8に示したインバースモデルから推定し、さらには、その推定結果の時時系列変化に最もよく一致する訪問目的を図14に示した訪問目的モデルから推定する。
そして、ロボット10は、訪問者との間で、上記のようにして推定した注目対象および/または訪問目的に応じたインターラクション(説明,対話,挨拶,ジェスチャなど)を行う。たとえば、訪問者が展示物を見ていれば、その展示物について説明や対話を行い、場内をぶらぶら歩きまわっていれば、展示の概要やお勧めの展示物の説明を行い、ロボット10自身をちら見していれば、視線を返したり挨拶を行う、といったインターラクションを行う。
図15には、展示会場で活動するロボット10のメモリ84のマップが、図16〜図19には、ロボット10のプロセッサ90によって実行されるロボット制御処理のフローが、それぞれ示される。
図15を参照して、メモリ94は、非遷移領域150および遷移領域170を含み、非遷移領域150には、ロボット制御プログラム152と、インバースモデル情報154,訪問目的モデル情報156および地図情報158とが記憶される。ロボット制御プログラム152は、注目対象推定プログラム152a,訪問目的推定プログラム152bおよびインターラクション制御プログラム152cを含む。遷移領域170には、距離画像情報172,観測値情報174,振る舞い&注目対象情報176および訪問目的情報178が記憶される。
ロボット制御プログラム152は、プロセッサ90を介して各種ハードウェア(40〜132:図4〜図5参照)を制御することで、展示会場(図1参照)内でロボット10に上述したような処理動作を行わせるためのプログラムであり、図16のフローに対応する。注目対象推定プログラム152aは、観測値情報174,インバースモデル情報154および地図情報158に基づき訪問者の振る舞いを介して注目対象を推定するためのプログラムであり、図17のフローに対応する。
訪問目的推定プログラム152bは、振る舞い&注目対象情報176に基づき訪問者が展示会場を訪問した目的を推定するためのプログラムであり、図18のフローに対応する。インターラクション制御プログラム152cは、振る舞い&注目対象情報176および訪問目的情報178に基づき訪問者とのインターラクションを制御するためのプログラムであり、図19のフローに対応する。
インバースモデル情報154は、図8に示したようなインバースモデルを示す情報であり、ロボット制御プログラム152(注目対象推定プログラム152a)によって定義される。ただし、インバースモデルの詳細なパラメータは、中央制御装置14によって事前に作成され、ロボット10が展示会場で活動するとき中央制御装置14から取得されてよい。
訪問目的モデル情報156は、図14に示したような訪問目的モデルを示す情報であり、ロボット制御プログラム152(訪問目的推定プログラム152b)によって定義される。ただし、訪問目的モデルの詳細なパラメータは、中央制御装置14によって事前に作成され、ロボット10が展示会場で活動するとき中央制御装置14から取得されてよい。
地図情報158は、図6に示した展示会場の地図に対応する情報であり、第1〜第3展示物E1〜E3および出入口の位置情報などを含む。
距離画像情報172は、距離画像センサ12a,12b,…でリアルタイムに得られる3次元の距離画像を示す情報であり、中央制御装置14によって所定周期たとえば1秒周期で書き込まれる(更新される)。
観測値情報174は、距離画像情報172から計算される観測値、具体的には、時刻tにおける訪問者の位置P(t),体の方向θb(t)および頭の方向θh(t)等を示す情報であり、中央制御装置14によって所定周期たとえば1秒周期で書き込まれる(更新される)。位置P(t)からは、必要に応じて移動方向θv(t)および移動速度vも計算される。
なお、観測値情報174の計算は、この実施例では中央制御装置14のプロセッサ14が行っているが、他の実施例では、ロボット10のプロセッサ90が行ってもよいし、両者で分担しても構わない。
振る舞い&注目対象情報176は、訪問者の振る舞い(目的地に向かって歩く,展示物を見て回る等)および注目対象(長期的な注目対象CA,短期的な注目対象TA,目的地D)を示す情報であり、注目対象推定プログラム152aによって観測値情報174およびインバースモデル情報154に基づき推定される。
訪問目的情報178は、訪問者が展示会場を訪問した目的を示す情報であり、訪問目的推定プログラム152bによって振る舞い&注目対象情報176から推定される。訪問目的情報178には、exhausive−visit,passing−by,wanderingの確率と、それに基づく尤もらしい訪問目的(grobal purpose)が記述される。
図6〜図12で説明したような注目対象推定処理,訪問目的推定処理およびインターラクション制御処理は、プロセッサ90が、図15に示された各種のプログラムおよび情報(152〜158)に基づき、図16〜図19のフローに従う処理を実行することにより実現される。
図16を参照して、ロボット10が展示会場で活動を開始するにあたり、CPU90は、最初、ステップS1で、地図情報158から第1〜第3展示物E1〜E3および出入口に関する情報を、長期的な注目対象CA,短期的な注目対象TA,目的地D(以下単にCA,TA,Dのように略記)の候補として取得する。
次に、ステップS3で、訪問者の状態群Hの遷移を記述するインバースモデルを定義する。
具体的には、まず、時刻tにおける訪問者の状態H(t)が、2次元位置をP(t),体方向をθb(t),頭方向をθh(t)として、次式(数1)で定義される。
Figure 0006142307
これを仮説として、訪問者の振る舞いは、次式(数2)で記述することができる。
Figure 0006142307
ここで、inverse_modelは、要するに、現在の時刻での(CA,TA,D)が決まると、1タイムステップ後の時刻における理想的な(P,θb,θh)が計算できる、という状態遷移を表している。
この場合、時刻tでの注目対象は、次式(数3)により推定される。
Figure 0006142307
すなわち、可能なCAi(t),TAi(t),Di(t)のセットのうち、観測値と推定値との誤差が最小のものが、注目対象(CA(t),TA(t),D(t))として出力されて、振る舞い&注目対象情報176に記述されることになる。
また、このインバースモデルは、前述した5種類の振る舞いに関し以下のモデル(数4〜数11)を含む。
次式(数4)は、移動速度(方向のみ)のモデルであり、もし目的地があればその目的地への方向に向かい(上段)、そうでなければ、長期的な注目対象への方向に向かう(下段)ことを示す。
Figure 0006142307
次式(数5)は、位置の時系列変化を表すモデルであり、次のタイムステップでの位置は、速度分だけ移動したものとして計算できることを示す。
Figure 0006142307
次式(数6)は、頭の向きを示すモデルであり、もし短期的な注目対象がなければ、頭の向きは進行方向を向いたままであり(上段)、そうでなければ注目対象に向かう方向に引っ張られる(下段)ことを示す(図11参照)。
Figure 0006142307
次式(数7)は、体の向きを示すモデルであり、もし短期的な注目対象がなければ、体の向きは進行方向を向いたままであり(上段)、そうでなければ注目対象に向かう方向に引っ張られる(下段)ことを示す(図11参照)。
Figure 0006142307
なお、上の2式(数6,数7)の下段に含まれる係数(注目対象に引っ張られる程度を示す比例定数)kh,kbは、先に図11で説明したようにkh>kbである。
次式(数8)は、注目対象の有無による移動速度の大きさ(絶対値)の変化を示すモデルであり、注目対象がなければ、移動速度は通常の歩行速度のまま位置され(上段)、そうでなければ一定程度減速する(下段)ことを示す。
Figure 0006142307
次式(数9)は、注目対象の周りをぐるぐる回る動きを示すモデルであり、ぐるぐる回る動きを表しているときに、ある程度対象に近づいたら確実にぐるぐる回る動きに入り(上段)、そうでなければぐるぐる回る動きから抜ける(下段)ことを示す。
Figure 0006142307
次式(数10)は、上式(数9)における、どの程度対象に近付いたらぐるぐる回る動きに入るかの判定基準を示す。判定基準は、所定距離dlookと、1タイムステップ前の位置および現在の注目対象の間の距離と、のうち小さい方となる。
Figure 0006142307
次式(数11)は、次のタイムステップに移ったときに注目対象がどれくらいの確率で変化するかに関するモデル(確率の変化式)を示す。
Figure 0006142307
上式(数11)では、前と同じ状態が続く(CA,TA,Dのいずれも変化しない)確率が“1−ptransition”で、状態が変わる(CA,TA,Dの少なくとも1つが変化する)確率がptransitionで、それぞれ表現される。
ptransitionの分岐は、あまり短い間は0(上段)、じっくり見ている間はplook(中段)、それ以外はpwalk(下段)となる。つまり、じっくり見ている(目的地がない)ときと、(目的地に向かって)歩いているときとで、状態が変化する確率に違いが出る。一般には、じっくり見ているときよりも歩いているときの方が目移りし易いことから、plook<pwalkとなる。
インバースモデルの定義が完了すると、プロセッサ90は、次に、ステップS5で、インバースモデルにパーティクルフィルタを適用して、状態群H内の各状態Sti(CA,TA,D)を初期化する。
具体的には、まず、状態S(t)の内訳は、パーティクルxi(t)および重みwi(t)を用いて、次式(数12)で記述される。
Figure 0006142307
ステップS5では、訪問者の状態群H内の各状態Sti(CA,TA,D)、つまり上式(数12)の(CAi(s),TAi(s),Di(s))が初期化される。
次に、ステップS6に進んで、図7に示したような訪問目的モデルを定義して、非遷移領域150に訪問目的モデル情報156として記憶する。そして、ステップS7で、訪問目的情報176に含まれるexhausive−visit,passing−by,wanderingの確率を初期化する。
その後、ステップS9に進んで、この処理を終了するか否かの判断を行い、YESであれば処理を終了する。ステップS9でNOであれば、ステップS11に進む。
ステップS11では、インバースモデルによる注目対象の推定を行う。なお、この注目対象推定処理の詳細については、後に図17を用いて詳しく説明する。次のステップS13では、推定した注目対象の遷移に基づいて、訪問者が展示会場を訪れた目的を推定する。なお、この訪問目的推定処理の詳細については、後に図18を用いて詳しく説明する。そして、ステップS15で、推定した注目対象および/または訪問目的に基づいて、訪問者とのインターラクションを行う。なお、このインターラクション制御処理の詳細については、後に図19を用いて詳しく説明する。その後、ステップS9に戻って、たとえば1秒周期で上記と同様の処理を繰り返す。
図17を参照して、注目対象推定処理では、まず、ステップS31で、遷移領域170の観測値情報174から、人位置P(t),体方向θb(t),頭方向θh(t)を取得する。これらの観測値は、上式(数1)にセットされる。
次に、ステップS33で、状態群H内の各状態Stiについて、インバースモデルとP(t),θb(t),θh(t)の比較を行い、一致度wi(t)を計算する。
具体的には、まず、現在の観測値をセットした上式(数1)を仮説として、上式(数2)に基づき、現在から1タイムステップ後の状態が計算される。次式(数13)は、その予測結果を示す。
Figure 0006142307
次に、観測値と予測結果との間の尤度が、次式(数14)の要領で計算される。
Figure 0006142307
ここで、Φ(χ,μ,σ)は、正規分布n(μ,σ)の累積密度関数である。
なお、上式(数14)は、位置P(t)に関する計算式であり、体方向θb(t),頭方向θh(t)に関する計算式は、上式(数14)において、左辺の“liklihood”の添え字pをb,hに、右辺の|P(t)−Pi(t)|を|θb(t)−θbi(t)|,|θh(t)−θhi(t)|に、それぞれ置き換えたものとなる。
一致度wi(t)は、上記3成分の尤度の積を(t−k+1)〜tのkタイムステップに渡って合計した値として、次式(数15)で計算される。
Figure 0006142307
こうして一致度wi(t)が求まると、ステップS35に進んで、(CA,TA,D)の組み合わせ毎に一致度wi(t)の総和を計算して、最も大きな総和となった組み合わせを推定結果として出力する。
具体的には、まず、時刻tにおける(CAx,TAy,Dz)の尤度が、(CAx,TAy,Dz)と一致する状態Stiの一致度wi(t)の総和として、次式(数16)で計算される。
Figure 0006142307
上式(数16)では、(CAx,TAy,Dz)と一致する状態Stiの一致度wi(t)には同じ重みwi(t)を与え(上段)、そうでない状態には重みを与えていない(下段)。
そして、次式(数17)の演算によって、上式(数16)で計算される尤度が最大となるような(CA,TA,D)が推定結果として出力され、振る舞い&注目対象情報176に記述される。
Figure 0006142307
その後、ステップS37で、各状態Stiの一致度wi(t)に従い、各状態Stiの数を調整(リサンプリング)した後、ステップS39に進んで、状態群H内の各状態Sti(CA,TA,D)の次状態を予測、つまりパーティクルを移動(更新)する。そして、上位のフロー(図16)に戻る。
したがって、たとえば1秒周期でパーティクルを移動しながら上記と同様の処理が繰り返され、遷移領域170の振る舞い&注目対象情報176の(CA,TA,D)が更新されていく。
次に、図18を参照して、訪問目的推定処理では、まず、ステップS51で、振る舞い&注目対象情報176から、時刻tでの(CA,TA,D)を取得する。次に、ステップS53で、取得した(CA,TA,D)と訪問目的モデルとの比較に基づき、exhausive−visit,passing−by,wanderingの確率を計算する。
具体的には、まず、取得した(CA,TA,D)から、次式(数18)のような入力データXが生成される。
Figure 0006142307
次に、入力データXに対して、次式(数19)のような演算が実行される。
Figure 0006142307
ここで、λは訪問目的モデルである。訪問目的情報178に含まれるexhausive−visit,passing−by,wanderingの確率は、上式(数19)の演算結果に基づき更新される。
そして、ステップS55に進んで、上式(数19)の計算結果のうち、最も確率の大きい推定結果を尤もらしい訪問目的として出力する。具体的には、訪問目的(Grobal purpose)は、次式(数20)で計算される。
[数20]
Global purpose =argmaxλlog(p(X|λ) )
なお、上の2式(数19および数20)による演算を“Classifier”と呼ぶ。Classifierの概念を図20に示す。図20からわかるように、へは、kタイムステップ分の(CA,TA,D)のセットが順次Classifier入力され、Classifierでは、(CA,TA,D)の遷移からexhausive−visit,passing−by,wanderingの確率が計算され、そのうち最も確率の高いものがGrobal purposeとして出力される。
Classifierの出力は、訪問目的情報178に記述される。その後、プロセッサ90の処理は、上位のフロー(図16)に戻る。
したがって、たとえば1秒周期で上記と同様の処理が繰り返され、訪問目的情報178の内容が更新されていく。
次に、図19を参照して、インターラクション制御処理では、プロセッサ90は、振る舞い&注目対象情報176および訪問目的情報178等を参照しつつ、以下の処理を行う。
まず、ステップS61で、“CA=展示物”か否かを判別する。ステップS61でYES(CAが第1〜第3展示物E1〜E3のいずれか)であれば、ステップS63に進む。ステップS63でNO(CAが展示物でなく、たとえばNULL,ロボット,出口等)であれば、ステップS61でYESと判別して、ステップS69に移る。
ステップS63では、眼カメラ80等のセンシング結果に基づきモータ制御ボード96を介して車輪モータ46を駆動することによって、訪問者に近付く(ロボット10自身を訪問者に向かって移動させる)。そして、ステップS65で、赤外線距離センサ50等のセンシング結果に基づき、訪問者に十分近付いたか否かを判別し、NOであれば、上位のフロー(図16)に戻る。ステップS65でYESであれば、ステップS67で当該展示物の説明を行い、その後、上位のフローに戻る。
ステップS69では、“訪問目的=wandering”か否かを判別する。そして、ステップS69でYESであれば、ステップS71に進み、NO(exhaustive−visitまたはpassing−by)であれば、ステップS77に移る。
ステップS71では、訪問者に近付き、そして、ステップS73で、十分近付いたか否かを判別して、NOであれば、上位のフローに戻る。ステップS73でYESであれば、ステップS67でお勧めの展示物の説明を行った後、上位のフローに戻る。
ステップS77では、“CA=ロボット”または“TA=ロボット”か否かを判別する。そして、ステップS77でYES(CAまたはTAのどちらかがロボット)であれば、ステップS79に進み、NO(CAおよびTAのどちらもロボットではない)であれば、上位のフローに戻る。
ステップS79では、訪問者に近付き、そして、ステップS81で、十分近付いたか否かを判別して、NOであれば、上位のフローに戻る。ステップS81でYESであれば、ステップS83で訪問者への挨拶を行った後、上位のフローに戻る。
なお、ここでは注目対象および訪問目的に応じて3種類のインターラクションを行ったが、より多くの種類のインターラクションが可能である。
したがって、たとえば1秒周期で上記と同様の処理が繰り返され、インターラクションが進行していく。たとえば、入口から入ってきた訪問者が第1展示物E1に注目し始めると、ステップS61の判別結果がNOからYESに変化して、ステップS63つまり訪問者に近付く動作(移動)が開始され、この動作は、ステップS65の判別結果がNOからYESに変化する(十分近付く)まで継続される。ロボット10が訪問者に十分近付くと、ステップS67の説明が開始される。
なお、訪問者に十分近付く前に、訪問者が第1展示物E1への注目をやめた場合、ステップS65の判別結果がYESからNOに変化する結果、訪問者に近付く動作はその時点で終了されることになる。
以上から明らかなように、この実施例では、ロボット10は、展示物(E1〜E3)が展示された展示会場内で人(訪問者)とのインターラクションを行うロボットであり、インバースモデル154および訪問目的モデル156をメモリ94に保持している。
インバースモデル154には、人の会場での振る舞いを分類して、その振る舞いごとに、人の注目対象(長期的な注目対象CA,短期的な注目対象TAおよび目的地D)と、これに対応する人の位置(P(t)),頭向き(θh)および体向き(θb)の理想的な動きとが記述してある。また、訪問目的モデル156には、人の会場での行動パターンを分類して、その行動パターンごとに、人が会場を訪問した目的と、これに対応する人の注目対象の遷移とが記述してある。
そして、中央制御装置14が人の位置,頭向きおよび体向きを距離画像センサ12a,12bで観測しており、ロボット10のプロセッサ90は、中央制御装置14から観測値(P(t),θh,θb)を取得して、観測値の推移とインバースモデル154との比較に基づき人の注目対象(CA,TA,D)を推定する(S11)。こうして、観測値の推移から人の振る舞いを介して注目対象を推定することで、注目対象を精度よく推定できる。
また、プロセッサ90は、上記の推定結果つまり注目対象(CA,TA,D)の推移と訪問目的モデルとの比較に基づいて、人が会場を訪問した目的を推定する(S13)。したがって、推定した注目対象を利用して、より大局的な訪問目的の推定が可能になる。
さらに、プロセッサ90は、上記2種類の推定結果つまり注目対象(CA,TA,D)および訪問目的の少なくとも一方に基づいて、人とのインターラクションを制御する(S15)。したがって、人の注目対象および/または訪問目的に応じたインターラクションをロボットに行わせることができる。
なお、実施例のロボット10は、車輪42で移動するロボットであるが、二足歩行を行うロボットであってもよい。この発明のロボットは、自律的にまたは遠隔制御によって移動でき、かつ人とのインターラクションが可能なものであれば、形態には依存しない。
なお、実施例では、展示会場(ロボット10の外部)に配置された距離画像センサ12a,12bの出力から人の位置P(t),頭向きθh,体向きθbを計算しているが、ロボット10の内部センサ群(50,56,80)の出力も考慮して計算を行ってよい。ロボット10に距離画像センサ12を搭載するなどして、内部センサのみで計算を行うことも考えられる。
なお、実施例では、図16〜図19に示したロボット制御処理のうち、インバースモデルおよび訪問目的モデルを定義する処理と、人の位置および向きを距離画像センサ12a,12bで観測する処理のみ、中央制御装置14のプロセッサ16が担当し、それ以外の処理は、ロボット10側で行ったが、大半の処理を中央制御装置14側で行うような構成も可能である。その場合、図15に示したメモリ94のマップは、メモリ16のマップとなる。
あるいは、展示会場内にロボット10が複数台配置される場合、図19のインターラクション制御のみ各ロボット10のプロセッサ90が行い、それ以外の処理は中央制御装置14側で行うような構成も考えられる。
なお、以上の説明では、一実施例として、展示会場に適用されるロボット制御システム100について説明したが、この発明は、各種の場所(空間)で人の注目対象を検出する注目対象検出システムに適用できる。
10 …ロボット
12a,12b …距離画像センサ
14 …中央制御装置
50 …赤外線距離センサ
16,90 …プロセッサ
18,94 …メモリ
E1〜E3 …第1〜第3展示物

Claims (10)

  1. 展示物を展示した展示会場を訪問した人の注目度を推定する注目度推定システムであって、
    前記人の前記展示会場での振る舞いを分類して、その振る舞いごとに、前記人の注目対象と、これに対応する前記人の位置,頭向きおよび体向きの理想的な動きとを、前記人の振る舞いとして記述したインバースモデル、
    前記人の位置,頭向きおよび体向きを観測する観測手段、および
    前記観測手段による観測値の推移と前記インバースモデルとの比較に基づいて前記人の注目対象を推定する注目対象推定手段を備える、注目対象推定システム。
  2. 前記注目対象は、長期的な注目対象を示す第1変数、短期的な注目対象を示す第2変数、および目的地を示す第3変数で記述され、
    前記理想的な動きは、前記観測手段で観測される前記人の位置の変化に基づく移動方向および移動速度と、前記観測手段で観測される頭向きおよび体向きとで記述される、請求項1記載の注目対象推定システム。
  3. 前記振る舞いの分類は、目的地に向かって歩く第1の振る舞い、および注目している展示物に向かって歩く第2の振る舞いを含み、
    前記インバースモデルには、
    前記第1の振る舞いについて、前記第1変数に不存在が、前記第2変数に不存在が、第3変数に前記目的地が、前記移動方向として前記目的地への方向が、前記移動速度として歩行速度が、前記頭向きとして前記目的地に向かう向きが、前記体向きとして前記目的地に向かう向きが、それぞれ記述され、
    前記第2の振る舞いについて、前記第1変数に前記展示物が、前記第2変数に不存在が、前記第3変数に前記展示物が、前記移動方向に前記展示物への方向が、前記移動速度に前記歩行速度よりも所定速度遅い速度が、前記頭向きに前記展示物に向かう向きが、前記体向きに前記展示物に向かう向きが、それぞれ記述される、請求項2記載の注目対象推定システム。
  4. 前記振る舞いの分類は、目的地に向かって展示物をちら見しながら歩く第3の振る舞いをさらに含み、
    前記インバースモデルには、前記第3の振る舞いについて、前記第1変数に不存在が、前記第2変数に前記展示物が、前記第3変数に前記目的地が、前記移動方向に前記展示物への方向が、前記移動速度に前記歩行速度よりも前記所定速度遅い速度が、前記頭向きに、前記目的地に向かう向きに対して前記展示物に引っ張られる向きを加えた向きが、前記体向きに、前記目的地に向かう向きに対して前記展示物に引っ張られる向きを加えた向きが、それぞれ記述される、請求項3記載の注目対象推定システム。
  5. 前記頭向きが引っ張られる程度は、前記体向きが引っ張られる程度よりも大きい、請求項4記載の注目対象推定システム。
  6. 前記振る舞いの分類は、展示物を見て回る第4の振る舞いをさらに含み、
    前記インバースモデルには、前記第4の振る舞いについて、前記第1変数に前記展示物が、前記第2変数に不存在が、前記第3変数に不存在が、前記移動方向に前記展示物の周りを回る方向が、前記移動速度に閲覧状態の速度が、前記頭向きに前記展示物に向かう向きが、前記体向きに前記展示物に向かう向きが、それぞれ記述される、請求項3ないし5のいずれかに記載の注目対象推定システム。
  7. 前記振る舞いの分類は、展示物を見て回りながら他の展示物もちら見する回る第5の振る舞いをさらに含み、
    前記インバースモデルには、前記第5の振る舞いについて、前記第1変数に前記展示物が、前記第2変数に前記他の展示物が、前記第3変数に不存在が、前記移動方向に前記展示物の周りを回る方向が、前記移動速度に前記閲覧状態の速度が、前記頭向きに前記他の展示物に向かう向きが、前記体向きに前記展示物に向かう向きが、それぞれ記述される、請求項6記載の注目対象推定システム。
  8. 前記人の前記展示会場での行動パターンを分類して、その行動パターンごとに、前記人が前記展示会場を訪問した目的と、これに対応する前記人の注目対象の遷移とを記述した訪問目的モデル、および
    前記注目対象推定手段による推定結果の推移と前記訪問目的モデルとの比較に基づいて、前記人が前記展示会場を訪問した目的を推定する訪問目的推定手段をさらに備える、請求項1ないし7のいずれかに記載の注目対象推定システム。
  9. 展示物が展示された展示会場内で人とのインターラクションを行うロボットであって、
    前記人の前記展示会場での振る舞いを分類して、その振る舞いごとに、前記人の注目対象と、これに対応する前記人の位置,頭向きおよび体向きの理想的な動きとを、前記人の振る舞いとして記述したインバースモデル、および、前記人の前記展示会場での行動パターンを分類して、その行動パターンごとに、前記人が前記展示会場を訪問した目的と、これに対応する前記人の注目対象の遷移とを記述した訪問目的モデル、を記憶した記憶手段、
    前記人の位置,頭向きおよび体向きを観測する観測手段から観測値を取得する取得手段、
    前記観測値の推移と前記インバースモデルとの比較に基づいて前記人の注目対象を推定する注目対象推定手段、
    前記注目対象推定手段の推定結果の推移と前記訪問目的モデルとの比較に基づいて、前記人が前記展示会場を訪問した目的を推定する訪問目的推定手段、および
    前記注目対象推定手段および前記訪問目的推定手段の少なくとも一方の推定結果に基づいて、前記人とのインターラクションを制御するインターラクション制御手段を備える、ロボット。
  10. 展示物が展示された展示会場内で人とのインターラクションを行うロボットの制御プログラムであって、前記ロボットのコンピュータを、
    前記人の前記展示会場での振る舞いを分類して、その振る舞いごとに、前記人の注目対象と、これに対応する前記人の位置,頭向きおよび体向きの理想的な動きとを、前記人の振る舞いとして記述したインバースモデル、および、前記人の前記展示会場での行動パターンを分類して、その行動パターンごとに、前記人が前記展示会場を訪問した目的と、これに対応する前記人の注目対象の遷移とを記述した訪問目的モデル、を記憶した記憶手段、
    前記人の位置,頭向きおよび体向きを観測する観測手段から観測値を取得する取得手段、
    前記観測値の推移と前記インバースモデルとの比較に基づいて前記人の注目対象を推定する注目対象推定手段、
    前記注目対象推定手段の推定結果の推移と前記訪問目的モデルとの比較に基づいて、前記人が前記展示会場を訪問した目的を推定する訪問目的推定手段、および
    前記注目対象推定手段および前記訪問目的推定手段の少なくとも一方の推定結果に基づいて、前記人とのインターラクションを制御するインターラクション制御手段として機能させる、制御プログラム。
JP2013202377A 2013-09-27 2013-09-27 注目対象推定システムならびにロボットおよび制御プログラム Active JP6142307B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013202377A JP6142307B2 (ja) 2013-09-27 2013-09-27 注目対象推定システムならびにロボットおよび制御プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013202377A JP6142307B2 (ja) 2013-09-27 2013-09-27 注目対象推定システムならびにロボットおよび制御プログラム

Publications (2)

Publication Number Publication Date
JP2015066625A JP2015066625A (ja) 2015-04-13
JP6142307B2 true JP6142307B2 (ja) 2017-06-07

Family

ID=52833915

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013202377A Active JP6142307B2 (ja) 2013-09-27 2013-09-27 注目対象推定システムならびにロボットおよび制御プログラム

Country Status (1)

Country Link
JP (1) JP6142307B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7182990B2 (ja) * 2018-10-15 2022-12-05 東京瓦斯株式会社 情報処理システムおよびプログラム
CN111259702B (zh) * 2018-12-03 2023-05-26 株式会社理光 一种用户兴趣的估计方法及装置
KR102519599B1 (ko) * 2021-10-29 2023-04-11 주식회사 서큘러스 멀티모달 기반의 인터랙션 로봇, 및 그 제어 방법
KR102472144B1 (ko) * 2022-02-21 2022-12-01 주식회사 서큘러스 인터랙션 로봇, 및 그 제어 방법

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7889244B2 (en) * 2005-12-27 2011-02-15 Panasonic Corporation Image processing apparatus
JP4876687B2 (ja) * 2006-04-19 2012-02-15 株式会社日立製作所 注目度計測装置及び注目度計測システム
JP4861154B2 (ja) * 2006-12-19 2012-01-25 株式会社エヌ・ティ・ティ・ドコモ 情報サービス提供システム、対象行動推定装置、対象行動推定方法
JP2009116510A (ja) * 2007-11-05 2009-05-28 Fujitsu Ltd 注目度算出装置、注目度算出方法、注目度算出プログラム、情報提供システム、及び、情報提供装置
JP5688513B2 (ja) * 2011-02-10 2015-03-25 株式会社国際電気通信基礎技術研究所 歩行者状態分類装置およびプログラム
JP5953484B2 (ja) * 2011-03-30 2016-07-20 株式会社国際電気通信基礎技術研究所 計測装置,計測方法および計測プログラム
US20130054377A1 (en) * 2011-08-30 2013-02-28 Nils Oliver Krahnstoever Person tracking and interactive advertising

Also Published As

Publication number Publication date
JP2015066625A (ja) 2015-04-13

Similar Documents

Publication Publication Date Title
US11673269B2 (en) Method of identifying dynamic obstacle and robot implementing same
JP4822319B2 (ja) コミュニケーションロボットおよびそれを用いた注意制御システム
CN106573377B (zh) 具有冲突避免和轨迹恢复能力的类人机器人
US9902069B2 (en) Mobile robot system
JP5318623B2 (ja) 遠隔操作装置および遠隔操作プログラム
JP5764795B2 (ja) 移動ロボット、移動ロボット用の学習システムおよび移動ロボットの行動学習方法
US9552056B1 (en) Gesture enabled telepresence robot and system
EP2571660B1 (en) Mobile human interface robot
CN109605363B (zh) 机器人语音操控系统及方法
JP5768273B2 (ja) 歩行者の軌跡を予測して自己の回避行動を決定するロボット
Tölgyessy et al. Foundations of visual linear human–robot interaction via pointing gesture navigation
US20120173018A1 (en) Mobile Human Interface Robot
JP5617562B2 (ja) 移動ロボット
JP6069606B2 (ja) ロボット制御システムおよびロボット制御方法
KR20180118219A (ko) 이동형 원격현전 로봇과의 인터페이싱
JP2010231470A (ja) 情報提供システム
JP6142307B2 (ja) 注目対象推定システムならびにロボットおよび制御プログラム
JP6150429B2 (ja) ロボット制御システム、ロボット、出力制御プログラムおよび出力制御方法
JP2015066624A (ja) ロボット制御システム、ロボット制御プログラムおよび説明ロボット
US20210031378A1 (en) Information processor, information processing method, and program
JP6134894B2 (ja) ロボット制御システムおよびロボット
CN115698631A (zh) 助行机器人导航方法、助行机器人及计算机可读存储介质
JP2017170568A (ja) サービス提供ロボットシステム
JP7139643B2 (ja) ロボット、ロボットの制御方法及びプログラム
JP5732633B2 (ja) コミュニケーションロボット

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20160218

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160218

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170307

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170313

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170328

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170405

R150 Certificate of patent or registration of utility model

Ref document number: 6142307

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250