JP6893630B2 - サービス提供ロボットシステム - Google Patents

サービス提供ロボットシステム Download PDF

Info

Publication number
JP6893630B2
JP6893630B2 JP2016059440A JP2016059440A JP6893630B2 JP 6893630 B2 JP6893630 B2 JP 6893630B2 JP 2016059440 A JP2016059440 A JP 2016059440A JP 2016059440 A JP2016059440 A JP 2016059440A JP 6893630 B2 JP6893630 B2 JP 6893630B2
Authority
JP
Japan
Prior art keywords
robot
person
service
list
people
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016059440A
Other languages
English (en)
Other versions
JP2017170568A (ja
Inventor
聡 佐竹
聡 佐竹
神田 崇行
崇行 神田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2016059440A priority Critical patent/JP6893630B2/ja
Publication of JP2017170568A publication Critical patent/JP2017170568A/ja
Application granted granted Critical
Publication of JP6893630B2 publication Critical patent/JP6893630B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Description

この発明は、サービス提供ロボットシステムに関し、特に、ロボットによって人に対してたとえば店舗の宣伝や広告などのサービスの提供を行う、サービス提供ロボットシステムに関する。
ロボットからアクティブに話しかけや声かけを行う技術は、すでに提案されている。たとえば、特許文献1は、事前に定義された特定の領域に人が入った場合に、近づいて受付や案内サービスを開始する技術を開示している。
また、非特許文献1は、ロボットから人間に最も自然な近づき方ができる相手を選択し、近づいて話しかけることで、話しかけの成功率を向上させる技術を開示している。また、非特許文献2は、最も自然なちらし配りが実現できる対象を選択し、近づきながらちらし配りを行うことでちらし配りの成功率を向上させる技術を開示している。
特開2005-329515 [B25J 13/08]
Satoru Satake, Takayuki Kanda, Dylan F. Glas, Michita Imai, Hiroshi Ishiguro, Norihiro Hagita, "A robot that approaches pedestrians," IEEE Transactions on Robotics, Vol. 29, Issue 2, pp. 508-524, 2013 Chao Shi, Masahiro Shiomi, Christian Smith, Takayuki Kanda, Hiroshi Ishiguro, "A Model of Distributional Handing Interaction for a Mobile Robot," Proceedings of Robotics: Science and Systems, 2013
上記の背景技術は、いずれもロボットによるサービスの提供を待っている人が存在する状況に対応する技術ではないので、待っている人に対して適切に対応できない可能性がある。
それゆえに、この発明の主たる目的は、新規な、サービス提供ロボットシステムを提供することである。
この発明の他の目的は、サービスの提供を待っている人に対して適切にサービスを提供できる、サービス提供ロボットシステムを提供することである。
この発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明等は、本発明の理解を助けるために後述する実施の形態との対応関係を示したものであって、本発明を何ら限定するものではない。
第1の発明は、ロボットが人に対してサービスを提供するサービス提供ロボットシステムであって、人追跡システムによって取得したそれぞれの人の位置情報に基づいて一定時間停止している人々を含むリストを作成するリスト作成部、リストに含まれる人であってロボットからの距離が所定値以上の人をリストから削除する第1削除部、第1削除部によって削除されずにリストに残った人の内、ロボットの正面でかつロボットから最も近い人を算出する算出部、最も近い人を中心として弧を形成する人をリストから抜き出して、弧の優先度に従ってサービス待ちリストに追加するサービス待ちリスト作成部、サービス待ちリストに挙げられていてかつ未だサービスを提供されていない人の内、最も高い優先度の人をサービス提供対象として選択する選択部、および選択部で選択されたサービス提供対象に対してロボットにサービスの提供を行わせるサービス提供制御部を備える、サービス提供ロボットシステムである。
第1の発明では、サービス提供ロボットシステム(100:実施例において相当する部分を例示する参照符号。以下同様。)は、人に対してサービスの提供が可能なロボット(10)を含み、そのロボットが人に対してサービス(たとえば、ちらしの配布、イベント情報の提供、道案内、店舗や商品の宣伝など)を提供する。リスト作成部(14、S25)は、ロボットの周囲で移動を停止している人を検出してリストを作成する。第1削除部(14、S27)は、リストに含まれる人であってロボットからの距離が所定値以上の人をリストから削除する。算出部(14、S29)は、そのリストに残った人の内、ロボットの正面でかつロボットから最も近い人を算出する。サービス待ちリスト作成部(14、S33)は、その最も近い人を中心として弧を形成する人をリストから抜き出して、弧の優先度に従ってサービス待ちリストに追加する。そして、選択部(14、S7)は、サービス待ちリストに挙げられていてかつ未だサービスを提供されていない人の内、最も高い優先度の人をサービス提供対象として選択して、サービス提供制御部(14、S15)は、ロボットによって、サービス提供対象として選択された人に対してサービスを提供させる。
第1の発明によれば、ロボットからの距離が所定値以上の人を除いて、ロボットの正面でかつロボットから最も近い人を中心として弧を形成し、弧の優先度に従ってロボットがサービスを提供するので、ロボットのサービス提供を待っている人に対して適切にサービスを提供することができる。
第2の発明は、第1の発明に従属し、リストに挙げられているが弧によってロボットが見えなくなる人をリストから削除する第2削除部をさらに備える、サービス提供ロボットシステムである。
第2の発明では、第2削除部(14、S35)は、リストに挙げられているが弧によってロボットが見えなくなる人をリストから削除する
第2の発明によれば、ロボットによるサービスを確実に受けられる人にサービスを提供できる。
第3の発明は、第1または第2の発明に従属し、弧は最も近い人を中心としてロボットの進行方向とは逆方向に広がる弧である、サービス提供ロボットシステムである。
第3の発明によれば、ロボットの近くに弧が形成されるので、弧を形成する人に対して確実にサービスを提供することができる。
第4の発明は、ロボットが人に対してサービスを提供するサービス提供ロボットシステムのコンピュータによって実行可能なプログラムであって、コンピュータを、人追跡システムによって取得したそれぞれの人の位置情報に基づいて一定時間停止している人々を含むリストを作成するリスト作成部、リストに含まれる人であってロボットからの距離が所定値以上の人をリストから削除する第1削除部、第1削除部によって削除されずにリストに残った人の内、ロボットの正面でかつロボットから最も近い人を算出する算出部、最も近い人を中心として弧を形成する人をリストから抜き出して、弧の優先度に従ってサービス待ちリストに追加するサービス待ちリスト作成部、サービス待ちリストに挙げられていてかつ未だサービスを提供されていない人の内、最も高い優先度の人をサービス提供対象として選択する選択部、および選択部で選択されたサービス提供対象に対してロボットにサービスの提供を行わせるサービス提供制御部として機能させる、サービス提供プログラムである。
第4の発明によっても、第1の発明と同様の効果が期待できる。
この発明のサービス提供ロボットシステムによれば、サービスの提供を待っている人々に対し、優先度に基づいてサービスを提供するので、サービスを待っている人に対して適切に、ロボットによるサービスを提供することができる。
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
図1はこの発明の一実施例であるサービス提供ロボットシステムが適用され得る場所の一例としてのショッピングセンタの配置例を示す図解図である。 図2はこの発明の一実施例のサービス提供ロボットシステムを示すブロック図である。 図3は実施例のサービス提供ロボットシステムに利用可能なロボットの一例を示す図解図である。 図4は図3実施例のロボットの電気的構成を示すブロック図である。 図5は図2のコンピュータに付属するメモリのメモリマップの一例を示す図解図である。 図6は実施例のコンピュータが実行するサービス提供処理の一例を示すフロー図である。 図7は図6実施例におけるサービス待ちリストの作成処理の一例を示すフロー図である。 図8はサービス待ちの人々の優先度を決定する第1の例を示す図解図である。 図9はサービス待ちの人々の優先度を決定する第2の例を示す図解図である。 図10はサービス待ちの人々の優先度を決定する第3の例を示す図解図である。 図11はサービス待ちの人々の優先度を決定する第4の例を示す図解図である。
図1を参照して、この実施例のサービス提供ロボットシステム100は、たとえばショッピングモールなどのように多様な人々が往来する空間(環境)で利用される。その空間の中では、ロボット10や人は任意に移動することができ、天井などの比較的高所には複数の距離画像センサ12が設けられている。
ロボット10は、相互作用指向のロボット(コミュニケーションロボット)であり、コミュニケーションの対象である人との間で、音声を含むコミュニケーション行動を実行する機能を備えている。また、ロボット10はコミュニケーションの一環として、イベント情報の提供、ショッピングモール内の店舗の宣伝や広告のようなサービスを人々に対して提供する。このロボット10は基本的には、後述する遠隔操作コンピュータ14(図2)から与えられる行動命令に基づいて行動するが、サービスを提供する上で必要であれば、ショッピングモール(空間)内を自律的に移動することもできる。
この実施例のサービス提供ロボットシステム100は、ショッピングモールに限らず、イベント会場、アトラクション会場などでも利用可能である。
なお、図1では簡単のため、人は1人しか示していないが、ショッピングモール内には通常多くの人々が存在する。さらには、ロボット10も1台しか示していないが、サービス提供ロボットシステム100は2台以上のロボット10を同時に制御することができる。
図2を参照して、サービス提供ロボットシステム100の遠隔操作用のコンピュータ14は、後に詳細に説明するが、一定時間(たとえば、1秒)毎に複数の距離画像センサ12によって、任意に移動する人の位置を検出すると共に、その人の向いている方向などを検出する。そのために、コンピュータ14は、距離画像センサ12からのセンサ出力を受ける。
コンピュータ14にはメモリ16、通信LANボード18が接続されると共に、発話コンテンツデータベース(DB)20も接続される。発話コンテンツデータベース20は、ロボット10が人に対して広告、宣伝などのサービスを提供する際に人に対して話しかけるときに必要な発話文および広告、宣伝などに必要な発話文を予め登録しておき、必要なとき、コンテンツ4が必要な発話文を読み出してロボット10に与える。
ただし、発話コンテンツデータベース20は、ロボット10に設けられていてもよい。その場合には、コンピュータ14は、ロボット10に対して、発話すべき発話文を指定する命令だけをロボット10に送ればよい。
距離画像センサ12は、赤外光またはレーザなどの光を照射し、対象物から反射した光(反射光)をCCDセンサなどの光学センサによって捉える。距離画像センサ12は、光が戻るまでの時間を画素ごとに計測することで、対象物までの実際の距離を測距する。実施例の距離画像センサ12には、ASUS(登録商標)社製のXtionと呼ばれる製品が採用されている。なお、他の実施例では、距離画像センサ12は、Microsoft(登録商標)社製のKinect(登録商標)センサ、パナソニック(登録商標)社製の3次元距離画像センサD−IMager(登録商標)などを使用することも可能である。この種のセンサは、3次元距離計測センサ、3Dスキャナなどと呼ばれる場合もある。
距離画像センサ12はそのレーザ走査面(スキャン面)の傾斜角を変化させながら計測することができ、そのため、1回の計測によって(最小傾斜角から最大傾斜角まで変化する期間に)、対象の3次元形状を計算することができる。また、対象が停止していても、その3次元形状を計算することができる(ただし、対象が動いていれば、多様な位置関係で計測が行えるので、3次元形状の計算精度が高まる点で好ましい)。
また、スキャン面の傾斜角がこのように変化することで、計測領域が拡がると共に、複数の対象が密集している状態でも、対象群を直上ないしその近傍から計測した計測データに基づいて1つ1つの対象に容易に分離することができる。そして、様々な傾斜角で計測した計測データに基づいて、分離した1つ1つの対象の3次元形状を精度よく計算することができる。
ここで、このように距離画像センサ12を利用する人追跡システムを実現するコンピュータ14の処理手順を説明するが、詳しい処理手順は、本件出願人の出願に係る、同時係属中の特開2012‐215555号に説明されているので、その記述を引用することとし、ここでは概要を説明するにとどめる。
コンピュータ14は、まず、各距離画像センサ12からの計測データに基づいて、対象の状態(たとえば位置,移動方向,3次元形状および姿勢など)をパーティクルフィルタでリアルタイムに推定する状態推定処理を実行する。
パーティクルフィルタは、予測および観測を繰り返すことによって現在の対象の状態を推定する時系列フィルタの一種であり、具体的には、現状態から起こりうる次状態を多数のパーティクルに見立てて、観測された状態との間の尤度(類似度)をパーティクル毎に求め、全パーティクルを尤度に応じて加重平均した結果を現在の対象の状態であると推定する。そして、重みに従う新たなパーティクルを発生させ、同様の処理を繰り返すことで、対象の状態を逐次推定することができる。
状態推定処理では、1つ1つの対象の状態を専用のパーティクルフィルタで推定する。したがって、たとえば10個の対象が検出されている状態では、10個のパーティクルフィルタが並列に動作しており、別の対象が検出されると、11個目のパーティクルフィルタが新たに生成される。
コンピュータ14はまた、上記のような状態推定処理と並列的に、各対象の状態に基づいて、各対象が「1人」であるかグループに属するかを推定するグループ推定処理、および各対象が個別に行う行動(たとえば店舗や案内板を見る行動)を推定する個別行動推定処理をも実行する。
そして、各種の推定処理が完了した後、コンピュータ14はさらに、推定結果に基づいてグループ行動を解析する。このグループ行動解析処理では、各グループを「友達同士」、「家族連れ」、「カップル」などのカテゴリに分類したり、個別行動情報をグループ毎に解析してグループ行動情報を作成したり、グループ行動情報をカテゴリ毎に解析してグループ行動パターンたとえば、友人同士が特定の店舗や案内板に注目したり、家族連れが特定の通路を通ったり、といった行動パターン)情報を作成したりする。
図2に示すメモリ16はROM、HDDおよびRAMなどを含む。ROMおよびHDDには、コンピュータ14の動作を制御するための制御プログラムが予め記憶される。また、RAMは、コンピュータ14のワークメモリやバッファメモリとして用いられる。
通信LANボード18は、たとえばDSPで構成され、コンピュータ14から与えられた送信データを無線通信モジュール22に与え、無線通信モジュール22は送信データを、ネットワーク24を介してロボット10に送信する。たとえば、送信データは、ロボット10の自律移動に必要なデータや、サービスを提供ために必要なデータおよびロボット10に指示する行動命令の信号(コマンド)などである。また、通信LANボード18は、無線通信モジュール22を介してデータを受信し、受信したデータをコンピュータ14に与える。
なお、コンピュータ14は、ディスプレイなどの出力装置と、マウスおよびキーボードなどの入力装置とを備えていてもよい。
ここで、図2および図3を参照して、この発明の理解に必要な範囲でロボット10の構成について説明する。ロボット10は台車30を含み、台車30の下面にはロボット10を自律移動させる2つの車輪32および1つの従輪34が設けられる。2つの車輪32は車輪モータ36(図3参照)によってそれぞれ独立に駆動され、台車30すなわちロボット10を前後左右の任意方向に動かすことができる。
台車30の上には、円柱形のセンサ取り付けパネル38が設けられ、このセンサ取り付けパネル38には、多数の距離センサ40が取り付けられる。これらの距離センサ40は、たとえば赤外線や超音波などを用いてロボット10の周囲の物体(人や障害物など)との距離を測定するものである。
センサ取り付けパネル38の上には、胴体42が直立して設けられる。また、胴体42の前方中央上部(人の胸に相当する位置)には、上述した距離センサ40がさらに設けられ、ロボット10の前方の主として人との距離を計測する。また、胴体42には、その背面側上端部のほぼ中央から伸びる支柱44が設けられ、支柱44の上には、全方位カメラ46が設けられる。全方位カメラ46は、ロボット10の周囲を撮影するものであり、後述する眼カメラ70とは区別される。この全方位カメラ46としては、たとえばCCDやCMOSのような固体撮像素子を用いるカメラを採用することができる。
胴体42の両側面上端部(人の肩に相当する位置)には、それぞれ、肩関節48Rおよび肩関節48Lによって、上腕50Rおよび上腕50Lが設けられる。図示は省略するが、肩関節48Rおよび肩関節48Lは、それぞれ、直交する3軸の自由度を有する。すなわち、肩関節48Rは、直交する3軸のそれぞれの軸廻りにおいて上腕50Rの角度を制御できる。肩関節48Rの或る軸(ヨー軸)は、上腕50Rの長手方向(または軸)に平行な軸であり、他の2軸(ピッチ軸およびロール軸)は、その軸にそれぞれ異なる方向から直交する軸である。同様にして、肩関節48Lは、直交する3軸のそれぞれの軸廻りにおいて上腕50Lの角度を制御できる。肩関節48Lの或る軸(ヨー軸)は、上腕50Lの長手方向(または軸)に平行な軸であり、他の2軸(ピッチ軸およびロール軸)は、その軸にそれぞれ異なる方向から直交する軸である。
また、上腕50Rおよび上腕50Lのそれぞれの先端には、肘関節52Rおよび肘関節52Lが設けられる。図示は省略するが、肘関節52Rおよび肘関節52Lは、それぞれ1軸の自由度を有し、この軸(ピッチ軸)の軸回りにおいて前腕54Rおよび前腕54Lの角度を制御できる。
前腕54Rおよび前腕54Lのそれぞれの先端には、人の手に相当するハンド56Rおよびハンド56Lがそれぞれ設けられる。これらのハンド56Rおよび56Lは、詳細な図示は省略するが、開閉可能に構成され、それによってロボット10は、ハンド56Rおよび56Lを用いて物体を把持または挟持することができる。ただし、ハンド56R、56Lの形状は実施例の形状に限らず、人の手に酷似した形状や機能を持たせるようにしてもよい。
また、図示は省略するが、台車30の前面、肩関節48Rと肩関節48Lとを含む肩に相当する部位、上腕50R、上腕50L、前腕54R、前腕54L、ハンド56Rおよびハンド56Lには、それぞれ、接触センサ58(図3で包括的に示す)が設けられる。台車30の前面の接触センサ58は、台車30への人間16や他の障害物の接触を検知する。したがって、ロボット10は、その自身の移動中に障害物との接触が有ると、それを検知し、直ちに車輪32の駆動を停止してロボット10の移動を急停止させることができる。また、その他の接触センサ58は、当該各部位に触れたかどうかを検知する。
胴体42の中央上部(人の首に相当する位置)には首関節60が設けられ、さらにその上には頭部62が設けられる。図示は省略するが、首関節60は、3軸の自由度を有し、3軸の各軸廻りに角度制御可能である。或る軸(ヨー軸)はロボット10の真上(鉛直上向き)に向かう軸であり、他の2軸(ピッチ軸、ロール軸)は、それぞれ、それと異なる方向で直交する軸である。
頭部62には、人の口に相当する位置に、スピーカ64が設けられる。スピーカ64は、ロボット10が、それの周辺の人に対して音声によってコミュニケーションをとるために用いられる。また、人の耳に相当する位置には、マイク66Rおよびマイク66Lが設けられる。以下、右のマイク66Rと左のマイク66Lとをまとめてマイク66ということがある。マイク66は、周囲の音、とりわけコミュニケーションを実行する対象である人間16の音声を取り込む。さらに、人の目に相当する位置には、右の眼球部68Rおよび左の眼球部68Lが設けられる。右の眼球部68Rおよび左の眼球部68Lは、それぞれ右の眼カメラ70Rおよび左の眼カメラ70Lを含む。以下、右の眼球部68Rと左の眼球部68Lとをまとめて眼球部68ということがある。また、右の眼カメラ70Rと左の眼カメラ70Lとをまとめて眼カメラ70ということがある。
眼カメラ70は、ロボット10に接近した人の顔や他の部分ないし物体などを撮影して、それに対応する映像信号を取り込む。この実施例では、ロボット10は、この眼カメラ70からの映像信号によって、人の左右両目のそれぞれの視線方向(ベクトル)を検出する。
また、眼カメラ70は、上述した全方位カメラ46と同様のカメラを用いることができる。たとえば、眼カメラ70は、眼球部68内に固定され、眼球部68は、眼球支持部(図示せず)を介して頭部62内の所定位置に取り付けられる。図示は省略するが、眼球支持部は、2軸の自由度を有し、それらの各軸廻りに角度制御可能である。たとえば、この2軸の一方は、頭部62の上に向かう方向の軸(ヨー軸)であり、他方は、一方の軸に直交しかつ頭部62の正面側(顔)が向く方向に直行する方向の軸(ピッチ軸)である。眼球支持部がこの2軸の各軸廻りに回転されることによって、眼球部68ないし眼カメラ70の先端(正面)側が変位され、カメラ軸すなわち視線方向が移動される。なお、上述のスピーカ64、マイク66および眼カメラ70の設置位置は、当該部位に限定されず、適宜な位置に設けられてよい。
このように、この実施例のロボット10は、車輪32の独立2軸駆動、肩関節48の3自由度(左右で6自由度)、肘関節52の1自由度(左右で2自由度)、首関節60の3自由度および眼球支持部の2自由度(左右で4自由度)の合計17自由度を有する。
図3はロボット10の電気的な構成を示すブロック図である。この図3を参照して、ロボット10は、CPU80を含む。CPU80は、マイクロコンピュータ或いはプロセッサとも呼ばれ、バス82を介して、メモリ84、モータ制御ボード86、センサ入力/出力ボード88および音声入力/出力ボード90に接続される。
メモリ84は、図示は省略をするが、ROM、HDDおよびRAMを含む。ROMおよびHDDには、後述の各種プログラムが予め記憶される。
モータ制御ボード86は、たとえばDSPで構成され、各腕や首関節60および眼球部68などの各軸モータの駆動を制御する。すなわち、モータ制御ボード86は、CPU80からの制御データを受け、右眼球部68Rの2軸のそれぞれの角度を制御する2つのモータ(図3では、まとめて「右眼球モータ92」と示す)の回転角度を制御する。同様にして、モータ制御ボード86は、CPU80からの制御データを受け、左眼球部68Lの2軸のそれぞれの角度を制御する2つのモータ(図3では、まとめて「左眼球モータ94」と示す)の回転角度を制御する。
また、モータ制御ボード86は、CPU80からの制御データを受け、肩関節48Rの直交する3軸のそれぞれの角度を制御する3つのモータと肘関節52Rの角度を制御する1つのモータとの計4つのモータ(図3では、まとめて「右腕モータ96」と示す)の回転角度を制御する。同様にして、モータ制御ボード86は、CPU80からの制御データを受け、肩関節48Lの直交する3軸のそれぞれの角度を制御する3つのモータと肘関節52Lの角度を制御する1つのモータとの計4つのモータ(図3では、まとめて「左腕モータ98」と示す)の回転角度を制御する。
さらに、モータ制御ボード86は、CPU80からの制御データを受け、首関節60の直交する3軸のそれぞれの角度を制御する3つのモータ(図3では、まとめて「頭部モータ100」と示す)の回転角度を制御する。そして、モータ制御ボード86は、CPU80からの制御データを受け、車輪32を駆動する2つのモータ(図3では、まとめて「車輪モータ36」と示す)の回転角度を制御する。
モータ制御ボード86にはさらにハンドアクチュエータ108が結合され、モータ制御ボード86は、CPU80からの制御データを受け、ハンド56R、56Lの開閉を制御する。
センサ入力/出力ボード88は、モータ制御ボード86と同様に、DSPで構成され、各センサからの信号を取り込んでCPU80に与える。すなわち、距離センサ40のそれぞれからの反射時間に関するデータがこのセンサ入力/出力ボード88を通じてCPU80に入力される。また、全方位カメラ46からの映像信号が、必要に応じてセンサ入力/出力ボード88で所定の処理を施してからCPU80に入力される。眼カメラ70からの映像信号も、同様にして、CPU80に入力される。また、上述した複数の接触センサ58(図3では、まとめて「接触センサ58」と示す)からの信号がセンサ入力/出力ボード88を介してCPU80に与えられる。音声入力/出力ボード90もまた、同様に、DSPで構成され、CPU80から与えられる音声合成データに従った音声または声がスピーカ64から出力される。また、マイク66からの音声入力が、音声入力/出力ボード90を介してCPU80に与えられる。
また、CPU80は、バス82を介して通信LANボード102に接続される。通信LANボード102は、たとえばDSPで構成され、CPU80から与えられた送信データを無線通信モジュール104に与え、無線通信モジュール104は送信データを、ネットワークを介してサーバ(図示せず)等に送信する。また、通信LANボード102は、無線通信モジュール104を介してデータを受信し、受信したデータをCPU80に与える。
図5は図2に示すコンピュータ14におけるメモリ16のメモリマップの一例を示す図解図であり、メモリ16はプログラム記憶領域202およびデータ記憶領域204を含む。プログラム記憶領域202には、上で説明した特開2012‐215555号が開示している計測プログラム206が記憶されていて、この計測プログラム206は推定プログラムおよび解析プログラムを含む。プログラム記憶領域202はさらに、図6に詳しく示すサービス提供プログラム208を含む。
データ記憶領域204には、計測データバッファ210が設けられると共に、地図データ212が記憶される。計測データバッファ210には、上で説明したような人追跡システムによる計測結果、各対象の状態や属性/プロファイルを示す情報であり、状態としての位置、移動方向、3次元形状および姿勢、ならびに属性/プロファイルとしての身長、性別および大人/子供の区別がストアされる。さらに、対象が「1人」であるかグループに属するか、グループだとしたら「友達同士」、「家族連れ」、「カップル」のどのカテゴリに属するかなどのデータを含む。地図データ212は、このサービス提供ロボットシステム100が適用される場所、イベント会場、ショッピングセンタなどの商業施設などの地図であり、ロボット10や人の位置を判別するためなどに使用される。
データ記憶領域204の各種リストデータ領域214には、いずれも後述するサービス提供済みリストLserved、サービス待ちリストLwait、停止している人のリストLstopなどが、更新可能に記憶されている。
なお、データ記憶領域204には、上述のような計測データを得るために必要な種々のデータ、たとえばパーティクルフィルタ、3次元形状モデルデータベース(DB)などが記憶されるのであるが、ここでは特開2012‐215555号を引用することによって、省略する。
図6を参照して、サービス提供処理の最初のステップS1では、コンピュータ14は、サービス提供済みリストLservedを初期化する。このサービス提供済みリストLservedは、ロボット10によって既にサービスの提供を受けた人のリストであり、上述のデータ記憶領域204(図5)に記憶されている。
そして、次のステップS3において、コンピュータ14は、図5に示す計測データバッファ210から、現時刻からΔt秒前までの、すべての人の位置情報(id,x,y,z)を取得する。ただし、idは各人の識別番号であり、xはx座標、yはy座標であり、zは人の背の高さである。なお、図1のショッピングモールにおいて、紙面の幅方向がx軸(x座標)であり、紙面の奥行方向がY軸(y座標)である。
次のステップS5において、コンピュータ14は、サービス待ちリストLwaitを作成する。このサービス待ちリストLwaitは、ロボット10によるサービスの提供を待っている人々のリストであり、具体的には図7に示す方法で作成される。サービス待ちリストLwaitは、人とロボットの位置関係に基づいて作成するが、リストLwaitでは、優先度の高い人idが先頭にリストアップされる。
サービス待ちリストLwaitの作成方法を説明する前に、ここで、優先度について、図8‐図11を参照して説明する。
図8の例は、ロボット10の周囲に人々(塗りつぶした円で示す。)が弧を作るケースであり、このケースの場合、人同士の距離が十分近く、全体として弧を形成する。正面の一番近い人の優先度が最も高く、正面からの角度が大きくなるにつれて優先度が小さくなる。なお、図8‐図11における数字は、そのような優先度を表している。数値が小さいほど優先度が高い。
図9の例は、該当する人(塗りつぶした円で示す。)がロボット10から離れて待っているケースである。つまり、ロボット10の一番正面近くにいる人(図9において塗りつぶしていない円「1」、「2」で示す。)とは、弧は形成しないが、少し離れた場所で待っているケースである。このケースに当てはまる人々は,ロボット10を直接見通せる(ロボットと人の間に別の人を挟まない)位置に立ち、最初の弧にいる人々よりも離れた位置へ立っている。この位置にいる人々同士が、弧を形成する場合もある(図9中の「3」、「4」を繋ぐ1点鎖線)。
図10の例は、該当する人(塗りつぶした円で示す。)がロボット10が見えない位置に立っているケースである。このケースでは、その人は弧状には存在せず、ロボット10を直接見通すことができない(図10において塗りつぶしていない円で示す他の人々の存在によって)。図10の人は、ロボット10によるサービスを待っている人には含まれず、したがって優先度を持つことがない。
図11の例は、図9の例が複数存在するケースである。このケースの場合、まず弧の検出を行い、近い弧から順に順番を決定する。次の弧は、ロボット10に近い順に決定される。この場合も、ロボット10から見て弧(図11で塗りつぶしていない円で示す「1」、「2」で形成される。)の影にいる人(塗りつぶした円で示す人の内左端の人)に対して優先度は付与されない。
図8‐図11を前提にして、ここで、図7を参照して、ステップS5におけるサービス待ちリストLwaitの作成方法を説明する。
図7の最初のステップS21では、コンピュータ14は、サービス待ちリストLwaitを初期化する。
次のステップS23で、コンピュータ14は、ステップS3(図6)で取得した現時刻からΔt秒前までの各人の位置情報(t,id,x,y,z)に基づいて、各人の移動速度(Δt秒間に移動した距離/t)を求め、Δt秒の間停止している(移動していない)人々のリストLstop(={id1、id2、…})を作成する。
ステップS25では、コンピュータ14は、ステップS23で作成した停止している人のリストLstopの内、ロボット10から所定距離d以上離れている人のidを削除する。つまり、ロボット10から所定距離以内に存在する人のみをリストLstopにリストアップする。ロボット10から遠いと、ロボット10によるサービスを待っている人とは思えないからである。
そして、ステップS27でコンピュータ14は、リストLstopの内、ロボット10の正面でかつ最も近い人Pseed(図8でいえば「1」で示す人)を算出する。
次のステップS29では、コンピュータ14は、人Pseedを中心として弧を形成する人(図8の例でいえば、「2」‐「7」で示す塗りつぶした円で表わす人)をリストLstopから抜き出して、リストLstopから削除する。
そして、ステップS31において、コンピュータ14は、ステップS29で抜き出した人を、弧の優先度に従って、待ちリストLwaitに追加する(図8の例)。
ただし、弧によってロボット10が見えなくなる人、図10において「4」で示す人の後ろにいる人や図11において「1」および「2」で作るこの後ろにいる人を、停止している人のリストLstopから削除する(ステップS33)。これらの人は、先に説明したように、ロボット10によるサービス提供に対して優先度を持たないからである。
ステップS35でリストLstopに未だ処理すべき人が存在すると判断したときは、先のステップS27に戻り、そうでなければ、この図7のサブルーチンは終了する。
図6に戻って、ステップS7では、コンピュータ14は、ステップS5で作成した待ちリストLwaitにリストアップされていてかつ済みリストLservedにリストアップされていない人の内、最も高い優先度を保有している人を、サービス提供対象者Ptargetとして選択する。つまり、既にサービスの提供を受けた人を除いて、待ちリストLwait中で最も高い優先度の人を対象者Ptargetとして特定する。
もし、ステップS7で対象者Ptargetが決められない場合、つまり、ステップS7で適用する条件に該当する人がいない場合、たとえば待ちリストLwaitにリストアップされている人がいない場合など、ステップS11において、コンピュータ14は、ステップS7とは別に、ロボット10が提供するサービスに固有の方法で対象者Ptargetを決定する。この場合には、済リストLservedに載っている人を除外しなくてもよい。つまり、ステップS7で対象者Ptargetを決められなかったときには、ステップS11で自由に対象者Ptargetを決める。それによって、ロボット10が動作していない状態を可及的防止するようにした。
そして、ステップS13でコンピュータ14は、再び、対象者Ptargetが存在するかどうか、つまり、ステップS11で対象者を決定できたかどうか、判断する。
ステップS13で“YES”を判断したときは、先のステップS9で“YES”と反したときと同様に、ステップS15において、ロボット10によって、対象者Ptargetに対してサービスを提供させる。ロボット10は、たとえば、ちらしを配ったり、イベント情報を提供したり、道案内をしたり、店舗や商品の宣伝をしたり、種々のサービスを提供することができる。
ステップS15でロボット10によるサービスの提供を受けた人のidを済リストLservedに追加する。
そして、ステップS19においてサービスの終了(たとえば、待ちリストLwait中のすべての人に対してロボット10がサービスを提供したときなど)を判断したとき、サービス提供処理を終了する。さもなければ、ステップS3に戻って上述の動作を繰り返す。
なお、この発明に利用できるコミニュケーションロボットは、図3および図4の実施例で説明したロボット10に限定されるものではない。他の形式や構造のロボットが利用できる。
さらに、ロボット10の周囲の人の位置や姿勢などを検出するための人追跡システムも、実施例で説明したシステムに限定されるものではない。他の構成の人追跡システムが利用されてもよい。
さらに、実施例では遠隔操作コンピュータ14がロボット10に命令を与えてサービスを提供させるようにしたが、コンピュータ14に代わって、ロボット10たとえば図4のCPU80が図6のサービス提供処理や図7の待ちリスト作成の動作を制御するようにしてもよい。
10 …ロボット
12 …距離画像センサ
14 …コンピュータ
100 …サービス提供ロボットシステム

Claims (4)

  1. ロボットが人に対してサービスを提供するサービス提供ロボットシステムであって、
    人追跡システムによって取得したそれぞれの人の位置情報に基づいて一定時間停止している人々を含むリストを作成するリスト作成部、
    前記リストに含まれる人であって前記ロボットからの距離が所定値以上の人を前記リストから削除する第1削除部、
    前記第1削除部によって削除されずに前記リストに残った人の内、前記ロボットの正面でかつ前記ロボットから最も近い人を算出する算出部、
    前記最も近い人を中心として弧を形成する人を前記リストから抜き出して、前記弧の優先度に従ってサービス待ちリストに追加するサービス待ちリスト作成部、
    前記サービス待ちリストに挙げられていてかつ未だサービスを提供されていない人の内、最も高い優先度の人をサービス提供対象として選択する選択部、および
    前記選択部で選択された前記サービス提供対象に対してロボットにサービスの提供を行わせるサービス提供制御部を備える、サービス提供ロボットシステム。
  2. 前記リストに挙げられているが前記弧によって前記ロボットが見えなくなる人を前記リストから削除する第2削除部をさらに備える、請求項1記載のサービス提供ロボットシステム。
  3. 前記弧は前記最も近い人を中心として前記ロボットの進行方向とは逆方向に広がる弧である、請求項1または2記載のサービス提供ロボットシステム。
  4. ロボットが人に対してサービスを提供するサービス提供ロボットシステムのコンピュータによって実行可能なプログラムであって、前記コンピュータを、
    人追跡システムによって取得したそれぞれの人の位置情報に基づいて一定時間停止している人々を含むリストを作成するリスト作成部、
    前記リストに含まれる人であって前記ロボットからの距離が所定値以上の人を前記リストから削除する第1削除部、
    前記第1削除部によって削除されずに前記リストに残った人の内、前記ロボットの正面でかつ前記ロボットから最も近い人を算出する算出部、
    前記最も近い人を中心として弧を形成する人を前記リストから抜き出して、前記弧の優先度に従ってサービス待ちリストに追加するサービス待ちリスト作成部、
    前記サービス待ちリストに挙げられていてかつ未だサービスを提供されていない人の内、最も高い優先度の人をサービス提供対象として選択する選択部、および
    前記選択部で選択された前記サービス提供対象に対してロボットにサービスの提供を行わせるサービス提供制御部として機能させる、サービス提供プログラム。
JP2016059440A 2016-03-24 2016-03-24 サービス提供ロボットシステム Active JP6893630B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016059440A JP6893630B2 (ja) 2016-03-24 2016-03-24 サービス提供ロボットシステム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016059440A JP6893630B2 (ja) 2016-03-24 2016-03-24 サービス提供ロボットシステム

Publications (2)

Publication Number Publication Date
JP2017170568A JP2017170568A (ja) 2017-09-28
JP6893630B2 true JP6893630B2 (ja) 2021-06-23

Family

ID=59971639

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016059440A Active JP6893630B2 (ja) 2016-03-24 2016-03-24 サービス提供ロボットシステム

Country Status (1)

Country Link
JP (1) JP6893630B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7051556B2 (ja) 2018-04-25 2022-04-11 株式会社日立製作所 サービス提供システム、情報処理装置、及びサービス提供システムの制御方法
WO2020262721A1 (ko) * 2019-06-25 2020-12-30 엘지전자 주식회사 인공 지능을 이용하여, 복수의 로봇들을 제어하는 관제 시스템
US20230072586A1 (en) * 2020-01-30 2023-03-09 Sony Group Corporation Guidance device, guidance method, and program
JP2022148264A (ja) * 2021-03-24 2022-10-06 トヨタ自動車株式会社 走行装置、制御方法及びプログラム
CN117301074B (zh) * 2023-11-17 2024-04-30 浙江孚宝智能科技有限公司 智能机器人的控制方法及芯片

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4072033B2 (ja) * 2002-09-24 2008-04-02 本田技研工業株式会社 受付案内ロボット装置
JP2005131713A (ja) * 2003-10-28 2005-05-26 Advanced Telecommunication Research Institute International コミュニケーションロボット
JPWO2005076661A1 (ja) * 2004-02-10 2008-01-10 三菱電機エンジニアリング株式会社 超指向性スピーカ搭載型移動体
JP2006221379A (ja) * 2005-02-09 2006-08-24 Mitsubishi Heavy Ind Ltd 行動認識システム
JP2007152442A (ja) * 2005-11-30 2007-06-21 Mitsubishi Heavy Ind Ltd ロボット案内システム
JP2007160427A (ja) * 2005-12-12 2007-06-28 Advanced Telecommunication Research Institute International ロボット制御システム
JP4957799B2 (ja) * 2007-06-15 2012-06-20 富士通株式会社 ロボットおよび案内方法
JP4677593B2 (ja) * 2007-08-29 2011-04-27 株式会社国際電気通信基礎技術研究所 コミュニケーションロボット
JP5633003B2 (ja) * 2010-04-08 2014-12-03 株式会社国際電気通信基礎技術研究所 記録制御装置および記録制御プログラム
JP5561066B2 (ja) * 2010-09-27 2014-07-30 富士通株式会社 人物検出装置、人物検出方法及びプログラム

Also Published As

Publication number Publication date
JP2017170568A (ja) 2017-09-28

Similar Documents

Publication Publication Date Title
JP6893630B2 (ja) サービス提供ロボットシステム
KR102298582B1 (ko) 센서 데이터를 이용하여 청소 동선을 결정하는 인공 지능 로봇 및 그 방법
KR102305206B1 (ko) 인공 지능을 통해 바닥 상황을 고려하여 청소하는 로봇 청소기 및 그 방법
US11422566B2 (en) Artificial intelligence robot cleaner
JP5366048B2 (ja) 情報提供システム
JP5318623B2 (ja) 遠隔操作装置および遠隔操作プログラム
JP6793905B2 (ja) ロボットの行動シミュレーション装置
JP5764795B2 (ja) 移動ロボット、移動ロボット用の学習システムおよび移動ロボットの行動学習方法
KR20190106891A (ko) 인공 지능 모니터링 장치 및 그의 동작 방법
US11580385B2 (en) Artificial intelligence apparatus for cleaning in consideration of user's action and method for the same
US11540690B2 (en) Artificial intelligence robot cleaner
US11385643B2 (en) Artificial intelligence moving agent
KR20190106874A (ko) 인공 지능을 통해 구속 상황을 인식하는 로봇 청소기 및 그의 동작 방법
KR20190093529A (ko) 공기 청정기의 배치 위치를 가이드하는 인공 지능 장치 및 그의 동작 방법
JP6134895B2 (ja) ロボット制御システム、ロボット制御プログラムおよび説明ロボット
JP6134894B2 (ja) ロボット制御システムおよびロボット
US11318614B2 (en) Robot cleaner and operating method thereof
JP6150429B2 (ja) ロボット制御システム、ロボット、出力制御プログラムおよび出力制御方法
KR20190104008A (ko) 인공 지능을 이용하여, 청소하는 로봇 청소기 및 그 동작 방법
CN112401747A (zh) 通过人工智能避开卡住情况的机器人清洁器及其操作方法
JP6713637B2 (ja) サービス提供ロボットシステム
KR20190094311A (ko) 인공 지능 로봇 및 그의 동작 방법
JP6142307B2 (ja) 注目対象推定システムならびにロボットおよび制御プログラム
JP7317436B2 (ja) ロボット、ロボット制御プログラムおよびロボット制御方法
JP6707255B2 (ja) サービス提供ロボットシステム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190206

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200121

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200305

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200714

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200908

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210105

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210427

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210512

R150 Certificate of patent or registration of utility model

Ref document number: 6893630

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150