JP2007152442A - Robot guiding system - Google Patents
Robot guiding system Download PDFInfo
- Publication number
- JP2007152442A JP2007152442A JP2005347321A JP2005347321A JP2007152442A JP 2007152442 A JP2007152442 A JP 2007152442A JP 2005347321 A JP2005347321 A JP 2005347321A JP 2005347321 A JP2005347321 A JP 2005347321A JP 2007152442 A JP2007152442 A JP 2007152442A
- Authority
- JP
- Japan
- Prior art keywords
- person
- robot
- area
- human
- time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Manipulator (AREA)
Abstract
Description
本発明は、ロボット案内システムに関し、展示会場、展覧会場、自動販売機設置場所、切符売場などで、ロボットが来場者に案内を行うロボット案内システムに関する。 The present invention relates to a robot guidance system, and more particularly to a robot guidance system in which a robot guides visitors at an exhibition hall, an exhibition hall, a vending machine installation place, a ticket sales hall, and the like.
例えば、展覧会場などにおいて、ロボットが来場者に案内や推薦を行うロボットシステムが、特許文献1に開示されている。このロボットシステムは、複数の自立移動ロボット本体とデータ取得サーバを含み、説明者及び訪問者ごとに赤外線タグと人間用観測装置が設けられる。人間用観測装置は、それを装着した人の視点から他の人とのインタラクションが観測され、検知範囲内の赤外線タグなどの識別情報や位置情報が取得されるとともに、本人の生体データなども取得される。ロボット本体は、視覚、聴覚、触覚などを有するヒューマノイド型であり、ロボットの視点から説明員及び訪問者の状況などを観測する。会場のあらゆるところにセンサ類が設けられたユビキタスセンサ環境において、観測されたインタラクションがデータ取得サーバを介して、インタラクションDBに記録される。インタラクションDBに基づいて、ロボット本体は、案内ないし推薦情報やインタラクション対象物に関する情報を、身振り又は音声によって提示する。
For example,
また、特許文献2に開示された「注目情報計測方法及び装置並びにそれを用いた各種システム」は、展示品や陳列している商品などに対する注目度合いを求めるシステムである。そのため、テレビカメラにより、人間を抽出し追跡し計測範囲内での移動経路や滞在時間、停止時間、視線方向などから注目度を蓄積し、売り上げなどとの関係を解析する。
しかし、特許文献1では、会場のあらゆる場所にセンサ類を設けたり、ロボットとは別にデータ取得サーバやインタラクションDBを設けるため、システムが大掛かりである。また、説明員や訪問者に携帯型コンピュータを装備した人間用観測装置を背負わせ、赤外線タグを胸などに装着させるため、煩わしい。
However, in
また、特許文献2では、入場者の移動経路や滞在時間で商品への注目度を判定するため、その場所を通っただけの人やゆっくりうろうろしている人の区別が付かない。
Moreover, in
そこで、本発明の課題は、人が展示物や案内板などを見ているかどうか、見るために待っているかどうかなどをロボットシステム側で認識し、移動ロボットが案内サービスを適切なタイミングで提供することである。 Therefore, an object of the present invention is to recognize on the robot system side whether or not a person is looking at an exhibit or a guide board, and whether or not to wait for viewing, and the mobile robot provides a guidance service at an appropriate timing. That is.
上述した課題を解決するための第1手段は、1以上の人間を撮像する1以上のカメラと、人間を案内する移動ロボットを含むロボット案内システムにおいて、人間の位置を計算する位置計算装置と、人間が所定の領域内に滞在した時間を計測するエリア滞在時間計測装置と、人間の行動内容を識別する行動識別装置と、行動識別装置による行動識別結果に基づいてロボットを制御するロボット制御プラットフォームとを備え、物品周辺領域に、物品を設置する領域に接する第1領域と、第1領域に接する第2領域とを定め、カメラは人間を追尾し、移動ロボットは第1及び第2領域に滞在又は静止する人間に対して案内を行うことである。 A first means for solving the above-mentioned problem is a position calculation device that calculates the position of a human in a robot guidance system including one or more cameras that image one or more humans and a mobile robot that guides humans, An area stay time measuring device that measures the time that a human has stayed in a predetermined area, a behavior identification device that identifies the content of human behavior, and a robot control platform that controls the robot based on the behavior identification result by the behavior identification device; A first area in contact with the area where the article is placed and a second area in contact with the first area, the camera tracks a person, and the mobile robot stays in the first and second areas Alternatively, guidance is given to a stationary human.
第2手段は、第1手段において、位置計算装置は、2以上のカメラのステレオ視により人間の頭部重心を検出し、頭部重心により人間を追尾することである。 The second means is that, in the first means, the position calculation device detects the human head center of gravity by stereo vision of two or more cameras and tracks the human by the head center of gravity.
第3手段は、第1手段において、物品は、展覧物、展示物、表示板又は機器であり、第1領域は、人間が展覧物、展示物、表示板又は機器を見る領域であり、第2領域は、人間が展覧物、展示物、表示板又は機器を見るために待つ領域であることである。
The third means is the first means, wherein the article is an exhibition, an exhibition, a display board or a device, and the first area is an area where a person views the exhibition, the exhibition, the display board or the equipment,
第4手段は、第1手段において、移動ロボットは、第1領域での連続滞在時間又は連続静止時間が所定閾値を越えた人間に対して案内を行うことである。 The fourth means is that, in the first means, the mobile robot provides guidance to a person whose continuous stay time or continuous stationary time in the first region exceeds a predetermined threshold.
第5手段は、第4手段において、所定閾値は、連続滞在時間又は連続静止時間のヒストグラムの極小値であることである。 The fifth means is that, in the fourth means, the predetermined threshold is a minimum value of a histogram of continuous stay time or continuous rest time.
第6手段は、第4手段において、ロボットは、人間に対し、物品に注目したか否かについて質問を発話し、人間を、物品に注目したグループと、物品に注目しなかったグループに分類し、各グループ毎に、第1領域での連続滞在時間又は連続静止時間のヒストグラムを作成し、当該2つのヒストグラムが交わる連続滞在時間又は連続静止時間を所定閾値とすることである。 In the fourth means, in the fourth means, the robot speaks a question as to whether or not attention has been paid to the article, and classifies the person into a group that has paid attention to the article and a group that has not paid attention to the article. For each group, a histogram of continuous stay time or continuous stationary time in the first region is created, and the continuous stay time or continuous stationary time at which the two histograms intersect is set as a predetermined threshold.
第7手段は、第1手段において、物品の周囲領域を複数のブロックに分割し、その中から第1及び第2領域のためにブロックを選択することである。 The seventh means is to divide the surrounding area of the article into a plurality of blocks and select a block for the first and second areas from among the plurality of blocks.
第8手段は、第1手段のロボット案内システムを使用するロボット案内方法であって、
行動識別装置側が、人間が、第1領域において、展覧物、展示物、表示板又は機器を見ていると判定すべき、人間の静止時間の第1閾値を定める第1ステップと、人間が、第1領域において、展覧物、展示物、表示板又は機器を興味を持って見ていると判定すべき、人間の静止時間の第2閾値を定める第2ステップと、人間の、第1領域における静止時間が、第2閾値を越えたとき、移動ロボットが人間に案内サービスを提供する第3ステップと、
人間の、第1領域における静止時間が、第2閾値を越えたとき、移動ロボットが、第2領域にいる別の人間に別の案内サービスを提供する第4ステップとを含む。
The eighth means is a robot guidance method using the robot guidance system of the first means,
A first step for determining a first threshold value of a human stationary time, on which the action identification device side determines that the person is looking at an exhibition, an exhibit, a display board or a device in the first area; A second step for determining a second threshold of human rest time, which should be determined that the exhibition, exhibit, display board or device is viewed with interest in the first region; A third step in which the mobile robot provides a guidance service to a human when the stationary time exceeds a second threshold;
A fourth step in which the mobile robot provides another guidance service to another person in the second area when the stationary time of the person in the first area exceeds the second threshold value.
第9手段は、第8手段において、行動識別装置側が、人間が、第1領域において、展覧物、展示物、表示板又は機器を見ている平均時間を定める第1ステップと、人間の、第1領域における静止時間が、平均時間を越えたとき、移動ロボットが人間に案内サービスを提供する第2ステップと、人間の、第1領域における静止時間が、平均時間を越えたとき、移動ロボットが、第2領域にいる別の人間に別の案内サービスを提供する第3ステップとを含む。 The ninth means is the eighth means, wherein the action identifying device side determines a mean time during which the human is looking at an exhibition, an exhibit, a display board or a device in the first area; When the stationary time in one area exceeds the average time, the second step in which the mobile robot provides a guidance service to a human, and when the stationary time in the first area of the human exceeds the average time, the mobile robot And a third step of providing another guidance service to another person in the second area.
第1手段によれば、展示物などを見ている人および見るために待っている人に適切な案内を行うことができる。 According to the first means, it is possible to provide appropriate guidance to a person who is viewing an exhibition or the like and a person who is waiting to see the exhibition.
第2手段によれば、確実に人を追尾することができる。 According to the second means, it is possible to reliably track a person.
第3手段によれば、展示物などを見る人に、その場にふさわしい案内をおこなうことができる。 According to the third means, it is possible to give guidance suitable for the place to the person who sees the exhibits.
第4手段によれば、会場内などでの渋滞を防止などすることができる。 According to the fourth means, it is possible to prevent traffic jams in the venue.
第5手段によれば、展示物などをどれだけ長い時間見ていれば案内を行うかの基準が明確になる。 According to the fifth means, the criterion for how long to see an exhibit etc. for guidance is clarified.
第6手段によれば、展示物などをどれだけ長い時間見ていれば案内を行うかの基準がより一層明確になる。 According to the sixth means, the criterion for how long to see an exhibit etc. for guidance is further clarified.
第7手段によれば、案内を行う必要の場所を適切に定めることができる。 According to the seventh means, it is possible to appropriately determine a place where guidance is required.
第8手段によれば、人が展示物などを「見ている」か否かを判定することが出来、さらに「大きな興味をもって見ている」ことも判定できるため、「見ている」人と、「待っている」人に多様な案内サービスを提供できる。 According to the eighth means, it is possible to determine whether or not a person is “seeing” an exhibit or the like, and it is also possible to determine that “a person is watching with great interest”. A variety of guidance services can be provided to "waiting" people.
第9手段によれば、人が展示物などを「見ている」平均時間を定めることにより、平均時間を越えたときの案内サービスを、予めロボットにプログラムさせることが出来る。 According to the ninth means, it is possible to cause the robot to program in advance a guidance service when the average time is exceeded by determining an average time during which a person “sees” an exhibition or the like.
本発明によれば、人が展示物や案内板などを見ているかどうか、見るために待っているかどうかなどをロボットシステム側で認識して、移動ロボットが案内サービスを適切なタイミングで提供することができる。 According to the present invention, the robot system recognizes whether or not a person is looking at an exhibit or a guide board, whether it is waiting for viewing, etc., and the mobile robot provides a guidance service at an appropriate timing. Can do.
以下、図面を参照して本発明の実施の形態について説明する。但し、本実施形態に記載されている構成部品の寸法、材質、形状、その相対的配置等に特定的な記載があっても、本発明をそれに限定する趣旨ではない。特に、本実施形態では、展示会を例として説明するが、これに限らず、展覧会、表示板付近、自動販売機などの機器設置場所、切符売場など人が集まる場所一般での移動ロボットによる案内システムに利用可能である。 Embodiments of the present invention will be described below with reference to the drawings. However, even if there are specific descriptions in the dimensions, materials, shapes, relative arrangements, and the like of the component parts described in the present embodiment, the present invention is not intended to be limited thereto. In particular, in the present embodiment, an exhibition will be described as an example. However, the present invention is not limited to this, and is not limited to an exhibition. It can be used for a guidance system.
図1は、本実施形態のロボット案内システムのブロック図である。本システムは、1以上の人間を撮像する2以上のカメラCam0、Cam1、Cam2、Cam3、Cam4と、人間を案内する移動ロボット101とを含むロボット案内システムにおいて、人間の位置を計算する位置計算装置102と、人間が所定の領域内に滞在した時間を計測するエリア滞在時間計測装置103と、人間の行動内容を識別する行動識別装置104と、行動識別装置による行動識別結果に基づいてロボットを制御するロボット制御プラットフォーム105とを備え、物品周辺領域に、物品を設置する領域に接する第1領域と、第1領域に接する第2領域とを定め、カメラCam0、Cam1、Cam2、Cam3、Cam4は人間を追尾し、移動ロボット101は第1及び第2領域に滞在又は静止する人間に対して案内を行う。
FIG. 1 is a block diagram of the robot guidance system of this embodiment. This system is a position calculation device for calculating the position of a human in a robot guidance system including two or more cameras Cam0, Cam1, Cam2, Cam3, and Cam4 that capture one or more humans and a
図2は、人の位置を計算する位置計算装置102のブロック図である。本装置102は、1以上のカメラにより人間の頭部重心を検出し、頭部重心により人間を追尾する。そのため、カメラ230の画像の中から人画像を抽出し、頭部抽出部200において色情報や輝度変化情報から頭部を抽出し、頭部重心抽出部210において頭部の重心を抽出し、ステレオ視計算部220において各カメラの位置、向き、レンズパラメータを用いて頭部重心座標を人位置座標(X,Y,Z)とする。なお、カメラ数が1台でも、本発明は実施可能である。また、1台の場合は、ステレオ視にならないので、ステレオ視計算部220は人位置計算部220と読み替える。また、Cam0は、ロボットのカメラであり、精度が問題となるが、使用可能である。
FIG. 2 is a block diagram of the position calculation device 102 that calculates the position of a person. The apparatus 102 detects the center of gravity of the human head using one or more cameras, and tracks the person based on the center of gravity of the head. Therefore, a human image is extracted from the image of the
位置計算装置102の出力である人位置座標(X,Y,Z)は、エリア滞在時間計測装置103に入力され、人を追尾し、第1領域(展示物の近くの場所)及び第2領域(展示物から遠い場所)での滞在時間が計測される。
The human position coordinates (X, Y, Z), which is the output of the position calculation device 102, is input to the area stay
図3(A)には、エリア滞在時間計測装置103に入力される認識エリア情報を示す。展示会場は、展示物Xに近いエリアY(第1領域)と、遠いエリアZ(第2領域)に分けられる。
FIG. 3A shows recognition area information input to the area stay
図3(B)には、第1及び第2領域のブロック化を示す。展示物Xの周辺は、四角又は丸の複数のブロックに分割される。例えば、展示物の正面である四角ブロックY1及びY2を第1領域とし、残りの四角ブロックを第2領域としてもよい。また、人が集中しやすい丸ブロックY3を第1領域とし、残りの3つの丸ブロックを第2領域としてもよい。 FIG. 3B shows the blocking of the first and second areas. The periphery of the exhibit X is divided into a plurality of square or round blocks. For example, the square blocks Y1 and Y2 that are the front of the exhibit may be the first area, and the remaining square blocks may be the second area. Alternatively, the round block Y3 where people are likely to concentrate may be used as the first area, and the remaining three round blocks may be used as the second area.
滞在時間の計測結果は、行動識別装置104に入力され、行動認識結果(「見ている」、「待っている」など)が出力される。「見ている」ことは、第1領域に連続して滞在状態にある時間が所定閾値を越えていることで判定することができる。一方、「待っている」ことは、第2領域に連続して滞在している人を識別し、第2領域での連続滞在時間が別の所定閾値を越えていることで判定することができる。
The measurement result of the stay time is input to the
図4(A)には、滞在時間の閾値を定めるヒストグラムの一例を示す。このヒストグラムは、過去の多数の人の連続滞在時間の頻度をあらわしたものであり、ヒストグラムの極小値を閾値とすることができる。原点寄りのピークは、第1領域に滞在する人であって「見ていない」人のピーク(又は第2領域で「待っていない」人のピーク)である。もうひとつのピークは、第1領域に滞在する人であって「見ている」人のピーク(又は第2領域で「待っている」人のピーク)である。展示物ごとにヒストグラムを取れば、展示物ごとに閾値を異ならせ、最適な案内システムを構築することができる。 FIG. 4A shows an example of a histogram that defines a threshold for staying time. This histogram shows the frequency of continuous stay time of a large number of people in the past, and the minimum value of the histogram can be used as a threshold value. The peak near the origin is the peak of a person who stays in the first area and does not “see” (or the peak of a person who does not “wait” in the second area). The other peak is the peak of the person who is staying in the first area and “watching” (or the peak of the person “waiting” in the second area). If a histogram is taken for each exhibit, an optimum guidance system can be constructed by changing the threshold value for each exhibit.
図4(B)は、滞在時間の閾値を定める別のヒストグラムの一例である。エリア(第1領域)における「見ている」人のヒストグラムと、エリアにおける「見ていない」人のヒストグラムの交点を閾値とすることができる。ここに、実際に見ていたかどうかは、例えば、ロボットが人と対話して決定すればよい。これにより、図4(A)よりさらに識別制度が向上する。 FIG. 4B is an example of another histogram that defines a threshold for staying time. The intersection of the histogram of “watching” people in the area (first region) and the histogram of “not watching” people in the area can be used as a threshold value. Here, for example, whether the robot has actually been viewed may be determined by the robot interacting with a person. Thereby, the identification system is further improved as compared with FIG.
なお、計測エリアが広いと、待っている人、見ている人、待ってもいず見てもいない人(ゆっくりうろうろしている人)との区別がつきにくい。そこで、滞在時間に替えて連続静止時間(第1又は第2領域に、それぞれ連続して静止状態にある時間)のヒストグラムから静止時間の閾値を求めてもよい。 When the measurement area is large, it is difficult to distinguish between people who are waiting, people who are watching, people who are waiting and who are not watching (people who are slowly walking around). Therefore, the threshold value of the stationary time may be obtained from a histogram of continuous stationary time (time in which the first or second region is continuously stationary) instead of the staying time.
行動識別装置104から出力される行動認識結果は、高周波無線方式などにより、直接、又は、ロボット制御プラットフォーム5を介して、ロボット101へ送信され、人に対して案内サービスが行われる。
The action recognition result output from the
図5は、移動ロボット101の正面図である。このロボットの頭部2には、頭頂カメラ3と左右1対の正面カメラ5と、額下部の人間の眉の位置に1対のマイクロフォン4が配置される。胸部6には、縦中心線から離れて左右1対のスピーカ7が配置される。両腕9の肘や肩は、関節構造をとり、手先10で物を把持する。また、首も関節構造をとる。このロボットは、下肢はスカート12状のカバーであり電気回路などを収め、下肢最下部の左右2つの車輪14により、移動することができる。また、下肢上部には左右1対の障害物センサ(赤外線検知又は超音波検知)13により、障害物を自動的に回避して目的地へ自律的に移動する。
FIG. 5 is a front view of the
図6は、本実施形態の移動ロボット101のブロック図である。CPU21へ入力されるのは、頭頂カメラ3、正面カメラ5、マイクロフォン4、障害物センサ13、データ入出力20からの出力である。CPU21は、事故位置認識部22、指示点認識部23、音声認識部24、首・腕・手動認識部25、体方向認識部26、過去動作・位置データベースを有し、上述した入力に基づいて、首関節用駆動部28、スピーカ7、手関節用駆動部29、胸関節用駆動部30、車両用駆動部31を駆動する。コンピュータ制御により、このロボットが備えるコミュニケーション能力は、移動する人を検知したり、顔を検出する人検知能力;顔特徴を検出し、オーナー1人を含む所定数のユーザを識別する個人識別能;ワードスポッティング方式・会話シナリオに必要な連続単語認識や、アコースティックエコーキャンセラーによる人の声の認識などの音声認識能力;テキスト読み上げ方式・声の大きさなどの設定変更が可能な音声合成能力などである。また、移動能力は、生活支援を行うために、人を探し、人に寄って行く能力が与えられる。
FIG. 6 is a block diagram of the
[展示物がひとつの場合の案内]
図7は、ひとつの展示物についての移動ロボット1による案内例である。まず、S70において、行動識別装置4は、第1の領域にじっと静止して展示物を見ている人Aを認識したとする。人Aの静止時間が閾値(例えば、2分)を超えたので、行動識別装置4側では、人Aは「見ている」と認識する。次に、S71において、行動識別装置4側では、人Aを、「見ている」と認識後、第2の領域で人Bが「待っている」と認識したとする。この状態で、S72において、人Aが10分以上の静止時間で「見ている」状態で、人Bはまだ「待っている」とする。そこで、S73において、移動ロボット101は、人Aの行動認識結果を受信して、人Aは展示物に大きな興味を持っていると判断し、「あちらでレプリカを販売していますが」と発話して、移動を促す。さらに、S74において、移動ロボット101は、人Aの移動を認識したら、人Bに「もっと近くでどうぞ」と発話する。
[Guidance for a single exhibit]
FIG. 7 shows an example of guidance by the
以上説明したとおり、実施例1では、第1領域で「見ている」か否かの閾値は1〜2分程度である。その理由は、「見ていない」のに静止している人は、ボーとしている人だから、閾値は1〜2分程度であると考えられる。人Aの連続静止時間が10分以上となったということは、「見ている」時間が長いので大きな興味を持っていると判断する閾値が10分であり、この時間間隔は、「見ている」人の静止時間分布のピークであると考えられる。 As described above, in the first embodiment, the threshold value indicating whether or not the user is “looking” in the first region is about 1 to 2 minutes. The reason for this is that the person who is “not looking” but is still standing is a person who is bowing, so the threshold is considered to be about 1-2 minutes. The continuous stationary time of the person A is 10 minutes or more, because the “watching” time is long, the threshold value for judging that he / she is very interested is 10 minutes. It is thought that it is the peak of the distribution of stationary time of people.
[展示物が複数の場合の案内]
図8は、複数の展示物についての移動ロボット1による案内例である。まず、S60において、行動識別装置4側では、第1の領域で人Aの静止時間が閾値(例えば、2分)を超えたので、人Aは「見ている」と認識したとする。次に、S61において、人Aを「見ている」と認識後、5分後に第2の領域に「待っている」人Bを認識したとする。なお、人Aはまだ「見ている」状態であるとする。この状態で、S62において、移動ロボットA101は、自ら又はロボット制御プラットフォーム5を介したカメラ情報により、他の展示物の状況(空いているか否か)を調べる。もし空いていれば、S66に進む。
[Guidance for multiple exhibits]
FIG. 8 is an example of guidance by the
S66では、移動ロボット101は人Bに対して「他の展示が空いていますがどうですか?」と発話する。人Bが移動しなければ、後述するS63に進む。一方、人Bが移動すれば全処理を終了する。
In S66, the
一方、S62で他の展示物が空いていれなければ、S63に進む。 On the other hand, if no other exhibits are available in S62, the process proceeds to S63.
S63では、移動ロボット101は、人Bに向かって「あと5分ぐらいはお待ちください」と発話する。そこで、人Bはさらに5分待ったが、人Aはまだ見ており人Bもまだ待っているとする。S64において、移動ロボット101が、自ら及はロボット制御プラットフォーム5を介したカメラ情報により、そのこと認識したとする。そこで、S65において、移動ロボット101は、S65において、人Aにそろそろ交代してもらう胸の発話をおこなう。
In S63, the
以上説明した実施例2では、人Aが「見ている」展示物については、平均時間を10分と想定している。したがって、S61において、“7分後に第2の領域で「待っている」人Bを、行動識別装置4が認識したのであれば、ロボットは、S63において、「あと3分ぐらいはお待ちください」と人Bに知らせたはずである。
In the second embodiment described above, the average time is assumed to be 10 minutes for the exhibits that the person A “sees”. Therefore, in S61, if the
[第1および第2領域の設定]
図9(A)には、案内板Xが注目対象である場合の第1領域Y及び第2領域Zの設定例を示す。領域Yは案内板Xの正面中心から半径1mの範囲とし、領域Zは領域Yを囲み案内板Xの正面中心から半径2mの範囲とする。
[Setting of first and second areas]
FIG. 9A shows an example of setting the first region Y and the second region Z when the guide plate X is the target of attention. The region Y has a radius of 1 m from the front center of the guide plate X, and the region Z surrounds the region Y and has a radius of 2 m from the front center of the guide plate X.
図9(B)には、正面で操作する機器Xが注目対象である場合の第1領域Y及び第2領域Zの設定例を示す。領域Yは機器Xの正面幅分と機器X正面から前方に50cm離れた所までの矩形領域とし、領域Zは領域Yを囲み機器Xの正面から左右に1mまで離れた所までと、正面から前方に1.5m離れた所までの矩形領域とする。 FIG. 9B shows a setting example of the first region Y and the second region Z when the device X operated in front is the target of attention. The area Y is a rectangular area from the front width of the device X to a location 50 cm away from the front of the device X, and the region Z surrounds the region Y from the front of the device X up to 1 m to the left and right. A rectangular area up to 1.5m away from the front.
図9(C)には、正面と側面で操作する機器Xが注目対象である場合の第1領域Y及び第2領域Zの設定例を示す。領域Yの初期設定として、操作スイッチ等の設置場所に応じて、機器Xの正面に3つの矩形領域Y2、Y3、Y4と、機器Xの左右にひとつづつの矩形領域Y1、Y5を設ける。 FIG. 9C shows a setting example of the first region Y and the second region Z when the device X operated from the front and the side is the target of attention. As an initial setting of the area Y, three rectangular areas Y2, Y3, Y4 are provided in front of the device X and one rectangular area Y1, Y5 is provided on the left and right of the apparatus X according to the installation location of the operation switch or the like.
図9(D)には、正面と側面で操作する機器Xが注目対象である場合の第1領域Y及び第2領域Zの設定例を示す。図9(C)の初期設定に対して、領域Y1、Y3に人の集まりが悪いことが判明したため、それ以降、領域Y1、Y3を、エリア滞在時間計測装置3の認識エリアから除外したものである。
FIG. 9D shows a setting example of the first region Y and the second region Z in the case where the device X operated on the front and side is the target of attention. Since it turned out that people gathered in the areas Y1 and Y3 with respect to the initial setting in FIG. 9C, the areas Y1 and Y3 were excluded from the recognition area of the area stay
本発明は、展示会場、展覧会場、表示板付近、自動販売機など機器の付近、切符売り場など人が集まる場所一般での移動ロボットによる案内に利用可能である。 INDUSTRIAL APPLICABILITY The present invention can be used for guidance by a mobile robot in general places where people gather such as exhibition halls, exhibition halls, near display boards, in the vicinity of equipment such as vending machines, ticket sales halls, and the like.
2 頭部
3 頭頂カメラ
4 マイクロフォン
5 正面カメラ
6 胸部
7 スピーカ
9 腕
10 手先
12 スカート
13 障害物センサ
14 車輪
20 データ入出力
21 CPU
22 自己位置認識部
23 指示点認識部
24 音声認識部
25 首・腕・手動作認識部
26 体方方向認識部
27 過去動作・位置データベース
28 首関節用駆動部
29 手関節用駆動部
30 腕関節用駆動部
31 車両用駆動部
101 移動ロボット
102 位置計算装置
103 エリア滞在時間計測装置
104 行動識別装置
105 ロボット制御プラットフォーム
Cam0〜Cam4 カメラ
2
22 Self
Claims (9)
前記人間の位置を計算する位置計算装置と、
前記人間が所定の領域内に滞在した時間を計測するエリア滞在時間計測装置と、
前記人間の行動内容を識別する行動識別装置と、
前記行動識別装置による行動識別結果に基づいて前記ロボットを制御するロボット制御プラットフォームとを備え、
物品周辺領域に、物品を設置する領域に接する第1領域と、前記第1領域に接する第2領域とを定め、
前記カメラは前記人間を追尾し、前記移動ロボットは前記第1及び第2領域に滞在又は静止する前記人間に対して前記案内を行うことを特徴とするロボット案内システム。 In a robot guidance system including one or more cameras that image one or more humans and a mobile robot that guides the humans,
A position calculation device for calculating the position of the person;
An area stay time measuring device for measuring the time during which the person stays in a predetermined area;
An action identification device for identifying the human action content;
A robot control platform for controlling the robot based on a behavior identification result by the behavior identification device,
In the article peripheral area, a first area in contact with the area where the article is placed and a second area in contact with the first area are defined,
2. The robot guidance system according to claim 1, wherein the camera tracks the person, and the mobile robot performs the guidance for the person staying or standing still in the first and second areas.
前記位置計算装置は、前記2以上のカメラのステレオ視により前記人間の頭部重心を検出し、前記頭部重心により前記人間を追尾することを特徴とするロボット案内システム。 In claim 1,
The position calculation device detects the center of gravity of the human head by stereo viewing of the two or more cameras, and tracks the human by the center of gravity of the head.
前記物品は、展覧物、展示物、表示板又は機器であり、
前記第1領域は、前記人間が前記展覧物、展示物、表示板又は機器を見る領域であり、
前記第2領域は、前記人間が前記展示物、表示板又は機器を見るために待つ領域であることを特徴とするロボット案内システム。 In claim 1,
The article is an exhibition, an exhibit, a display board or a device,
The first region is a region where the person views the exhibition, exhibit, display board or device,
The robot guidance system according to claim 2, wherein the second area is an area where the person waits to see the exhibit, display board, or device.
前記移動ロボットは、前記第1領域での連続滞在時間又は連続静止時間が所定閾値を越えた前記人間に対して前記案内を行うことを特徴とするロボット案内システム。 In claim 1,
The robot guidance system according to claim 1, wherein the mobile robot performs the guidance to the person whose continuous stay time or continuous stationary time in the first region exceeds a predetermined threshold.
前記所定閾値は、前記連続滞在時間又は連続静止時間のヒストグラムの極小値であることを特徴とするロボット案内システム。 In claim 4,
The robot guidance system according to claim 1, wherein the predetermined threshold value is a minimum value of a histogram of the continuous stay time or continuous stationary time.
前記ロボットは、前記人間に対し、前記物品に注目したか否かについて質問を発話し、
前記人間を、前記物品に注目したグループと、前記物品に注目しなかったグループに分類し、
各グループ毎に、前記第1領域での前記連続滞在時間又は連続静止時間のヒストグラムを作成し、
当該2つのヒストグラムが交わる前記連続滞在時間又は連続静止時間を前記所定閾値とすることを特徴とするロボット案内システム。 In claim 4,
The robot speaks a question as to whether or not the person has focused on the article,
Classifying the human into a group that focused on the article and a group that did not focus on the article;
For each group, create a histogram of the continuous stay time or continuous rest time in the first region,
The robot guidance system characterized in that the continuous stay time or continuous stationary time at which the two histograms intersect is set as the predetermined threshold value.
前記物品の周囲領域を複数のブロックに分割し、
その中から前記第1及び第2領域のために前記ブロックを選択することを特徴とするロボット案内システム。 In claim 1,
Dividing the surrounding area of the article into a plurality of blocks;
A robot guidance system, wherein the block is selected for the first and second areas.
前記行動識別装置側が、前記人間が、前記第1領域において、展覧物、展示物、表示板又は機器を見ていると判定すべき、前記人間の静止時間の第1閾値を定める第1ステップと、
前記人間が、前記第1領域において、展覧物、展示物、表示板又は機器を興味を持って見ていると判定すべき、前記人間の静止時間の第2閾値を定める第2ステップと、
前記人間の、第1領域における静止時間が、前記第2閾値を越えたとき、前記移動ロボットが前記人間に案内サービスを提供する第3ステップと、
前記人間の、第1領域における静止時間が、前記第2閾値を越えたとき、前記移動ロボットが、第2領域にいる別の人間に別の案内サービスを提供する第4ステップとを含むことを特徴とするロボット案内方法。 A robot guidance method using the robot guidance system according to claim 1,
A first step in which the action identification device side determines a first threshold value of the human stationary time, which should be determined that the human is looking at an exhibition, an exhibit, a display board or a device in the first area; ,
A second step of determining a second threshold for the human stationary time to determine that the person is looking at the exhibition, exhibit, display board or equipment with interest in the first region;
A third step in which the mobile robot provides a guidance service to the human when the stationary time of the human in the first region exceeds the second threshold;
A fourth step in which the mobile robot provides another guidance service to another person in the second area when the stationary time of the person in the first area exceeds the second threshold value. Robot guidance method characterized.
前記行動識別装置側が、前記人間が、前記第1領域において、展覧物、展示物、表示板又は機器を見ている平均時間を定める第1ステップと、
前記人間の、第1領域における静止時間が、前記平均時間を越えたとき、前記移動ロボットが前記人間に案内サービスを提供する第2ステップと、
前記人間の、第1領域における静止時間が、前記平均時間を越えたとき、前記移動ロボットが、第2領域にいる別の人間に別の前記案内サービスを提供する第3ステップとを含むことを特徴とするロボット案内方法。 In claim 8,
A first step in which the behavior identification device side determines an average time during which the human is looking at an exhibition, an exhibit, a display board or a device in the first area;
A second step in which the mobile robot provides a guidance service to the human when the stationary time of the human in the first area exceeds the average time;
A third step in which the mobile robot provides another guidance service to another person in the second area when the stationary time of the person in the first area exceeds the average time. Robot guidance method characterized.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005347321A JP2007152442A (en) | 2005-11-30 | 2005-11-30 | Robot guiding system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005347321A JP2007152442A (en) | 2005-11-30 | 2005-11-30 | Robot guiding system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007152442A true JP2007152442A (en) | 2007-06-21 |
Family
ID=38237438
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005347321A Withdrawn JP2007152442A (en) | 2005-11-30 | 2005-11-30 | Robot guiding system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007152442A (en) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010231359A (en) * | 2009-03-26 | 2010-10-14 | Advanced Telecommunication Research Institute International | Remote control device |
US8019819B2 (en) | 2008-06-18 | 2011-09-13 | Emergency 24, Inc. | Methods and systems for expositions and conventions |
JP2015066621A (en) * | 2013-09-27 | 2015-04-13 | 株式会社国際電気通信基礎技術研究所 | Robot control system, robot, output control program and output control method |
EP2767967A4 (en) * | 2011-10-12 | 2015-08-12 | Korea Inst Sci & Tech | Apparatus for training recognition capability using robot and method for same |
WO2015162947A1 (en) * | 2014-04-22 | 2015-10-29 | ソニー株式会社 | Information reproduction device, information reproduction method, information recording device, and information recording method |
JP2017170568A (en) * | 2016-03-24 | 2017-09-28 | 株式会社国際電気通信基礎技術研究所 | Service providing robot system |
JPWO2017169826A1 (en) * | 2016-03-28 | 2018-04-12 | Groove X株式会社 | Autonomous robot that welcomes you |
JP2018067100A (en) * | 2016-10-18 | 2018-04-26 | 株式会社日立製作所 | Robot interactive system |
CN108242102A (en) * | 2017-12-28 | 2018-07-03 | 纳恩博(北京)科技有限公司 | Information processing method and device, electronic equipment and storage medium |
KR20200054362A (en) * | 2018-11-05 | 2020-05-20 | 현대자동차주식회사 | Service providing robot for vehicle display shop and method of operating thereof |
-
2005
- 2005-11-30 JP JP2005347321A patent/JP2007152442A/en not_active Withdrawn
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8019819B2 (en) | 2008-06-18 | 2011-09-13 | Emergency 24, Inc. | Methods and systems for expositions and conventions |
JP2010231359A (en) * | 2009-03-26 | 2010-10-14 | Advanced Telecommunication Research Institute International | Remote control device |
EP2767967A4 (en) * | 2011-10-12 | 2015-08-12 | Korea Inst Sci & Tech | Apparatus for training recognition capability using robot and method for same |
JP2015066621A (en) * | 2013-09-27 | 2015-04-13 | 株式会社国際電気通信基礎技術研究所 | Robot control system, robot, output control program and output control method |
WO2015162947A1 (en) * | 2014-04-22 | 2015-10-29 | ソニー株式会社 | Information reproduction device, information reproduction method, information recording device, and information recording method |
CN106165402A (en) * | 2014-04-22 | 2016-11-23 | 索尼公司 | Information reproduction apparatus, information regeneration method, information record carrier and information recording method |
EP3136713A4 (en) * | 2014-04-22 | 2017-12-06 | Sony Corporation | Information reproduction device, information reproduction method, information recording device, and information recording method |
JP2017170568A (en) * | 2016-03-24 | 2017-09-28 | 株式会社国際電気通信基礎技術研究所 | Service providing robot system |
JPWO2017169826A1 (en) * | 2016-03-28 | 2018-04-12 | Groove X株式会社 | Autonomous robot that welcomes you |
US11135727B2 (en) | 2016-03-28 | 2021-10-05 | Groove X, Inc. | Autonomously acting robot that performs a greeting action |
JP2018067100A (en) * | 2016-10-18 | 2018-04-26 | 株式会社日立製作所 | Robot interactive system |
CN108242102A (en) * | 2017-12-28 | 2018-07-03 | 纳恩博(北京)科技有限公司 | Information processing method and device, electronic equipment and storage medium |
WO2019128066A1 (en) * | 2017-12-28 | 2019-07-04 | 纳恩博(北京)科技有限公司 | Information processing method and apparatus, electronic device, and storage medium |
CN108242102B (en) * | 2017-12-28 | 2020-04-24 | 纳恩博(北京)科技有限公司 | Information processing method and device, electronic device and storage medium |
US11410482B2 (en) | 2017-12-28 | 2022-08-09 | Ninebot (Beijing) Tech Co., Ltd | Information processing method and apparatus, electronic device, and storage medium |
KR20200054362A (en) * | 2018-11-05 | 2020-05-20 | 현대자동차주식회사 | Service providing robot for vehicle display shop and method of operating thereof |
KR102610737B1 (en) * | 2018-11-05 | 2023-12-07 | 현대자동차주식회사 | Service providing robot for vehicle display shop and method of operating thereof |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2007152442A (en) | Robot guiding system | |
Tapu et al. | Wearable assistive devices for visually impaired: A state of the art survey | |
Saha et al. | Closing the gap: Designing for the last-few-meters wayfinding problem for people with visual impairments | |
US9796093B2 (en) | Customer service robot and related systems and methods | |
Terven et al. | New opportunities for computer vision-based assistive technology systems for the visually impaired | |
Fritsch et al. | Audiovisual person tracking with a mobile robot | |
JP4642287B2 (en) | Autonomous mobile robot | |
KR101983852B1 (en) | System for providing exhibition service based on exhibition space analysis considering visitor's viewpoint | |
US20040190754A1 (en) | Image transmission system for a mobile robot | |
GB2378301A (en) | Personal object recognition system for visually impaired persons | |
JP2005059170A (en) | Information collecting robot | |
US20120327203A1 (en) | Apparatus and method for providing guiding service in portable terminal | |
US20040190753A1 (en) | Image transmission system for a mobile robot | |
US11436866B2 (en) | System and method for eye-tracking | |
CN113126629B (en) | Method for robot to actively search target and intelligent robot | |
Rajendran et al. | Design and implementation of voice assisted smart glasses for visually impaired people using google vision api | |
US7693514B2 (en) | Information gathering robot | |
US20220360837A1 (en) | Media playing device and self-service terminal | |
JP2006263873A (en) | Communication robot system and communication robot | |
JP2012203646A (en) | Flow-state discrimination device, flow-state discrimination method, flow-state discrimination program, and robot control system using the device, method and program | |
Zeng et al. | Range-IT: detection and multimodal presentation of indoor objects for visually impaired people | |
Fuchs et al. | SmartLobby: Using a 24/7 remote head-eye-tracking for content personalization | |
Hommaru et al. | Walking support for visually impaired using AR/MR and virtual braille block | |
CN113724454A (en) | Interaction method of mobile equipment, device and storage medium | |
Dourado et al. | Embedded Navigation and Classification System for Assisting Visually Impaired People. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20090203 |