JP2007152442A - Robot guiding system - Google Patents

Robot guiding system Download PDF

Info

Publication number
JP2007152442A
JP2007152442A JP2005347321A JP2005347321A JP2007152442A JP 2007152442 A JP2007152442 A JP 2007152442A JP 2005347321 A JP2005347321 A JP 2005347321A JP 2005347321 A JP2005347321 A JP 2005347321A JP 2007152442 A JP2007152442 A JP 2007152442A
Authority
JP
Japan
Prior art keywords
person
robot
area
human
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2005347321A
Other languages
Japanese (ja)
Inventor
Yoshihiro Furuyui
義浩 古結
Tetsuya Tomonaka
哲也 塘中
Ryota Hiura
亮太 日浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Heavy Industries Ltd
Original Assignee
Mitsubishi Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Heavy Industries Ltd filed Critical Mitsubishi Heavy Industries Ltd
Priority to JP2005347321A priority Critical patent/JP2007152442A/en
Publication of JP2007152442A publication Critical patent/JP2007152442A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a robot guiding system, in which a robot makes guiding services at an appropriate time by recognizing, on a robot system side, whether a person is looking at an exhibited object and a guide-board, and whether the person is waiting to look at the exhibited object and guide-board. <P>SOLUTION: The robot guiding system includes one or more cameras Cam0 to Cam4 for taking pictures of one or more persons, and a moving robot 101 for guiding the person. The robot guiding system further comprises a position calculating device 102 for calculating the position of the person, an area stayed time measuring device 103 for measuring the stayed time of the person within a required zone, an action distinguishing device 104 for distinguishing the content of the action of the person, and a robot control platform 105 for controlling the robot based on the result of the action distinguished by the action distinguishing device, wherein a zone around the object is divided into a first zone neighboring the zone where the object is arranged, and a second zone neighboring the first zone, and the cameras track the person, and the robot guides the person who is moving or stationary in the first and second zones. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、ロボット案内システムに関し、展示会場、展覧会場、自動販売機設置場所、切符売場などで、ロボットが来場者に案内を行うロボット案内システムに関する。   The present invention relates to a robot guidance system, and more particularly to a robot guidance system in which a robot guides visitors at an exhibition hall, an exhibition hall, a vending machine installation place, a ticket sales hall, and the like.

例えば、展覧会場などにおいて、ロボットが来場者に案内や推薦を行うロボットシステムが、特許文献1に開示されている。このロボットシステムは、複数の自立移動ロボット本体とデータ取得サーバを含み、説明者及び訪問者ごとに赤外線タグと人間用観測装置が設けられる。人間用観測装置は、それを装着した人の視点から他の人とのインタラクションが観測され、検知範囲内の赤外線タグなどの識別情報や位置情報が取得されるとともに、本人の生体データなども取得される。ロボット本体は、視覚、聴覚、触覚などを有するヒューマノイド型であり、ロボットの視点から説明員及び訪問者の状況などを観測する。会場のあらゆるところにセンサ類が設けられたユビキタスセンサ環境において、観測されたインタラクションがデータ取得サーバを介して、インタラクションDBに記録される。インタラクションDBに基づいて、ロボット本体は、案内ないし推薦情報やインタラクション対象物に関する情報を、身振り又は音声によって提示する。   For example, Patent Document 1 discloses a robot system in which a robot guides or recommends visitors to an exhibition hall or the like. This robot system includes a plurality of autonomous mobile robot bodies and a data acquisition server, and an infrared tag and a human observation device are provided for each presenter and visitor. The human observation device observes the interaction with other people from the viewpoint of the person wearing it, and obtains identification information and position information such as infrared tags within the detection range, as well as the biometric data of the person. Is done. The robot body is a humanoid type having visual, auditory, and tactile sensations, and observes the situation of the instructors and visitors from the viewpoint of the robot. In a ubiquitous sensor environment in which sensors are provided everywhere in the venue, the observed interaction is recorded in the interaction DB via the data acquisition server. Based on the interaction DB, the robot body presents guidance or recommendation information and information on the interaction object by gesture or voice.

また、特許文献2に開示された「注目情報計測方法及び装置並びにそれを用いた各種システム」は、展示品や陳列している商品などに対する注目度合いを求めるシステムである。そのため、テレビカメラにより、人間を抽出し追跡し計測範囲内での移動経路や滞在時間、停止時間、視線方向などから注目度を蓄積し、売り上げなどとの関係を解析する。
特開2005−131713号公報(図2、段落0079) 特開平10−48008号公報(図5、段落0008)
Further, “attention information measuring method and apparatus and various systems using the same” disclosed in Patent Document 2 is a system for obtaining a degree of attention with respect to exhibits, displayed products, and the like. Therefore, a television camera is used to extract and track humans, accumulate attention from the movement route, stay time, stop time, line-of-sight direction, etc. within the measurement range, and analyze the relationship with sales.
Japanese Patent Laying-Open No. 2005-131713 (FIG. 2, paragraph 0079) Japanese Patent Laid-Open No. 10-48008 (FIG. 5, paragraph 0008)

しかし、特許文献1では、会場のあらゆる場所にセンサ類を設けたり、ロボットとは別にデータ取得サーバやインタラクションDBを設けるため、システムが大掛かりである。また、説明員や訪問者に携帯型コンピュータを装備した人間用観測装置を背負わせ、赤外線タグを胸などに装着させるため、煩わしい。   However, in Patent Document 1, a system is large because sensors are provided everywhere in the venue, and a data acquisition server and an interaction DB are provided separately from the robot. In addition, it is troublesome because the instructor and the visitor carry a human observation device equipped with a portable computer and put the infrared tag on the chest.

また、特許文献2では、入場者の移動経路や滞在時間で商品への注目度を判定するため、その場所を通っただけの人やゆっくりうろうろしている人の区別が付かない。   Moreover, in patent document 2, since the attention degree to goods is determined by a visitor's moving route and stay time, the person who just passed the place and the person who slowly hangs cannot be distinguished.

そこで、本発明の課題は、人が展示物や案内板などを見ているかどうか、見るために待っているかどうかなどをロボットシステム側で認識し、移動ロボットが案内サービスを適切なタイミングで提供することである。   Therefore, an object of the present invention is to recognize on the robot system side whether or not a person is looking at an exhibit or a guide board, and whether or not to wait for viewing, and the mobile robot provides a guidance service at an appropriate timing. That is.

上述した課題を解決するための第1手段は、1以上の人間を撮像する1以上のカメラと、人間を案内する移動ロボットを含むロボット案内システムにおいて、人間の位置を計算する位置計算装置と、人間が所定の領域内に滞在した時間を計測するエリア滞在時間計測装置と、人間の行動内容を識別する行動識別装置と、行動識別装置による行動識別結果に基づいてロボットを制御するロボット制御プラットフォームとを備え、物品周辺領域に、物品を設置する領域に接する第1領域と、第1領域に接する第2領域とを定め、カメラは人間を追尾し、移動ロボットは第1及び第2領域に滞在又は静止する人間に対して案内を行うことである。   A first means for solving the above-mentioned problem is a position calculation device that calculates the position of a human in a robot guidance system including one or more cameras that image one or more humans and a mobile robot that guides humans, An area stay time measuring device that measures the time that a human has stayed in a predetermined area, a behavior identification device that identifies the content of human behavior, and a robot control platform that controls the robot based on the behavior identification result by the behavior identification device; A first area in contact with the area where the article is placed and a second area in contact with the first area, the camera tracks a person, and the mobile robot stays in the first and second areas Alternatively, guidance is given to a stationary human.

第2手段は、第1手段において、位置計算装置は、2以上のカメラのステレオ視により人間の頭部重心を検出し、頭部重心により人間を追尾することである。   The second means is that, in the first means, the position calculation device detects the human head center of gravity by stereo vision of two or more cameras and tracks the human by the head center of gravity.

第3手段は、第1手段において、物品は、展覧物、展示物、表示板又は機器であり、第1領域は、人間が展覧物、展示物、表示板又は機器を見る領域であり、第2領域は、人間が展覧物、展示物、表示板又は機器を見るために待つ領域であることである。   The third means is the first means, wherein the article is an exhibition, an exhibition, a display board or a device, and the first area is an area where a person views the exhibition, the exhibition, the display board or the equipment, Area 2 is an area where a human waits to see an exhibition, exhibit, display board or equipment.

第4手段は、第1手段において、移動ロボットは、第1領域での連続滞在時間又は連続静止時間が所定閾値を越えた人間に対して案内を行うことである。   The fourth means is that, in the first means, the mobile robot provides guidance to a person whose continuous stay time or continuous stationary time in the first region exceeds a predetermined threshold.

第5手段は、第4手段において、所定閾値は、連続滞在時間又は連続静止時間のヒストグラムの極小値であることである。   The fifth means is that, in the fourth means, the predetermined threshold is a minimum value of a histogram of continuous stay time or continuous rest time.

第6手段は、第4手段において、ロボットは、人間に対し、物品に注目したか否かについて質問を発話し、人間を、物品に注目したグループと、物品に注目しなかったグループに分類し、各グループ毎に、第1領域での連続滞在時間又は連続静止時間のヒストグラムを作成し、当該2つのヒストグラムが交わる連続滞在時間又は連続静止時間を所定閾値とすることである。   In the fourth means, in the fourth means, the robot speaks a question as to whether or not attention has been paid to the article, and classifies the person into a group that has paid attention to the article and a group that has not paid attention to the article. For each group, a histogram of continuous stay time or continuous stationary time in the first region is created, and the continuous stay time or continuous stationary time at which the two histograms intersect is set as a predetermined threshold.

第7手段は、第1手段において、物品の周囲領域を複数のブロックに分割し、その中から第1及び第2領域のためにブロックを選択することである。   The seventh means is to divide the surrounding area of the article into a plurality of blocks and select a block for the first and second areas from among the plurality of blocks.

第8手段は、第1手段のロボット案内システムを使用するロボット案内方法であって、
行動識別装置側が、人間が、第1領域において、展覧物、展示物、表示板又は機器を見ていると判定すべき、人間の静止時間の第1閾値を定める第1ステップと、人間が、第1領域において、展覧物、展示物、表示板又は機器を興味を持って見ていると判定すべき、人間の静止時間の第2閾値を定める第2ステップと、人間の、第1領域における静止時間が、第2閾値を越えたとき、移動ロボットが人間に案内サービスを提供する第3ステップと、
人間の、第1領域における静止時間が、第2閾値を越えたとき、移動ロボットが、第2領域にいる別の人間に別の案内サービスを提供する第4ステップとを含む。
The eighth means is a robot guidance method using the robot guidance system of the first means,
A first step for determining a first threshold value of a human stationary time, on which the action identification device side determines that the person is looking at an exhibition, an exhibit, a display board or a device in the first area; A second step for determining a second threshold of human rest time, which should be determined that the exhibition, exhibit, display board or device is viewed with interest in the first region; A third step in which the mobile robot provides a guidance service to a human when the stationary time exceeds a second threshold;
A fourth step in which the mobile robot provides another guidance service to another person in the second area when the stationary time of the person in the first area exceeds the second threshold value.

第9手段は、第8手段において、行動識別装置側が、人間が、第1領域において、展覧物、展示物、表示板又は機器を見ている平均時間を定める第1ステップと、人間の、第1領域における静止時間が、平均時間を越えたとき、移動ロボットが人間に案内サービスを提供する第2ステップと、人間の、第1領域における静止時間が、平均時間を越えたとき、移動ロボットが、第2領域にいる別の人間に別の案内サービスを提供する第3ステップとを含む。   The ninth means is the eighth means, wherein the action identifying device side determines a mean time during which the human is looking at an exhibition, an exhibit, a display board or a device in the first area; When the stationary time in one area exceeds the average time, the second step in which the mobile robot provides a guidance service to a human, and when the stationary time in the first area of the human exceeds the average time, the mobile robot And a third step of providing another guidance service to another person in the second area.

第1手段によれば、展示物などを見ている人および見るために待っている人に適切な案内を行うことができる。   According to the first means, it is possible to provide appropriate guidance to a person who is viewing an exhibition or the like and a person who is waiting to see the exhibition.

第2手段によれば、確実に人を追尾することができる。   According to the second means, it is possible to reliably track a person.

第3手段によれば、展示物などを見る人に、その場にふさわしい案内をおこなうことができる。   According to the third means, it is possible to give guidance suitable for the place to the person who sees the exhibits.

第4手段によれば、会場内などでの渋滞を防止などすることができる。   According to the fourth means, it is possible to prevent traffic jams in the venue.

第5手段によれば、展示物などをどれだけ長い時間見ていれば案内を行うかの基準が明確になる。   According to the fifth means, the criterion for how long to see an exhibit etc. for guidance is clarified.

第6手段によれば、展示物などをどれだけ長い時間見ていれば案内を行うかの基準がより一層明確になる。   According to the sixth means, the criterion for how long to see an exhibit etc. for guidance is further clarified.

第7手段によれば、案内を行う必要の場所を適切に定めることができる。   According to the seventh means, it is possible to appropriately determine a place where guidance is required.

第8手段によれば、人が展示物などを「見ている」か否かを判定することが出来、さらに「大きな興味をもって見ている」ことも判定できるため、「見ている」人と、「待っている」人に多様な案内サービスを提供できる。   According to the eighth means, it is possible to determine whether or not a person is “seeing” an exhibit or the like, and it is also possible to determine that “a person is watching with great interest”. A variety of guidance services can be provided to "waiting" people.

第9手段によれば、人が展示物などを「見ている」平均時間を定めることにより、平均時間を越えたときの案内サービスを、予めロボットにプログラムさせることが出来る。   According to the ninth means, it is possible to cause the robot to program in advance a guidance service when the average time is exceeded by determining an average time during which a person “sees” an exhibition or the like.

本発明によれば、人が展示物や案内板などを見ているかどうか、見るために待っているかどうかなどをロボットシステム側で認識して、移動ロボットが案内サービスを適切なタイミングで提供することができる。   According to the present invention, the robot system recognizes whether or not a person is looking at an exhibit or a guide board, whether it is waiting for viewing, etc., and the mobile robot provides a guidance service at an appropriate timing. Can do.

以下、図面を参照して本発明の実施の形態について説明する。但し、本実施形態に記載されている構成部品の寸法、材質、形状、その相対的配置等に特定的な記載があっても、本発明をそれに限定する趣旨ではない。特に、本実施形態では、展示会を例として説明するが、これに限らず、展覧会、表示板付近、自動販売機などの機器設置場所、切符売場など人が集まる場所一般での移動ロボットによる案内システムに利用可能である。   Embodiments of the present invention will be described below with reference to the drawings. However, even if there are specific descriptions in the dimensions, materials, shapes, relative arrangements, and the like of the component parts described in the present embodiment, the present invention is not intended to be limited thereto. In particular, in the present embodiment, an exhibition will be described as an example. However, the present invention is not limited to this, and is not limited to an exhibition. It can be used for a guidance system.

図1は、本実施形態のロボット案内システムのブロック図である。本システムは、1以上の人間を撮像する2以上のカメラCam0、Cam1、Cam2、Cam3、Cam4と、人間を案内する移動ロボット101とを含むロボット案内システムにおいて、人間の位置を計算する位置計算装置102と、人間が所定の領域内に滞在した時間を計測するエリア滞在時間計測装置103と、人間の行動内容を識別する行動識別装置104と、行動識別装置による行動識別結果に基づいてロボットを制御するロボット制御プラットフォーム105とを備え、物品周辺領域に、物品を設置する領域に接する第1領域と、第1領域に接する第2領域とを定め、カメラCam0、Cam1、Cam2、Cam3、Cam4は人間を追尾し、移動ロボット101は第1及び第2領域に滞在又は静止する人間に対して案内を行う。   FIG. 1 is a block diagram of the robot guidance system of this embodiment. This system is a position calculation device for calculating the position of a human in a robot guidance system including two or more cameras Cam0, Cam1, Cam2, Cam3, and Cam4 that capture one or more humans and a mobile robot 101 that guides humans. 102, an area staying time measuring device 103 that measures the time during which a human stayed in a predetermined area, a behavior identifying device 104 that identifies the content of human behavior, and a robot based on a behavior identification result by the behavior identifying device A robot control platform 105 that defines a first area in contact with the area where the article is placed and a second area in contact with the first area. The cameras Cam0, Cam1, Cam2, Cam3, and Cam4 are humans. The mobile robot 101 provides guidance to a person who stays or stops in the first and second areas. Cormorant.

図2は、人の位置を計算する位置計算装置102のブロック図である。本装置102は、1以上のカメラにより人間の頭部重心を検出し、頭部重心により人間を追尾する。そのため、カメラ230の画像の中から人画像を抽出し、頭部抽出部200において色情報や輝度変化情報から頭部を抽出し、頭部重心抽出部210において頭部の重心を抽出し、ステレオ視計算部220において各カメラの位置、向き、レンズパラメータを用いて頭部重心座標を人位置座標(X,Y,Z)とする。なお、カメラ数が1台でも、本発明は実施可能である。また、1台の場合は、ステレオ視にならないので、ステレオ視計算部220は人位置計算部220と読み替える。また、Cam0は、ロボットのカメラであり、精度が問題となるが、使用可能である。   FIG. 2 is a block diagram of the position calculation device 102 that calculates the position of a person. The apparatus 102 detects the center of gravity of the human head using one or more cameras, and tracks the person based on the center of gravity of the head. Therefore, a human image is extracted from the image of the camera 230, the head extraction unit 200 extracts the head from the color information and the luminance change information, the head center of gravity extraction unit 210 extracts the center of gravity of the head, and stereo The vision calculation unit 220 uses the position, orientation, and lens parameters of each camera to set the head center-of-gravity coordinates as human position coordinates (X, Y, Z). It should be noted that the present invention can be implemented even when the number of cameras is one. Further, in the case of a single unit, stereo viewing is not performed, so the stereo vision calculation unit 220 is read as the human position calculation unit 220. Cam0 is a camera of the robot, and accuracy is a problem, but it can be used.

位置計算装置102の出力である人位置座標(X,Y,Z)は、エリア滞在時間計測装置103に入力され、人を追尾し、第1領域(展示物の近くの場所)及び第2領域(展示物から遠い場所)での滞在時間が計測される。   The human position coordinates (X, Y, Z), which is the output of the position calculation device 102, is input to the area stay time measuring device 103 to track the person, and the first area (place near the exhibit) and the second area. The staying time at (a place far from the exhibit) is measured.

図3(A)には、エリア滞在時間計測装置103に入力される認識エリア情報を示す。展示会場は、展示物Xに近いエリアY(第1領域)と、遠いエリアZ(第2領域)に分けられる。   FIG. 3A shows recognition area information input to the area stay time measuring apparatus 103. The exhibition hall is divided into an area Y (first area) close to the exhibit X and an area Z (second area) far away.

図3(B)には、第1及び第2領域のブロック化を示す。展示物Xの周辺は、四角又は丸の複数のブロックに分割される。例えば、展示物の正面である四角ブロックY1及びY2を第1領域とし、残りの四角ブロックを第2領域としてもよい。また、人が集中しやすい丸ブロックY3を第1領域とし、残りの3つの丸ブロックを第2領域としてもよい。   FIG. 3B shows the blocking of the first and second areas. The periphery of the exhibit X is divided into a plurality of square or round blocks. For example, the square blocks Y1 and Y2 that are the front of the exhibit may be the first area, and the remaining square blocks may be the second area. Alternatively, the round block Y3 where people are likely to concentrate may be used as the first area, and the remaining three round blocks may be used as the second area.

滞在時間の計測結果は、行動識別装置104に入力され、行動認識結果(「見ている」、「待っている」など)が出力される。「見ている」ことは、第1領域に連続して滞在状態にある時間が所定閾値を越えていることで判定することができる。一方、「待っている」ことは、第2領域に連続して滞在している人を識別し、第2領域での連続滞在時間が別の所定閾値を越えていることで判定することができる。   The measurement result of the stay time is input to the action identification device 104, and the action recognition result (“watching”, “waiting”, etc.) is output. “Looking” can be determined by the fact that the time in which the user stays in the first area continuously exceeds a predetermined threshold value. On the other hand, “waiting” can be determined by identifying a person who stays continuously in the second area, and the continuous stay time in the second area exceeds another predetermined threshold. .

図4(A)には、滞在時間の閾値を定めるヒストグラムの一例を示す。このヒストグラムは、過去の多数の人の連続滞在時間の頻度をあらわしたものであり、ヒストグラムの極小値を閾値とすることができる。原点寄りのピークは、第1領域に滞在する人であって「見ていない」人のピーク(又は第2領域で「待っていない」人のピーク)である。もうひとつのピークは、第1領域に滞在する人であって「見ている」人のピーク(又は第2領域で「待っている」人のピーク)である。展示物ごとにヒストグラムを取れば、展示物ごとに閾値を異ならせ、最適な案内システムを構築することができる。   FIG. 4A shows an example of a histogram that defines a threshold for staying time. This histogram shows the frequency of continuous stay time of a large number of people in the past, and the minimum value of the histogram can be used as a threshold value. The peak near the origin is the peak of a person who stays in the first area and does not “see” (or the peak of a person who does not “wait” in the second area). The other peak is the peak of the person who is staying in the first area and “watching” (or the peak of the person “waiting” in the second area). If a histogram is taken for each exhibit, an optimum guidance system can be constructed by changing the threshold value for each exhibit.

図4(B)は、滞在時間の閾値を定める別のヒストグラムの一例である。エリア(第1領域)における「見ている」人のヒストグラムと、エリアにおける「見ていない」人のヒストグラムの交点を閾値とすることができる。ここに、実際に見ていたかどうかは、例えば、ロボットが人と対話して決定すればよい。これにより、図4(A)よりさらに識別制度が向上する。   FIG. 4B is an example of another histogram that defines a threshold for staying time. The intersection of the histogram of “watching” people in the area (first region) and the histogram of “not watching” people in the area can be used as a threshold value. Here, for example, whether the robot has actually been viewed may be determined by the robot interacting with a person. Thereby, the identification system is further improved as compared with FIG.

なお、計測エリアが広いと、待っている人、見ている人、待ってもいず見てもいない人(ゆっくりうろうろしている人)との区別がつきにくい。そこで、滞在時間に替えて連続静止時間(第1又は第2領域に、それぞれ連続して静止状態にある時間)のヒストグラムから静止時間の閾値を求めてもよい。   When the measurement area is large, it is difficult to distinguish between people who are waiting, people who are watching, people who are waiting and who are not watching (people who are slowly walking around). Therefore, the threshold value of the stationary time may be obtained from a histogram of continuous stationary time (time in which the first or second region is continuously stationary) instead of the staying time.

行動識別装置104から出力される行動認識結果は、高周波無線方式などにより、直接、又は、ロボット制御プラットフォーム5を介して、ロボット101へ送信され、人に対して案内サービスが行われる。   The action recognition result output from the action identification device 104 is transmitted to the robot 101 directly or via the robot control platform 5 by a high-frequency wireless method or the like, and a guidance service is provided to a person.

図5は、移動ロボット101の正面図である。このロボットの頭部2には、頭頂カメラ3と左右1対の正面カメラ5と、額下部の人間の眉の位置に1対のマイクロフォン4が配置される。胸部6には、縦中心線から離れて左右1対のスピーカ7が配置される。両腕9の肘や肩は、関節構造をとり、手先10で物を把持する。また、首も関節構造をとる。このロボットは、下肢はスカート12状のカバーであり電気回路などを収め、下肢最下部の左右2つの車輪14により、移動することができる。また、下肢上部には左右1対の障害物センサ(赤外線検知又は超音波検知)13により、障害物を自動的に回避して目的地へ自律的に移動する。   FIG. 5 is a front view of the mobile robot 101. In the head 2 of the robot, a top camera 3, a pair of left and right front cameras 5, and a pair of microphones 4 are arranged at the position of a human eyebrow at the lower part of the forehead. A pair of left and right speakers 7 are arranged on the chest 6 away from the vertical center line. The elbows and shoulders of both arms 9 have a joint structure, and a hand 10 holds an object. The neck also has a joint structure. In this robot, the lower limb is a cover having a skirt 12 shape, houses an electric circuit, etc., and can be moved by the left and right wheels 14 at the lowermost part of the lower limb. In addition, the pair of left and right obstacle sensors (infrared detection or ultrasonic detection) 13 automatically avoids obstacles and moves autonomously to the destination on the upper leg.

図6は、本実施形態の移動ロボット101のブロック図である。CPU21へ入力されるのは、頭頂カメラ3、正面カメラ5、マイクロフォン4、障害物センサ13、データ入出力20からの出力である。CPU21は、事故位置認識部22、指示点認識部23、音声認識部24、首・腕・手動認識部25、体方向認識部26、過去動作・位置データベースを有し、上述した入力に基づいて、首関節用駆動部28、スピーカ7、手関節用駆動部29、胸関節用駆動部30、車両用駆動部31を駆動する。コンピュータ制御により、このロボットが備えるコミュニケーション能力は、移動する人を検知したり、顔を検出する人検知能力;顔特徴を検出し、オーナー1人を含む所定数のユーザを識別する個人識別能;ワードスポッティング方式・会話シナリオに必要な連続単語認識や、アコースティックエコーキャンセラーによる人の声の認識などの音声認識能力;テキスト読み上げ方式・声の大きさなどの設定変更が可能な音声合成能力などである。また、移動能力は、生活支援を行うために、人を探し、人に寄って行く能力が与えられる。   FIG. 6 is a block diagram of the mobile robot 101 of this embodiment. Input to the CPU 21 is output from the top camera 3, front camera 5, microphone 4, obstacle sensor 13, and data input / output 20. The CPU 21 includes an accident position recognizing unit 22, a pointing point recognizing unit 23, a voice recognizing unit 24, a neck / arm / manual recognizing unit 25, a body direction recognizing unit 26, and a past motion / position database. The neck joint drive unit 28, the speaker 7, the wrist joint drive unit 29, the chest joint drive unit 30, and the vehicle drive unit 31 are driven. The communication ability of this robot by computer control is the ability to detect a person who moves or detect a face; the ability to identify a person who detects a facial feature and identifies a predetermined number of users including one owner; Speech recognition ability such as word recognition, continuous word recognition necessary for conversation scenarios, and human voice recognition by acoustic echo canceller; text-to-speech method, speech synthesis ability that can change settings such as voice volume, etc. . In addition, the moving ability is given the ability to search for and approach a person in order to support life.

[展示物がひとつの場合の案内]
図7は、ひとつの展示物についての移動ロボット1による案内例である。まず、S70において、行動識別装置4は、第1の領域にじっと静止して展示物を見ている人Aを認識したとする。人Aの静止時間が閾値(例えば、2分)を超えたので、行動識別装置4側では、人Aは「見ている」と認識する。次に、S71において、行動識別装置4側では、人Aを、「見ている」と認識後、第2の領域で人Bが「待っている」と認識したとする。この状態で、S72において、人Aが10分以上の静止時間で「見ている」状態で、人Bはまだ「待っている」とする。そこで、S73において、移動ロボット101は、人Aの行動認識結果を受信して、人Aは展示物に大きな興味を持っていると判断し、「あちらでレプリカを販売していますが」と発話して、移動を促す。さらに、S74において、移動ロボット101は、人Aの移動を認識したら、人Bに「もっと近くでどうぞ」と発話する。
[Guidance for a single exhibit]
FIG. 7 shows an example of guidance by the mobile robot 1 for one exhibit. First, in S <b> 70, it is assumed that the action identification device 4 recognizes the person A who is standing still in the first area and looking at the exhibit. Since the resting time of the person A exceeds a threshold (for example, 2 minutes), the action identification device 4 recognizes that the person A is “looking”. Next, in S <b> 71, it is assumed that the action identification device 4 recognizes that the person A is “waiting” in the second area after recognizing that the person A is “looking”. In this state, in S72, it is assumed that the person A is “waiting” while the person A is “looking” with a stationary time of 10 minutes or more. Therefore, in S73, the mobile robot 101 receives the action recognition result of the person A, determines that the person A is very interested in the exhibit, and utters "I sell replicas there". To encourage movement. Further, in S74, when the mobile robot 101 recognizes the movement of the person A, the mobile robot 101 speaks to the person B “Please come closer”.

以上説明したとおり、実施例1では、第1領域で「見ている」か否かの閾値は1〜2分程度である。その理由は、「見ていない」のに静止している人は、ボーとしている人だから、閾値は1〜2分程度であると考えられる。人Aの連続静止時間が10分以上となったということは、「見ている」時間が長いので大きな興味を持っていると判断する閾値が10分であり、この時間間隔は、「見ている」人の静止時間分布のピークであると考えられる。   As described above, in the first embodiment, the threshold value indicating whether or not the user is “looking” in the first region is about 1 to 2 minutes. The reason for this is that the person who is “not looking” but is still standing is a person who is bowing, so the threshold is considered to be about 1-2 minutes. The continuous stationary time of the person A is 10 minutes or more, because the “watching” time is long, the threshold value for judging that he / she is very interested is 10 minutes. It is thought that it is the peak of the distribution of stationary time of people.

[展示物が複数の場合の案内]
図8は、複数の展示物についての移動ロボット1による案内例である。まず、S60において、行動識別装置4側では、第1の領域で人Aの静止時間が閾値(例えば、2分)を超えたので、人Aは「見ている」と認識したとする。次に、S61において、人Aを「見ている」と認識後、5分後に第2の領域に「待っている」人Bを認識したとする。なお、人Aはまだ「見ている」状態であるとする。この状態で、S62において、移動ロボットA101は、自ら又はロボット制御プラットフォーム5を介したカメラ情報により、他の展示物の状況(空いているか否か)を調べる。もし空いていれば、S66に進む。
[Guidance for multiple exhibits]
FIG. 8 is an example of guidance by the mobile robot 1 for a plurality of exhibits. First, in S60, it is assumed that the person A recognizes that he / she is “looking” because the resting time of the person A exceeds a threshold value (for example, 2 minutes) in the first region on the behavior identification device 4 side. Next, in S61, it is assumed that the person B who is “waiting” in the second area is recognized 5 minutes after the person A is recognized as “looking”. It is assumed that the person A is still “looking”. In this state, in S62, the mobile robot A101 checks the status of other exhibits (whether or not it is vacant) by itself or camera information via the robot control platform 5. If it is free, the process proceeds to S66.

S66では、移動ロボット101は人Bに対して「他の展示が空いていますがどうですか?」と発話する。人Bが移動しなければ、後述するS63に進む。一方、人Bが移動すれば全処理を終了する。   In S66, the mobile robot 101 speaks to the person B "How about other exhibitions?" If the person B does not move, the process proceeds to S63 described later. On the other hand, if the person B moves, the entire process is terminated.

一方、S62で他の展示物が空いていれなければ、S63に進む。   On the other hand, if no other exhibits are available in S62, the process proceeds to S63.

S63では、移動ロボット101は、人Bに向かって「あと5分ぐらいはお待ちください」と発話する。そこで、人Bはさらに5分待ったが、人Aはまだ見ており人Bもまだ待っているとする。S64において、移動ロボット101が、自ら及はロボット制御プラットフォーム5を介したカメラ情報により、そのこと認識したとする。そこで、S65において、移動ロボット101は、S65において、人Aにそろそろ交代してもらう胸の発話をおこなう。   In S63, the mobile robot 101 speaks to the person B "Please wait for about 5 minutes". Therefore, suppose that person B waits for another 5 minutes, but person A is still watching and person B is still waiting. In S64, it is assumed that the mobile robot 101 recognizes that by the camera information via the robot control platform 5 itself. Therefore, in S65, the mobile robot 101 utters the chest that the person A is about to change in S65.

以上説明した実施例2では、人Aが「見ている」展示物については、平均時間を10分と想定している。したがって、S61において、“7分後に第2の領域で「待っている」人Bを、行動識別装置4が認識したのであれば、ロボットは、S63において、「あと3分ぐらいはお待ちください」と人Bに知らせたはずである。   In the second embodiment described above, the average time is assumed to be 10 minutes for the exhibits that the person A “sees”. Therefore, in S61, if the action identification device 4 recognizes the person B who is "waiting" in the second area after 7 minutes, the robot will say "Please wait for about 3 minutes" in S63. I should have told person B.

[第1および第2領域の設定]
図9(A)には、案内板Xが注目対象である場合の第1領域Y及び第2領域Zの設定例を示す。領域Yは案内板Xの正面中心から半径1mの範囲とし、領域Zは領域Yを囲み案内板Xの正面中心から半径2mの範囲とする。
[Setting of first and second areas]
FIG. 9A shows an example of setting the first region Y and the second region Z when the guide plate X is the target of attention. The region Y has a radius of 1 m from the front center of the guide plate X, and the region Z surrounds the region Y and has a radius of 2 m from the front center of the guide plate X.

図9(B)には、正面で操作する機器Xが注目対象である場合の第1領域Y及び第2領域Zの設定例を示す。領域Yは機器Xの正面幅分と機器X正面から前方に50cm離れた所までの矩形領域とし、領域Zは領域Yを囲み機器Xの正面から左右に1mまで離れた所までと、正面から前方に1.5m離れた所までの矩形領域とする。   FIG. 9B shows a setting example of the first region Y and the second region Z when the device X operated in front is the target of attention. The area Y is a rectangular area from the front width of the device X to a location 50 cm away from the front of the device X, and the region Z surrounds the region Y from the front of the device X up to 1 m to the left and right. A rectangular area up to 1.5m away from the front.

図9(C)には、正面と側面で操作する機器Xが注目対象である場合の第1領域Y及び第2領域Zの設定例を示す。領域Yの初期設定として、操作スイッチ等の設置場所に応じて、機器Xの正面に3つの矩形領域Y2、Y3、Y4と、機器Xの左右にひとつづつの矩形領域Y1、Y5を設ける。   FIG. 9C shows a setting example of the first region Y and the second region Z when the device X operated from the front and the side is the target of attention. As an initial setting of the area Y, three rectangular areas Y2, Y3, Y4 are provided in front of the device X and one rectangular area Y1, Y5 is provided on the left and right of the apparatus X according to the installation location of the operation switch or the like.

図9(D)には、正面と側面で操作する機器Xが注目対象である場合の第1領域Y及び第2領域Zの設定例を示す。図9(C)の初期設定に対して、領域Y1、Y3に人の集まりが悪いことが判明したため、それ以降、領域Y1、Y3を、エリア滞在時間計測装置3の認識エリアから除外したものである。   FIG. 9D shows a setting example of the first region Y and the second region Z in the case where the device X operated on the front and side is the target of attention. Since it turned out that people gathered in the areas Y1 and Y3 with respect to the initial setting in FIG. 9C, the areas Y1 and Y3 were excluded from the recognition area of the area stay time measuring device 3 thereafter. is there.

本発明は、展示会場、展覧会場、表示板付近、自動販売機など機器の付近、切符売り場など人が集まる場所一般での移動ロボットによる案内に利用可能である。   INDUSTRIAL APPLICABILITY The present invention can be used for guidance by a mobile robot in general places where people gather such as exhibition halls, exhibition halls, near display boards, in the vicinity of equipment such as vending machines, ticket sales halls, and the like.

本発明のロボット案内システムのブロック図である。It is a block diagram of the robot guidance system of the present invention. 人の位置を計算する装置のブロック図である。It is a block diagram of the apparatus which calculates a person's position. 展示物の周囲に設定する2つの領域の一例である。It is an example of two area | regions set around the exhibit. 展示物を「見ている」か、見るために「待っている」かを判定する閾値を定めるヒストグラムである。It is a histogram which determines the threshold value which determines whether it is "watching" to see an exhibit or "waiting" to see. 移動ロボットの正面図である。It is a front view of a mobile robot. 移動ロボットのブロック図である。It is a block diagram of a mobile robot. 実施例1の案内のフローチャートである。3 is a flowchart of guidance according to the first embodiment. 実施例2の案内のフローチャートである。10 is a flowchart of guidance according to the second embodiment. 実施例3の領域設定の1例である。12 is an example of area setting according to the third embodiment.

符号の説明Explanation of symbols

2 頭部
3 頭頂カメラ
4 マイクロフォン
5 正面カメラ
6 胸部
7 スピーカ
9 腕
10 手先
12 スカート
13 障害物センサ
14 車輪
20 データ入出力
21 CPU
22 自己位置認識部
23 指示点認識部
24 音声認識部
25 首・腕・手動作認識部
26 体方方向認識部
27 過去動作・位置データベース
28 首関節用駆動部
29 手関節用駆動部
30 腕関節用駆動部
31 車両用駆動部
101 移動ロボット
102 位置計算装置
103 エリア滞在時間計測装置
104 行動識別装置
105 ロボット制御プラットフォーム
Cam0〜Cam4 カメラ
2 Head 3 Head Camera 4 Microphone 5 Front Camera 6 Chest 7 Speaker 9 Arm 10 Hand 12 Skirt 13 Obstacle Sensor 14 Wheel 20 Data Input / Output 21 CPU
22 Self Position Recognizing Unit 23 Point Point Recognizing Unit 24 Voice Recognizing Unit 25 Neck / Arm / Hand Motion Recognizing Unit 26 Body Direction Recognizing Unit 27 Past Motion / Position Database 28 Neck Joint Drive Unit 29 Wrist Joint Drive Unit 30 Arm Joint Drive unit 31 Vehicle drive unit 101 Mobile robot 102 Position calculation device 103 Area stay time measuring device 104 Action identification device 105 Robot control platform Cam0-Cam4 camera

Claims (9)

1以上の人間を撮像する1以上のカメラと、前記人間を案内する移動ロボットを含むロボット案内システムにおいて、
前記人間の位置を計算する位置計算装置と、
前記人間が所定の領域内に滞在した時間を計測するエリア滞在時間計測装置と、
前記人間の行動内容を識別する行動識別装置と、
前記行動識別装置による行動識別結果に基づいて前記ロボットを制御するロボット制御プラットフォームとを備え、
物品周辺領域に、物品を設置する領域に接する第1領域と、前記第1領域に接する第2領域とを定め、
前記カメラは前記人間を追尾し、前記移動ロボットは前記第1及び第2領域に滞在又は静止する前記人間に対して前記案内を行うことを特徴とするロボット案内システム。
In a robot guidance system including one or more cameras that image one or more humans and a mobile robot that guides the humans,
A position calculation device for calculating the position of the person;
An area stay time measuring device for measuring the time during which the person stays in a predetermined area;
An action identification device for identifying the human action content;
A robot control platform for controlling the robot based on a behavior identification result by the behavior identification device,
In the article peripheral area, a first area in contact with the area where the article is placed and a second area in contact with the first area are defined,
2. The robot guidance system according to claim 1, wherein the camera tracks the person, and the mobile robot performs the guidance for the person staying or standing still in the first and second areas.
請求項1において、
前記位置計算装置は、前記2以上のカメラのステレオ視により前記人間の頭部重心を検出し、前記頭部重心により前記人間を追尾することを特徴とするロボット案内システム。
In claim 1,
The position calculation device detects the center of gravity of the human head by stereo viewing of the two or more cameras, and tracks the human by the center of gravity of the head.
請求項1において、
前記物品は、展覧物、展示物、表示板又は機器であり、
前記第1領域は、前記人間が前記展覧物、展示物、表示板又は機器を見る領域であり、
前記第2領域は、前記人間が前記展示物、表示板又は機器を見るために待つ領域であることを特徴とするロボット案内システム。
In claim 1,
The article is an exhibition, an exhibit, a display board or a device,
The first region is a region where the person views the exhibition, exhibit, display board or device,
The robot guidance system according to claim 2, wherein the second area is an area where the person waits to see the exhibit, display board, or device.
請求項1において、
前記移動ロボットは、前記第1領域での連続滞在時間又は連続静止時間が所定閾値を越えた前記人間に対して前記案内を行うことを特徴とするロボット案内システム。
In claim 1,
The robot guidance system according to claim 1, wherein the mobile robot performs the guidance to the person whose continuous stay time or continuous stationary time in the first region exceeds a predetermined threshold.
請求項4において、
前記所定閾値は、前記連続滞在時間又は連続静止時間のヒストグラムの極小値であることを特徴とするロボット案内システム。
In claim 4,
The robot guidance system according to claim 1, wherein the predetermined threshold value is a minimum value of a histogram of the continuous stay time or continuous stationary time.
請求項4において、
前記ロボットは、前記人間に対し、前記物品に注目したか否かについて質問を発話し、
前記人間を、前記物品に注目したグループと、前記物品に注目しなかったグループに分類し、
各グループ毎に、前記第1領域での前記連続滞在時間又は連続静止時間のヒストグラムを作成し、
当該2つのヒストグラムが交わる前記連続滞在時間又は連続静止時間を前記所定閾値とすることを特徴とするロボット案内システム。
In claim 4,
The robot speaks a question as to whether or not the person has focused on the article,
Classifying the human into a group that focused on the article and a group that did not focus on the article;
For each group, create a histogram of the continuous stay time or continuous rest time in the first region,
The robot guidance system characterized in that the continuous stay time or continuous stationary time at which the two histograms intersect is set as the predetermined threshold value.
請求項1において、
前記物品の周囲領域を複数のブロックに分割し、
その中から前記第1及び第2領域のために前記ブロックを選択することを特徴とするロボット案内システム。
In claim 1,
Dividing the surrounding area of the article into a plurality of blocks;
A robot guidance system, wherein the block is selected for the first and second areas.
請求項1記載のロボット案内システムを使用するロボット案内方法であって、
前記行動識別装置側が、前記人間が、前記第1領域において、展覧物、展示物、表示板又は機器を見ていると判定すべき、前記人間の静止時間の第1閾値を定める第1ステップと、
前記人間が、前記第1領域において、展覧物、展示物、表示板又は機器を興味を持って見ていると判定すべき、前記人間の静止時間の第2閾値を定める第2ステップと、
前記人間の、第1領域における静止時間が、前記第2閾値を越えたとき、前記移動ロボットが前記人間に案内サービスを提供する第3ステップと、
前記人間の、第1領域における静止時間が、前記第2閾値を越えたとき、前記移動ロボットが、第2領域にいる別の人間に別の案内サービスを提供する第4ステップとを含むことを特徴とするロボット案内方法。
A robot guidance method using the robot guidance system according to claim 1,
A first step in which the action identification device side determines a first threshold value of the human stationary time, which should be determined that the human is looking at an exhibition, an exhibit, a display board or a device in the first area; ,
A second step of determining a second threshold for the human stationary time to determine that the person is looking at the exhibition, exhibit, display board or equipment with interest in the first region;
A third step in which the mobile robot provides a guidance service to the human when the stationary time of the human in the first region exceeds the second threshold;
A fourth step in which the mobile robot provides another guidance service to another person in the second area when the stationary time of the person in the first area exceeds the second threshold value. Robot guidance method characterized.
請求項8において、
前記行動識別装置側が、前記人間が、前記第1領域において、展覧物、展示物、表示板又は機器を見ている平均時間を定める第1ステップと、
前記人間の、第1領域における静止時間が、前記平均時間を越えたとき、前記移動ロボットが前記人間に案内サービスを提供する第2ステップと、
前記人間の、第1領域における静止時間が、前記平均時間を越えたとき、前記移動ロボットが、第2領域にいる別の人間に別の前記案内サービスを提供する第3ステップとを含むことを特徴とするロボット案内方法。
In claim 8,
A first step in which the behavior identification device side determines an average time during which the human is looking at an exhibition, an exhibit, a display board or a device in the first area;
A second step in which the mobile robot provides a guidance service to the human when the stationary time of the human in the first area exceeds the average time;
A third step in which the mobile robot provides another guidance service to another person in the second area when the stationary time of the person in the first area exceeds the average time. Robot guidance method characterized.
JP2005347321A 2005-11-30 2005-11-30 Robot guiding system Withdrawn JP2007152442A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005347321A JP2007152442A (en) 2005-11-30 2005-11-30 Robot guiding system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005347321A JP2007152442A (en) 2005-11-30 2005-11-30 Robot guiding system

Publications (1)

Publication Number Publication Date
JP2007152442A true JP2007152442A (en) 2007-06-21

Family

ID=38237438

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005347321A Withdrawn JP2007152442A (en) 2005-11-30 2005-11-30 Robot guiding system

Country Status (1)

Country Link
JP (1) JP2007152442A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010231359A (en) * 2009-03-26 2010-10-14 Advanced Telecommunication Research Institute International Remote control device
US8019819B2 (en) 2008-06-18 2011-09-13 Emergency 24, Inc. Methods and systems for expositions and conventions
JP2015066621A (en) * 2013-09-27 2015-04-13 株式会社国際電気通信基礎技術研究所 Robot control system, robot, output control program and output control method
EP2767967A4 (en) * 2011-10-12 2015-08-12 Korea Inst Sci & Tech Apparatus for training recognition capability using robot and method for same
WO2015162947A1 (en) * 2014-04-22 2015-10-29 ソニー株式会社 Information reproduction device, information reproduction method, information recording device, and information recording method
JP2017170568A (en) * 2016-03-24 2017-09-28 株式会社国際電気通信基礎技術研究所 Service providing robot system
JPWO2017169826A1 (en) * 2016-03-28 2018-04-12 Groove X株式会社 Autonomous robot that welcomes you
JP2018067100A (en) * 2016-10-18 2018-04-26 株式会社日立製作所 Robot interactive system
CN108242102A (en) * 2017-12-28 2018-07-03 纳恩博(北京)科技有限公司 Information processing method and device, electronic equipment and storage medium
KR20200054362A (en) * 2018-11-05 2020-05-20 현대자동차주식회사 Service providing robot for vehicle display shop and method of operating thereof

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8019819B2 (en) 2008-06-18 2011-09-13 Emergency 24, Inc. Methods and systems for expositions and conventions
JP2010231359A (en) * 2009-03-26 2010-10-14 Advanced Telecommunication Research Institute International Remote control device
EP2767967A4 (en) * 2011-10-12 2015-08-12 Korea Inst Sci & Tech Apparatus for training recognition capability using robot and method for same
JP2015066621A (en) * 2013-09-27 2015-04-13 株式会社国際電気通信基礎技術研究所 Robot control system, robot, output control program and output control method
WO2015162947A1 (en) * 2014-04-22 2015-10-29 ソニー株式会社 Information reproduction device, information reproduction method, information recording device, and information recording method
CN106165402A (en) * 2014-04-22 2016-11-23 索尼公司 Information reproduction apparatus, information regeneration method, information record carrier and information recording method
EP3136713A4 (en) * 2014-04-22 2017-12-06 Sony Corporation Information reproduction device, information reproduction method, information recording device, and information recording method
JP2017170568A (en) * 2016-03-24 2017-09-28 株式会社国際電気通信基礎技術研究所 Service providing robot system
JPWO2017169826A1 (en) * 2016-03-28 2018-04-12 Groove X株式会社 Autonomous robot that welcomes you
US11135727B2 (en) 2016-03-28 2021-10-05 Groove X, Inc. Autonomously acting robot that performs a greeting action
JP2018067100A (en) * 2016-10-18 2018-04-26 株式会社日立製作所 Robot interactive system
CN108242102A (en) * 2017-12-28 2018-07-03 纳恩博(北京)科技有限公司 Information processing method and device, electronic equipment and storage medium
WO2019128066A1 (en) * 2017-12-28 2019-07-04 纳恩博(北京)科技有限公司 Information processing method and apparatus, electronic device, and storage medium
CN108242102B (en) * 2017-12-28 2020-04-24 纳恩博(北京)科技有限公司 Information processing method and device, electronic device and storage medium
US11410482B2 (en) 2017-12-28 2022-08-09 Ninebot (Beijing) Tech Co., Ltd Information processing method and apparatus, electronic device, and storage medium
KR20200054362A (en) * 2018-11-05 2020-05-20 현대자동차주식회사 Service providing robot for vehicle display shop and method of operating thereof
KR102610737B1 (en) * 2018-11-05 2023-12-07 현대자동차주식회사 Service providing robot for vehicle display shop and method of operating thereof

Similar Documents

Publication Publication Date Title
JP2007152442A (en) Robot guiding system
Tapu et al. Wearable assistive devices for visually impaired: A state of the art survey
Saha et al. Closing the gap: Designing for the last-few-meters wayfinding problem for people with visual impairments
US9796093B2 (en) Customer service robot and related systems and methods
Terven et al. New opportunities for computer vision-based assistive technology systems for the visually impaired
Fritsch et al. Audiovisual person tracking with a mobile robot
JP4642287B2 (en) Autonomous mobile robot
KR101983852B1 (en) System for providing exhibition service based on exhibition space analysis considering visitor&#39;s viewpoint
US20040190754A1 (en) Image transmission system for a mobile robot
GB2378301A (en) Personal object recognition system for visually impaired persons
JP2005059170A (en) Information collecting robot
US20120327203A1 (en) Apparatus and method for providing guiding service in portable terminal
US20040190753A1 (en) Image transmission system for a mobile robot
US11436866B2 (en) System and method for eye-tracking
CN113126629B (en) Method for robot to actively search target and intelligent robot
Rajendran et al. Design and implementation of voice assisted smart glasses for visually impaired people using google vision api
US7693514B2 (en) Information gathering robot
US20220360837A1 (en) Media playing device and self-service terminal
JP2006263873A (en) Communication robot system and communication robot
JP2012203646A (en) Flow-state discrimination device, flow-state discrimination method, flow-state discrimination program, and robot control system using the device, method and program
Zeng et al. Range-IT: detection and multimodal presentation of indoor objects for visually impaired people
Fuchs et al. SmartLobby: Using a 24/7 remote head-eye-tracking for content personalization
Hommaru et al. Walking support for visually impaired using AR/MR and virtual braille block
CN113724454A (en) Interaction method of mobile equipment, device and storage medium
Dourado et al. Embedded Navigation and Classification System for Assisting Visually Impaired People.

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20090203