JP5336896B2 - Objective behavior estimation apparatus and service providing system - Google Patents

Objective behavior estimation apparatus and service providing system Download PDF

Info

Publication number
JP5336896B2
JP5336896B2 JP2009071586A JP2009071586A JP5336896B2 JP 5336896 B2 JP5336896 B2 JP 5336896B2 JP 2009071586 A JP2009071586 A JP 2009071586A JP 2009071586 A JP2009071586 A JP 2009071586A JP 5336896 B2 JP5336896 B2 JP 5336896B2
Authority
JP
Japan
Prior art keywords
human
feature amount
person
objective
position history
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009071586A
Other languages
Japanese (ja)
Other versions
JP2010224878A (en
Inventor
昌裕 塩見
崇行 神田
敬宏 宮下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2009071586A priority Critical patent/JP5336896B2/en
Publication of JP2010224878A publication Critical patent/JP2010224878A/en
Application granted granted Critical
Publication of JP5336896B2 publication Critical patent/JP5336896B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

この発明は対物行動推定装置およびサービス提供システムに関し、特にたとえば、特定の対象物に対して人間がどのような行動を行っているかを推定する、新規な対物行動推定装置およびサービス提供システムに関する。   The present invention relates to an objective behavior estimation device and a service providing system, and more particularly to a novel objective behavior estimation device and a service provision system that estimate, for example, what kind of behavior a human is performing on a specific object.

従来、蓄積された個人の位置情報や移動情報に基づいて、その人間がどのような行動を行っているかを推定する技術が提案されている。たとえば、特許文献1の技術では、GPS端末を利用して対象者の位置情報を取得し、移動履歴と移動にかかった時間とに基づいて、「あまり興味のない探索行動」、「ぶらぶらしている探索行動」、「興味の対象がある探索行動」といった対象者の行動状態を推定している。   2. Description of the Related Art Conventionally, a technique has been proposed for estimating what kind of behavior a person is performing based on accumulated personal position information and movement information. For example, in the technique of Patent Document 1, the position information of the target person is acquired using a GPS terminal, and “less interesting search behavior”, “hang around” based on the movement history and the time taken for movement. The behavioral state of the target person such as “searching behavior” and “searching behavior with a target of interest” is estimated.

特開2008−152655号公報 [G06Q 50/00]JP 2008-152655 A [G06Q 50/00]

しかしながら、特許文献1の技術などの従来の行動推定装置では、特定の対象物と人間との位置関係は考慮されておらず、特定の対象物に対して人間がどのような行動を行っているかを推定する技術は存在しない。   However, in the conventional behavior estimation device such as the technique of Patent Document 1, the positional relationship between a specific object and a human is not considered, and what kind of action a human is performing on the specific object There is no technique to estimate

また、特許文献1の技術では、対象者の行動を推定するために、対象者を数分以上観測する必要があるので、対象者の行動に素早く対応したサービスを提供することができない。   Further, in the technique of Patent Document 1, since it is necessary to observe the target person for several minutes or more in order to estimate the action of the target person, it is not possible to provide a service that quickly corresponds to the action of the target person.

それゆえに、この発明の主たる目的は、新規な、対物行動推定装置およびサービス提供システムを提供することである。   Therefore, a main object of the present invention is to provide a novel objective behavior estimation apparatus and service providing system.

この発明の他の目的は、特定の対象物に対して人間がどのような行動を行っているかを推定できる、対物行動推定装置およびサービス提供システムを提供することである。   Another object of the present invention is to provide an objective behavior estimation device and a service providing system that can estimate what kind of behavior a human is performing on a specific object.

この発明のさらに他の目的は、特定の対象物に対して人間がどのような行動を行っているかを短時間の観測で推定できる、対物行動推定装置およびサービス提供システムを提供することである。   Still another object of the present invention is to provide an objective behavior estimating apparatus and a service providing system capable of estimating what behavior a human being is doing with respect to a specific object by short-time observation.

この発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明などは、本発明の理解を助けるために後述する実施の形態との対応関係を示したものであって、この発明を何ら限定するものではない。   The present invention employs the following configuration in order to solve the above problems. Note that reference numerals in parentheses and supplementary explanations indicate correspondence with embodiments described later in order to help understanding of the present invention, and do not limit the present invention.

第1の発明は、特定の対象物に対して人間がどのような行動を行っているかを推定する対物行動推定装置であって、対象物は、環境内を移動可能な移動体であり、人間および対象物の所定時間分の位置履歴を取得する位置履歴取得手段、位置履歴取得手段によって取得した位置履歴から人間と対象物との相互間に関する特徴量を示す第1特徴量を算出する第1特徴量算出手段、位置履歴取得手段によって取得した位置履歴から対象物の移動に関する特徴量を示す第3特徴量を算出する第3特徴量算出手段、および第1特徴量算出手段によって算出した第1特徴量および第3特徴量算出手段によって算出した第3特徴量を用いて対象物に対して人間が行っている行動を推定する行動推定手段を備える、対物行動推定装置である。 1st invention is the objective action estimation apparatus which estimates what kind of action the person is performing with respect to a specific target object, Comprising: A target object is a mobile body which can move in an environment, and a human being And a position history acquisition unit that acquires a position history for a predetermined time of the object, and a first feature amount that indicates a feature amount related to a human and the object from the position history acquired by the position history acquisition unit. A feature quantity calculating means, a third feature quantity calculating means for calculating a third feature quantity indicating a feature quantity relating to the movement of the object from the position history acquired by the position history acquiring means, and a first feature quantity calculated by the first feature quantity calculating means. It is an objective behavior estimation apparatus provided with behavior estimation means for estimating behavior performed by a human on an object using the feature amount and the third feature amount calculated by the third feature amount calculation means .

第1の発明では、対物行動推定装置(10)は、コンピュータ(30)を含み、環境に設置された位置検出システム(12)によって検出される人間(16)および環境内を移動可能な対象物(18b)の位置情報に基づいて、環境内に存在する人間が特定の対象物に対してどのような行動を行っているかを推定する。位置履歴取得手段(32,36,S7,S15)は、位置検出システムから、人間および対象物の所定時間分、たとえば数秒ないし数十秒間分の位置履歴を取得する。第1特徴量算出手段(32,S19)は、人間および対象物の位置履歴データから、人間と対象物との相互間に関する特徴量である第1特徴量を算出する。たとえば、人間の位置座標と対象物の位置座標との距離や、対象物に対する人間の相対速度などを算出する。また、第3特徴量算出手段(32,S17)は、対象物の位置履歴データから、対象物の移動に関する特徴量である第3特徴量を算出する。たとえば、対象物の移動距離、速度、角度および分散などに関する特徴量を算出する。行動推定手段(32,38,S21)は、第1特徴量および第3特徴量を用いて人間の行動を推定する。たとえば、閾値を用いて定義した判別式に第1特徴量および第3特徴量を与えたり、サポートベクタマシン(SVM)等の学習アルゴリズムを用いたりすることによって、対象物に対して人間が行っている行動(対物行動)を推定する。 In the first invention, the objective behavior estimation apparatus (10) includes a computer (30), and is detected by a position detection system (12) installed in the environment and an object movable in the environment . Based on the position information of ( 18b ), it is estimated what action a human being existing in the environment is performing on a specific object. The position history acquisition means (32, 36, S7, S15) acquires the position history for a predetermined time, for example, several seconds to several tens of seconds, of the human and the object from the position detection system. The first feature value calculating means (32, S19) calculates a first feature value that is a feature value related to the relationship between the person and the object from the position history data of the person and the object. For example, the distance between the human position coordinates and the position coordinates of the object, the relative speed of the person with respect to the object, and the like are calculated. Further, the third feature value calculating means (32, S17) calculates a third feature value that is a feature value related to the movement of the object from the position history data of the object. For example, a feature amount related to the moving distance, speed, angle, variance, etc. of the object is calculated. The behavior estimation means (32, 38, S21) estimates human behavior using the first feature value and the third feature value . For example, the first feature amount and the third feature amount are given to a discriminant defined using a threshold value, or a learning algorithm such as a support vector machine (SVM) is used to perform a human operation on an object. Is estimated (objective behavior).

第1の発明によれば、人間および対象物の位置履歴を検出し、人間と対象物との相互間に関する特徴量を示す第1特徴量および対象物の移動に関する特徴量を示す第3特徴量を用いることによって、対象物に対して人間が行っている行動を短時間で推定できる。したがって、その人間の対物行動に対応したサービスを素早く提供することができる。 According to the first aspect of the present invention, the position history of the person and the object is detected, the first feature quantity indicating the feature quantity between the person and the object, and the third feature quantity indicating the feature quantity related to the movement of the object. By using, it is possible to estimate in a short time the action that a person is performing on an object. Therefore, it is possible to quickly provide a service corresponding to the human objective behavior.

第2の発明は、第1の発明に従属し、位置履歴取得手段によって取得した位置履歴から人間の移動に関する特徴量を示す第2特徴量を算出する第2特徴量算出手段を備え、行動推定手段は、さらに第2特徴量を用いて対象物に対して人間が行っている行動を推定する。   A second invention is dependent on the first invention, and comprises second feature quantity calculation means for calculating a second feature quantity indicating a feature quantity related to human movement from the position history acquired by the position history acquisition means, and the behavior estimation The means further estimates an action performed by a human on the object using the second feature amount.

第2の発明では、第2特徴量算出手段(32,S9)は、人間(16)の位置履歴データから、人間の移動に関する特徴量である第2特徴量を算出する。たとえば、人間の移動距離、速度、角度および分散などに関する特徴量を算出する。行動推定手段(32,38,S21)は、さらに第2特徴量を用いて、人間の対物行動を推定する。   In the second invention, the second feature value calculating means (32, S9) calculates a second feature value that is a feature value related to the movement of the person from the position history data of the person (16). For example, a feature amount related to a human moving distance, speed, angle, variance, and the like is calculated. The behavior estimation means (32, 38, S21) further estimates the human objective behavior using the second feature amount.

第2の発明によれば、第1特徴量および第3特徴量に加えて第2特徴量も算出し、人間の対物行動の推定に用いるので、より正確に人間の対物行動を推定できる。また、より多くの種類の対物行動を推定できるようになる。 According to the second invention, since the second feature value is calculated in addition to the first feature value and the third feature value and is used for estimating the human objective behavior, the human objective behavior can be estimated more accurately. In addition, more types of objective behavior can be estimated.

の発明は、請求項1または2記載の対物行動推定装置、および対物行動推定装置によって推定された人間の行動に応じたサービスを提供するサービス提供手段を備える、サービス提供システムである。 A third invention is a service providing system comprising the objective behavior estimating device according to claim 1 or 2 and a service providing means for providing a service according to a human behavior estimated by the objective behavior estimating device.

の発明では、サービス提供システム(100)は、対物行動推定装置(10)を含み、環境に設置された位置検出システム(12)によって検出される人間(16)および環境内を移動可能な対象物(18b)の位置情報に基づいて、環境内に存在する人間が特定の対象物に対してどのような行動を行っているかを推定する。そして、サービス提供手段(10,14,S23)は、推定した人間の対物行動に応じたサービスをその人間に対して提供する。 In the third invention, the service providing system (100) includes the objective behavior estimation device (10), and is movable within the environment and the human (16) detected by the position detection system (12) installed in the environment. Based on the position information of the object ( 18b ), it is estimated what action a human being existing in the environment is performing on the specific object. The service providing means (10, 14, S23) provides a service corresponding to the estimated human objective behavior to the human.

の発明によれば、第1の発明と同様に、環境内に存在する人間が特定の対象物に対して行っている行動を短時間で推定できるので、人間の対物行動に素早く対応したサービスを提供できる。 According to the third invention, similar to the first invention, it is possible to estimate in a short time the action that a human being in the environment is performing on a specific object, so that it can quickly respond to the human objective action. Service can be provided.

の発明は、第の発明に従属し、サービス提供手段は、音声および身体動作を用いてコミュニケーションを実行する機能を備えるコミュニケーションロボットを含む。 A fourth invention is dependent on the third invention, and the service providing means includes a communication robot having a function of executing communication using voice and body movement.

の発明では、サービス提供手段(10,14,S23)は、コミュニケーションロボット(14,18b)を含む。たとえば、コミュニケーションロボットが或る地点で待機しているときに、人間(16)が近づいてきている場合には、コミュニケーションロボットも人間に向かって移動するように制御される。 In the fourth invention, the service providing means (10, 14, S23) includes a communication robot (14, 18b). For example, when the communication robot is waiting at a certain point and the person (16) is approaching, the communication robot is controlled to move toward the person.

の発明によれば、対象物に対して人間がどのような行動を行っているかを推定することによって、現場の状況に応じたコミュニケーションロボットの制御が可能となるので、コミュニケーションロボットや人間の動きの無駄を省くことができ、より高度なサービスをより素早く提供できる。 According to the fourth aspect of the invention, it is possible to control the communication robot according to the situation at the site by estimating how the human being is acting on the object. It eliminates the waste of movement and provides more advanced services more quickly.

この発明によれば、人間および対象物の位置履歴を検出し、位置履歴から算出した人間と対象物との相互間に関する特徴量を示す第1特徴量および対象物の移動に関する特徴量を示す第3特徴量を利用することによって、環境内に存在する人間が特定の対象物に対してどのような行動を行っているかを短時間で推定できる。したがって、人間の行動に応じたサービスをその人間に対して素早く提供できる。 According to the present invention, the position history of the person and the object is detected, and the first feature quantity indicating the feature quantity between the person and the object calculated from the position history and the feature quantity relating to the movement of the object are displayed. By using the three feature amounts , it is possible to estimate in a short time what kind of action a human being existing in the environment is performing on a specific object. Therefore, it is possible to quickly provide a service corresponding to a human action to the human.

この発明の上述の目的、その他の目的、特徴および利点は、図面を参照して行う後述の実施例の詳細な説明から一層明らかとなろう。   The above object, other objects, features, and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

この発明のサービス提供システムの一実施例を示す図解図である。It is an illustration figure which shows one Example of the service provision system of this invention. 図1の位置検出システム12が適用された環境の様子を概略的に示す図解図である。It is an illustration figure which shows schematically the mode of the environment where the position detection system 12 of FIG. 1 was applied. 図1の位置検出システム12の電気的な構成を示す図解図である。It is an illustration figure which shows the electrical structure of the position detection system 12 of FIG. 図1の位置検出システムが検出する位置履歴データの一例を示す図解図である。It is an illustration figure which shows an example of the position history data which the position detection system of FIG. 1 detects. 「対象物に近づいている」人間の対物行動の一例を示す図解図である。It is an illustration figure which shows an example of the human's objective action "approaching the target object." 「対象物から離れていく」人間の対物行動の一例を示す図解図である。It is an illustration figure which shows an example of the human's objective action "going away from a target object." 「対象物についていく」人間の対物行動の一例を示す図解図である。It is an illustration figure which shows an example of a human's objective action which "follows an object." 「対象物を待っている」人間の対物行動の一例を示す図解図である。It is an illustration figure which shows an example of the human's objective action "Waiting for the target object". 「対象物と対話している」人間の対物行動の一例を示す図解図である。It is an illustration figure which shows an example of the human's objective action "conversing with the target object". 図1の対物行動推定装置の動作の一例を示すフロー図である。It is a flowchart which shows an example of operation | movement of the objective action estimation apparatus of FIG.

図1を参照して、この発明の一実施例であるサービス提供システム(以下、「提供システム」という。)100は、対物行動推定装置(以下、「推定装置」という。)10、および位置検出システム12を含む。提供システム100は、イベント会場、ショッピングセンタ、美術館および遊園地などの環境に適用され、位置検出システム12によって検出される位置情報に基づいて、人間16の対物行動、つまり特定の対象物18に対して人間16がどのような行動を行っているかを推定する。そして、推定した人間16の対物行動に基づいて、コミュニケーションロボットや携帯電話などのサービス提供装置14に指示を与える等して、その対物行動に適したサービスをその人間16に対して提供する。   Referring to FIG. 1, a service providing system (hereinafter referred to as “providing system”) 100 according to an embodiment of the present invention includes an objective behavior estimating device (hereinafter referred to as “estimating device”) 10 and a position detection. System 12 is included. The providing system 100 is applied to an environment such as an event venue, a shopping center, a museum, an amusement park, and the like, based on position information detected by the position detection system 12, with respect to an objective action of the human 16, that is, a specific object 18. Thus, it is estimated what action the human 16 is performing. Based on the estimated objective behavior of the human 16, a service suitable for the objective behavior is provided to the human 16 by giving an instruction to the service providing device 14 such as a communication robot or a mobile phone.

なお、特定の対象物18は、提供システム100が適用される環境内に存在する物体であれば特に限定されないが、好ましくは人間16が何らかの働きかけを行う物体、或いは人間16に何らかの働きかけを行う物体が特定の対象物18として適宜選択される。また、特定の対象物18には、環境内に固定的に設けられる設置物18aと、環境内を移動可能な移動体18bとを含む。設置物18aとしては、自動販売機、展示棚および案内標識(地図)などが挙げられ、移動体18bとしては、コミュニケーションロボット(人間型ロボット)等の移動ロボット、および犬や猫などの動物などが挙げられる。   The specific object 18 is not particularly limited as long as it is an object that exists in the environment to which the providing system 100 is applied, but preferably an object that the human 16 makes some kind of action or an object that makes some kind of action to the human 16 Is appropriately selected as the specific object 18. Further, the specific object 18 includes an installation object 18a that is fixedly provided in the environment and a moving body 18b that can move in the environment. Examples of the installation 18a include vending machines, display shelves, and guide signs (maps). Examples of the moving body 18b include mobile robots such as communication robots (humanoid robots) and animals such as dogs and cats. Can be mentioned.

先ず、位置検出システム12について説明する。図2は、位置検出システム12が適用された環境の様子を概略的に示す図解図であり、図3は、位置検出システム12の電気的な構成を示す図解図である。図2および図3に示すように、位置検出システム12は、人間16および対象物18の位置を検出するためのシステムであり、位置検出処理を実行するコンピュータ20、環境内に設置される複数のレーザレンジファインダ(LRF)22および無線IDタグリーダ24、ならびに人間16および移動体18b(移動可能な対象物18)に装着される無線IDタグ26を含む。   First, the position detection system 12 will be described. FIG. 2 is an illustrative view schematically showing an environment where the position detection system 12 is applied, and FIG. 3 is an illustrative view showing an electrical configuration of the position detection system 12. As shown in FIGS. 2 and 3, the position detection system 12 is a system for detecting the positions of a person 16 and an object 18, and includes a computer 20 that executes position detection processing, and a plurality of systems installed in the environment. It includes a laser range finder (LRF) 22 and a wireless ID tag reader 24, and a wireless ID tag 26 attached to the human 16 and a moving body 18b (movable object 18).

位置検出システム12のコンピュータ20は、パーソナルコンピュータやワークステーションのような汎用のコンピュータである。このコンピュータ20には、たとえばRS-232Cのような汎用のインタフェースを介して、複数のLRF22および無線IDタグリーダ24が接続される。これらの機器22,24によって検出された情報を含むデータは、コンピュータ20に送信され、その検出時刻と共にコンピュータ20のメモリの所定領域や外部のデータベースに適宜記憶される。また、コンピュータ20のメモリには、XY2次元平面座標系で表される環境の地図データ、各機器22,24の位置データ、および設置物18a(固定的に設けられる対象物18)の位置データ等が予め記憶されている。設置物18aの位置座標(位置履歴)が必要なときには、このコンピュータ20のメモリに記憶された位置データが適宜読み出されて利用される。   The computer 20 of the position detection system 12 is a general-purpose computer such as a personal computer or a workstation. A plurality of LRFs 22 and a wireless ID tag reader 24 are connected to the computer 20 via a general-purpose interface such as RS-232C. Data including information detected by these devices 22 and 24 is transmitted to the computer 20 and is appropriately stored in a predetermined area of the memory of the computer 20 or an external database together with the detection time. Further, in the memory of the computer 20, the map data of the environment expressed in the XY two-dimensional plane coordinate system, the position data of the devices 22 and 24, the position data of the installation object 18a (the object 18 fixedly provided), etc. Is stored in advance. When the position coordinates (position history) of the installation object 18a are required, the position data stored in the memory of the computer 20 is appropriately read and used.

LRF22は、レーザ光線を利用した画像センサであり、パルスレーザを照射し、そのレーザ光が物体に反射して戻ってきた時間からその物体との距離を瞬時に測定するものである。LRF22としては、SICK社製のLRF(型式 LMS 200)などを用いることができる。LRF22は、たとえば、高さ約90cmの台座の上に設置され、主として環境内に存在する人間16の位置座標を検出するために利用される。   The LRF 22 is an image sensor using a laser beam, and irradiates a pulse laser, and instantaneously measures the distance from the object from the time when the laser beam is reflected back to the object. As LRF22, LRF (model LMS 200) manufactured by SICK or the like can be used. The LRF 22 is installed, for example, on a pedestal having a height of about 90 cm, and is mainly used for detecting the position coordinates of the human 16 existing in the environment.

この実施例では、コンピュータ20は、たとえば37.5回/秒の頻度でLRF22からのセンサ情報を取得し、パーティクルフィルタや人形状モデルによって人間16の腰部の位置座標や身体の方向などを推定する。この推定方法の詳細については、本件出願人が先に出願した特願2008−6105号に記載されているので参照されたい。   In this embodiment, the computer 20 acquires sensor information from the LRF 22 at a frequency of, for example, 37.5 times / second, and estimates the position coordinates of the waist of the human 16 and the body direction using a particle filter and a human shape model. . The details of this estimation method are described in Japanese Patent Application No. 2008-6105 filed earlier by the present applicant.

無線IDタグ26は、環境内に存在する各人間16および各移動体18bに装着される。無線IDタグ26としては、たとえばRFID(Radio Frequency Identification)タグを用いることができる。RFIDは、電磁波を利用した非接触ICタグによる自動認識技術のことである。具体的には、RFIDタグは、識別情報用のメモリや通信用の制御回路等を備えるICチップおよびアンテナ等を含む。RFIDタグのメモリには、人間16および移動体18bを識別可能な情報が予め記憶され、その識別情報が所定周波数の電磁波・電波などによってアンテナから出力される。   The wireless ID tag 26 is attached to each person 16 and each moving body 18b existing in the environment. As the wireless ID tag 26, for example, an RFID (Radio Frequency Identification) tag can be used. RFID is an automatic recognition technology using a non-contact IC tag using electromagnetic waves. Specifically, the RFID tag includes an IC chip, an antenna, and the like provided with a memory for identification information, a control circuit for communication, and the like. Information capable of identifying the human 16 and the moving body 18b is stored in advance in the memory of the RFID tag, and the identification information is output from the antenna by electromagnetic waves / radio waves having a predetermined frequency.

無線IDタグリーダ24は、たとえば環境内の天井に敷設されたレールに設置され、上述の無線IDタグ26からの出力情報を検出する。具体的には、無線IDタグリーダ24は、無線IDタグ26から送信される識別情報の重畳された電波を、アンテナを介して受信し、電波信号を増幅し、当該電波信号から識別情報を分離し、当該情報を復調(デコード)する。また、無線IDタグリーダ24は、検出した電波強度に基づいて、無線IDタグ26との距離を検出する。   The wireless ID tag reader 24 is installed, for example, on a rail laid on the ceiling in the environment, and detects output information from the wireless ID tag 26 described above. Specifically, the wireless ID tag reader 24 receives a radio wave superimposed with identification information transmitted from the radio ID tag 26 via an antenna, amplifies the radio signal, and separates the identification information from the radio signal. The information is demodulated (decoded). The wireless ID tag reader 24 detects the distance from the wireless ID tag 26 based on the detected radio wave intensity.

この実施例では、コンピュータ20は、たとえば5回/秒の頻度で無線IDタグリーダ24によって検出される無線IDタグ26からのセンサ情報(識別情報および距離情報)を取得する。そして、取得した識別情報に基づいて、その無線IDタグ26を装着している人間16および移動体18bを特定する。また、同一の無線IDタグ26に対して3つの無線IDタグリーダ24から取得した距離情報と、予め記憶した無線IDタグリーダ24の位置データとに基づいて、その無線IDタグ26を所持している人間16および移動体18bの位置座標を特定する。   In this embodiment, the computer 20 acquires sensor information (identification information and distance information) from the wireless ID tag 26 detected by the wireless ID tag reader 24 at a frequency of, for example, 5 times / second. Based on the acquired identification information, the person 16 and the moving body 18b wearing the wireless ID tag 26 are specified. Further, a person who possesses the wireless ID tag 26 based on the distance information acquired from the three wireless ID tag readers 24 for the same wireless ID tag 26 and the position data of the wireless ID tag reader 24 stored in advance. 16 and the position coordinates of the moving body 18b are specified.

そして、位置検出システム12のコンピュータ20は、各機器22,24によって検出されたセンサ情報(測位データ)或いはセンサ情報から推定した情報を統合し、各人間16および各移動体18bの位置座標(x,y)をその検出時刻tに対応付けて、メモリ或いはデータベースに記憶する。つまり、人間16および移動体18b(識別情報またはID番号)ごとに、時系列データとしてその位置履歴が記憶される。たとえば、時刻tnにおける位置をPtn(xn,yn)としたとき、時刻t0からtnまでの軌跡は、点列Pt0,Pt1,…,Ptnとして表される。すなわち、各人間16および各移動体18bの位置履歴データ(移動軌跡データ)は、図4に示すように、xy平面上のn+1個の点列で表され、各点(図4では丸印で示している)は、その点が観測された時刻の情報を含んでいる。   Then, the computer 20 of the position detection system 12 integrates sensor information (positioning data) detected by the devices 22 and 24 or information estimated from the sensor information, and positions coordinates (x , Y) is stored in the memory or database in association with the detection time t. That is, the position history is stored as time-series data for each person 16 and the moving body 18b (identification information or ID number). For example, when the position at time tn is Ptn (xn, yn), the trajectory from time t0 to tn is represented as a point sequence Pt0, Pt1,..., Ptn. That is, the position history data (movement trajectory data) of each person 16 and each moving body 18b is represented by a sequence of n + 1 points on the xy plane as shown in FIG. 4, and each point (circled in FIG. 4). Includes information on the time at which the point was observed.

なお、位置検出システム12は、各人間16および各移動体18bを識別して位置座標ないし位置履歴を検出できるものであれば、上述の構成のものに限定されず、たとえば、赤外線センサ、ビデオカメラ、床センサ、或いはGPS等を適宜利用するものであってもよい。また、移動体18bが環境の地図データを参照して自己位置を認識しながら移動するもの、たとえば自律移動型のロボット等である場合には、移動体18bから位置検出システム12のコンピュータ20に対して、自身の位置履歴データを送信させるようにしてもよい。   The position detection system 12 is not limited to the above-described configuration as long as it can detect each person 16 and each moving body 18b and detect position coordinates or position history. A floor sensor, a GPS, or the like may be used as appropriate. In addition, when the moving body 18b moves while recognizing its own position with reference to the map data of the environment, for example, an autonomous moving robot, the moving body 18b sends the information to the computer 20 of the position detection system 12. Then, the own position history data may be transmitted.

推定装置10は、上述のような位置検出システム12から送信される人間16および対象物18の位置履歴データに基づいて、環境内に存在する人間16が行っている行動を推定する。換言すると、人間16と対象物18との位置関係の変化に基づいて、人間16の対物行動を推定する。   Based on the position history data of the person 16 and the object 18 transmitted from the position detection system 12 as described above, the estimation apparatus 10 estimates the action performed by the person 16 existing in the environment. In other words, the objective action of the human 16 is estimated based on the change in the positional relationship between the human 16 and the object 18.

図1に戻って、推定装置10は、位置履歴データから特徴量を算出し、人間16の対物行動を推定するコンピュータ30を含む。コンピュータ30は、たとえば、CPU32、メモリ34、通信装置36、入力装置および表示装置などを備える汎用のパーソナルコンピュータやワークステーションである。コンピュータ30のメモリ34は、HDDやROMおよびRAMを含む。HDDないしROMには、推定装置10の動作を制御するためのプログラムが記憶されており、CPU32は、このプログラムに従って処理を実行する。RAMは、CPU32の作業領域またはバッファ領域として使用される。通信装置36は、たとえば無線LANやインタネットのようなネットワークを介して、外部のコンピュータ(位置検出システム12やサービス提供装置14等)と無線または有線で通信するためのものである。   Returning to FIG. 1, the estimation device 10 includes a computer 30 that calculates a feature amount from position history data and estimates the objective behavior of the human 16. The computer 30 is, for example, a general-purpose personal computer or workstation including a CPU 32, a memory 34, a communication device 36, an input device, a display device, and the like. The memory 34 of the computer 30 includes an HDD, a ROM, and a RAM. A program for controlling the operation of the estimation apparatus 10 is stored in the HDD or ROM, and the CPU 32 executes processing according to this program. The RAM is used as a work area or buffer area for the CPU 32. The communication device 36 is for communicating with an external computer (such as the position detection system 12 or the service providing device 14) wirelessly or via a wire such as a wireless LAN or the Internet.

また、推定装置10のコンピュータ30には、判別式DB38が接続される。なお、判別式DB38は、図1に示すようにコンピュータ30の外部に設けられてもよいし、コンピュータ30内のHDD等に設けられてもよいし、コンピュータ30と通信可能なネットワーク上の他のコンピュータに設けられてもよい。   A discriminant DB 38 is connected to the computer 30 of the estimation apparatus 10. The discriminant DB 38 may be provided outside the computer 30 as shown in FIG. 1, or may be provided in an HDD or the like in the computer 30, or other network on the network that can communicate with the computer 30. It may be provided in a computer.

判別式DB38には、人間16および対象物18の位置履歴データから算出した特徴量に基づいて、環境内に存在する人間16が行っている対物行動を推定するための判別式が記憶される。人間16の対物行動を推定する際には、判別式DB38に記憶した判別式に応じて後述の特徴量が適宜算出される。この判別式の具体例については後述する。   The discriminant DB 38 stores a discriminant for estimating the objective behavior performed by the human 16 existing in the environment based on the feature amount calculated from the position history data of the human 16 and the object 18. When estimating the objective behavior of the human 16, a feature amount described later is appropriately calculated according to the discriminant stored in the discriminant DB 38. A specific example of this discriminant will be described later.

このような構成の提供システム100では、上述のように、位置検出システム12によって環境内に存在する人間16および対象物18の位置座標或いは位置履歴に関するデータが検出される。そして、推定装置10によって位置履歴データから特徴量が算出され、この特徴量に基づいて人間16の対物行動が推定される。   In the providing system 100 having such a configuration, as described above, the position detection system 12 detects data relating to the position coordinates or position history of the person 16 and the object 18 existing in the environment. Then, a feature amount is calculated from the position history data by the estimation device 10, and the objective action of the human 16 is estimated based on the feature amount.

推定装置10によって位置履歴データから算出される特徴量には、人間16と対象物18との相互間に関する特徴量(第1特徴量)と、人間16の移動に関する特徴量(第2特徴量)と、移動体18bの移動に関する特徴量(第3特徴量)とが含まれる。なお、設置物18aに関しては、位置座標は常に固定されている、つまり位置履歴データは常に同じ位置座標を示しているので、設置物18aの移動に関する特徴量は算出されない。設置物18aの位置履歴データ(位置座標)は、第1特徴量の算出に利用される。   The feature quantity calculated from the position history data by the estimation device 10 includes a feature quantity (first feature quantity) between the human 16 and the object 18 and a feature quantity (second feature quantity) related to the movement of the human 16. And a feature amount (third feature amount) related to the movement of the moving body 18b. As for the installation object 18a, the position coordinates are always fixed, that is, the position history data always indicates the same position coordinates, so that the feature quantity relating to the movement of the installation object 18a is not calculated. The position history data (position coordinates) of the installation object 18a is used for calculating the first feature amount.

人間16と対象物18との相互間に関する特徴量には、人間16の位置座標と対象物18の位置座標との距離、対象物18に対する人間16の相対速度または人間16に対する対象物18の相対速度、人間16と対象物18とを結ぶ線と人間16または対象物18の進行方向とがなす角の角度、および人間16の進行方向と対象物18の進行方向とがなす角の角度などがある。   The feature amount between the human 16 and the object 18 includes the distance between the position coordinate of the human 16 and the position coordinate of the object 18, the relative speed of the human 16 with respect to the object 18, or the relative speed of the object 18 with respect to the human 16. The speed, the angle formed by the line connecting the person 16 and the object 18 and the traveling direction of the person 16 or the object 18, the angle formed by the traveling direction of the person 16 and the traveling direction of the object 18, etc. is there.

また、人間16または移動体18bの移動に関する特徴量には、たとえば、距離、速度、角度および分散に関する特徴量がある。図4を参照して、距離に関する特徴量は、0番目の点とk番目の点とのユークリッド距離、x方向距離およびy方向距離などである。速度に関する特徴量は、0番目の点とn番目の点との間の速度などであり、たとえば、k番目の点とk+1番目の点間の速度をk=0〜k=nまで求めたものの平均および分散(値のばらつき)である。角度に関する特徴量は、0番目の点とk番目の点とn番目の点とがなす角度などである。分散に関する特徴量は、0番目の点からk番目の点までのx座標の分散およびy座標の分散などである。   Further, the feature amount related to the movement of the human 16 or the moving body 18b includes, for example, a feature amount related to distance, speed, angle, and dispersion. Referring to FIG. 4, the feature quantity related to the distance is the Euclidean distance, the x-direction distance, the y-direction distance, and the like between the 0th point and the kth point. The feature quantity related to speed is the speed between the 0th point and the nth point, for example, the speed between the kth point and the k + 1st point is obtained from k = 0 to k = n. Mean and variance (variation of values). The feature quantity related to the angle is an angle formed by the 0th point, the kth point, and the nth point. The feature amount related to the variance includes the variance of the x coordinate and the variance of the y coordinate from the 0th point to the kth point.

もちろん、これら以外の特徴量を算出して人間16の対物行動の推定に利用することもできる。また、位置履歴データから算出される特徴量に加えて、他のデータを参照して対物行動を推定することもできる。たとえば、対象物18がコミュニケーションロボットの場合、コミュニケーションロボットが或る動作を実行しているときには、その実行中の動作を参照して人間16の対物行動を推定してもよい。   Of course, feature quantities other than these can be calculated and used to estimate the objective behavior of the human 16. In addition to the feature amount calculated from the position history data, the objective behavior can be estimated by referring to other data. For example, when the object 18 is a communication robot, when the communication robot is performing a certain motion, the objective action of the human 16 may be estimated with reference to the motion being performed.

この実施例では、上述のような特徴量を適宜用いて、「対象物18に近づいている」、「対象物18から離れていく」、「対象物18についていく」、「対象物18を待っている」および「対象物18と対話している」等の人間16が行っている対物行動(或いは人間16の対物状況ないし対物状態)を推定する。以下、図5−図9を参照して、人間16の対物行動の推定方法について説明する。   In this embodiment, the above-described feature amount is appropriately used to “close to the object 18”, “go away from the object 18”, “follow the object 18”, “wait for the object 18”. The objective action (or the objective state or objective state of the human 16) performed by the human 16 such as “having” and “interacting with the object 18” is estimated. Hereinafter, with reference to FIG. 5 to FIG. 9, a method for estimating the objective behavior of the human 16 will be described.

人間16が「対象物18に近づいている」または「対象物18を追いかけている」状態は、図5に示すように、その行動を行っている間の或る一定時間(たとえば時刻t0からtnまでの数秒ないし数十秒間)において、人間16の移動方向に対象物18が存在し、かつ人間16と対象物18との距離が縮まっていく状態であると考えられる。したがって、人間16および対象物18を結ぶ線αと人間16の進行方向βとがなす角が所定角度(DegA_TH)よりも小さく、かつ人間16と対象物18との距離の減少量が所定量(Decrese_TH)よりも大きいときには、その人間16は対象物18に近づいている、または対象物18を追いかけていると判定できる。この場合、判別式DB38には、たとえば、“人間および対象物を結ぶ線と人間の進行方向とがなす角の角度<DegA_TH,かつ人間と対象物との距離の減少量>Decrese_TH ”を表わす判別式が記述される。   As shown in FIG. 5, the state in which the human 16 is “approaching the object 18” or “chasing the object 18” is in a certain time (for example, from time t0 to tn) while performing the action. It is considered that the object 18 exists in the moving direction of the person 16 and the distance between the person 16 and the object 18 is shortened in a few seconds to several tens of seconds). Therefore, the angle formed by the line α connecting the person 16 and the object 18 and the traveling direction β of the person 16 is smaller than the predetermined angle (DegA_TH), and the reduction amount of the distance between the person 16 and the object 18 is a predetermined amount ( When it is greater than (Decrese_TH), it can be determined that the human 16 is approaching the object 18 or is chasing the object 18. In this case, the discriminant DB 38 includes, for example, a discriminant representing “the angle between the line connecting the human and the object and the human traveling direction <DegA_TH and the amount of decrease in the distance between the human and the object> Decrese_TH”. An expression is described.

人間16が「対象物18から離れていく」状態は、図6に示すように、その行動を行っている間の或る一定時間において、人間16の移動方向に対象物18が存在せず、かつ人間16と対象物18との距離が大きくなっていく状態であると考えられる。したがって、人間16および対象物18を結ぶ線αと人間16の進行方向βとがなす角が所定角度(DegL_TH)よりも小さく、かつ人間16と対象物18との距離の増加量が所定量(Increse_TH)よりも大きいときには、その人間16は対象物18から離れていくと判定できる。この場合、判別式DB38には、たとえば、“人間および対象物を結ぶ線と人間の進行方向とがなす角の角度>DegL_TH,かつ人間と対象物との距離の増加量>Increse_TH ”を表わす判別式が記述される。   As shown in FIG. 6, the state in which the human 16 is “away from the object 18” has no object 18 in the moving direction of the human 16 for a certain period of time during the action, In addition, it is considered that the distance between the human 16 and the object 18 is increasing. Therefore, the angle formed by the line α connecting the person 16 and the object 18 and the traveling direction β of the person 16 is smaller than a predetermined angle (DegL_TH), and the increase amount of the distance between the person 16 and the object 18 is a predetermined amount ( If it is greater than (Increse_TH), it can be determined that the person 16 is moving away from the object 18. In this case, the discriminant DB 38 includes, for example, a discriminant representing “the angle of the angle formed by the line connecting the human and the object and the human traveling direction> DegL_TH and the increase in the distance between the human and the object> Increse_TH”. An expression is described.

人間16が「対象物18についていく」状態は、図7に示すように、その行動を行っている間の或る一定時間において、人間16の移動方向と対象物18の移動方向とが同じであり、かつ人間16と対象物18との距離が変化しない状態であると考えられる。したがって、人間16の移動方向βと対象物18の移動方向γとがなす角が所定角度(DegF_TH)よりも小さく、かつ人間16と対象物18との距離δの変化量が所定量(DistF_TH)よりも小さいときには、人間16は対象物18についていっていると判断できる。この場合、判別式DB38には、たとえば、“人間の移動方向と対象物の移動方向とがなす角の角度<DegF_TH,かつ人間と対象物との距離の変化量<DistF_TH ”を表わす判別式が記述される。   As shown in FIG. 7, the state in which the human 16 “follows the object 18” has the same movement direction of the human 16 and the movement direction of the object 18 for a certain period of time while performing the action. It is considered that the distance between the human 16 and the object 18 does not change. Therefore, the angle formed by the moving direction β of the human 16 and the moving direction γ of the target 18 is smaller than the predetermined angle (DegF_TH), and the change amount of the distance δ between the human 16 and the target 18 is a predetermined amount (DistF_TH). When it is smaller than that, it can be determined that the human 16 is talking about the object 18. In this case, the discriminant DB 38 includes, for example, a discriminant representing “angle angle between the moving direction of the human and the moving direction of the object <DegF_TH and a change amount of the distance between the human and the object <DistF_TH”. Described.

人間16が「対象物18を待っている」状態は、図8に示すように、その行動を行っている間の或る一定時間において、対象物18の移動方向に人間16が存在し、かつ人間16と対象物18との距離が縮まっていき、かつ人間16の位置が変わらない状態であると考えられる。したがって、人間16および対象物18を結ぶ線αと対象物18の進行方向γとがなす角が所定角度(DegW_TH)よりも小さく、かつ人間16と対象物18との距離の減少量が所定量(Decrese_TH)よりも大きく、かつ人間の移動量が所定量(DistI_TH)よりも小さいときには、人間16は対象物18を待っていると判定できる。この場合、判別式DB38には、たとえば、“人間および対象物を結ぶ線と対象物の進行方向とがなす角の角度<DegW_TH,かつ人間と対象物との距離の減少量>Decrese_TH,かつ人間の移動量<DistI_TH ”を表わす判別式が記述される。   As shown in FIG. 8, the state in which the human 16 is “waiting for the object 18” has the human 16 in the moving direction of the object 18 for a certain period of time while performing the action, and It is considered that the distance between the human 16 and the object 18 is decreasing and the position of the human 16 does not change. Therefore, the angle formed by the line α connecting the person 16 and the object 18 and the traveling direction γ of the object 18 is smaller than a predetermined angle (DegW_TH), and the amount of decrease in the distance between the person 16 and the object 18 is a predetermined amount. When it is larger than (Decrese_TH) and the movement amount of the human is smaller than the predetermined amount (DistI_TH), it can be determined that the human 16 is waiting for the object 18. In this case, the discriminant DB 38 includes, for example, “the angle between the line connecting the person and the object and the traveling direction of the object <DegW_TH, and the decrease amount of the distance between the person and the object> Decrese_TH, and the person A discriminant representing the amount of movement <DistI_TH ”is described.

人間16が「対象物18と対話している」状態は、図9に示すように、その行動を行っている間の或る一定時間において、人間16の位置が変わらず、かつ人間16が対象物18の方向を向いており、かつ対象物18の動作状態が対話中の状態であると考えられる。したがって、人間16の移動量が所定量(DistI_TH)よりも小さく、かつ人間16および対象物18を結ぶ線αと人間16の体の向きεとがなす角が所定角度(DegB_TH)よりも小さく、かつ対象物16の動作状態が対話中であるときには、その人間16は対象物18と対話していると判定できる。この場合、判別式DB38には、たとえば、“人間の移動量<DistI_TH,かつ人間および対象物を結ぶ線と人間の体の向きとがなす角の角度<DegB_TH,かつ対象物の動作状態が「対話中」 ”を表わす判別式が記述される。   As shown in FIG. 9, the state in which the human 16 is “interacting with the object 18” does not change the position of the human 16 for a certain period of time while performing the action, and the human 16 is the target. It is considered that the object 18 faces the direction of the object 18 and that the operation state of the object 18 is in a conversation state. Therefore, the movement amount of the human 16 is smaller than a predetermined amount (DistI_TH), and the angle formed by the line α connecting the human 16 and the object 18 and the body direction ε of the human 16 is smaller than the predetermined angle (DegB_TH). When the operation state of the object 16 is in a conversation, it can be determined that the person 16 is interacting with the object 18. In this case, the discriminant DB 38 includes, for example, “the amount of human movement <DistI_TH, the angle between the line connecting the human and the object and the direction of the human body <DegB_TH, and the operation state of the object” A discriminant representing “in dialogue” is described.

なお、上述の人間16の対物行動およびその判別式はあくまでも例示であり、推定装置10(提供システム100)は、他の対物行動を推定するようにしてもよいし、他の判別式を用いて対物行動を推定するようにしてもよい。また、上述のような閾値を用いて定義した判別式によって人間16の対物行動を推定することに限定されず、たとえば、サポートベクタマシン(SVM)やニューラルネットワーク(NN)等の公知の学習アルゴリズムと学習データとを用いて人間16の対物行動を推定することもできる。この場合にも、人間16および対象物18の位置履歴データから算出した上述のような特徴量が適宜用いられる。   It should be noted that the above-described objective action of human 16 and its discriminant are merely examples, and the estimation device 10 (providing system 100) may estimate other objective actions or use other discriminants. The objective behavior may be estimated. Further, it is not limited to estimating the objective behavior of the human 16 by the discriminant defined using the threshold value as described above. For example, a known learning algorithm such as a support vector machine (SVM) or a neural network (NN) The objective behavior of the human 16 can also be estimated using the learning data. Also in this case, the above-described feature amount calculated from the position history data of the person 16 and the object 18 is appropriately used.

このように、人間16および対象物18の位置履歴を検出し、人間16と対象物18との相互間に関する特徴量、人間16の移動に関する特徴量および対象物18(移動体18b)の移動に関する特徴量を算出して、これらの特徴量を判別式に適宜与えることによって、環境内に存在する人間16が行っている対物行動を正確に推定することができる。なお、対物行動の推定は、人間16と対象物18との相互間に関する特徴量のみを用いて推定することもできるが、それと共に人間16の移動に関する特徴量や対象物18の移動に関する特徴量、或いは他のデータを用いることによって、より正確に、またより多くの種類の対物行動を推定できるようになる。   As described above, the position history of the human 16 and the object 18 is detected, and the feature amount relating to the mutual relationship between the human 16 and the object 18, the feature amount relating to the movement of the human 16 and the movement of the object 18 (the moving body 18 b). By calculating the feature values and appropriately giving these feature values to the discriminant, it is possible to accurately estimate the objective action performed by the human 16 existing in the environment. Note that the objective behavior can be estimated using only the feature amount related to the relationship between the human 16 and the object 18, but at the same time, the feature amount related to the movement of the human 16 and the feature amount related to the movement of the target object 18. Alternatively, by using other data, more types of objective behavior can be estimated more accurately.

また、このような人間16の対物行動の推定は、数秒ないし数十秒の短時間、人間16および対象物18の位置履歴を検出するだけで実行できるので、その人間16の行動に素早く対応したサービスを提供することができる。   In addition, since the estimation of the objective action of the human 16 can be executed only by detecting the position history of the human 16 and the object 18 for a short time of several seconds to several tens of seconds, the human 16 can respond quickly to the action of the human 16. Service can be provided.

たとえば、ロボットをサービス提供装置14として環境内に配置しておき、推定した人間16の対物行動に応じたサービスをロボットに提供させるようにするとよい。ロボットとしては、音声および身体動作を用いてコミュニケーションを実行する機能を備える相互作用指向のもの(コミュニケーションロボット)を用いるとよく、たとえば本件出願人が開発したロボビー(登録商標)を用いることができる。また、たとえば、携帯電話やPDA等の端末をサービス提供装置14として人間16に所持させておき、推定した人間16の対物行動に応じた情報をその端末に提示することもできる。   For example, the robot may be arranged in the environment as the service providing device 14 and the robot may be provided with a service according to the estimated human 16 object behavior. As the robot, an interaction-oriented robot (communication robot) having a function of executing communication using voice and body movement may be used. For example, Robbie (registered trademark) developed by the present applicant can be used. In addition, for example, a terminal such as a mobile phone or a PDA can be held by the person 16 as the service providing apparatus 14 and information corresponding to the estimated objective behavior of the person 16 can be presented to the terminal.

具体的には、人間16が環境内に設置されている案内地図や展示棚(設置物18a)などに近づいている場合には、その推定を行った時点でロボットを設置物18aの場所に移動させるようにし、案内地図の見方を説明させたり、展示棚に展示された展示物の内容を説明させたりするとよい。たとえば、人間16が設置物18aの場所に到着してからロボットを移動させると、ロボットが人間16に近づくまでに時間がかかってしまい、サービスの提供が遅れてしまう。また、ロボットを設置物18aの場所に常在させておくと、ロボットは他のサービスを提供できなくなってしまう。しかし、この実施例のように、人間16の対物行動を推定(予測)して、それに応じてロボットを制御することによって、ロボットが人間16に近づくまでの時間を短縮でき、より速やかにサービスを提供できるようになる。また、ロボットの手が空いているときには、他のサービスを人間16に対して提供することもできるので、ロボットは効率よく働くことができる。   Specifically, when the human 16 is approaching a guidance map or an exhibition shelf (installed object 18a) installed in the environment, the robot is moved to the place of the installed object 18a when the estimation is performed. It is recommended to explain how to read the guide map or explain the contents of the exhibits displayed on the display shelf. For example, if the robot is moved after the person 16 arrives at the place of the installation object 18a, it takes time for the robot to approach the person 16 and service provision is delayed. Further, if the robot is always present at the place of the installation object 18a, the robot cannot provide other services. However, as in this embodiment, by estimating (predicting) the objective behavior of the human 16 and controlling the robot accordingly, the time until the robot approaches the human 16 can be shortened, and the service can be performed more quickly. Can be provided. Also, when the robot's hand is free, other services can be provided to the human 16 so that the robot can work efficiently.

また、ロボットが或る地点で待機しているときに、人間16が近づいてきている場合には、ロボットをその人間16に向かって移動させたり、ロボットが環境内を巡回しているときに、人間16が追いかけてくる場合には、ロボットを立ち止まらせてその人間16を待たせたりするとよい。さらに、ロボットが或るサービスを提供しようとして人間16に向かって移動しているときに、人間16がロボットを待っている状態であれば、そのまま人間16に向かって近づかせるようにするとよい。一方、ロボットが人間16に向かって移動しているときに、人間16がロボットから離れていく状態であれば、サービスは必要ないと判断して移動を中断させるようにするとよい。   Also, when the robot is waiting at a certain point and the human 16 is approaching, when the robot is moved toward the human 16 or when the robot is traveling around the environment, When the human 16 is chasing, it is good to stop the robot and make the human 16 wait. Furthermore, when the robot is moving toward the human 16 to provide a certain service, if the human 16 is waiting for the robot, the robot may approach the human 16 as it is. On the other hand, when the robot is moving toward the human 16, if the human 16 is moving away from the robot, it may be determined that no service is necessary and the movement is interrupted.

このように、対象物18に対して人間16がどのような行動を行っているかを推定することによって、現場の状況に応じたロボットの制御が可能となり、ロボットや人間16の動きの無駄を省くことができ、より高度なサービスをより素早く提供できるようになる。なお、この場合、ロボットはサービス提供装置14として機能すると共に、対象物18としても機能している。   Thus, by estimating what action the human 16 is performing on the object 18, it becomes possible to control the robot according to the situation at the site, and to eliminate the waste of movement of the robot and the human 16. And more advanced services can be provided more quickly. In this case, the robot functions as the service providing device 14 and also functions as the object 18.

以下には、上述のような推定装置10の動作の一例をフロー図を用いて説明する。具体的には、推定装置10のコンピュータ30のCPU32が、図10に示すフロー図に従って、特定の対象物18に対して人間16が行っている行動を推定する処理(行動推定処理)を実行する。図10に示すように、コンピュータ30のCPU32は、ステップS1で、環境内に人間16および対象物18が存在するか否かを判断する。たとえば、通信装置36を介して、環境内に存在する無線IDタグ26の識別情報を位置検出システム12から取得し、人間16および対象物18が環境内に存在するかどうかを判断する。ステップS1で“NO”のとき、すなわち環境内に人間16および対象物18が存在しないときには、そのままこの行動推定処理を終了する。一方、ステップS1で“YES”のとき、すなわち環境内に人間16および対象物18が存在するときには、ステップS3に進む。   Below, an example of operation | movement of the above estimation apparatuses 10 is demonstrated using a flowchart. Specifically, the CPU 32 of the computer 30 of the estimation device 10 executes a process (behavior estimation process) for estimating the action performed by the human 16 on the specific object 18 according to the flowchart shown in FIG. . As shown in FIG. 10, the CPU 32 of the computer 30 determines whether or not the person 16 and the object 18 exist in the environment in step S1. For example, the identification information of the wireless ID tag 26 existing in the environment is acquired from the position detection system 12 via the communication device 36, and it is determined whether the human 16 and the object 18 exist in the environment. If “NO” in the step S1, that is, if the human 16 and the object 18 do not exist in the environment, the action estimation process is ended as it is. On the other hand, if “YES” in the step S1, that is, if the person 16 and the object 18 exist in the environment, the process proceeds to a step S3.

ステップS3では、人間16のID番号を示す変数iおよび対象物18のID番号を示す変数kを初期化する(i=0,k=0)。たとえば、ステップS1で複数の人間16および複数の対象物18の存在が確認され、それら各人間16のID番号iを0〜Lとし、各対象物18のID番号kを0〜Mとした場合、i=0およびk=0に設定する。   In step S3, a variable i indicating the ID number of the person 16 and a variable k indicating the ID number of the object 18 are initialized (i = 0, k = 0). For example, when the presence of a plurality of persons 16 and a plurality of objects 18 is confirmed in step S1, the ID number i of each person 16 is set to 0 to L, and the ID number k of each object 18 is set to 0 to M. , I = 0 and k = 0.

続くステップS5では、i=Lか否かを判断する。つまり、環境内に存在する全ての人間16に対して対物行動を推定したか否かを判断する。ステップS5で“YES”のとき、すなわち環境内に存在する全ての人間16に対して行動推定を行ったときには、この行動推定処理を終了する。一方、ステップS5で“NO”のとき、すなわち環境内に行動推定を行っていない人間16が存在するときには、ステップS7に進む。   In a succeeding step S5, it is determined whether i = L. That is, it is determined whether or not the objective behavior has been estimated for all humans 16 existing in the environment. When “YES” in the step S5, that is, when the behavior estimation is performed for all the humans 16 existing in the environment, the behavior estimation processing is ended. On the other hand, if “NO” in the step S5, that is, if there is a person 16 who has not performed behavior estimation in the environment, the process proceeds to a step S7.

ステップS7では、人間16の所定時間分の位置履歴を取得する。具体的には、位置検出システム12から、その人間16の位置履歴を、たとえば時刻t0からtnまでの数秒ないし数十秒間分、通信装置36を介して取得する。このとき、ID番号がiである人間16(つまり人間i)の時刻がjのときの位置座標は、式Traj_ij(i=0…L,j=t0…tn)で表現され、図4に示すように、各人間16の位置履歴データは、時刻の情報を含むxy平面上のn+1個の点列で表される。   In step S7, a position history for a predetermined time of the human 16 is acquired. Specifically, the position history of the person 16 is acquired from the position detection system 12 via the communication device 36 for several seconds to several tens of seconds from time t0 to tn, for example. At this time, the position coordinates when the time of the person 16 whose ID number is i (that is, the person i) is j is expressed by the expression Traj_ij (i = 0... L, j = t0... Tn), and is shown in FIG. As described above, the position history data of each person 16 is represented by n + 1 point sequences on the xy plane including time information.

続くステップS9では、ステップS7で取得した人間16の位置履歴データから、第2特徴量、つまり人間16の移動に関する特徴量を算出する。たとえば、人間の移動距離、速度、角度および分散などに関する特徴量を算出する。なお、このステップS9で算出する第2特徴量は、判別式DB38に記憶された判別式に応じて適宜決定される。   In the subsequent step S9, a second feature value, that is, a feature value related to the movement of the person 16 is calculated from the position history data of the person 16 acquired in step S7. For example, a feature amount related to a human moving distance, speed, angle, variance, and the like is calculated. Note that the second feature amount calculated in step S9 is appropriately determined according to the discriminant stored in the discriminant DB 38.

ステップS11では、k=Mか否かを判断する。つまり、環境内に存在する全ての対象物18に対するその人間16の対物行動を推定したか否かを判断する。ステップS11で“YES”のとき、すなわち環境内に存在する全ての対象物18に対してその人間16の行動推定を行ったときには、ステップS13に進み、変数iをインクリメントしてステップS5に戻る。一方、ステップS11で“NO”のとき、すなわち環境内に存在する全ての対象物18に対してその人間16の行動推定を行っていないときには、ステップS15に進む。   In step S11, it is determined whether k = M. That is, it is determined whether or not the objective action of the person 16 for all the objects 18 existing in the environment has been estimated. If “YES” in the step S11, that is, if the action of the human 16 is estimated for all the objects 18 existing in the environment, the process proceeds to a step S13, the variable i is incremented, and the process returns to the step S5. On the other hand, if “NO” in the step S11, that is, if the action of the human 16 is not estimated for all the objects 18 existing in the environment, the process proceeds to a step S15.

ステップS15では、対象物18の所定時間分の位置履歴を取得する。具体的には、位置検出システム12から、その対象物18の位置履歴を、たとえば時刻t0からtnまでの数秒ないし数十秒間分、通信装置36を介して取得する。このとき、対象物18が移動体18bである場合には、ID番号がkである対象物18(対象物k)の時刻がjのときの位置座標は、式Traj_kj(k=0…M,j=t0…tn)で表現され、人間16と同様に、対象物18の位置履歴データは、時刻の情報を含むxy平面上のn+1個の点列で表される。また、対象物18が設置物18aである場合には、どの時刻においても位置座標は同じであるので、対象物18の位置履歴データは、xy平面上の1個の点で表される。   In step S15, a position history for a predetermined time of the object 18 is acquired. Specifically, the position history of the object 18 is acquired from the position detection system 12 through the communication device 36 for several seconds to several tens of seconds from time t0 to tn, for example. At this time, when the object 18 is the moving body 18b, the position coordinates when the time of the object 18 (object k) whose ID number is k is j are expressed by the formula Traj_kj (k = 0... M, j = t0... tn). Like the human 16, the position history data of the object 18 is represented by n + 1 point sequences on the xy plane including time information. When the object 18 is the installation object 18a, the position coordinates are the same at any time, and therefore the position history data of the object 18 is represented by one point on the xy plane.

続くステップS17では、ステップS15で取得した対象物18の位置履歴データから、第3特徴量、つまり移動体18bの移動に関する特徴量を算出する。このステップS17で算出する第3特徴量も、判別式DB38に記憶された判別式に応じて適宜決定される。なお、対象物18が設置物18aである場合には、このステップS17は実行されず、そのままステップS19に進む。   In the subsequent step S17, a third feature value, that is, a feature value related to the movement of the moving body 18b is calculated from the position history data of the object 18 acquired in step S15. The third feature amount calculated in step S17 is also appropriately determined according to the discriminant stored in the discriminant DB 38. When the object 18 is the installation object 18a, this step S17 is not executed and the process proceeds to step S19 as it is.

ステップS19では、ステップS7およびS15で取得した人間16および対象物18の位置履歴から、第1特徴量、つまり人間16と対象物18との相互間に関する特徴量を算出する。たとえば、人間16の位置座標と対象物18の位置座標との距離や、人間16と対象物18とを結ぶ線と人間16または対象物18の進行方向とがなす角の角度などを算出する。このステップS19で算出する第1特徴量も、判別式DB38に記憶された判別式に応じて適宜決定される。   In step S19, a first feature value, that is, a feature value related to the relationship between the person 16 and the object 18 is calculated from the position history of the person 16 and the object 18 acquired in steps S7 and S15. For example, the distance between the position coordinates of the person 16 and the position coordinates of the object 18, the angle between the line connecting the person 16 and the object 18 and the traveling direction of the person 16 or the object 18, and the like are calculated. The first feature amount calculated in step S19 is also appropriately determined according to the discriminant stored in the discriminant DB 38.

続くステップS21では、ステップS9、S17およびS19で算出した第1−3特徴量を、判別式DB38から読み出した判別式に与え、その人間16が対象物18に対して行っている行動を推定する。たとえば、人間16および対象物18を結ぶ線と人間16の進行方向とがなす角の角度<DegA_TH、かつ人間16と対象物18との距離の減少量>Decrese_THであるときには、その人間16はその対象物18に近づいていると判定する。   In subsequent step S21, the first to third feature values calculated in steps S9, S17, and S19 are given to the discriminant read from the discriminant DB 38, and the action that the person 16 is performing on the object 18 is estimated. . For example, when the angle between the line connecting the person 16 and the object 18 and the traveling direction of the person 16 <DegA_TH and the amount of decrease in the distance between the person 16 and the object 18> Decrese_TH, the person 16 It is determined that the object 18 is approaching.

そして、ステップS23では、その人間16の行動パターンを、ステップS21で算出した対物行動、たとえば「対象物に近づいている」に設定し、続くステップS25で変数kをインクリメントしてステップS11に戻る。   In step S23, the behavior pattern of the human 16 is set to the objective behavior calculated in step S21, for example, “approaching the object”, and in step S25, the variable k is incremented and the process returns to step S11.

なお、コンピュータ30または他のコンピュータは、ステップS23で設定された人間16の行動パターンに応じて、コミュニケーションロボットや携帯電話などのサービス提供装置14に指示を与える。つまり、サービス提供装置14に制御指示を与える制御指示処理を実行して、その人間16の対物行動に適したサービスを提供する。   The computer 30 or another computer gives an instruction to the service providing apparatus 14 such as a communication robot or a mobile phone according to the action pattern of the person 16 set in step S23. That is, a control instruction process for giving a control instruction to the service providing apparatus 14 is executed, and a service suitable for the objective action of the person 16 is provided.

この実施例によれば、人間16および対象物18の位置履歴を検出し、人間16と対象物18との相互間に関する特徴量、人間16の移動に関する特徴量および対象物18(移動体18b)の移動に関する特徴量を判別式に与えることによって、対象物18に対して人間16が行っている行動を短時間で推定できる。したがって、その人間16の対物行動に対応したサービスを素早く提供することができる。   According to this embodiment, the position history of the person 16 and the object 18 is detected, the feature amount relating to the mutual relationship between the person 16 and the object 18, the feature amount relating to the movement of the person 16, and the object 18 (moving body 18b). By giving the discriminant a feature amount related to the movement of the object 16, it is possible to estimate the action performed by the human 16 on the object 18 in a short time. Therefore, a service corresponding to the objective behavior of the person 16 can be provided quickly.

なお、上述の実施例では、位置検出システム12と推定装置10とで、異なるコンピュータ20,30を用いてそれぞれの処理(位置検出処理、行動推定処理および制御指示処理など)を分担して行うようにしたが、1つのコンピュータが一括してこれらの処理を行うこともできるし、3つ以上のコンピュータでさらに処理を分担して行うこともできる。   In the above-described embodiment, the position detection system 12 and the estimation device 10 perform different processing (position detection processing, behavior estimation processing, control instruction processing, and the like) using different computers 20 and 30. However, one computer can perform these processes in a lump, and three or more computers can further share the processes.

10 …対物行動推定装置
12 …位置検出システム
14 …サービス提供装置
16 …人間
18,18a,18b …対象物
20 …位置検出システムのコンピュータ
22 …レーザレンジファインダ
24 …無線IDタグリーダ
26 …無線IDタグ
30 …対物行動推定装置のコンピュータ
38 …判別式DB
100 …サービス提供システム
DESCRIPTION OF SYMBOLS 10 ... Objective action estimation apparatus 12 ... Position detection system 14 ... Service provision apparatus 16 ... Human 18, 18a, 18b ... Object 20 ... Position detection system computer 22 ... Laser range finder 24 ... Wireless ID tag reader 26 ... Wireless ID tag 30 ... computer of objective behavior estimation device 38 ... discriminant DB
100 ... service providing system

Claims (4)

特定の対象物に対して人間がどのような行動を行っているかを推定する対物行動推定装置であって、
前記対象物は、環境内を移動可能な移動体であり、
前記人間および前記対象物の所定時間分の位置履歴を取得する位置履歴取得手段、
前記位置履歴取得手段によって取得した前記位置履歴から、前記人間と前記対象物との相互間に関する特徴量を示す第1特徴量を算出する第1特徴量算出手段、
前記位置履歴取得手段によって取得した前記位置履歴から、前記対象物の移動に関する特徴量を示す第3特徴量を算出する第3特徴量算出手段、および
前記第1特徴量算出手段によって算出した前記第1特徴量および前記第3特徴量算出手段によって算出した前記第3特徴量を用いて、前記対象物に対して前記人間が行っている行動を推定する行動推定手段を備える、対物行動推定装置。
An objective behavior estimation device that estimates how a human being is acting on a specific object,
The object is a movable body that is movable in the environment,
Position history acquisition means for acquiring a position history for a predetermined time of the human and the object;
First feature amount calculating means for calculating a first feature amount indicating a feature amount between the person and the object from the position history acquired by the position history acquiring means;
From the position history acquired by the position history acquisition means, third feature amount calculation means for calculating a third feature amount indicating a feature amount related to the movement of the object, and the first feature amount calculated by the first feature amount calculation means. 1. An objective behavior estimation apparatus comprising behavior estimation means for estimating behavior performed by the human with respect to the object using one feature value and the third feature value calculated by the third feature value calculation means .
前記位置履歴取得手段によって取得した前記位置履歴から、前記人間の移動に関する特徴量を示す第2特徴量を算出する第2特徴量算出手段を備え、
前記行動推定手段は、さらに前記第2特徴量を用いて、前記対象物に対して前記人間が行っている行動を推定する、請求項1記載の対物行動推定装置。
A second feature amount calculating means for calculating a second feature amount indicating a feature amount related to the movement of the person from the position history acquired by the position history acquiring means;
The objective behavior estimation apparatus according to claim 1, wherein the behavior estimation unit further estimates the behavior performed by the human with respect to the object using the second feature amount.
請求項1または2記載の対物行動推定装置、および
前記対物行動推定装置によって推定された人間の行動に応じたサービスを提供するサービス提供手段を備える、サービス提供システム。
A service providing system comprising: the objective behavior estimation device according to claim 1 or 2 ; and service provision means for providing a service according to a human behavior estimated by the objective behavior estimation device.
前記サービス提供手段は、音声および身体動作を用いてコミュニケーションを実行する機能を備えるコミュニケーションロボットを含む、請求項記載のサービス提供システム。 The service providing system according to claim 3 , wherein the service providing unit includes a communication robot having a function of executing communication using voice and body movement.
JP2009071586A 2009-03-24 2009-03-24 Objective behavior estimation apparatus and service providing system Active JP5336896B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009071586A JP5336896B2 (en) 2009-03-24 2009-03-24 Objective behavior estimation apparatus and service providing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009071586A JP5336896B2 (en) 2009-03-24 2009-03-24 Objective behavior estimation apparatus and service providing system

Publications (2)

Publication Number Publication Date
JP2010224878A JP2010224878A (en) 2010-10-07
JP5336896B2 true JP5336896B2 (en) 2013-11-06

Family

ID=43041999

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009071586A Active JP5336896B2 (en) 2009-03-24 2009-03-24 Objective behavior estimation apparatus and service providing system

Country Status (1)

Country Link
JP (1) JP5336896B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6191163B2 (en) * 2013-02-28 2017-09-06 ノーリツプレシジョン株式会社 Watching system, information processing apparatus, information processing method, and program
JP5807170B2 (en) * 2013-03-21 2015-11-10 パナソニックIpマネジメント株式会社 Autonomous traveling control method and apparatus for autonomous traveling device and program for autonomous traveling control device
JP6150429B2 (en) * 2013-09-27 2017-06-21 株式会社国際電気通信基礎技術研究所 Robot control system, robot, output control program, and output control method
JP6749164B2 (en) * 2016-07-11 2020-09-02 株式会社エヌ・ティ・ティ・データ Service providing system and program
JP6662746B2 (en) * 2016-10-07 2020-03-11 ファナック株式会社 Work assistance system with machine learning unit
WO2019018958A1 (en) * 2017-07-22 2019-01-31 深圳市萨斯智能科技有限公司 Method for robot processing remote instruction, and robot
JP6664455B1 (en) * 2018-09-12 2020-03-13 株式会社ネクスティエレクトロニクス Information notification device, information notification method, and information notification program
JP7085266B2 (en) * 2019-03-22 2022-06-16 Kddi株式会社 Devices, programs and methods that can estimate satisfaction based on behavioral information
WO2024080225A1 (en) * 2022-10-13 2024-04-18 ソフトバンクグループ株式会社 Humanoid robot control system and program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3967151B2 (en) * 2002-03-01 2007-08-29 シャープ株式会社 Behavior monitoring system
JP4411393B2 (en) * 2004-11-02 2010-02-10 独立行政法人産業技術総合研究所 Analysis system
JP4822319B2 (en) * 2005-10-27 2011-11-24 株式会社国際電気通信基礎技術研究所 Communication robot and attention control system using the same

Also Published As

Publication number Publication date
JP2010224878A (en) 2010-10-07

Similar Documents

Publication Publication Date Title
JP5336896B2 (en) Objective behavior estimation apparatus and service providing system
JP4630146B2 (en) Position management system and position management program
US10948907B2 (en) Self-driving mobile robots using human-robot interactions
TWI481980B (en) Electronic apparatus and navigation method thereof
JP5617562B2 (en) Mobile robot
JP2017521761A (en) How to build a map of the probability of one of the absence and presence of obstacles in an autonomous robot
JP2010505179A (en) Autonomous mobile robot capable of bypassing obstacles and method thereof
EP2579191A1 (en) Flow line detection system, flow line detection method and flow line detection program
US11468891B2 (en) Information processor, information processing method, and program
JP2011054082A (en) Autonomous moving apparatus
EP3739415A1 (en) Information processing device, information processing method and program
CN108733059A (en) A kind of guide method and robot
CN104898675A (en) Robot intelligent navigation control method
TWI739339B (en) System for indoor positioning of personnel and tracking interactions with specific personnel by mobile robot and method thereof
CN113126600A (en) Follow system and article transfer cart based on UWB
JP5418938B2 (en) Group behavior estimation apparatus and service providing system
JP2012203646A (en) Flow-state discrimination device, flow-state discrimination method, flow-state discrimination program, and robot control system using the device, method and program
CN101923155B (en) Location filtering based on device mobility classification
JP2015066625A (en) Attention object estimation system, robot, and control program
JP7061474B2 (en) Traveling device
KR20160146033A (en) Method for tracking position of things using local area wireless communication
JP2020004182A (en) Robot, robot control program and robot control method
JP5567725B2 (en) Group behavior estimation device
CN115079689A (en) Control system for moving body, control method for moving body, and storage medium
WO2018156105A1 (en) Vehicle proximity tracking

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120319

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130430

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130507

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130610

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130730

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130802

R150 Certificate of patent or registration of utility model

Ref document number: 5336896

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250