JP5336896B2 - Objective behavior estimation apparatus and service providing system - Google Patents
Objective behavior estimation apparatus and service providing system Download PDFInfo
- Publication number
- JP5336896B2 JP5336896B2 JP2009071586A JP2009071586A JP5336896B2 JP 5336896 B2 JP5336896 B2 JP 5336896B2 JP 2009071586 A JP2009071586 A JP 2009071586A JP 2009071586 A JP2009071586 A JP 2009071586A JP 5336896 B2 JP5336896 B2 JP 5336896B2
- Authority
- JP
- Japan
- Prior art keywords
- human
- feature amount
- person
- objective
- position history
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004891 communication Methods 0.000 claims description 21
- 238000004364 calculation method Methods 0.000 claims description 5
- 230000006399 behavior Effects 0.000 description 59
- 230000009471 action Effects 0.000 description 49
- 238000001514 detection method Methods 0.000 description 29
- 238000000034 method Methods 0.000 description 20
- 230000008569 process Effects 0.000 description 13
- 238000009434 installation Methods 0.000 description 11
- 230000008859 change Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 4
- 238000012706 support-vector machine Methods 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 241000282412 Homo Species 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 239000002699 waste material Substances 0.000 description 2
- 241000282472 Canis lupus familiaris Species 0.000 description 1
- 241000282326 Felis catus Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- NJPPVKZQTLUDBO-UHFFFAOYSA-N novaluron Chemical compound C1=C(Cl)C(OC(F)(F)C(OC(F)(F)F)F)=CC=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F NJPPVKZQTLUDBO-UHFFFAOYSA-N 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
Images
Landscapes
- Manipulator (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
この発明は対物行動推定装置およびサービス提供システムに関し、特にたとえば、特定の対象物に対して人間がどのような行動を行っているかを推定する、新規な対物行動推定装置およびサービス提供システムに関する。 The present invention relates to an objective behavior estimation device and a service providing system, and more particularly to a novel objective behavior estimation device and a service provision system that estimate, for example, what kind of behavior a human is performing on a specific object.
従来、蓄積された個人の位置情報や移動情報に基づいて、その人間がどのような行動を行っているかを推定する技術が提案されている。たとえば、特許文献1の技術では、GPS端末を利用して対象者の位置情報を取得し、移動履歴と移動にかかった時間とに基づいて、「あまり興味のない探索行動」、「ぶらぶらしている探索行動」、「興味の対象がある探索行動」といった対象者の行動状態を推定している。
2. Description of the Related Art Conventionally, a technique has been proposed for estimating what kind of behavior a person is performing based on accumulated personal position information and movement information. For example, in the technique of
しかしながら、特許文献1の技術などの従来の行動推定装置では、特定の対象物と人間との位置関係は考慮されておらず、特定の対象物に対して人間がどのような行動を行っているかを推定する技術は存在しない。
However, in the conventional behavior estimation device such as the technique of
また、特許文献1の技術では、対象者の行動を推定するために、対象者を数分以上観測する必要があるので、対象者の行動に素早く対応したサービスを提供することができない。
Further, in the technique of
それゆえに、この発明の主たる目的は、新規な、対物行動推定装置およびサービス提供システムを提供することである。 Therefore, a main object of the present invention is to provide a novel objective behavior estimation apparatus and service providing system.
この発明の他の目的は、特定の対象物に対して人間がどのような行動を行っているかを推定できる、対物行動推定装置およびサービス提供システムを提供することである。 Another object of the present invention is to provide an objective behavior estimation device and a service providing system that can estimate what kind of behavior a human is performing on a specific object.
この発明のさらに他の目的は、特定の対象物に対して人間がどのような行動を行っているかを短時間の観測で推定できる、対物行動推定装置およびサービス提供システムを提供することである。 Still another object of the present invention is to provide an objective behavior estimating apparatus and a service providing system capable of estimating what behavior a human being is doing with respect to a specific object by short-time observation.
この発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明などは、本発明の理解を助けるために後述する実施の形態との対応関係を示したものであって、この発明を何ら限定するものではない。 The present invention employs the following configuration in order to solve the above problems. Note that reference numerals in parentheses and supplementary explanations indicate correspondence with embodiments described later in order to help understanding of the present invention, and do not limit the present invention.
第1の発明は、特定の対象物に対して人間がどのような行動を行っているかを推定する対物行動推定装置であって、対象物は、環境内を移動可能な移動体であり、人間および対象物の所定時間分の位置履歴を取得する位置履歴取得手段、位置履歴取得手段によって取得した位置履歴から人間と対象物との相互間に関する特徴量を示す第1特徴量を算出する第1特徴量算出手段、位置履歴取得手段によって取得した位置履歴から対象物の移動に関する特徴量を示す第3特徴量を算出する第3特徴量算出手段、および第1特徴量算出手段によって算出した第1特徴量および第3特徴量算出手段によって算出した第3特徴量を用いて対象物に対して人間が行っている行動を推定する行動推定手段を備える、対物行動推定装置である。 1st invention is the objective action estimation apparatus which estimates what kind of action the person is performing with respect to a specific target object, Comprising: A target object is a mobile body which can move in an environment, and a human being And a position history acquisition unit that acquires a position history for a predetermined time of the object, and a first feature amount that indicates a feature amount related to a human and the object from the position history acquired by the position history acquisition unit. A feature quantity calculating means, a third feature quantity calculating means for calculating a third feature quantity indicating a feature quantity relating to the movement of the object from the position history acquired by the position history acquiring means, and a first feature quantity calculated by the first feature quantity calculating means. It is an objective behavior estimation apparatus provided with behavior estimation means for estimating behavior performed by a human on an object using the feature amount and the third feature amount calculated by the third feature amount calculation means .
第1の発明では、対物行動推定装置(10)は、コンピュータ(30)を含み、環境に設置された位置検出システム(12)によって検出される人間(16)および環境内を移動可能な対象物(18b)の位置情報に基づいて、環境内に存在する人間が特定の対象物に対してどのような行動を行っているかを推定する。位置履歴取得手段(32,36,S7,S15)は、位置検出システムから、人間および対象物の所定時間分、たとえば数秒ないし数十秒間分の位置履歴を取得する。第1特徴量算出手段(32,S19)は、人間および対象物の位置履歴データから、人間と対象物との相互間に関する特徴量である第1特徴量を算出する。たとえば、人間の位置座標と対象物の位置座標との距離や、対象物に対する人間の相対速度などを算出する。また、第3特徴量算出手段(32,S17)は、対象物の位置履歴データから、対象物の移動に関する特徴量である第3特徴量を算出する。たとえば、対象物の移動距離、速度、角度および分散などに関する特徴量を算出する。行動推定手段(32,38,S21)は、第1特徴量および第3特徴量を用いて人間の行動を推定する。たとえば、閾値を用いて定義した判別式に第1特徴量および第3特徴量を与えたり、サポートベクタマシン(SVM)等の学習アルゴリズムを用いたりすることによって、対象物に対して人間が行っている行動(対物行動)を推定する。 In the first invention, the objective behavior estimation apparatus (10) includes a computer (30), and is detected by a position detection system (12) installed in the environment and an object movable in the environment . Based on the position information of ( 18b ), it is estimated what action a human being existing in the environment is performing on a specific object. The position history acquisition means (32, 36, S7, S15) acquires the position history for a predetermined time, for example, several seconds to several tens of seconds, of the human and the object from the position detection system. The first feature value calculating means (32, S19) calculates a first feature value that is a feature value related to the relationship between the person and the object from the position history data of the person and the object. For example, the distance between the human position coordinates and the position coordinates of the object, the relative speed of the person with respect to the object, and the like are calculated. Further, the third feature value calculating means (32, S17) calculates a third feature value that is a feature value related to the movement of the object from the position history data of the object. For example, a feature amount related to the moving distance, speed, angle, variance, etc. of the object is calculated. The behavior estimation means (32, 38, S21) estimates human behavior using the first feature value and the third feature value . For example, the first feature amount and the third feature amount are given to a discriminant defined using a threshold value, or a learning algorithm such as a support vector machine (SVM) is used to perform a human operation on an object. Is estimated (objective behavior).
第1の発明によれば、人間および対象物の位置履歴を検出し、人間と対象物との相互間に関する特徴量を示す第1特徴量および対象物の移動に関する特徴量を示す第3特徴量を用いることによって、対象物に対して人間が行っている行動を短時間で推定できる。したがって、その人間の対物行動に対応したサービスを素早く提供することができる。 According to the first aspect of the present invention, the position history of the person and the object is detected, the first feature quantity indicating the feature quantity between the person and the object, and the third feature quantity indicating the feature quantity related to the movement of the object. By using, it is possible to estimate in a short time the action that a person is performing on an object. Therefore, it is possible to quickly provide a service corresponding to the human objective behavior.
第2の発明は、第1の発明に従属し、位置履歴取得手段によって取得した位置履歴から人間の移動に関する特徴量を示す第2特徴量を算出する第2特徴量算出手段を備え、行動推定手段は、さらに第2特徴量を用いて対象物に対して人間が行っている行動を推定する。 A second invention is dependent on the first invention, and comprises second feature quantity calculation means for calculating a second feature quantity indicating a feature quantity related to human movement from the position history acquired by the position history acquisition means, and the behavior estimation The means further estimates an action performed by a human on the object using the second feature amount.
第2の発明では、第2特徴量算出手段(32,S9)は、人間(16)の位置履歴データから、人間の移動に関する特徴量である第2特徴量を算出する。たとえば、人間の移動距離、速度、角度および分散などに関する特徴量を算出する。行動推定手段(32,38,S21)は、さらに第2特徴量を用いて、人間の対物行動を推定する。 In the second invention, the second feature value calculating means (32, S9) calculates a second feature value that is a feature value related to the movement of the person from the position history data of the person (16). For example, a feature amount related to a human moving distance, speed, angle, variance, and the like is calculated. The behavior estimation means (32, 38, S21) further estimates the human objective behavior using the second feature amount.
第2の発明によれば、第1特徴量および第3特徴量に加えて第2特徴量も算出し、人間の対物行動の推定に用いるので、より正確に人間の対物行動を推定できる。また、より多くの種類の対物行動を推定できるようになる。 According to the second invention, since the second feature value is calculated in addition to the first feature value and the third feature value and is used for estimating the human objective behavior, the human objective behavior can be estimated more accurately. In addition, more types of objective behavior can be estimated.
第3の発明は、請求項1または2記載の対物行動推定装置、および対物行動推定装置によって推定された人間の行動に応じたサービスを提供するサービス提供手段を備える、サービス提供システムである。
A third invention is a service providing system comprising the objective behavior estimating device according to
第3の発明では、サービス提供システム(100)は、対物行動推定装置(10)を含み、環境に設置された位置検出システム(12)によって検出される人間(16)および環境内を移動可能な対象物(18b)の位置情報に基づいて、環境内に存在する人間が特定の対象物に対してどのような行動を行っているかを推定する。そして、サービス提供手段(10,14,S23)は、推定した人間の対物行動に応じたサービスをその人間に対して提供する。 In the third invention, the service providing system (100) includes the objective behavior estimation device (10), and is movable within the environment and the human (16) detected by the position detection system (12) installed in the environment. Based on the position information of the object ( 18b ), it is estimated what action a human being existing in the environment is performing on the specific object. The service providing means (10, 14, S23) provides a service corresponding to the estimated human objective behavior to the human.
第3の発明によれば、第1の発明と同様に、環境内に存在する人間が特定の対象物に対して行っている行動を短時間で推定できるので、人間の対物行動に素早く対応したサービスを提供できる。 According to the third invention, similar to the first invention, it is possible to estimate in a short time the action that a human being in the environment is performing on a specific object, so that it can quickly respond to the human objective action. Service can be provided.
第4の発明は、第3の発明に従属し、サービス提供手段は、音声および身体動作を用いてコミュニケーションを実行する機能を備えるコミュニケーションロボットを含む。 A fourth invention is dependent on the third invention, and the service providing means includes a communication robot having a function of executing communication using voice and body movement.
第4の発明では、サービス提供手段(10,14,S23)は、コミュニケーションロボット(14,18b)を含む。たとえば、コミュニケーションロボットが或る地点で待機しているときに、人間(16)が近づいてきている場合には、コミュニケーションロボットも人間に向かって移動するように制御される。 In the fourth invention, the service providing means (10, 14, S23) includes a communication robot (14, 18b). For example, when the communication robot is waiting at a certain point and the person (16) is approaching, the communication robot is controlled to move toward the person.
第4の発明によれば、対象物に対して人間がどのような行動を行っているかを推定することによって、現場の状況に応じたコミュニケーションロボットの制御が可能となるので、コミュニケーションロボットや人間の動きの無駄を省くことができ、より高度なサービスをより素早く提供できる。 According to the fourth aspect of the invention, it is possible to control the communication robot according to the situation at the site by estimating how the human being is acting on the object. It eliminates the waste of movement and provides more advanced services more quickly.
この発明によれば、人間および対象物の位置履歴を検出し、位置履歴から算出した人間と対象物との相互間に関する特徴量を示す第1特徴量および対象物の移動に関する特徴量を示す第3特徴量を利用することによって、環境内に存在する人間が特定の対象物に対してどのような行動を行っているかを短時間で推定できる。したがって、人間の行動に応じたサービスをその人間に対して素早く提供できる。 According to the present invention, the position history of the person and the object is detected, and the first feature quantity indicating the feature quantity between the person and the object calculated from the position history and the feature quantity relating to the movement of the object are displayed. By using the three feature amounts , it is possible to estimate in a short time what kind of action a human being existing in the environment is performing on a specific object. Therefore, it is possible to quickly provide a service corresponding to a human action to the human.
この発明の上述の目的、その他の目的、特徴および利点は、図面を参照して行う後述の実施例の詳細な説明から一層明らかとなろう。 The above object, other objects, features, and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.
図1を参照して、この発明の一実施例であるサービス提供システム(以下、「提供システム」という。)100は、対物行動推定装置(以下、「推定装置」という。)10、および位置検出システム12を含む。提供システム100は、イベント会場、ショッピングセンタ、美術館および遊園地などの環境に適用され、位置検出システム12によって検出される位置情報に基づいて、人間16の対物行動、つまり特定の対象物18に対して人間16がどのような行動を行っているかを推定する。そして、推定した人間16の対物行動に基づいて、コミュニケーションロボットや携帯電話などのサービス提供装置14に指示を与える等して、その対物行動に適したサービスをその人間16に対して提供する。
Referring to FIG. 1, a service providing system (hereinafter referred to as “providing system”) 100 according to an embodiment of the present invention includes an objective behavior estimating device (hereinafter referred to as “estimating device”) 10 and a position detection.
なお、特定の対象物18は、提供システム100が適用される環境内に存在する物体であれば特に限定されないが、好ましくは人間16が何らかの働きかけを行う物体、或いは人間16に何らかの働きかけを行う物体が特定の対象物18として適宜選択される。また、特定の対象物18には、環境内に固定的に設けられる設置物18aと、環境内を移動可能な移動体18bとを含む。設置物18aとしては、自動販売機、展示棚および案内標識(地図)などが挙げられ、移動体18bとしては、コミュニケーションロボット(人間型ロボット)等の移動ロボット、および犬や猫などの動物などが挙げられる。
The
先ず、位置検出システム12について説明する。図2は、位置検出システム12が適用された環境の様子を概略的に示す図解図であり、図3は、位置検出システム12の電気的な構成を示す図解図である。図2および図3に示すように、位置検出システム12は、人間16および対象物18の位置を検出するためのシステムであり、位置検出処理を実行するコンピュータ20、環境内に設置される複数のレーザレンジファインダ(LRF)22および無線IDタグリーダ24、ならびに人間16および移動体18b(移動可能な対象物18)に装着される無線IDタグ26を含む。
First, the
位置検出システム12のコンピュータ20は、パーソナルコンピュータやワークステーションのような汎用のコンピュータである。このコンピュータ20には、たとえばRS-232Cのような汎用のインタフェースを介して、複数のLRF22および無線IDタグリーダ24が接続される。これらの機器22,24によって検出された情報を含むデータは、コンピュータ20に送信され、その検出時刻と共にコンピュータ20のメモリの所定領域や外部のデータベースに適宜記憶される。また、コンピュータ20のメモリには、XY2次元平面座標系で表される環境の地図データ、各機器22,24の位置データ、および設置物18a(固定的に設けられる対象物18)の位置データ等が予め記憶されている。設置物18aの位置座標(位置履歴)が必要なときには、このコンピュータ20のメモリに記憶された位置データが適宜読み出されて利用される。
The
LRF22は、レーザ光線を利用した画像センサであり、パルスレーザを照射し、そのレーザ光が物体に反射して戻ってきた時間からその物体との距離を瞬時に測定するものである。LRF22としては、SICK社製のLRF(型式 LMS 200)などを用いることができる。LRF22は、たとえば、高さ約90cmの台座の上に設置され、主として環境内に存在する人間16の位置座標を検出するために利用される。
The
この実施例では、コンピュータ20は、たとえば37.5回/秒の頻度でLRF22からのセンサ情報を取得し、パーティクルフィルタや人形状モデルによって人間16の腰部の位置座標や身体の方向などを推定する。この推定方法の詳細については、本件出願人が先に出願した特願2008−6105号に記載されているので参照されたい。
In this embodiment, the
無線IDタグ26は、環境内に存在する各人間16および各移動体18bに装着される。無線IDタグ26としては、たとえばRFID(Radio Frequency Identification)タグを用いることができる。RFIDは、電磁波を利用した非接触ICタグによる自動認識技術のことである。具体的には、RFIDタグは、識別情報用のメモリや通信用の制御回路等を備えるICチップおよびアンテナ等を含む。RFIDタグのメモリには、人間16および移動体18bを識別可能な情報が予め記憶され、その識別情報が所定周波数の電磁波・電波などによってアンテナから出力される。
The
無線IDタグリーダ24は、たとえば環境内の天井に敷設されたレールに設置され、上述の無線IDタグ26からの出力情報を検出する。具体的には、無線IDタグリーダ24は、無線IDタグ26から送信される識別情報の重畳された電波を、アンテナを介して受信し、電波信号を増幅し、当該電波信号から識別情報を分離し、当該情報を復調(デコード)する。また、無線IDタグリーダ24は、検出した電波強度に基づいて、無線IDタグ26との距離を検出する。
The wireless
この実施例では、コンピュータ20は、たとえば5回/秒の頻度で無線IDタグリーダ24によって検出される無線IDタグ26からのセンサ情報(識別情報および距離情報)を取得する。そして、取得した識別情報に基づいて、その無線IDタグ26を装着している人間16および移動体18bを特定する。また、同一の無線IDタグ26に対して3つの無線IDタグリーダ24から取得した距離情報と、予め記憶した無線IDタグリーダ24の位置データとに基づいて、その無線IDタグ26を所持している人間16および移動体18bの位置座標を特定する。
In this embodiment, the
そして、位置検出システム12のコンピュータ20は、各機器22,24によって検出されたセンサ情報(測位データ)或いはセンサ情報から推定した情報を統合し、各人間16および各移動体18bの位置座標(x,y)をその検出時刻tに対応付けて、メモリ或いはデータベースに記憶する。つまり、人間16および移動体18b(識別情報またはID番号)ごとに、時系列データとしてその位置履歴が記憶される。たとえば、時刻tnにおける位置をPtn(xn,yn)としたとき、時刻t0からtnまでの軌跡は、点列Pt0,Pt1,…,Ptnとして表される。すなわち、各人間16および各移動体18bの位置履歴データ(移動軌跡データ)は、図4に示すように、xy平面上のn+1個の点列で表され、各点(図4では丸印で示している)は、その点が観測された時刻の情報を含んでいる。
Then, the
なお、位置検出システム12は、各人間16および各移動体18bを識別して位置座標ないし位置履歴を検出できるものであれば、上述の構成のものに限定されず、たとえば、赤外線センサ、ビデオカメラ、床センサ、或いはGPS等を適宜利用するものであってもよい。また、移動体18bが環境の地図データを参照して自己位置を認識しながら移動するもの、たとえば自律移動型のロボット等である場合には、移動体18bから位置検出システム12のコンピュータ20に対して、自身の位置履歴データを送信させるようにしてもよい。
The
推定装置10は、上述のような位置検出システム12から送信される人間16および対象物18の位置履歴データに基づいて、環境内に存在する人間16が行っている行動を推定する。換言すると、人間16と対象物18との位置関係の変化に基づいて、人間16の対物行動を推定する。
Based on the position history data of the
図1に戻って、推定装置10は、位置履歴データから特徴量を算出し、人間16の対物行動を推定するコンピュータ30を含む。コンピュータ30は、たとえば、CPU32、メモリ34、通信装置36、入力装置および表示装置などを備える汎用のパーソナルコンピュータやワークステーションである。コンピュータ30のメモリ34は、HDDやROMおよびRAMを含む。HDDないしROMには、推定装置10の動作を制御するためのプログラムが記憶されており、CPU32は、このプログラムに従って処理を実行する。RAMは、CPU32の作業領域またはバッファ領域として使用される。通信装置36は、たとえば無線LANやインタネットのようなネットワークを介して、外部のコンピュータ(位置検出システム12やサービス提供装置14等)と無線または有線で通信するためのものである。
Returning to FIG. 1, the estimation device 10 includes a
また、推定装置10のコンピュータ30には、判別式DB38が接続される。なお、判別式DB38は、図1に示すようにコンピュータ30の外部に設けられてもよいし、コンピュータ30内のHDD等に設けられてもよいし、コンピュータ30と通信可能なネットワーク上の他のコンピュータに設けられてもよい。
A
判別式DB38には、人間16および対象物18の位置履歴データから算出した特徴量に基づいて、環境内に存在する人間16が行っている対物行動を推定するための判別式が記憶される。人間16の対物行動を推定する際には、判別式DB38に記憶した判別式に応じて後述の特徴量が適宜算出される。この判別式の具体例については後述する。
The
このような構成の提供システム100では、上述のように、位置検出システム12によって環境内に存在する人間16および対象物18の位置座標或いは位置履歴に関するデータが検出される。そして、推定装置10によって位置履歴データから特徴量が算出され、この特徴量に基づいて人間16の対物行動が推定される。
In the providing
推定装置10によって位置履歴データから算出される特徴量には、人間16と対象物18との相互間に関する特徴量(第1特徴量)と、人間16の移動に関する特徴量(第2特徴量)と、移動体18bの移動に関する特徴量(第3特徴量)とが含まれる。なお、設置物18aに関しては、位置座標は常に固定されている、つまり位置履歴データは常に同じ位置座標を示しているので、設置物18aの移動に関する特徴量は算出されない。設置物18aの位置履歴データ(位置座標)は、第1特徴量の算出に利用される。
The feature quantity calculated from the position history data by the estimation device 10 includes a feature quantity (first feature quantity) between the human 16 and the
人間16と対象物18との相互間に関する特徴量には、人間16の位置座標と対象物18の位置座標との距離、対象物18に対する人間16の相対速度または人間16に対する対象物18の相対速度、人間16と対象物18とを結ぶ線と人間16または対象物18の進行方向とがなす角の角度、および人間16の進行方向と対象物18の進行方向とがなす角の角度などがある。
The feature amount between the human 16 and the
また、人間16または移動体18bの移動に関する特徴量には、たとえば、距離、速度、角度および分散に関する特徴量がある。図4を参照して、距離に関する特徴量は、0番目の点とk番目の点とのユークリッド距離、x方向距離およびy方向距離などである。速度に関する特徴量は、0番目の点とn番目の点との間の速度などであり、たとえば、k番目の点とk+1番目の点間の速度をk=0〜k=nまで求めたものの平均および分散(値のばらつき)である。角度に関する特徴量は、0番目の点とk番目の点とn番目の点とがなす角度などである。分散に関する特徴量は、0番目の点からk番目の点までのx座標の分散およびy座標の分散などである。
Further, the feature amount related to the movement of the human 16 or the moving
もちろん、これら以外の特徴量を算出して人間16の対物行動の推定に利用することもできる。また、位置履歴データから算出される特徴量に加えて、他のデータを参照して対物行動を推定することもできる。たとえば、対象物18がコミュニケーションロボットの場合、コミュニケーションロボットが或る動作を実行しているときには、その実行中の動作を参照して人間16の対物行動を推定してもよい。
Of course, feature quantities other than these can be calculated and used to estimate the objective behavior of the human 16. In addition to the feature amount calculated from the position history data, the objective behavior can be estimated by referring to other data. For example, when the
この実施例では、上述のような特徴量を適宜用いて、「対象物18に近づいている」、「対象物18から離れていく」、「対象物18についていく」、「対象物18を待っている」および「対象物18と対話している」等の人間16が行っている対物行動(或いは人間16の対物状況ないし対物状態)を推定する。以下、図5−図9を参照して、人間16の対物行動の推定方法について説明する。
In this embodiment, the above-described feature amount is appropriately used to “close to the
人間16が「対象物18に近づいている」または「対象物18を追いかけている」状態は、図5に示すように、その行動を行っている間の或る一定時間(たとえば時刻t0からtnまでの数秒ないし数十秒間)において、人間16の移動方向に対象物18が存在し、かつ人間16と対象物18との距離が縮まっていく状態であると考えられる。したがって、人間16および対象物18を結ぶ線αと人間16の進行方向βとがなす角が所定角度(DegA_TH)よりも小さく、かつ人間16と対象物18との距離の減少量が所定量(Decrese_TH)よりも大きいときには、その人間16は対象物18に近づいている、または対象物18を追いかけていると判定できる。この場合、判別式DB38には、たとえば、“人間および対象物を結ぶ線と人間の進行方向とがなす角の角度<DegA_TH,かつ人間と対象物との距離の減少量>Decrese_TH ”を表わす判別式が記述される。
As shown in FIG. 5, the state in which the human 16 is “approaching the
人間16が「対象物18から離れていく」状態は、図6に示すように、その行動を行っている間の或る一定時間において、人間16の移動方向に対象物18が存在せず、かつ人間16と対象物18との距離が大きくなっていく状態であると考えられる。したがって、人間16および対象物18を結ぶ線αと人間16の進行方向βとがなす角が所定角度(DegL_TH)よりも小さく、かつ人間16と対象物18との距離の増加量が所定量(Increse_TH)よりも大きいときには、その人間16は対象物18から離れていくと判定できる。この場合、判別式DB38には、たとえば、“人間および対象物を結ぶ線と人間の進行方向とがなす角の角度>DegL_TH,かつ人間と対象物との距離の増加量>Increse_TH ”を表わす判別式が記述される。
As shown in FIG. 6, the state in which the human 16 is “away from the
人間16が「対象物18についていく」状態は、図7に示すように、その行動を行っている間の或る一定時間において、人間16の移動方向と対象物18の移動方向とが同じであり、かつ人間16と対象物18との距離が変化しない状態であると考えられる。したがって、人間16の移動方向βと対象物18の移動方向γとがなす角が所定角度(DegF_TH)よりも小さく、かつ人間16と対象物18との距離δの変化量が所定量(DistF_TH)よりも小さいときには、人間16は対象物18についていっていると判断できる。この場合、判別式DB38には、たとえば、“人間の移動方向と対象物の移動方向とがなす角の角度<DegF_TH,かつ人間と対象物との距離の変化量<DistF_TH ”を表わす判別式が記述される。
As shown in FIG. 7, the state in which the human 16 “follows the
人間16が「対象物18を待っている」状態は、図8に示すように、その行動を行っている間の或る一定時間において、対象物18の移動方向に人間16が存在し、かつ人間16と対象物18との距離が縮まっていき、かつ人間16の位置が変わらない状態であると考えられる。したがって、人間16および対象物18を結ぶ線αと対象物18の進行方向γとがなす角が所定角度(DegW_TH)よりも小さく、かつ人間16と対象物18との距離の減少量が所定量(Decrese_TH)よりも大きく、かつ人間の移動量が所定量(DistI_TH)よりも小さいときには、人間16は対象物18を待っていると判定できる。この場合、判別式DB38には、たとえば、“人間および対象物を結ぶ線と対象物の進行方向とがなす角の角度<DegW_TH,かつ人間と対象物との距離の減少量>Decrese_TH,かつ人間の移動量<DistI_TH ”を表わす判別式が記述される。
As shown in FIG. 8, the state in which the human 16 is “waiting for the
人間16が「対象物18と対話している」状態は、図9に示すように、その行動を行っている間の或る一定時間において、人間16の位置が変わらず、かつ人間16が対象物18の方向を向いており、かつ対象物18の動作状態が対話中の状態であると考えられる。したがって、人間16の移動量が所定量(DistI_TH)よりも小さく、かつ人間16および対象物18を結ぶ線αと人間16の体の向きεとがなす角が所定角度(DegB_TH)よりも小さく、かつ対象物16の動作状態が対話中であるときには、その人間16は対象物18と対話していると判定できる。この場合、判別式DB38には、たとえば、“人間の移動量<DistI_TH,かつ人間および対象物を結ぶ線と人間の体の向きとがなす角の角度<DegB_TH,かつ対象物の動作状態が「対話中」 ”を表わす判別式が記述される。
As shown in FIG. 9, the state in which the human 16 is “interacting with the
なお、上述の人間16の対物行動およびその判別式はあくまでも例示であり、推定装置10(提供システム100)は、他の対物行動を推定するようにしてもよいし、他の判別式を用いて対物行動を推定するようにしてもよい。また、上述のような閾値を用いて定義した判別式によって人間16の対物行動を推定することに限定されず、たとえば、サポートベクタマシン(SVM)やニューラルネットワーク(NN)等の公知の学習アルゴリズムと学習データとを用いて人間16の対物行動を推定することもできる。この場合にも、人間16および対象物18の位置履歴データから算出した上述のような特徴量が適宜用いられる。
It should be noted that the above-described objective action of human 16 and its discriminant are merely examples, and the estimation device 10 (providing system 100) may estimate other objective actions or use other discriminants. The objective behavior may be estimated. Further, it is not limited to estimating the objective behavior of the human 16 by the discriminant defined using the threshold value as described above. For example, a known learning algorithm such as a support vector machine (SVM) or a neural network (NN) The objective behavior of the human 16 can also be estimated using the learning data. Also in this case, the above-described feature amount calculated from the position history data of the
このように、人間16および対象物18の位置履歴を検出し、人間16と対象物18との相互間に関する特徴量、人間16の移動に関する特徴量および対象物18(移動体18b)の移動に関する特徴量を算出して、これらの特徴量を判別式に適宜与えることによって、環境内に存在する人間16が行っている対物行動を正確に推定することができる。なお、対物行動の推定は、人間16と対象物18との相互間に関する特徴量のみを用いて推定することもできるが、それと共に人間16の移動に関する特徴量や対象物18の移動に関する特徴量、或いは他のデータを用いることによって、より正確に、またより多くの種類の対物行動を推定できるようになる。
As described above, the position history of the human 16 and the
また、このような人間16の対物行動の推定は、数秒ないし数十秒の短時間、人間16および対象物18の位置履歴を検出するだけで実行できるので、その人間16の行動に素早く対応したサービスを提供することができる。
In addition, since the estimation of the objective action of the human 16 can be executed only by detecting the position history of the human 16 and the
たとえば、ロボットをサービス提供装置14として環境内に配置しておき、推定した人間16の対物行動に応じたサービスをロボットに提供させるようにするとよい。ロボットとしては、音声および身体動作を用いてコミュニケーションを実行する機能を備える相互作用指向のもの(コミュニケーションロボット)を用いるとよく、たとえば本件出願人が開発したロボビー(登録商標)を用いることができる。また、たとえば、携帯電話やPDA等の端末をサービス提供装置14として人間16に所持させておき、推定した人間16の対物行動に応じた情報をその端末に提示することもできる。
For example, the robot may be arranged in the environment as the
具体的には、人間16が環境内に設置されている案内地図や展示棚(設置物18a)などに近づいている場合には、その推定を行った時点でロボットを設置物18aの場所に移動させるようにし、案内地図の見方を説明させたり、展示棚に展示された展示物の内容を説明させたりするとよい。たとえば、人間16が設置物18aの場所に到着してからロボットを移動させると、ロボットが人間16に近づくまでに時間がかかってしまい、サービスの提供が遅れてしまう。また、ロボットを設置物18aの場所に常在させておくと、ロボットは他のサービスを提供できなくなってしまう。しかし、この実施例のように、人間16の対物行動を推定(予測)して、それに応じてロボットを制御することによって、ロボットが人間16に近づくまでの時間を短縮でき、より速やかにサービスを提供できるようになる。また、ロボットの手が空いているときには、他のサービスを人間16に対して提供することもできるので、ロボットは効率よく働くことができる。
Specifically, when the human 16 is approaching a guidance map or an exhibition shelf (installed
また、ロボットが或る地点で待機しているときに、人間16が近づいてきている場合には、ロボットをその人間16に向かって移動させたり、ロボットが環境内を巡回しているときに、人間16が追いかけてくる場合には、ロボットを立ち止まらせてその人間16を待たせたりするとよい。さらに、ロボットが或るサービスを提供しようとして人間16に向かって移動しているときに、人間16がロボットを待っている状態であれば、そのまま人間16に向かって近づかせるようにするとよい。一方、ロボットが人間16に向かって移動しているときに、人間16がロボットから離れていく状態であれば、サービスは必要ないと判断して移動を中断させるようにするとよい。 Also, when the robot is waiting at a certain point and the human 16 is approaching, when the robot is moved toward the human 16 or when the robot is traveling around the environment, When the human 16 is chasing, it is good to stop the robot and make the human 16 wait. Furthermore, when the robot is moving toward the human 16 to provide a certain service, if the human 16 is waiting for the robot, the robot may approach the human 16 as it is. On the other hand, when the robot is moving toward the human 16, if the human 16 is moving away from the robot, it may be determined that no service is necessary and the movement is interrupted.
このように、対象物18に対して人間16がどのような行動を行っているかを推定することによって、現場の状況に応じたロボットの制御が可能となり、ロボットや人間16の動きの無駄を省くことができ、より高度なサービスをより素早く提供できるようになる。なお、この場合、ロボットはサービス提供装置14として機能すると共に、対象物18としても機能している。
Thus, by estimating what action the human 16 is performing on the
以下には、上述のような推定装置10の動作の一例をフロー図を用いて説明する。具体的には、推定装置10のコンピュータ30のCPU32が、図10に示すフロー図に従って、特定の対象物18に対して人間16が行っている行動を推定する処理(行動推定処理)を実行する。図10に示すように、コンピュータ30のCPU32は、ステップS1で、環境内に人間16および対象物18が存在するか否かを判断する。たとえば、通信装置36を介して、環境内に存在する無線IDタグ26の識別情報を位置検出システム12から取得し、人間16および対象物18が環境内に存在するかどうかを判断する。ステップS1で“NO”のとき、すなわち環境内に人間16および対象物18が存在しないときには、そのままこの行動推定処理を終了する。一方、ステップS1で“YES”のとき、すなわち環境内に人間16および対象物18が存在するときには、ステップS3に進む。
Below, an example of operation | movement of the above estimation apparatuses 10 is demonstrated using a flowchart. Specifically, the
ステップS3では、人間16のID番号を示す変数iおよび対象物18のID番号を示す変数kを初期化する(i=0,k=0)。たとえば、ステップS1で複数の人間16および複数の対象物18の存在が確認され、それら各人間16のID番号iを0〜Lとし、各対象物18のID番号kを0〜Mとした場合、i=0およびk=0に設定する。
In step S3, a variable i indicating the ID number of the
続くステップS5では、i=Lか否かを判断する。つまり、環境内に存在する全ての人間16に対して対物行動を推定したか否かを判断する。ステップS5で“YES”のとき、すなわち環境内に存在する全ての人間16に対して行動推定を行ったときには、この行動推定処理を終了する。一方、ステップS5で“NO”のとき、すなわち環境内に行動推定を行っていない人間16が存在するときには、ステップS7に進む。
In a succeeding step S5, it is determined whether i = L. That is, it is determined whether or not the objective behavior has been estimated for all
ステップS7では、人間16の所定時間分の位置履歴を取得する。具体的には、位置検出システム12から、その人間16の位置履歴を、たとえば時刻t0からtnまでの数秒ないし数十秒間分、通信装置36を介して取得する。このとき、ID番号がiである人間16(つまり人間i)の時刻がjのときの位置座標は、式Traj_ij(i=0…L,j=t0…tn)で表現され、図4に示すように、各人間16の位置履歴データは、時刻の情報を含むxy平面上のn+1個の点列で表される。
In step S7, a position history for a predetermined time of the human 16 is acquired. Specifically, the position history of the
続くステップS9では、ステップS7で取得した人間16の位置履歴データから、第2特徴量、つまり人間16の移動に関する特徴量を算出する。たとえば、人間の移動距離、速度、角度および分散などに関する特徴量を算出する。なお、このステップS9で算出する第2特徴量は、判別式DB38に記憶された判別式に応じて適宜決定される。
In the subsequent step S9, a second feature value, that is, a feature value related to the movement of the
ステップS11では、k=Mか否かを判断する。つまり、環境内に存在する全ての対象物18に対するその人間16の対物行動を推定したか否かを判断する。ステップS11で“YES”のとき、すなわち環境内に存在する全ての対象物18に対してその人間16の行動推定を行ったときには、ステップS13に進み、変数iをインクリメントしてステップS5に戻る。一方、ステップS11で“NO”のとき、すなわち環境内に存在する全ての対象物18に対してその人間16の行動推定を行っていないときには、ステップS15に進む。
In step S11, it is determined whether k = M. That is, it is determined whether or not the objective action of the
ステップS15では、対象物18の所定時間分の位置履歴を取得する。具体的には、位置検出システム12から、その対象物18の位置履歴を、たとえば時刻t0からtnまでの数秒ないし数十秒間分、通信装置36を介して取得する。このとき、対象物18が移動体18bである場合には、ID番号がkである対象物18(対象物k)の時刻がjのときの位置座標は、式Traj_kj(k=0…M,j=t0…tn)で表現され、人間16と同様に、対象物18の位置履歴データは、時刻の情報を含むxy平面上のn+1個の点列で表される。また、対象物18が設置物18aである場合には、どの時刻においても位置座標は同じであるので、対象物18の位置履歴データは、xy平面上の1個の点で表される。
In step S15, a position history for a predetermined time of the
続くステップS17では、ステップS15で取得した対象物18の位置履歴データから、第3特徴量、つまり移動体18bの移動に関する特徴量を算出する。このステップS17で算出する第3特徴量も、判別式DB38に記憶された判別式に応じて適宜決定される。なお、対象物18が設置物18aである場合には、このステップS17は実行されず、そのままステップS19に進む。
In the subsequent step S17, a third feature value, that is, a feature value related to the movement of the moving
ステップS19では、ステップS7およびS15で取得した人間16および対象物18の位置履歴から、第1特徴量、つまり人間16と対象物18との相互間に関する特徴量を算出する。たとえば、人間16の位置座標と対象物18の位置座標との距離や、人間16と対象物18とを結ぶ線と人間16または対象物18の進行方向とがなす角の角度などを算出する。このステップS19で算出する第1特徴量も、判別式DB38に記憶された判別式に応じて適宜決定される。
In step S19, a first feature value, that is, a feature value related to the relationship between the
続くステップS21では、ステップS9、S17およびS19で算出した第1−3特徴量を、判別式DB38から読み出した判別式に与え、その人間16が対象物18に対して行っている行動を推定する。たとえば、人間16および対象物18を結ぶ線と人間16の進行方向とがなす角の角度<DegA_TH、かつ人間16と対象物18との距離の減少量>Decrese_THであるときには、その人間16はその対象物18に近づいていると判定する。
In subsequent step S21, the first to third feature values calculated in steps S9, S17, and S19 are given to the discriminant read from the
そして、ステップS23では、その人間16の行動パターンを、ステップS21で算出した対物行動、たとえば「対象物に近づいている」に設定し、続くステップS25で変数kをインクリメントしてステップS11に戻る。 In step S23, the behavior pattern of the human 16 is set to the objective behavior calculated in step S21, for example, “approaching the object”, and in step S25, the variable k is incremented and the process returns to step S11.
なお、コンピュータ30または他のコンピュータは、ステップS23で設定された人間16の行動パターンに応じて、コミュニケーションロボットや携帯電話などのサービス提供装置14に指示を与える。つまり、サービス提供装置14に制御指示を与える制御指示処理を実行して、その人間16の対物行動に適したサービスを提供する。
The
この実施例によれば、人間16および対象物18の位置履歴を検出し、人間16と対象物18との相互間に関する特徴量、人間16の移動に関する特徴量および対象物18(移動体18b)の移動に関する特徴量を判別式に与えることによって、対象物18に対して人間16が行っている行動を短時間で推定できる。したがって、その人間16の対物行動に対応したサービスを素早く提供することができる。
According to this embodiment, the position history of the
なお、上述の実施例では、位置検出システム12と推定装置10とで、異なるコンピュータ20,30を用いてそれぞれの処理(位置検出処理、行動推定処理および制御指示処理など)を分担して行うようにしたが、1つのコンピュータが一括してこれらの処理を行うこともできるし、3つ以上のコンピュータでさらに処理を分担して行うこともできる。
In the above-described embodiment, the
10 …対物行動推定装置
12 …位置検出システム
14 …サービス提供装置
16 …人間
18,18a,18b …対象物
20 …位置検出システムのコンピュータ
22 …レーザレンジファインダ
24 …無線IDタグリーダ
26 …無線IDタグ
30 …対物行動推定装置のコンピュータ
38 …判別式DB
100 …サービス提供システム
DESCRIPTION OF SYMBOLS 10 ... Objective
100 ... service providing system
Claims (4)
前記対象物は、環境内を移動可能な移動体であり、
前記人間および前記対象物の所定時間分の位置履歴を取得する位置履歴取得手段、
前記位置履歴取得手段によって取得した前記位置履歴から、前記人間と前記対象物との相互間に関する特徴量を示す第1特徴量を算出する第1特徴量算出手段、
前記位置履歴取得手段によって取得した前記位置履歴から、前記対象物の移動に関する特徴量を示す第3特徴量を算出する第3特徴量算出手段、および
前記第1特徴量算出手段によって算出した前記第1特徴量および前記第3特徴量算出手段によって算出した前記第3特徴量を用いて、前記対象物に対して前記人間が行っている行動を推定する行動推定手段を備える、対物行動推定装置。 An objective behavior estimation device that estimates how a human being is acting on a specific object,
The object is a movable body that is movable in the environment,
Position history acquisition means for acquiring a position history for a predetermined time of the human and the object;
First feature amount calculating means for calculating a first feature amount indicating a feature amount between the person and the object from the position history acquired by the position history acquiring means;
From the position history acquired by the position history acquisition means, third feature amount calculation means for calculating a third feature amount indicating a feature amount related to the movement of the object, and the first feature amount calculated by the first feature amount calculation means. 1. An objective behavior estimation apparatus comprising behavior estimation means for estimating behavior performed by the human with respect to the object using one feature value and the third feature value calculated by the third feature value calculation means .
前記行動推定手段は、さらに前記第2特徴量を用いて、前記対象物に対して前記人間が行っている行動を推定する、請求項1記載の対物行動推定装置。 A second feature amount calculating means for calculating a second feature amount indicating a feature amount related to the movement of the person from the position history acquired by the position history acquiring means;
The objective behavior estimation apparatus according to claim 1, wherein the behavior estimation unit further estimates the behavior performed by the human with respect to the object using the second feature amount.
前記対物行動推定装置によって推定された人間の行動に応じたサービスを提供するサービス提供手段を備える、サービス提供システム。 A service providing system comprising: the objective behavior estimation device according to claim 1 or 2 ; and service provision means for providing a service according to a human behavior estimated by the objective behavior estimation device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009071586A JP5336896B2 (en) | 2009-03-24 | 2009-03-24 | Objective behavior estimation apparatus and service providing system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009071586A JP5336896B2 (en) | 2009-03-24 | 2009-03-24 | Objective behavior estimation apparatus and service providing system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010224878A JP2010224878A (en) | 2010-10-07 |
JP5336896B2 true JP5336896B2 (en) | 2013-11-06 |
Family
ID=43041999
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009071586A Active JP5336896B2 (en) | 2009-03-24 | 2009-03-24 | Objective behavior estimation apparatus and service providing system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5336896B2 (en) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6191163B2 (en) * | 2013-02-28 | 2017-09-06 | ノーリツプレシジョン株式会社 | Watching system, information processing apparatus, information processing method, and program |
JP5807170B2 (en) * | 2013-03-21 | 2015-11-10 | パナソニックIpマネジメント株式会社 | Autonomous traveling control method and apparatus for autonomous traveling device and program for autonomous traveling control device |
JP6150429B2 (en) * | 2013-09-27 | 2017-06-21 | 株式会社国際電気通信基礎技術研究所 | Robot control system, robot, output control program, and output control method |
JP6749164B2 (en) * | 2016-07-11 | 2020-09-02 | 株式会社エヌ・ティ・ティ・データ | Service providing system and program |
JP6662746B2 (en) * | 2016-10-07 | 2020-03-11 | ファナック株式会社 | Work assistance system with machine learning unit |
WO2019018958A1 (en) * | 2017-07-22 | 2019-01-31 | 深圳市萨斯智能科技有限公司 | Method for robot processing remote instruction, and robot |
JP6664455B1 (en) * | 2018-09-12 | 2020-03-13 | 株式会社ネクスティエレクトロニクス | Information notification device, information notification method, and information notification program |
JP7085266B2 (en) * | 2019-03-22 | 2022-06-16 | Kddi株式会社 | Devices, programs and methods that can estimate satisfaction based on behavioral information |
WO2024080225A1 (en) * | 2022-10-13 | 2024-04-18 | ソフトバンクグループ株式会社 | Humanoid robot control system and program |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3967151B2 (en) * | 2002-03-01 | 2007-08-29 | シャープ株式会社 | Behavior monitoring system |
JP4411393B2 (en) * | 2004-11-02 | 2010-02-10 | 独立行政法人産業技術総合研究所 | Analysis system |
JP4822319B2 (en) * | 2005-10-27 | 2011-11-24 | 株式会社国際電気通信基礎技術研究所 | Communication robot and attention control system using the same |
-
2009
- 2009-03-24 JP JP2009071586A patent/JP5336896B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2010224878A (en) | 2010-10-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5336896B2 (en) | Objective behavior estimation apparatus and service providing system | |
JP4630146B2 (en) | Position management system and position management program | |
US10948907B2 (en) | Self-driving mobile robots using human-robot interactions | |
TWI481980B (en) | Electronic apparatus and navigation method thereof | |
JP5617562B2 (en) | Mobile robot | |
JP2017521761A (en) | How to build a map of the probability of one of the absence and presence of obstacles in an autonomous robot | |
JP2010505179A (en) | Autonomous mobile robot capable of bypassing obstacles and method thereof | |
EP2579191A1 (en) | Flow line detection system, flow line detection method and flow line detection program | |
US11468891B2 (en) | Information processor, information processing method, and program | |
JP2011054082A (en) | Autonomous moving apparatus | |
EP3739415A1 (en) | Information processing device, information processing method and program | |
CN108733059A (en) | A kind of guide method and robot | |
CN104898675A (en) | Robot intelligent navigation control method | |
TWI739339B (en) | System for indoor positioning of personnel and tracking interactions with specific personnel by mobile robot and method thereof | |
CN113126600A (en) | Follow system and article transfer cart based on UWB | |
JP5418938B2 (en) | Group behavior estimation apparatus and service providing system | |
JP2012203646A (en) | Flow-state discrimination device, flow-state discrimination method, flow-state discrimination program, and robot control system using the device, method and program | |
CN101923155B (en) | Location filtering based on device mobility classification | |
JP2015066625A (en) | Attention object estimation system, robot, and control program | |
JP7061474B2 (en) | Traveling device | |
KR20160146033A (en) | Method for tracking position of things using local area wireless communication | |
JP2020004182A (en) | Robot, robot control program and robot control method | |
JP5567725B2 (en) | Group behavior estimation device | |
CN115079689A (en) | Control system for moving body, control method for moving body, and storage medium | |
WO2018156105A1 (en) | Vehicle proximity tracking |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120319 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130430 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130507 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130610 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130730 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130802 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5336896 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |