JP2010201566A - Mobile body managing system, mobile body managing device and mobile body managing program - Google Patents

Mobile body managing system, mobile body managing device and mobile body managing program Download PDF

Info

Publication number
JP2010201566A
JP2010201566A JP2009050127A JP2009050127A JP2010201566A JP 2010201566 A JP2010201566 A JP 2010201566A JP 2009050127 A JP2009050127 A JP 2009050127A JP 2009050127 A JP2009050127 A JP 2009050127A JP 2010201566 A JP2010201566 A JP 2010201566A
Authority
JP
Japan
Prior art keywords
acceleration
axis
human
correlation coefficient
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009050127A
Other languages
Japanese (ja)
Other versions
JP5366046B2 (en
Inventor
Masahiro Shiomi
昌裕 塩見
Keiko Miyashita
敬宏 宮下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2009050127A priority Critical patent/JP5366046B2/en
Publication of JP2010201566A publication Critical patent/JP2010201566A/en
Application granted granted Critical
Publication of JP5366046B2 publication Critical patent/JP5366046B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a mobile body managing system 100 which identifies human beings A and B respectively by using the acceleration of the moving human beings A and B. <P>SOLUTION: The mobile body managing system 100 includes a central control unit 10 and a portable terminal 12. The central control unit 10 having an LRF(18) and the portable terminal 12 having an acceleration sensor (142) establish a short range radio communication. The portable terminal 12 transmits an acceleration outputted from the acceleration sensor (142) to the central control unit 10. The central control unit 10 records a position of the human being by the LRF(18) and calculates the acceleration of the human being from the history of the position. The central control unit 10 calculates a correlation coefficient of the calculated acceleration and the received acceleration to coordinate a human being ID with a sensor ID, records the coordinated IDs in the ID table and identifies the human beings A and B respectively. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

この発明は、移動体管理システムに関し、特にたとえば複数の情報を管理する、移動体管理システムに関する。   The present invention relates to a mobile management system, and more particularly to a mobile management system that manages, for example, a plurality of information.

この種の従来の管理装置の一例が、特許文献1に開示されている。この特許文献1のコミュニケーションロボットは、複数のユーザが所持しているRFID(Radio Frequency Identification)タグが送信する情報を受信することで、近傍あるいは周囲に存在するユーザを識別する。さらに、ロボットは、各RFIDタグが送信する際の電波強度から、最近傍のユーザを特定してコミュニケーション行動をとる。   An example of this type of conventional management apparatus is disclosed in Patent Document 1. The communication robot disclosed in Patent Literature 1 receives information transmitted from an RFID (Radio Frequency Identification) tag possessed by a plurality of users, thereby identifying users existing in the vicinity or in the vicinity. Further, the robot takes a communication action by specifying the nearest user from the radio wave intensity when each RFID tag transmits.

また、この種の従来の管理装置の一例が、特許文献2にも開示されている。この特許文献2のRFID管理装置は、受信圏内に存在するRFIDタグの数を推定するリーダーを備え、受信圏内におけるRFIDタグの数の変動を管理する。たとえば、RFIDタグは様々な物品に張り付けられ、或る程度の時間をおいてランダムに自IDを送信する。また、リーダーは送信されたIDを受信して、データベースに記録されているIDと比較する。これにより、受信圏内に存在するRFIDタグの数が減った場合に、RFID管理装置はLEDなどの通知手段によって外部に通知する。
特開2007−320033号公報[B25J 13/08, A63H 11/00, A63H 3/33, A63H 3/38] 特開2006−50049号公報[H04B 1/59, G06K 17/00, H04B 5/02]
An example of this type of conventional management apparatus is also disclosed in Patent Document 2. The RFID management apparatus disclosed in Patent Document 2 includes a reader that estimates the number of RFID tags existing in the reception area, and manages fluctuations in the number of RFID tags in the reception area. For example, RFID tags are attached to various articles, and their IDs are randomly transmitted after a certain amount of time. The reader receives the transmitted ID and compares it with the ID recorded in the database. As a result, when the number of RFID tags existing in the reception area decreases, the RFID management apparatus notifies the outside by a notification means such as an LED.
JP 2007-320033 A [B25J 13/08, A63H 11/00, A63H 3/33, A63H 3/38] JP 2006-50049 A [H04B 1/59, G06K 17/00, H04B 5/02]

しかし、特許文献1に示す背景技術では、ロボットは、RFIDタグを所持しないユーザからは情報を取得することができず、RFIDタグを所持しないユーザを識別することができなかった。また、特許文献2に示す背景技術でも、RFIDタグが張り付けられていない物品は、管理することができない。   However, in the background art disclosed in Patent Document 1, the robot cannot acquire information from a user who does not have an RFID tag, and cannot identify a user who does not have an RFID tag. Further, even in the background art disclosed in Patent Document 2, an article to which an RFID tag is not attached cannot be managed.

それゆえに、この発明の主たる目的は、新規な、移動体管理装置を提供することである。   Therefore, a main object of the present invention is to provide a novel mobile management device.

この発明の他の目的は、移動する人間を容易に管理することができる、移動体管理装置および管理プログラムを提供することである。   Another object of the present invention is to provide a moving body management apparatus and a management program capable of easily managing a moving person.

この発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明等は、この発明の理解を助けるために記述する実施形態との対応関係を示したものであって、この発明を何ら限定するものではない。   The present invention employs the following configuration in order to solve the above problems. The reference numerals in parentheses, supplementary explanations, and the like indicate the corresponding relationship with the embodiments described in order to help understanding of the present invention, and do not limit the present invention.

第1の発明は、第1移動体に設けられて第1加速度を検出する加速度センサ、第2移動体の位置を検出する位置検出手段、位置検出手段によって検出された位置の履歴に基づいて第2加速度を算出する第1算出手段、第1加速度および第2加速度の相関係数を算出する第2算出手段、相関係数が所定値以上であるとき、第1移動体と第2移動体とを同一移動体として同定する同定手段、および同定手段による同定に応じて所定の処理を実行する処理手段を備える、移動体管理システムである。   According to a first aspect of the present invention, there is provided an acceleration sensor provided on the first moving body for detecting the first acceleration, a position detecting means for detecting the position of the second moving body, and a history of positions detected by the position detecting means. A first calculating means for calculating two accelerations, a second calculating means for calculating a correlation coefficient between the first acceleration and the second acceleration, and when the correlation coefficient is equal to or greater than a predetermined value, It is a mobile body management system provided with the identification means which identifies as a same mobile body, and the processing means which performs a predetermined | prescribed process according to the identification by an identification means.

第1の発明では、加速度センサ(142)は、人間(A,B)などの第1移動体が所持する携帯端末(12)などに含まれ、中央制御装置10などに送信される。また、LRF(Laser Range Finder:レーザーレンジファインダ)などの位置検出手段(18a,18b)は、検出領域(E)内の人間(A,B)などの第2移動体が居る位置を検出する。第1算出手段(16,S31)は、位置の履歴を示す歩行軌跡(K)から、第2移動体の第2加速度を算出する。また、第2算出手段(16,S61−S73)は、第1加速度および第2加速度の変化から、一定時間(1秒)毎の加速度値を利用して、ピアソンの積率相関係数を算出する。同定手段(16,S43)は、算出された相関係数が、所定値(0.80)以上であれば、第1移動体と第2移動体が同一移動体、つまり同一人物であると同定する。そして、処理手段(16,S43,S45)は、同定結果に応じて様々な処理を実行する。なお、第1移動体および第2移動体は、2体以上の複数であっても同定可能である。   In the first invention, the acceleration sensor (142) is included in the portable terminal (12) possessed by the first moving body such as a human (A, B) and transmitted to the central control device 10 or the like. Further, position detection means (18a, 18b) such as LRF (Laser Range Finder) detects the position where the second moving body such as a human (A, B) is present in the detection area (E). The first calculation means (16, S31) calculates the second acceleration of the second moving body from the walking locus (K) indicating the position history. The second calculation means (16, S61-S73) calculates the Pearson product moment correlation coefficient from the changes in the first acceleration and the second acceleration, using the acceleration value for each predetermined time (one second). To do. The identification means (16, S43) identifies that the first moving body and the second moving body are the same moving body, that is, the same person if the calculated correlation coefficient is equal to or greater than a predetermined value (0.80). To do. And a process means (16, S43, S45) performs various processes according to an identification result. The first moving body and the second moving body can be identified even if there are two or more.

第1の発明によれば、移動する人間の加速度を利用して人間を同定することで、移動する各人間を管理することができるようになる。さらに、移動する人間を管理することで、様々な処理を実行することができる。たとえば、様々な処理としては、同定結果をデータとして記録する処理などであり、加速度センサが出力する第1加速度と共に、第1移動体の個人情報(公開データ)などを送信していれば、そのデータも併せて記録する。さらに、その個人情報を利用して、同一移動体の探索サービスや、情報提供サービスなどを提供できるようになる。   According to the first aspect of the present invention, each moving person can be managed by identifying the person using the acceleration of the moving person. Furthermore, various processes can be executed by managing a moving person. For example, various processes include a process of recording the identification result as data. If the personal information (public data) of the first moving body is transmitted together with the first acceleration output from the acceleration sensor, the process Also record the data. Further, the personal information can be used to provide a search service for the same mobile body, an information providing service, and the like.

第2の発明は、第1の発明に従属し、所定処理手段は、加速度センサに設定された第1IDと第2移動体に設定された第2IDとを対応付けて記録する記録手段を含む。   A second invention is dependent on the first invention, and the predetermined processing means includes a recording means for recording the first ID set in the acceleration sensor and the second ID set in the second moving body in association with each other.

第2の発明では、第1ID(センサID)は001からMのID番号で示され、第2ID(人間ID)は001からLのID番号で示される。そして、記録手段(16,22,S43,S45)は、同定手段によって同定されると、第1IDのID番号と第2IDのID番号とを対応付けて、IDテーブルなどに記録する。   In the second invention, the first ID (sensor ID) is indicated by an ID number from 001 to M, and the second ID (human ID) is indicated by an ID number from 001 to L. Then, the recording means (16, 22, S43, S45), when identified by the identifying means, records the ID number of the first ID and the ID number of the second ID in association with each other in the ID table or the like.

第2の発明によれば、移動する人間はIDによって管理することができるため、多くの人間を管理する場合に、IDのテーブルデータを単純な構成にすることができる。そして、テーブルデータの構成を単純にすることで、そのテーブルデータに対する検索処理などの処理時間を短縮することができる
第3の発明は、第1の発明または第2の発明に従属し、第1加速度および第2加速度のそれぞれは、地面に水平な第1方向の加速度および第1方向に対して垂直に交わり、かつ地面に水平な第2方向の加速度から構成されており、第2算出手段は、第1方向の加速度の相関係数を算出する第1方向算出手段および第2方向の加速度を算出する第2方向算出手段を含み、同定手段は、第1方向算出手段および第2方向算出手段のそれぞれが算出した2つの相関係数が所定値以上であり、かつ2つの相関係数の和が最大値となる、第1移動体と第2移動体とを同一移動体として同定する。
According to the second aspect, since the moving person can be managed by the ID, the ID table data can be made simple when managing a large number of persons. Then, by simplifying the configuration of the table data, the processing time for the search processing for the table data can be shortened. The third invention is dependent on the first invention or the second invention, Each of the acceleration and the second acceleration is composed of an acceleration in a first direction horizontal to the ground and an acceleration in the second direction perpendicular to the first direction and horizontal to the ground. The first direction calculating means for calculating the correlation coefficient of the acceleration in the first direction and the second direction calculating means for calculating the acceleration in the second direction, and the identifying means includes the first direction calculating means and the second direction calculating means. The first moving body and the second moving body in which the two correlation coefficients calculated by each of the two are equal to or greater than a predetermined value and the sum of the two correlation coefficients is the maximum value are identified as the same moving body.

第3の発明では、第1加速度および第2加速度は、地面に対して水平なX軸方向およびY軸方向の加速度から構成される。また、第1方向算出手段(16,S61,S65,S69−S73)は、X軸の相関係数を算出し、第2方向算出手段(16,S63,S67−S73)は、Y軸方向の相関係数を算出する。そして、同定手段は、2つ相関係数が所定値以上であり、かつ2つの相関係数の和が最大値となる、第1移動体と第2移動体とを同一移動体として同定する。   In the third invention, the first acceleration and the second acceleration are composed of accelerations in the X-axis direction and the Y-axis direction that are horizontal to the ground. The first direction calculation means (16, S61, S65, S69-S73) calculates the correlation coefficient of the X axis, and the second direction calculation means (16, S63, S67-S73) A correlation coefficient is calculated. Then, the identifying means identifies the first moving body and the second moving body that have two correlation coefficients that are equal to or greater than a predetermined value and that have a maximum sum of the two correlation coefficients as the same moving body.

第3の発明によれば、2軸から構成される加速度を利用することで、信頼性の高い同定ができるようになる。   According to the third aspect of the invention, it is possible to identify with high reliability by using an acceleration composed of two axes.

第4の発明は、第1移動体(A,B)に設けられる加速度センサ(12,142)が発信する第1加速度を受信する受信手段(16,20)、第2移動体(A,B)の位置を検出する位置検出手段(18a,18b)、位置検出手段によって検出された位置の履歴に基づいて第2加速度を算出する第1算出手段(16,S31)、第1加速度および第2加速度の相関係数を算出する第2算出手段(16,S61−S73)、相関係数が所定値以上であるとき、第1移動体と第2移動体とを同一移動体として同定する同定手段(16,S43)、および同定手段による同定に応じて所定の処理を実行する処理手段(16,S43,S45)を備える、移動体管理装置である。   4th invention is a receiving means (16,20) which receives the 1st acceleration which the acceleration sensor (12,142) provided in the 1st moving body (A, B) transmits, and the 2nd moving body (A, B) ) Position detecting means (18a, 18b) for detecting the position, first calculating means (16, S31) for calculating the second acceleration based on the position history detected by the position detecting means, the first acceleration and the second acceleration Second calculating means (16, S61-S73) for calculating a correlation coefficient of acceleration, and an identifying means for identifying the first moving body and the second moving body as the same moving body when the correlation coefficient is equal to or greater than a predetermined value. (16, S43), and a moving body management apparatus including processing means (16, S43, S45) for executing a predetermined process in response to identification by the identification means.

第4の発明でも、第1の発明と同様に、移動する人間の加速度を利用して人間を同定することで、移動する各人間を管理することができ、移動する人間を管理することで、様々な処理を実行することができるようになる。   In the fourth invention as well, as in the first invention, each moving person can be managed by identifying the person using the acceleration of the moving person, and by managing the moving person, Various processes can be executed.

第5の発明は、第1移動体(A,B)に設けられる加速度センサ(12,142)が発信する第1加速度を受信する受信手段(16,20)と、第2移動体(A,B)の位置を検出する位置検出手段(18a,18b)とを備える管理装置(10)のプロセサ(16)を、位置検出手段によって検出された位置の履歴に基づいて第2加速度を算出する第1算出手段(S31)、第1加速度および第2加速度の相関係数を算出する第2算出手段(S61−S73)、相関係数が所定値以上であるとき、第1移動体と第2移動体とを同一移動体として同定する同定手段(S43)、および同定手段による同定に応じて所定の処理を実行する処理手段(S43,S45)として機能させる、移動体管理プログラムである。   The fifth invention comprises a receiving means (16, 20) for receiving a first acceleration transmitted from an acceleration sensor (12, 142) provided in the first moving body (A, B), and a second moving body (A, B). The processor (16) of the management device (10) including position detection means (18a, 18b) for detecting the position of B) calculates the second acceleration based on the position history detected by the position detection means. 1 calculating means (S31), second calculating means (S61-S73) for calculating a correlation coefficient between the first acceleration and the second acceleration, and the first moving body and the second movement when the correlation coefficient is equal to or greater than a predetermined value. This is a moving body management program that functions as identification means (S43) for identifying a body as the same moving body, and processing means (S43, S45) for executing predetermined processing in accordance with identification by the identification means.

第5の発明でも、第1の発明と同様に、移動する人間の加速度を利用して人間を同定することで、移動する各人間を管理することができ、移動する人間を管理することで、様々な処理を実行することができるようになる。   In the fifth invention, similarly to the first invention, each moving person can be managed by identifying the person using the acceleration of the moving person, and by managing the moving person, Various processes can be executed.

この発明によれば、移動体管理システムは、移動する人間の加速度を利用して人間を同定できるため、人間を管理することができるようになる。   According to this invention, since the moving body management system can identify a person using the acceleration of the moving person, it can manage the person.

この発明の上述の目的、その他の目的、特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。   The above object, other objects, features, and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

図1はこの発明の管理システムの構成の一例を示す図解図である。FIG. 1 is an illustrative view showing one example of a configuration of a management system of the present invention. 図2は図1に示す中央制御装置の電気的な構成を示すブロック図である。FIG. 2 is a block diagram showing an electrical configuration of the central controller shown in FIG. 図3は図1に示す携帯端末の電気的な構成を示すブロック図である。FIG. 3 is a block diagram showing an electrical configuration of the mobile terminal shown in FIG. 図4は図2に示すLRFの計測領域を示す図解図である。FIG. 4 is an illustrative view showing a measurement region of the LRF shown in FIG. 図5は図2に示すLRFを利用して取得された人間の歩行軌跡の一例を示す図解図である。FIG. 5 is an illustrative view showing one example of a human walking trajectory acquired using the LRF shown in FIG. 図6は図5に示す人間Aの歩行軌跡から算出された加速度の変化を示すグラフである。FIG. 6 is a graph showing changes in acceleration calculated from the walking trajectory of the person A shown in FIG. 図7は図5に示す人間Bの歩行軌跡から算出された加速度の変化を示すグラフである。FIG. 7 is a graph showing changes in acceleration calculated from the walking trajectory of the person B shown in FIG. 図8は図3に示す加速度センサが出力する加速度の変化の一例を示すグラフである。FIG. 8 is a graph showing an example of a change in acceleration output from the acceleration sensor shown in FIG. 図9は図2に示す中央制御装置のメモリに記憶される計算テーブルおよび相関テーブルの一例を示す図数である。FIG. 9 is a diagram showing an example of a calculation table and a correlation table stored in the memory of the central controller shown in FIG. 図10は図2に示す中央制御装置のメモリに記憶されるセンサテーブルの一例を示す図数である。FIG. 10 is a diagram showing an example of a sensor table stored in the memory of the central controller shown in FIG. 図11は図2に示す中央制御装置のメモリに記憶されるIDテーブルの一例を示す図数である。FIG. 11 is a diagram showing an example of an ID table stored in the memory of the central controller shown in FIG. 図12は図3に示すLCDに表示されるGUIの一例を示す図解図である。12 is an illustrative view showing one example of a GUI displayed on the LCD shown in FIG. 図13は図3に示すLCDに表示されるGUIの他の例を示す図解図である。FIG. 13 is an illustrative view showing another example of a GUI displayed on the LCD shown in FIG. 図14は図2に示す中央制御装置のメモリのメモリマップの一例を示す図解図である。FIG. 14 is an illustrative view showing one example of a memory map of a memory of the central control unit shown in FIG. 図15は図2に示す中央制御装置のCPUの位置履歴記録処理を示すフロー図である。FIG. 15 is a flowchart showing the position history recording process of the CPU of the central control unit shown in FIG. 図16は図2に示す中央制御装置のCPUの加速度センサ履歴記録処理を示すフロー図である。FIG. 16 is a flowchart showing acceleration sensor history recording processing of the CPU of the central control unit shown in FIG. 図17は図2に示す中央制御装置のCPUの管理処理を示すフロー図である。FIG. 17 is a flowchart showing the management process of the CPU of the central controller shown in FIG. 図18は図2に示す中央制御装置のCPUの相関係数算出処理を示すフロー図である。FIG. 18 is a flowchart showing the correlation coefficient calculation process of the CPU of the central control unit shown in FIG. 図19は図2に示す中央制御装置のCPUの公開データ管理処理を示すフロー図である。FIG. 19 is a flowchart showing the public data management process of the CPU of the central control unit shown in FIG.

図1を参照して、この実施例の移動体管理システム100は、中央制御装置10および携帯端末12などを備える。中央制御装置10は、人間A,Bが所持する携帯端末12a,12bのそれぞれと、Bluetooth形式の近距離無線通信によって無線接続される。また、中央制御装置10は、ネットワーク50を介して、ロボット14に、人間A,Bなどを誘導したり、探索したりするための指示を送信することができる。このロボット14は、相互作用指向のロボット(コミュニケーションロボット)であり、人間A,Bのようなコミュニケーションの対象(コミュニケーション対象)との間で、身振り手振りのような身体動作および音声の少なくとも一方を含むコミュニケーション行動を実行する機能を備えている。また、図1では図示していないが、中央制御装置10は、複数のLRFによって所定範囲内の人間Aおよび人間Bなどの現在位置を取得する。   Referring to FIG. 1, a mobile management system 100 according to this embodiment includes a central control device 10 and a mobile terminal 12. The central control device 10 is wirelessly connected to each of the mobile terminals 12a and 12b possessed by the humans A and B by Bluetooth short-range wireless communication. In addition, the central control device 10 can transmit an instruction for guiding or searching for the humans A and B to the robot 14 via the network 50. This robot 14 is an interaction-oriented robot (communication robot), and includes at least one of body movements such as gestures and voices with communication targets (communication targets) such as humans A and B. It has a function to execute communication behavior. Although not shown in FIG. 1, the central control apparatus 10 acquires the current positions of the person A and the person B within a predetermined range by using a plurality of LRFs.

なお、人間A,Bを区別する必要がない場合には、まとめて「人間」と言い、携帯端末12a,12bを区別する必要がない場合には、まとめて「携帯端末12」と言う。   When it is not necessary to distinguish between the humans A and B, they are collectively referred to as “human”, and when it is not necessary to distinguish between the mobile terminals 12a and 12b, they are collectively referred to as “mobile terminal 12”.

図2は中央制御装置10の電気的な構成を示すブロック図である。この図2を参照して、中央制御装置10は、CPU16を含む。このCPU16は、マイクロコンピュータ或いはプロセッサとも呼ばれ、位置検出手段として機能するLRF18a,18b、受信手段として機能する近距離無線装置20、メモリ22および通信LANボード24とそれぞれ接続される。なお、LRF18a,18bを区別する必要がない場合には、まとめて「LRF18」と言う。   FIG. 2 is a block diagram showing an electrical configuration of the central controller 10. Referring to FIG. 2, central control device 10 includes a CPU 16. The CPU 16 is also called a microcomputer or a processor, and is connected to the LRFs 18a and 18b functioning as position detecting means, the short-range wireless device 20 functioning as receiving means, the memory 22, and the communication LAN board 24, respectively. When there is no need to distinguish between the LRFs 18a and 18b, they are collectively referred to as “LRF18”.

LRF18は、レーザーを照射し、物体(人間も含む)に反射して戻ってくるまでの時間から当該物体までの距離を計測するものである。たとえば、トランスミッタ(図示せず)から照射したレーザーを回転ミラー(図示せず)で反射させて、前方を扇状に一定角度(たとえば、0.5度)ずつスキャンする。ここで、LRF18としては、SICK社製のレーザーレンジファインダ(型式 LMS200)を用いることができる。このレーザーレンジファインダを用いた場合には、距離8mを±15mm程度の誤差で計測可能である。そして、LRF18は、会社のフロア、ショッピングモールまたはアトラクション会場などの様々な環境で設置され、人間の位置を検出する。   The LRF 18 measures the distance to the object from the time it takes to irradiate the laser and reflect it back to the object (including humans). For example, a laser beam emitted from a transmitter (not shown) is reflected by a rotating mirror (not shown), and the front is scanned in a fan shape by a certain angle (for example, 0.5 degrees). Here, as LRF18, a laser range finder (model LMS200) manufactured by SICK can be used. When this laser range finder is used, a distance of 8 m can be measured with an error of about ± 15 mm. The LRF 18 is installed in various environments such as a company floor, a shopping mall, or an attraction venue, and detects the position of a person.

また、近距離無線通信装置20は、Bluetooth形式の無線通信を確立するための装置であり、本実施例では環境内に存在する携帯端末12との無線通信を確立する。また、メモリ22は、図示は省略をするが、ROM,HDDおよびRAMを含み、ROMおよびHDDには、近距離無線通信に必要な機器アドレスのデータや、中央制御装置10の動作を制御するための制御プログラムが予め記憶される。たとえば、LRF18による移動体である人間の検出に必要なプログラムや、携帯端末12との無線通信を確立するためのデータやコマンドを送受信するための通信プログラムなどが記録される。また、RAMは、ワークメモリやバッファメモリとして用いられる。   The short-range wireless communication device 20 is a device for establishing Bluetooth-type wireless communication. In this embodiment, the short-range wireless communication device 20 establishes wireless communication with the mobile terminal 12 existing in the environment. Although not shown, the memory 22 includes a ROM, an HDD, and a RAM. The ROM and the HDD control device address data necessary for short-range wireless communication and the operation of the central controller 10. These control programs are stored in advance. For example, a program necessary for detecting a human being, which is a mobile body, by the LRF 18, a communication program for transmitting / receiving data and commands for establishing wireless communication with the mobile terminal 12, and the like are recorded. The RAM is used as a work memory or a buffer memory.

また、CPU16は、通信LANボード24に接続される。通信LANボード24は、たとえばDSPで構成され、CPU16から与えられた送信データを無線通信装置26に与え、無線通信装置26は送信データを、ネットワーク50を介して外部装置(ロボット14および後述する情報発信装置など)に送信する。たとえば、送信データとしては、中央制御装置10からロボット14に対する制御命令の信号(コマンド)であったりする。また、通信LANボード24は、無線通信装置26を介してデータを受信し、受信したデータをCPU16に与える。   The CPU 16 is connected to the communication LAN board 24. The communication LAN board 24 is configured by a DSP, for example, and provides transmission data given from the CPU 16 to the wireless communication device 26. The wireless communication device 26 sends the transmission data to an external device (the robot 14 and information described later) via the network 50. To the calling device). For example, the transmission data may be a control command signal (command) from the central controller 10 to the robot 14. The communication LAN board 24 receives data via the wireless communication device 26 and provides the received data to the CPU 16.

図3は携帯端末12の電気的な構成を示すブロック図である。図3を参照して、携帯端末12は、CPU130を含む。CPU130は、中央制御装置10のCPU16と同様に、マイクロコンピュータ或いはプロセッサとも呼ばれ、スピーカ132、キー入力装置134、LCDドライバ136、メモリ140、加速度センサ142および加速度送信手段として機能する近距離無線通信装置146のそれぞれと接続される。スピーカ132は、メモリ140内に記録されている音楽データや音声データなどを出力する際に利用される。   FIG. 3 is a block diagram showing an electrical configuration of the mobile terminal 12. With reference to FIG. 3, portable terminal 12 includes a CPU 130. The CPU 130 is also called a microcomputer or a processor, like the CPU 16 of the central control device 10, and is a short-range wireless communication functioning as a speaker 132, a key input device 134, an LCD driver 136, a memory 140, an acceleration sensor 142, and an acceleration transmission means. Connected to each of the devices 146. The speaker 132 is used when outputting music data or audio data recorded in the memory 140.

キー入力装置134は、方向キーおよび決定キーなどから構成され、LCDドライバ136によって制御されるLCD138に表示されるGUI(Graphical User Interface)に対する、キー操作を受けつける。メモリ140は、中央制御装置10のメモリ22とは異なり、フラッシュメモリおよびRAMを含み、フラッシュメモリには、近距離無線通信を確立するために必要な機器アドレスのデータや、先述した音楽データおよび音声データなどが記憶されると共に、携帯端末12の動作を制御するための制御プログラムが予め記憶される。また、RAMは、ワークメモリやバッファメモリとして用いられる。   The key input device 134 includes direction keys, a determination key, and the like, and accepts a key operation with respect to a GUI (Graphical User Interface) displayed on the LCD 138 controlled by the LCD driver 136. The memory 140 is different from the memory 22 of the central controller 10 and includes a flash memory and a RAM. The flash memory includes device address data necessary for establishing short-distance wireless communication, music data and audio described above. Data and the like are stored, and a control program for controlling the operation of the mobile terminal 12 is stored in advance. The RAM is used as a work memory or a buffer memory.

加速度センサ142は、半導体式の2軸の加速度センサであり、各軸の加速度(第1加速度)をCPU130に出力する。そして、CPU130は、各軸の加速度の値に対して逆三角関数を用いて、携帯端末12の傾き、つまり角度を算出する。なお、この加速度センサ142は、半導体式の3軸の加速度センサであってもよい。   The acceleration sensor 142 is a semiconductor type biaxial acceleration sensor, and outputs the acceleration (first acceleration) of each axis to the CPU 130. And CPU130 calculates the inclination of the portable terminal 12, ie, an angle, using an inverse trigonometric function with respect to the acceleration value of each axis. The acceleration sensor 142 may be a semiconductor triaxial acceleration sensor.

また、近距離無線通信装置146は、同一環境内の中央制御装置10との無線通信を確立するために利用され、その構成は中央制御装置10が備える近距離無線通信装置20と同じであるため、詳細な説明は省略する。   The short-range wireless communication device 146 is used to establish wireless communication with the central control device 10 in the same environment, and the configuration thereof is the same as the short-range wireless communication device 20 included in the central control device 10. Detailed description will be omitted.

次にLRF18について詳細に説明する。図4を参照して、LRF18の計測範囲は、半径R(R≒8m)の半円形状(扇形)で示される。つまり、LRF18は、その正面方向を中心とした場合に、左右90°の方向を所定の距離(R)以内で計測可能である。   Next, the LRF 18 will be described in detail. Referring to FIG. 4, the measurement range of LRF 18 is indicated by a semicircular shape (fan shape) having a radius R (R≈8 m). That is, the LRF 18 can measure the direction of 90 ° left and right within a predetermined distance (R) when the front direction is the center.

また、使用しているレーザーは、日本工業規格 JIS C 6802「レーザー製品の安全基準」におけるクラス1レーザーであり、人の眼に対して影響を及ぼさない安全なレベルである。また、この実施例では、LRF18のサンプリングレートを38.5Hzとした。これは、歩行するなどにより移動する人間の位置を連続して検出するためである。   The laser used is a class 1 laser in the Japanese Industrial Standard JIS C 6802 “Safety Standards for Laser Products”, which is a safe level that does not affect human eyes. In this embodiment, the sampling rate of the LRF 18 is 38.5 Hz. This is because the position of a person who moves by walking or the like is continuously detected.

さらに、先述したように、LRF18は、様々な環境に配置される。具体的には、LRF18a,18bの各々は、検出領域が重なるように配置され、図示は省略するが、床面から約90cmの高さに固定される。この高さは、被験者の胴体と腕(両腕)とを検出可能とするためであり、たとえば、日本人の成人の平均身長から算出される。したがって、中央制御装置10を設ける場所(地域ないし国)や被験者の年齢ないし年代(たとえば、子供,大人)に応じて、LRF18を固定する高さを適宜変更するようにしてよい。なお、本実施例では、設定されるLRF18は、2つだけとしたが、さらに広い範囲で人間を検出するために、3つ以上のLRF18が設置されてもよい。   Furthermore, as described above, the LRF 18 is arranged in various environments. Specifically, each of the LRFs 18a and 18b is arranged so that the detection regions overlap with each other, and although not illustrated, the LRFs 18a and 18b are fixed to a height of about 90 cm from the floor surface. This height is for enabling detection of the body and arms (both arms) of the subject, and is calculated from, for example, the average height of Japanese adults. Therefore, the height at which the LRF 18 is fixed may be appropriately changed according to the location (region or country) where the central control device 10 is provided and the age or age of the subject (for example, children or adults). In this embodiment, only two LRFs 18 are set, but three or more LRFs 18 may be installed in order to detect a human being in a wider range.

このような構成の中央制御装置10では、CPU16がLRF18からの出力(距離データ)に基づいて、パーティクルフィルタを用いて、人間の現在位置の変化を推定する。そして、推定された現在位置の変化は歩行軌跡として記録され、中央制御装置10は歩行軌跡から人間の加速度(第2加速度)を算出する。   In the central controller 10 having such a configuration, the CPU 16 estimates a change in the current position of the human using a particle filter based on the output (distance data) from the LRF 18. Then, the estimated change in the current position is recorded as a walking trajectory, and the central controller 10 calculates human acceleration (second acceleration) from the walking trajectory.

ここで、検出領域で検出される人間の加速度を取得する方法について具体的に説明する。図5(A)を参照して、LRF18a,18bは互いに向い合せに設置され、LRF18a,18bの計測範囲が重なる範囲は斜線が付されて示される。斜線が付された範囲は検出領域Eとされ、この検出領域E内では人間Aと人間Bとの現在位置が連続的に検出される。そして、連続的に検出された現在位置のデータは歩行軌跡として示される。たとえば、人間Aおよび人間Bの歩行軌跡は、歩行軌跡Kaおよび歩行軌跡Kbで示される。なお、図5(A)では、人間A,Bを円で表す。また、歩行軌跡Ka,Kbを区別する必要がない場合には、まとめて「歩行軌跡K」と言う。   Here, a method for acquiring human acceleration detected in the detection area will be described in detail. Referring to FIG. 5A, LRFs 18a and 18b are installed facing each other, and a range where the measurement ranges of LRFs 18a and 18b overlap is indicated by hatching. A hatched range is a detection area E, and the current positions of the human A and the human B are continuously detected in the detection area E. And the data of the present position detected continuously are shown as a walk locus. For example, the walking trajectories of the human A and the human B are indicated by the walking trajectory Ka and the walking trajectory Kb. In FIG. 5A, the persons A and B are represented by circles. When there is no need to distinguish between the walking tracks Ka and Kb, they are collectively referred to as “walking track K”.

まず、所定時間(20秒間)内に取得された人間の歩行軌跡Kについて説明する。中央制御装置10は、図5(A)の検出領域Eにおいて、左右方向をX軸、上下方向をY軸として、計測開始時刻Tの座標位置を原点(0.0,0.0)として記録する。そして、中央制御装置10は、一定時間(たとえば、26ミリ秒)毎にX軸およびY軸の位置を20秒間、記録する。 First, a human walking trajectory K acquired within a predetermined time (20 seconds) will be described. Central control unit 10, in the detection region E of FIG. 5 (A), X-axis right direction, the vertical direction as Y axis, the coordinate position of the measurement start time T 0 as the origin (0.0,0.0) Record. The central controller 10 records the positions of the X-axis and the Y-axis for 20 seconds every fixed time (for example, 26 milliseconds).

図5(B),(C)は横軸をX軸、縦軸をY軸とし、人間Aおよび人間Bにおける20秒間の歩行軌跡Kaおよび歩行軌跡Kbを示す図解図である。図5(B)を参照して、人間Aは、計測開始時刻Tから5秒後に(2.0,1.0)、10秒後に(4.5,1.2)、15秒後に(7.0,1.2)、20秒後に(10.0,0.0)の位置に移動していることが分かる。つまり、人間Aは、20秒かけて右方向に10m移動し、15秒かけて左方向に1メール移動するが最終的には元の位置(Y軸の零位置)に戻る。 FIGS. 5B and 5C are illustrative views showing the walking trajectory Ka and walking trajectory Kb for human A and human B for 20 seconds, where the horizontal axis is the X axis and the vertical axis is the Y axis. Referring to FIG. 5 (B), human A is 5 seconds after the measurement start time T 0 (2.0, 1.0), after 10 seconds (4.5,1.2), after 15 seconds ( 7.0, 1.2) and 20 seconds later, it can be seen that the position has moved to the position (10.0, 0.0). That is, the human A moves 10 meters to the right over 20 seconds and moves 1 mail to the left over 15 seconds, but finally returns to the original position (the zero position on the Y axis).

一方、図5(C)を参照して、人間Bは、計測開始時刻Tから5秒後に(0.7,0.1)、10秒後に(3.0,0.2)、15秒後に(4.5,0.1)、20秒後に(5.0,0.0)の位置に移動していることが分かる。つまり、人間Bは、20秒かけて進行方向(X軸方向)に5メートル移動し、左右方向(Y軸方向)では僅かに右へ移動するが最終的には元の位置(Y軸の零位置)に戻る。 On the other hand, referring to FIG. 5 (C), the human B is 5 seconds after the measurement start time T 0 (0.7, 0.1), after 10 seconds (3.0,0.2), 15 seconds It can be seen later that it has moved to the position of (4.5, 0.1) and 20 seconds later (5.0, 0.0). That is, the human B moves 5 meters in the traveling direction (X-axis direction) over 20 seconds, and moves slightly to the right in the left-right direction (Y-axis direction), but finally the original position (zero on the Y-axis). Return to position.

次に、歩行軌跡Kから人間の加速度を算出する方法について説明する。記録された歩行軌跡Kからは、或る時刻Tから一定時間dが経過した時刻Tk+dの移動距離を求めることができる。そのため、中央制御装置10は、移動距離を一定時間毎に微分して速度を算出し、さらに算出した速度を一定時間毎に微分することで、人間Aおよび人間Bの加速度を算出することができる。 Next, a method for calculating human acceleration from the walking locus K will be described. From the recorded walking trajectory K, the movement distance at time T k + d when a certain time d has elapsed from a certain time T k can be obtained. Therefore, the central control device 10 can calculate the acceleration of the human A and the human B by differentiating the moving distance at regular time intervals to calculate the speed, and further differentiating the calculated speed at regular time intervals. .

図6(A)はX軸方向における人間Aの加速度の変化を示すグラフであり、図6(B)はY軸方向における人間Aの加速度の変化を示すグラフである。図6(A)を参照して、X軸方向おける人間Aは、計測開始後、0.4m/sで急激に加速し、5秒後から0.1m/sでさらに加速して、等速で移動する。そして、14秒後から0.1m/sでさらに加速した後に、また等速で移動する。また、図6(B)を参照して、Y軸方向における人間Aは、計測開始後、0.2m/sで加速し、すぐに等速で移動する。また、4秒後には0.12m/sで減速し、さらに9秒後には0.05m/sで減速する。そして、14秒後には0.2m/sで減速してから等速で移動する。つまり、図6(A),(B)に示すグラフから、人間Aは、左右方向に対して僅かに揺れているが、右方向に対して一気に加速し、その後、速度を上げながら移動していることが分かる。 6A is a graph showing a change in acceleration of the human A in the X-axis direction, and FIG. 6B is a graph showing a change in acceleration of the human A in the Y-axis direction. Referring to FIG. 6 (A), human A in the X-axis direction accelerates rapidly at 0.4 m / s 2 after the start of measurement, further accelerates at 0.1 m / s 2 after 5 seconds, Move at a constant speed. Then, after further acceleration at 0.1 m / s 2 after 14 seconds, it moves again at a constant speed. Referring to FIG. 6B, the human A in the Y-axis direction accelerates at 0.2 m / s 2 after the start of measurement, and immediately moves at a constant speed. Further, after 4 seconds, the vehicle decelerates at 0.12 m / s 2 , and after 9 seconds, decelerates at 0.05 m / s 2 . Then, after 14 seconds, the vehicle decelerates at 0.2 m / s 2 and then moves at a constant speed. That is, from the graphs shown in FIGS. 6 (A) and 6 (B), human A is slightly swaying in the left-right direction, but accelerated at a stretch in the right direction, and then moved while increasing the speed. I understand that.

一方、図7(A)はX方向における人間Bの加速度の変化を示すグラフであり、図7(B)
はY軸方向における人間Bの加速度の変化を示すグラフである。図7(A)を参照して、X軸方向における人間Bは、計測開始後0.15m/sで加速し、5秒後にさらに0.3m/sで加速して、等速で移動する。また、9秒後に0.15m/sで減速し、さらに15秒後に0.2m/sで減速して、等速で移動する。また、図7(B)を参照して、Y軸方向における人間Bの加速度は、計測開始後、0.05m/sで緩やかに加速し、3秒後には0.05m/sで減速して、続けて加速する。そして、10秒後には緩やかに0.02m/sで減速した後に、0.0m/sとなる。つまり、図7(A),(B)に示すグラフから、人間Bは、左右方向に細かく揺れながら、9秒後までは速度を急激に上げながら右方向に移動するが、10秒経過した後は2回減速していることが分かる。このように、同じ方向に移動する人間A,Bでも、加速度の変化は全く違うものになる。
On the other hand, FIG. 7A is a graph showing a change in the acceleration of the human B in the X direction, and FIG.
Is a graph showing a change in acceleration of human B in the Y-axis direction. Referring to FIG. 7A, human B in the X-axis direction accelerates at 0.15 m / s 2 after the start of measurement, and further accelerates at 0.3 m / s 2 after 5 seconds, and moves at a constant speed. To do. In addition, the vehicle decelerates at 0.15 m / s 2 after 9 seconds, and further decelerates at 0.2 m / s 2 after 15 seconds to move at a constant speed. Further, with reference to FIG. 7 (B), the acceleration of the human B in the Y-axis direction, after the start of measurement, gently accelerated at 0.05 m / s 2, after 3 seconds decelerating at 0.05 m / s 2 Then continue to accelerate. Then, after decelerated by gently 0.02 m / s 2 after 10 seconds, the 0.0 m / s 2. That is, from the graphs shown in FIGS. 7A and 7B, the human B moves to the right while rapidly increasing the speed up to 9 seconds after shaking in the left-right direction, but after 10 seconds have passed. It can be seen that has slowed twice. In this way, the change in acceleration is completely different even for humans A and B moving in the same direction.

ここで、加速度センサ142が出力する加速度と、LRF18を利用して算出された人間の加速度との関係について説明する。   Here, the relationship between the acceleration output from the acceleration sensor 142 and the human acceleration calculated using the LRF 18 will be described.

まず、携帯端末12は人間のポケットやカバンに収納された状態で持ち運ばれるため、加速度センサ142は、ポケットやカバンに収納された状態で2軸が地面に水平となるように、携帯端末12に設けられる。しかし、携帯端末12が持ち運ばれる状態によっては、LRF18の検出領域EにおけるX,Y軸と、加速度センサ142の2つの軸とが一致しない場合が考えられる。そこで、中央制御装置10は、加速度センサ142が出力する2方向の加速度を、検出領域EのX,Y軸方向の加速度のそれぞれと相関を取ることで、加速度センサ142の2つの軸を、検出領域EのX軸およびY軸と対応づける。なお、本実施例では、加速度センサ142の2つの軸を、それぞれXa軸およびYa軸と言う。   First, since the mobile terminal 12 is carried while being stored in a human pocket or bag, the acceleration sensor 142 is stored in the pocket or bag so that the two axes are horizontal to the ground. Is provided. However, depending on the state in which the portable terminal 12 is carried, there may be a case where the X and Y axes in the detection region E of the LRF 18 do not match the two axes of the acceleration sensor 142. Therefore, the central controller 10 detects the two axes of the acceleration sensor 142 by correlating the accelerations in the two directions output from the acceleration sensor 142 with the accelerations in the X and Y axis directions of the detection region E, respectively. The region E is associated with the X axis and the Y axis. In this embodiment, the two axes of the acceleration sensor 142 are referred to as an Xa axis and a Ya axis, respectively.

具体的には、加速度センサ142におけるXa軸方向の加速度に対して、人間の加速度におけるX軸とY軸との相関係数を算出し、さらに加速度センサ142におけるYa軸方向の加速度に対して、人間の加速度におけるX軸とY軸との相関係数を算出する。そして、Xa軸とX軸との相関係数およびYa軸とY軸との相関係数とが、Xa軸とY軸との相関係数およびYa軸とX軸との相関係数より大きければ、Xa軸方向およびYa軸方向の加速度がX軸方向およびY軸方向の加速度とされ、一方、小さければ、Xa軸方向およびYa軸方向の加速度がY軸方向およびX軸方向の加速度とされる。つまり、中央制御装置10は、X軸およびXa軸、Y軸とYa軸とが一致しているか否かを判断して、一致していればXa軸およびYa軸を、X軸およびY軸に対応付け、一致していなければXa軸およびYa軸を、Y軸およびX軸に対応付ける。   Specifically, a correlation coefficient between the X axis and the Y axis in human acceleration is calculated with respect to the acceleration in the Xa axis direction of the acceleration sensor 142, and further, with respect to the acceleration in the Ya axis direction of the acceleration sensor 142, A correlation coefficient between the X axis and the Y axis in human acceleration is calculated. If the correlation coefficient between the Xa axis and the X axis and the correlation coefficient between the Ya axis and the Y axis are larger than the correlation coefficient between the Xa axis and the Y axis and the correlation coefficient between the Ya axis and the X axis, , Xa-axis direction and Ya-axis direction accelerations are X-axis direction and Y-axis direction accelerations. On the other hand, Xa-axis direction and Ya-axis direction accelerations are Y-axis direction and X-axis direction accelerations. . That is, the central controller 10 determines whether the X axis and the Xa axis, and the Y axis and the Ya axis match, and if they match, the Xa axis and the Ya axis are changed to the X axis and the Y axis. If not matched, the Xa axis and the Ya axis are associated with the Y axis and the X axis.

そして、中央制御装置10は、対応づけた加速度センサ142が出力するXa軸方向およびYa軸方向の加速度と、算出されたX軸方向およびY軸方向の加速度との相関係数を算出する。これにより、相関係数が所定値以上であれば、携帯端末12を所持する人間と、LRF18によって検出された人間とを同定する。   The central control device 10 calculates a correlation coefficient between the accelerations in the Xa-axis direction and the Ya-axis direction output from the associated acceleration sensor 142 and the calculated accelerations in the X-axis direction and the Y-axis direction. As a result, if the correlation coefficient is equal to or greater than a predetermined value, the person holding the mobile terminal 12 and the person detected by the LRF 18 are identified.

たとえば、或る携帯端末12が有する加速度センサ142のXa軸方向の加速度とYa軸方向の加速度とを図8(A),(B)に示す。図8(A)を参照して、Xa軸方向の加速度の変化は、加速度のデータを取得開始後、0.4m/sで急激に変化し、4.5秒後にはさらに0.4m/s変化する。その後、14秒後にも0.4m/sに変化して、0.0m/sになる。また、図8(B)を参照して、Ya軸方向の加速度の変化は、加速度のデータを取得開始後、0.2m/sに変化し、4.5秒後に−0.12m/sに変化する。その後、9.5秒後に−0.05m/sに変化し、14秒後には−0.2m/sに変化してから0.0m/sになる。 For example, FIGS. 8A and 8B show the acceleration in the Xa-axis direction and the acceleration in the Ya-axis direction of the acceleration sensor 142 of a certain mobile terminal 12. Referring to FIG. 8A, the change in acceleration in the Xa-axis direction changes abruptly at 0.4 m / s 2 after the start of acquisition of acceleration data, and further increases to 0.4 m / s after 4.5 seconds. s 2 changes. After that, it changes to 0.4 m / s 2 after 14 seconds and becomes 0.0 m / s 2 . Also, referring to FIG. 8B, the change in the acceleration in the Ya-axis direction changes to 0.2 m / s 2 after the start of acquisition of acceleration data, and −0.12 m / s after 4.5 seconds. Change to 2 . Then, changes in 0.05M / s 2 after 9.5 seconds, the 0.0 m / s 2 from the change in the -0.2 m / s 2 after 14 seconds.

つまり、図8(A),(B)に示すグラフから、加速度センサ142のXa軸およびYa軸の変化は、人間Aの加速度の変化に似ており、さらに人間Bの加速度の変化とは似ていないことが分かる。なお、加速度のデータを取得開始時刻と、LRF18による計測開始時刻Tとは、同じタイミングとなるように同期がとられている。 That is, from the graphs shown in FIGS. 8A and 8B, changes in the Xa axis and the Ya axis of the acceleration sensor 142 are similar to changes in the acceleration of the human A, and are also similar to changes in the acceleration of the human B. I understand that it is not. Note that the acceleration data acquisition start time and the measurement start time T 0 by the LRF 18 are synchronized so as to have the same timing.

まず、加速度センサ142のXa軸およびYa軸を、X軸またはY軸のいずかに対応させる処理について詳細に説明する。ここで、本実施例では、軸を対応させる処理にピアソンの積率相関係数を利用する。このピアソンの積率相関係数は、各軸の加速度値を1秒毎にn個(n=20)ずつ用意し、各軸の共分散を軸毎の標準偏差の積で割ることで得ることができる。たとえば、加速度センサ142のXa軸と人間AのX軸との加速度の相関係数は数1に示す式で求めることができ、数1による算出結果が0.96となる。   First, a process for making the Xa axis and the Ya axis of the acceleration sensor 142 correspond to either the X axis or the Y axis will be described in detail. In this embodiment, Pearson's product-moment correlation coefficient is used for the process of matching the axes. This Pearson product moment correlation coefficient is obtained by preparing n acceleration values for each axis (n = 20) per second and dividing the covariance of each axis by the product of the standard deviation for each axis. Can do. For example, the correlation coefficient of the acceleration between the Xa axis of the acceleration sensor 142 and the X axis of the human A can be obtained by the equation (1), and the calculation result by the equation (1) is 0.96.

Figure 2010201566
Figure 2010201566

さらに、他の軸の組み合わせについても相関係数を算出すると、Xa軸とY軸との加速度の相関係数が0.39、Ya軸とX軸との加速度の相関係数が0.34、Ya軸とY軸との加速度の相関係数が0.88となる。   Further, when the correlation coefficient is calculated for other combinations of axes, the correlation coefficient of the acceleration between the Xa axis and the Y axis is 0.39, the correlation coefficient of the acceleration between the Ya axis and the X axis is 0.34, The correlation coefficient of the acceleration between the Ya axis and the Y axis is 0.88.

なお、ピアソンの積率相関係数は、最大値を1、最小値を−1とし、相関係数が1に近いほど正の相関関係が高いことを意味する。一方、相関係数が−1に近いほど負の相関関係が高いことを意味する。そして、相関係数が0であれば相関関係が無いことを意味する。   The Pearson product-moment correlation coefficient has a maximum value of 1, a minimum value of -1, and the closer the correlation coefficient is to 1, the higher the positive correlation. On the other hand, the closer the correlation coefficient is to -1, the higher the negative correlation. If the correlation coefficient is 0, it means that there is no correlation.

そして、各軸の組み合わせの相関係数を算出した結果は、図9(A)に示す計算テーブルに記録され、たとえば、携帯端末12が備える加速度センサ142に設定されたIDをセンサID(第1ID):001とし、人間Aに設定されたIDを人間ID(第2ID):001とする場合に、センサID:001のXa軸と人間ID:001のX軸との相関係数として0.96が記録され、Xa軸とY軸との相関係数として0.39が記録され、Ya軸とX軸との相関係数として0.34が記録され、Ya軸とY軸との相関係数として0.88が記録される。   Then, the result of calculating the correlation coefficient of each axis combination is recorded in the calculation table shown in FIG. 9A. For example, the ID set in the acceleration sensor 142 included in the mobile terminal 12 is set as the sensor ID (first ID). ): 001, and when the ID set for human A is human ID (second ID): 001, the correlation coefficient between the Xa axis of sensor ID: 001 and the X axis of human ID: 001 is 0.96. Is recorded, 0.39 is recorded as the correlation coefficient between the Xa axis and the Y axis, 0.34 is recorded as the correlation coefficient between the Ya axis and the X axis, and the correlation coefficient between the Ya axis and the Y axis. Is recorded as 0.88.

これにより、Xa軸と人間AにおけるX軸との相関係数(0.96)およびYa軸とY軸との相関係数(0.88)が、Xa軸と人間AにおけるY軸との相関係数(0.39)およびYa軸とX軸との相関係数(0.34)より大きいため、中央制御装置10は、加速度センサ142のXa軸およびYa軸を、検出領域EにおけるX軸およびY軸と対応付ける。そして、中央制御装置10は、Xa軸と人間AにおけるX軸との相関係数およびYa軸とY軸との相関係数を0.96および0.88として記録する。   As a result, the correlation coefficient (0.96) between the Xa axis and the X axis in the human A and the correlation coefficient (0.88) between the Ya axis and the Y axis are the same as the correlation between the Xa axis and the Y axis in the human A. Since the number of relations (0.39) and the correlation coefficient (0.34) between the Ya axis and the X axis are larger, the central control device 10 uses the Xa axis and Ya axis of the acceleration sensor 142 as the X axis in the detection region E. And correspond to the Y axis. The central controller 10 records the correlation coefficient between the Xa axis and the X axis in the human A and the correlation coefficient between the Ya axis and the Y axis as 0.96 and 0.88.

同様にして、加速度センサ142のXa軸,Ya軸のそれぞれと、人間Bにおける算出された加速度のX軸,Y軸とのそれぞれの相関係数を算出すると、Xa軸およびYa軸が、検出領域EにおけるY軸方向およびX軸方向と対応づけられる。さらに、中央制御装置10は、Xa軸と人間BにおけるY軸との相関係数およびYa軸と人間BにおけるX軸との相関係数を0.50および0.13として記録する。   Similarly, when the respective correlation coefficients between the Xa axis and the Ya axis of the acceleration sensor 142 and the X axis and the Y axis of the acceleration calculated in the human B are calculated, the Xa axis and the Ya axis are detected regions. Corresponding to the Y-axis direction and the X-axis direction in E. Further, the central control apparatus 10 records the correlation coefficient between the Xa axis and the Y axis in the human B and the correlation coefficient between the Ya axis and the X axis in the human B as 0.50 and 0.13.

次に、加速度センサ142によって加速度を出力される人間を、LRF18によって検出される人間Aまたは人間Bのいずれかと同定する処理について詳細に説明する。中央制御装置10は、人間A,Bのそれぞれに対応するX軸およびY軸の相関係数のうち、所定値(0.80)を超えており、2つの相関値の和が最も大きい組み合わせとなる人間と、加速度センサ142とを特定する。つまり、加速度センサ142のXa軸と人間AにおけるX軸との相関係数(0.96)およびYa軸とY軸との相関係数(0.88)とが所定値を超えており、さらに2つの相関係数の和(1.84)が、加速度センサ142と人間Bとの2つの相関係数の和(0.63)よりも大きいため、加速度センサ142を有する携帯端末12を所持しているのは、人間Aであると特定される。つまり、加速度センサ142によって加速度を出力される人間が、LRF18によって検出される人間Aと同一であると同定される。   Next, processing for identifying a person whose acceleration is output by the acceleration sensor 142 as either the person A or the person B detected by the LRF 18 will be described in detail. The central control device 10 exceeds a predetermined value (0.80) among the X-axis and Y-axis correlation coefficients corresponding to the humans A and B, and the combination having the largest sum of two correlation values And the acceleration sensor 142 are specified. That is, the correlation coefficient (0.96) between the Xa axis of the acceleration sensor 142 and the X axis in the human A and the correlation coefficient (0.88) between the Ya axis and the Y axis exceed a predetermined value. Since the sum (1.84) of the two correlation coefficients is larger than the sum (0.63) of the two correlation coefficients between the acceleration sensor 142 and the human B, the portable terminal 12 having the acceleration sensor 142 is possessed. Is identified as human A. That is, the person whose acceleration is output by the acceleration sensor 142 is identified as the same as the person A detected by the LRF 18.

そして、X軸とY軸との相関係数を利用することで、中央制御装置10は、信頼性の高い同定ができるようになる。(3)
なお、本実施例では、2軸の加速度センサ142ではなく、3軸の加速度センサであってもよい。たとえば、3軸の加速度センサでは、地面に対して水平方向の2軸(Xa軸,Ya軸)に加えて、地面に対して垂直方向(Z軸方向)の加速度も出力する。このとき、3つの軸において重力加速度G(9.8)m/sを出力する軸がZ軸であり、残りの2軸がXa軸またはYa軸となる。そして、上述した方法で、Xa軸およびYa軸を、検出領域EのX軸またはY軸のいずれかに対応付けることができる
また、図5(A)に示す検出領域Eに対して、左右方向をX軸、上下方向をY軸としたが、現在位置の変化量が大きい方向をX軸方向とし、さらにそのX軸方向に垂直に交わる方向をY軸方向としてもよい。このとき、3軸の加速度センサであれば、各軸の変化量から携帯端末12の3次元空間における傾きを得ることがでるため、中央制御装置10は、水平方向おいて加速度の変化量が最も大きくなる進行方向と、その進行方向に対して垂直に交わる左右方向とを推定することができる。これにより、LRF18を利用して算出された加速度と、加速度センサ142を利用して取得された加速度との相関係数を算出してもよい。
Then, by using the correlation coefficient between the X axis and the Y axis, the central control device 10 can perform identification with high reliability. (3)
In this embodiment, instead of the biaxial acceleration sensor 142, a triaxial acceleration sensor may be used. For example, a three-axis acceleration sensor outputs acceleration in a direction perpendicular to the ground (Z-axis direction) in addition to two axes (Xa-axis and Ya-axis) parallel to the ground. At this time, the axis that outputs the gravitational acceleration G (9.8) m / s 2 in the three axes is the Z axis, and the remaining two axes are the Xa axis or the Ya axis. Then, the Xa axis and the Ya axis can be associated with either the X axis or the Y axis of the detection area E by the above-described method. In addition, the horizontal direction is set with respect to the detection area E shown in FIG. Although the X axis and the vertical direction are the Y axis, the direction in which the current position change amount is large may be the X axis direction, and the direction perpendicular to the X axis direction may be the Y axis direction. At this time, if it is a three-axis acceleration sensor, the inclination in the three-dimensional space of the mobile terminal 12 can be obtained from the amount of change in each axis. It is possible to estimate a traveling direction that increases and a lateral direction that intersects the traveling direction perpendicularly. Thereby, the correlation coefficient between the acceleration calculated using the LRF 18 and the acceleration acquired using the acceleration sensor 142 may be calculated.

ここで、本実施例における検出領域E内に居る人間の人数がL人であり、携帯端末12から送信される加速度のデータ数がM個であっても、中央制御装置10は、各携帯端末12を所持する各人間を検出領域E内の各人間とそれぞれ同定することができる。つまり、人間IDおよびセンサIDによって管理することができるため、多くの人間を管理する場合に、IDテーブルデータを単純な構成にすることができる。そして、IDテーブルデータの構成を単純にすることで、IDテーブルデータに対する検索処理などの処理時間を短縮することができる。(2)
図9(B)を参照して、相関テーブルにおける左短の列には「人間ID」と記録され、その右側には、人間IDを示す001からLが記録される欄がそれぞれ設けられる。一方、相関テーブルにおける1行目には「センサID」と記録され、その2行目には、センサIDを示す001からMが記録される欄それぞれ設けられる。そして、各センサIDの欄には、X軸およびY軸の欄が対応して設けられる。
Here, even if the number of humans in the detection area E in the present embodiment is L and the number of acceleration data transmitted from the mobile terminal 12 is M, the central controller 10 Each person having 12 can be identified as each person in the detection region E. That is, since management can be performed using human IDs and sensor IDs, the ID table data can be configured simply when managing a large number of humans. Then, by simplifying the configuration of the ID table data, it is possible to shorten the processing time such as the search processing for the ID table data. (2)
Referring to FIG. 9B, “human ID” is recorded in the short left column in the correlation table, and columns 001 to L indicating the human ID are provided on the right side thereof. On the other hand, “sensor ID” is recorded in the first line in the correlation table, and columns 001 to M indicating the sensor ID are provided in the second line. In each sensor ID column, an X-axis column and a Y-axis column are provided correspondingly.

なお、先述したとおり、人間Aに割り当てられた人間IDを001とし、携帯端末12aが有する加速度センサ142に割り当てられたセンサIDを001とする。さらに、人間Bに割り当てられた人間IDを003とし、携帯端末12bが有する加速度センサ142に割り当てられたセンサIDを002とする。   As described above, the human ID assigned to the human A is 001, and the sensor ID assigned to the acceleration sensor 142 included in the mobile terminal 12a is 001. Furthermore, the human ID assigned to the human B is set to 003, and the sensor ID assigned to the acceleration sensor 142 included in the mobile terminal 12b is set to 002.

すると、人間ID:001に対応するセンサID:001のX軸およびY軸の欄には、先述した、2つ相関係数が記録される。つまり、X軸に対応する欄には0.96が記録され、Y軸に対応する欄には0.88が記録される。さらに、人間ID:003に対応するセンサID:001のX軸およびY軸の欄にも、先述した、2つ相関係数が記録される。つまり、X軸に対応する欄には0.50が記録され、Y軸に対応する欄には0.13が記録される。   Then, the two correlation coefficients described above are recorded in the column of the X axis and the Y axis of the sensor ID: 001 corresponding to the human ID: 001. That is, 0.96 is recorded in the column corresponding to the X axis, and 0.88 is recorded in the column corresponding to the Y axis. Further, the above-described two correlation coefficients are also recorded in the X-axis and Y-axis fields of the sensor ID: 001 corresponding to the human ID: 003. That is, 0.50 is recorded in the column corresponding to the X axis, and 0.13 is recorded in the column corresponding to the Y axis.

また、人間ID:002に対応する人間の加速度については詳細に説明していないが、X軸の欄には0.65が記録され、Y軸の欄には0.44が記録される。そして、人間ID:Lに対応する人間の加速度についても詳細に説明していないが、X軸の欄には−0.33が記録され、Y軸の欄には0.51が記録される。さらに、センサID:002およびセンサID:Mに対応する加速度センサ142については詳細に説明していないが、同様にして各人間IDとの相関係数が算出され、記録される。   Further, although human acceleration corresponding to the human ID: 002 is not described in detail, 0.65 is recorded in the X-axis column and 0.44 is recorded in the Y-axis column. The human acceleration corresponding to the human ID: L is not described in detail, but −0.33 is recorded in the X-axis column and 0.51 is recorded in the Y-axis column. Further, although the acceleration sensor 142 corresponding to the sensor ID: 002 and the sensor ID: M is not described in detail, the correlation coefficient with each human ID is calculated and recorded in the same manner.

そして、中央制御装置10は、センサID毎に、X軸とY軸との相関係数が所定値以上であり、2つの相関係数の和が最大値となる人間IDを特定する。つまり、センサID:001では人間ID:001、センサID:002では人間ID:003、センサID:Mでは人間ID:002が特定、つまり同定される。また、この同定された結果は、後述するIDテーブルに記録され、中央制御装置10のメモリ22内に記憶される。   Then, for each sensor ID, central controller 10 specifies a human ID for which the correlation coefficient between the X axis and the Y axis is equal to or greater than a predetermined value and the sum of the two correlation coefficients is the maximum value. That is, human ID: 001 is specified for sensor ID: 001, human ID: 003 is specified for sensor ID: 002, and human ID: 002 is specified for sensor ID: M, that is, identified. The identified result is recorded in an ID table which will be described later and stored in the memory 22 of the central controller 10.

このように、検出領域E内に居る複数の人間のそれぞれが携帯端末12を所持していれば、同定することができる。   Thus, if each of the plurality of persons in the detection area E has the portable terminal 12, it can be identified.

ここで、携帯端末12は、加速度センサ142が出力する加速度のデータだけではなく、近距離無線通信に必要な機器アドレスのデータと、携帯端末12に記録され、公開可能なデータと、その公開可能なデータの公開範囲を示すデータ(制限データ)とを合わせて送信する。そして、中央制御装置10は、各携帯端末12から送信される各データをセンサテーブルデータに記録する。   Here, the mobile terminal 12 is not only the acceleration data output from the acceleration sensor 142 but also the device address data necessary for the short-range wireless communication, the data recorded in the mobile terminal 12 that can be disclosed, and the data can be disclosed. Together with data (restricted data) indicating the public data disclosure range. Then, the central control device 10 records each data transmitted from each mobile terminal 12 in the sensor table data.

図10を参照して、センサテーブルデータは、「センサID」の列、「機器アドレス」の列、「公開範囲」の列および「公開データ」の列から構成されている。「センサID」の列には、加速度のデータを出力する携帯端末12のそれぞれに割り当てられたセンサIDが全て記録される。たとえば、相関テーブルにおけるセンサIDの行と同様に、001からMまでが記録される。「機器アドレス」の列には、記録されるセンサIDに対応して、12桁の英数字列で示される機器アドレスが記録される。たとえば、この機器アドレスは、16進数で表記され、「00:00:00:00:00:01」などで表される。   Referring to FIG. 10, the sensor table data includes a “sensor ID” column, a “device address” column, a “public range” column, and a “public data” column. In the “sensor ID” column, all sensor IDs assigned to the respective mobile terminals 12 that output acceleration data are recorded. For example, 001 to M are recorded in the same manner as the sensor ID row in the correlation table. In the “device address” column, a device address indicated by an alphanumeric string of 12 digits is recorded corresponding to the sensor ID to be recorded. For example, the device address is expressed in hexadecimal and is represented by “00: 00: 00: 00: 01” or the like.

また、「公開範囲」の列には、携帯端末12に記録されているデータを公開する範囲を示すデータが記録されており、たとえば、「家族」、「アドレス指定」、「全て」および「非公開」などである。「家族」は、各人間の位置履歴情報から推定されるグループ情報である。検出領域E内の人間には位置履歴情報からグループ情報が設定され、公開範囲に「家族」が設定されている場合には、同じ「家族」が設定されている人間が所持する携帯端末12に対して、機器アドレスや公開データなどを公開することを意味する。なお、グループ情報としては「友人」などが設定されてもよいし、グループ名に関係なく同一グループであればよいことを示す「同一」などが設定されてもよい。   Further, in the column “publication range”, data indicating a range in which data recorded in the mobile terminal 12 is disclosed is recorded. For example, “family”, “address designation”, “all”, and “non- Public ". “Family” is group information estimated from position history information of each person. When the group information is set for the person in the detection area E from the position history information and “family” is set as the disclosure range, the mobile terminal 12 held by the person who has the same “family” is assigned. On the other hand, it means that the device address, public data, etc. are disclosed. Note that “friend” or the like may be set as the group information, or “same” or the like indicating that the same group may be used regardless of the group name.

「アドレス指定」は、他の携帯端末12に設定されている機器アドレスを任意に指定することを意味する。そして、アドレス指定が記録されている欄には指定するアドレスが共に記録される。「全て」は、公開データを、他の携帯端末12や、情報発信装置などに制限無く公開することを意味する。「非公開」は、「全て」とは逆の意味であり、公開データを、他の携帯端末12や、ロボット14および情報発信装置などに一切公開しないことを意味する。   “Address designation” means that a device address set in another mobile terminal 12 is arbitrarily designated. The address to be designated is recorded together in the field where the address designation is recorded. “All” means that the public data is disclosed to other mobile terminals 12 or information transmission devices without limitation. “Non-public” means the opposite of “all”, and means that no public data is disclosed to other mobile terminals 12, robots 14, information transmission devices, or the like.

そして、「公開データ」の列には、「機器アドレス」、「名前:CCC」および「趣味」などが記録される。「機器アドレス」は、自身に設定されている機器アドレスを意味する。「名前:CCC」は、携帯端末12を所持する人間の名前を意味し、たとえばCCCだけに限らず、AAAおよびBBBなどであってもよい。「趣味」は、携帯端末12を所持する人間の趣味を意味し、たとえば家電、読書および音楽鑑賞などである。なお、「趣味」などの具体的な内容は人間によって予め携帯端末12に記録され、携帯端末12には「趣味」のファイル名称が設定されて記録される。   In the “public data” column, “device address”, “name: CCC”, “hobby”, and the like are recorded. “Device address” means a device address set in itself. “Name: CCC” means the name of the person who owns the mobile terminal 12, and is not limited to CCC, but may be AAA, BBB, and the like. “Hobby” means a hobby of a person who possesses the mobile terminal 12 and includes, for example, home appliances, reading and listening to music. Specific contents such as “hobby” are recorded in advance on the mobile terminal 12 by a human, and the file name “hobby” is set and recorded in the mobile terminal 12.

次に、人間IDとセンサIDとを対応付け、さらにセンサIDと対応する公開範囲および公開データを記録するIDテーブルについて説明する。図11を参照して、IDテーブルには、「人間ID」の列、「センサID」の列、「公開範囲」の列および「公開データ」の列から構成される。   Next, an ID table for associating a human ID with a sensor ID and recording a disclosure range and disclosure data corresponding to the sensor ID will be described. Referring to FIG. 11, the ID table includes a “human ID” column, a “sensor ID” column, a “public range” column, and a “public data” column.

「人間ID」の列には、先述したとおり、001からLまでの人間IDが記録される。「センサID」の列には、001からMまでのセンサIDが記録され、機器アドレスが共に記録される。たとえば、センサID:001には「00:00:00:00:00:01」が共に記録される。   As described above, human IDs from 001 to L are recorded in the column of “human ID”. In the “sensor ID” column, sensor IDs from 001 to M are recorded, and device addresses are recorded together. For example, “00: 00: 00: 00: 01” is recorded together with the sensor ID: 001.

なお、「センサID」の列は、「人間ID」の列とは異なり、センサIDが順列となるように記録されることはない。また、検出領域E内の人間が必ずしも携帯端末12を所持しているとは限らないため、センサID、公開範囲および公開データが対応づけて記憶されない場合がある。   Note that the “sensor ID” column is not recorded so that the sensor IDs are permutated, unlike the “human ID” column. Further, since a person in the detection area E does not necessarily have the portable terminal 12, the sensor ID, the disclosure range, and the disclosure data may not be stored in association with each other.

つまり、中央制御装置10は、検出領域E内に存在する人間および携帯端末12を対応付けて記録し、携帯端末12に所持する人間の名前や趣味などの個人情報が記録されていれば、個人情報も併せて記録する。これにより、移動体管理システム100は、RFIDタグを利用する手法とは異なる手法で、個人を特定することも可能になる。   That is, the central control device 10 records the person and the mobile terminal 12 present in the detection area E in association with each other, and if personal information such as the name and hobby of the person possessed by the mobile terminal 12 is recorded, Information is also recorded. Thereby, the mobile management system 100 can also identify an individual by a method different from the method using the RFID tag.

次に、携帯端末12によって公開範囲および公開データを設定するGUIについて詳細に説明し、さらに、公開範囲および公開データの情報を利用したサービスの提供方法ついて説明する。   Next, the GUI for setting the disclosure range and the disclosure data by the mobile terminal 12 will be described in detail, and further, a service providing method using the information of the disclosure range and the disclosure data will be described.

まず、公開範囲および公開データを設定するGUIについて説明する。図12を参照して、携帯端末12のLCD138には公開範囲設定画面が表示される。この公開範囲設定画面には、公開範囲を決定するためのチェックボックス200a−200dと、チェックボックス200a−200cのそれぞれに対応して公開データを表示する公開データ表示202a−202cとが設けられる。なお、この公開データ表示202a−202cに表示される内容は、キー入力装置134に対するキー操作に応じて、文字列が直接入力されてもよいし、メニュー選択によってメモリ140に記憶されているデータが指定されてもよい。   First, the GUI for setting the disclosure range and the disclosure data will be described. Referring to FIG. 12, a disclosure range setting screen is displayed on LCD 138 of portable terminal 12. This public range setting screen is provided with check boxes 200a-200d for determining the public range and public data displays 202a-202c for displaying public data corresponding to the respective check boxes 200a-200c. The contents displayed on the public data display 202a-202c may be directly input as a character string in response to a key operation on the key input device 134, or data stored in the memory 140 by menu selection. May be specified.

チェックボックス200aは、先述したグループ情報に対応しており、図12では「家族」のグループ情報に対応する。また、公開データ表示202aには、「家族」に設定されている人間が所持する携帯端末12に公開するデータが表示される。たとえば、ここでは「機器アドレス」が表示される。また、公開データ表示202aには「機器アドレス」が表示されており、このGUIを表示する携帯端末12に設定されている機器アドレス(たとえば、「00:00:00:00:00:01」)が公開データとして設定されていることを意味する。そして、チェックボックス200aにチェックがされれば、公開データ表示202aに表示されている内容が公開される。つまり、同じ「家族」に設定された人間が所持する携帯端末12に、機器アドレスが公開される。   The check box 200a corresponds to the group information described above, and corresponds to the group information of “family” in FIG. In addition, in the public data display 202a, data to be disclosed to the mobile terminal 12 possessed by a person set as “family” is displayed. For example, “device address” is displayed here. In addition, “device address” is displayed in the public data display 202a, and the device address set in the mobile terminal 12 that displays this GUI (for example, “00: 00: 00: 00: 00: 01”). Means that it is set as public data. If the check box 200a is checked, the contents displayed in the public data display 202a are released. In other words, the device address is disclosed to the portable terminal 12 possessed by a person set to the same “family”.

チェックボックス200bは、図10に示す「公開範囲」の列の「アドレス指定」に対応する。また、指定する機器アドレスが設定されている場合には、図12に示すように、アドレス指定の下に「00:00:00:00:00:03」が付されて表示される。さらに、公開データ表示202bには「名前:AAA」が表示されているため、このGUIを表示する携帯端末12を所持する人間の名前が「AAA」であり、その名前が公開データとして設定されていることを意味する。そして、チェックボックス200bにチェックがされれば、公開データ表示202bに表示されている内容が公開される。つまり、機器アドレス「00:00:00:00:00:03」が設定されている携帯端末12に対して、名前「AAA」が公開される。   The check box 200b corresponds to “address specification” in the “public range” column illustrated in FIG. If the device address to be specified is set, “00: 00: 00: 00: 00: 03” is added and displayed under the address specification as shown in FIG. Furthermore, since “name: AAA” is displayed in the public data display 202b, the name of the person who holds the portable terminal 12 that displays this GUI is “AAA”, and the name is set as public data. Means that If the check box 200b is checked, the contents displayed in the public data display 202b are released. That is, the name “AAA” is disclosed to the mobile terminal 12 in which the device address “00: 00: 00: 00: 03” is set.

チェックボックス202cは、「全て」に対応しており、先述したとおり、他の携帯端末12、ロボット14および情報発信装置などに対して、制限なく公開データを公開する。また、公開データ表示202cには「趣味」が表示されている。そして、チェックボックス202cにチェックがされれば、公開データ表示202cに表示されている内容が公開される。つまり、この携帯端末12を所持する人間の趣味が、制限なく外部装置(他の携帯端末12、情報発信装置およびロボット14など)に公開される。   The check box 202c corresponds to “all”, and as described above, the public data is disclosed to other mobile terminals 12, the robot 14, and the information transmission device without limitation. In the public data display 202c, “hobby” is displayed. If the check box 202c is checked, the contents displayed in the public data display 202c are released. That is, the hobby of the person who possesses this portable terminal 12 is disclosed to external devices (other portable terminals 12, information transmission devices, robots 14, etc.) without limitation.

チェックボックス202dは、「非公開」に対応しており、先述したとおり、外部装置に対して、データを公開しないことを意味する。つまり、チェックボックス202dにチェックがされていれば、この携帯端末12はデータを公開することはない。   The check box 202d corresponds to “unpublished” and means that data is not disclosed to the external device as described above. That is, if the check box 202d is checked, the mobile terminal 12 does not disclose data.

なお、工場出荷時などは、初期設定でチェックボックス202dにチェックがされるようになっている。また、公開データは1つだけに限らず、複数のデータであってもよい。   Note that, at the time of factory shipment, the check box 202d is checked in the initial setting. Moreover, the number of public data is not limited to one, and may be a plurality of data.

次に、公開範囲および公開データの情報を利用したサービスの提供方法について説明する。使用者(人間)に提供される提供するサービスとしては、探索サービスや、情報提供サービスである。つまり、中央制御装置10は、IDテーブルに記録される公開範囲および公開データを利用して、様々なサービスを使用者(人間)に提供できる。まず、探索サービスでは、検出領域E内にいる他の人間を探索する要求がされたときに、中央制御装置10は、要求元の携帯端末12に対して要求された人間の現在位置を示す情報を送信する。   Next, a method for providing a service using information on the disclosure range and the disclosure data will be described. The service provided to the user (human) is a search service or an information providing service. That is, the central control device 10 can provide various services to the user (human) using the disclosure range and the disclosure data recorded in the ID table. First, in the search service, when a request to search for another person in the detection area E is made, the central control device 10 provides information indicating the current position of the person requested to the requesting mobile terminal 12. Send.

たとえば、名前が「CCC」の人間(探索先)の現在位置を探索する操作が、或る携帯端末12を所持する人間(要求元)によってされると、名前が「CCC」の人間を探索する探索要求が、或る携帯端末12から中央制御装置10に送信される。すると、中央制御装置10は、IDテーブルにおける「公開データ」の列から「名前:CCC」の文字列を探索し、その探索結果に応じて公開範囲の情報を取得する。次に、取得された公開範囲が、機器アドレス「00:00:00:00:00:01」のアドレス指定であるため、探索要求を発信した或る携帯端末12の機器アドレスを確認する。このとき、或る携帯端末12の機器アドレスが「00:00:00:00:00:01」であれば、中央制御装置10は或る携帯端末12に対して、名前が「CCC」の人間がいる場所の地図と、その人間がいる現在位置を示すアイコンとのデータを送信する。そして、図13(A)を参照して、或る携帯端末12のLCD138には、名前が「CCC」の人間がいる環境の地図と、その人間がいる現在位置を示すアイコンとが表示される。   For example, when an operation for searching for the current position of a person (search destination) whose name is “CCC” is performed by a person (requester) who possesses a certain mobile terminal 12, a person whose name is “CCC” is searched. A search request is transmitted from a mobile terminal 12 to the central control device 10. Then, the central control apparatus 10 searches for the character string “name: CCC” from the “public data” column in the ID table, and acquires information on the public range according to the search result. Next, since the acquired disclosure range is the address designation of the device address “00: 00: 00: 00: 00: 01”, the device address of a certain portable terminal 12 that has transmitted the search request is confirmed. At this time, if the device address of a certain mobile terminal 12 is “00: 00: 00: 00: 00: 01”, the central controller 10 sends a human name “CCC” to a certain mobile terminal 12. Data of a map of the place where the person is and an icon indicating the current position of the person are transmitted. Referring to FIG. 13A, an LCD 138 of a certain mobile terminal 12 displays a map of an environment where a person whose name is “CCC” is present, and an icon indicating the current position where the person is present. .

このように、使用者は、携帯端末12を利用して、任意の場所で他の人間を探索することができるようになる。なお、使用者は、公開データの公開範囲を制限することで、関係ない人には、自身の居場所を知られることはない。   In this way, the user can search for another person at an arbitrary place using the mobile terminal 12. In addition, the user restricts the disclosure range of the public data, so that an unrelated person does not know his / her whereabouts.

なお、或る携帯端末12の機器アドレスが「00:00:00:00:00:01」でなければ、中央制御装置10は、情報を公開できないことを示す画像や文字列のデータを、或る携帯端末12に送信する。   If the device address of a certain portable terminal 12 is not “00: 00: 00: 00: 00: 01”, the central control device 10 stores image or character string data indicating that the information cannot be disclosed, or To the portable terminal 12.

また、探索サービスでは、探索要求をした人間の元へ、探索する人間を誘導することも可能である。たとえば、中央制御装置10は、名前が「CCC」の人間をロボット14よって探索を補助する探索要求を或る携帯端末12からされると、名前が「CCC」の人間の現在位置と、或る携帯端末12を所持する人間の現在位置とをロボット14に送信する。さらに、中央制御装置10は、名前が「CCC」の人間を或る携帯端末12を所持する人間の元に誘導する誘導指示も送信する。そして、ロボット14は、2人の現在位置を示す情報と誘導指示とを受信すると、誘導指示に従って人間を誘導する。つまり、名前が「CCC」の人間は、或る携帯端末12を所持する人間の元に、ロボット14によって誘導される。つまり、使用者は、迷子などの捜す場合に、ロボット14を利用して迷子を自身の元に連れてくることができる。   In the search service, it is also possible to guide a person to search to the person who requested the search. For example, when the central control device 10 receives a search request for assisting a search for a person whose name is “CCC” by the robot 14 from a certain mobile terminal 12, the central control apparatus 10 and the current position of the person whose name is “CCC” The current position of the person holding the mobile terminal 12 is transmitted to the robot 14. Furthermore, the central control apparatus 10 also transmits a guidance instruction for guiding a person whose name is “CCC” to a person who has a certain mobile terminal 12. When the robot 14 receives the information indicating the current positions of the two people and the guidance instruction, the robot 14 guides the person according to the guidance instruction. That is, a person whose name is “CCC” is guided by the robot 14 to a person who has a certain mobile terminal 12. That is, when searching for a lost child or the like, the user can bring the lost child to his / her own by using the robot 14.

このように、携帯端末12を所持する人間は、自分の家族(迷子)を捜す場合に、家族が所持する携帯端末12を利用して見つけることができる。   Thus, when a person who has the mobile terminal 12 searches for his / her family (lost child), he / she can find it using the mobile terminal 12 owned by the family.

次に、情報発信装置を利用した情報提供サービスについて説明する。検出領域E内に存在する店舗には情報発信装置が設けられており、この情報発信装置は、設けられた店舗に関わる情報(たとえば、特売情報など)を発信することができる。   Next, an information providing service using the information transmission device will be described. A store in the detection area E is provided with an information transmitting device, and this information transmitting device can transmit information (for example, special sale information) related to the provided store.

たとえば、情報発信装置は、中央制御装置10に対して公開データの取得要求を送信する。すると、中央制御装置10は、受信した公開データの取得要求に応じて、IDテーブルで公開範囲が「全て」に設定されている公開データおよびセンサIDを情報発信装置に送信(提供)する。情報発信装置は、受信した公開データから、自身に記録されている顧客名簿の名前や、設置された店舗に関わる文字列を検索し、検索結果に該当するセンサIDに基づいて、特売情報などを携帯端末12に送信する。   For example, the information transmission device transmits a public data acquisition request to the central control device 10. Then, the central control device 10 transmits (provides) the public data and the sensor ID whose public range is set to “all” in the ID table to the information transmission device in response to the received public data acquisition request. The information transmitting device searches the received public data for the name of the customer list recorded in itself and the character string related to the installed store, and based on the sensor ID corresponding to the search result, the sale information etc. It transmits to the portable terminal 12.

そして、図13(B)を参照して、特売情報などを送信された携帯端末12のLCD138には、特売情報が表示される。たとえば、電気店に設置された情報発信装置からは、家電特売情報が発信される。つまり、使用者は、自身の興味がある場所に赴くことで、必要な情報を得ることができるようになる。さらに、情報発信装置は、中央制御装置10に対して公開データの取得要求(公開要求)を送信することで、設けられた店舗に関する情報を発信可能な携帯端末12を特定することができる。これにより、情報発信装置を設ける店舗の店員は、効率よく特売情報などを提供することができるようになる。   Then, with reference to FIG. 13B, the special sale information is displayed on the LCD 138 of the portable terminal 12 to which the special sale information is transmitted. For example, home appliance sale information is transmitted from an information transmission device installed in an electrical store. In other words, the user can obtain necessary information by visiting a place of interest. Furthermore, the information transmission device can specify the mobile terminal 12 that can transmit information about the provided store by transmitting a public data acquisition request (publication request) to the central control device 10. As a result, the store clerk in which the information transmission device is provided can efficiently provide special sales information and the like.

図14は、図2に示した中央制御装置10のメモリ22のメモリマップ300の一例を示す図解図である。図14に示すように、メモリ22は、プログラム記憶領域302およびデータ記憶領域304を含む。プログラム記憶領域302には、位置履歴記録プログラム312、加速度センサ履歴記録プログラム314、管理プログラム316、公開データ管理プログラム318などが記憶される。ただし、管理プログラム316は、相関係数算出プログラム316aを含む。   FIG. 14 is an illustrative view showing one example of a memory map 300 of the memory 22 of the central control apparatus 10 shown in FIG. As shown in FIG. 14, the memory 22 includes a program storage area 302 and a data storage area 304. The program storage area 302 stores a position history recording program 312, an acceleration sensor history recording program 314, a management program 316, a public data management program 318, and the like. However, the management program 316 includes a correlation coefficient calculation program 316a.

位置履歴記録プログラム312は、検出領域Eに居る各人間の位置情報を一定周期毎に記録するプログラムである。また、加速度センサ履歴記録プログラム314は、各携帯端末12から送信される加速度のデータを受信する度に記録するプログラムである。   The position history recording program 312 is a program that records the position information of each person in the detection area E at regular intervals. Further, the acceleration sensor history recording program 314 is a program that records each time acceleration data transmitted from each mobile terminal 12 is received.

管理プログラム316は、検出領域E内の各人間が所持する携帯端末12を特定して記録するためのプログラムである。また、管理プログラム316のサブルーチンである、相関係数算出プログラム316aは、人間の位置履歴情報から算出した加速度と、加速度センサ142が出力する加速度との相関係数を算出するためのプログラムである。公開データ管理プログラム318は、IDテーブルを構成する「公開データ」の列に記録されている各データを、対応する「公開範囲」の列を参照して、探索要求や取得要求に応じて送信するためのプログラムである。   The management program 316 is a program for specifying and recording the portable terminal 12 possessed by each person in the detection area E. The correlation coefficient calculation program 316a, which is a subroutine of the management program 316, is a program for calculating a correlation coefficient between acceleration calculated from human position history information and acceleration output from the acceleration sensor 142. The public data management program 318 transmits each data recorded in the “public data” column constituting the ID table in response to a search request or an acquisition request with reference to the corresponding “public range” column. It is a program for.

なお、図示は省略するが、中央制御装置10を動作させるためのプログラムは、近距離無線通信を確立するためのプログラムおよびネットワーク50を介してデータ通信を行うプログラムなども含む。   Although illustration is omitted, the program for operating the central controller 10 includes a program for establishing short-range wireless communication, a program for performing data communication via the network 50, and the like.

また、データ記憶領域304には、位置履歴データ330、加速度センサ履歴データ332、計算テーブルデータ334、相関テーブルデータ336、センサテーブルデータ338、IDテーブルデータ340および地図データ342が記録される。   In the data storage area 304, position history data 330, acceleration sensor history data 332, calculation table data 334, correlation table data 336, sensor table data 338, ID table data 340, and map data 342 are recorded.

位置履歴データ330は、LRF18によって検出領域E内に存在する各人間の一定周期毎の位置が記録されたデータから構成され、人間の加速度を算出するために利用される。そして、位置履歴データ330は、位置履歴記録プログラム312によって更新される。加速度センサ履歴データ332は、複数の加速度センサ142から送信される加速度のデータが一定周期毎に記録されたデータから構成される。そして、加速度センサ履歴データ332は、加速度センサ履歴記録プログラム314によって更新される。なお、位置履歴データ330および加速度センサ履歴データ332を構成する各データには、メモリ22に記録された時刻または中央制御装置10が取得した時刻が対応付けられる。   The position history data 330 is composed of data in which the position of each person existing in the detection region E by the LRF 18 is recorded at a certain period, and is used to calculate the acceleration of the person. The position history data 330 is updated by the position history recording program 312. The acceleration sensor history data 332 includes data in which acceleration data transmitted from the plurality of acceleration sensors 142 is recorded at regular intervals. The acceleration sensor history data 332 is updated by the acceleration sensor history recording program 314. Each data constituting the position history data 330 and the acceleration sensor history data 332 is associated with the time recorded in the memory 22 or the time acquired by the central control device 10.

計算テーブルデータ334は、図9(A)に示す計算テーブルのデータである。相関テーブルデータ336は、図9(B)に示す相関テーブルのデータである。なお、この計算テーブルデータ334および相関テーブルデータ336は、相関係数算出プログラム316aが実行されるときに用いられる。センサテーブルデータ338は、図10に示すセンサテーブルのデータである。   The calculation table data 334 is data of the calculation table shown in FIG. The correlation table data 336 is data of the correlation table shown in FIG. The calculation table data 334 and the correlation table data 336 are used when the correlation coefficient calculation program 316a is executed. The sensor table data 338 is data of the sensor table shown in FIG.

IDテーブルデータ340は、図11に示すIDテーブルのデータであり、管理プログラム316が実行されることで記録される内容が更新され、公開データ管理プログラム318が実行される場合に利用される。地図データ342は、検出領域E内の地図を示すデータである。   The ID table data 340 is data of the ID table shown in FIG. 11, and is used when the contents recorded by executing the management program 316 are updated and the public data management program 318 is executed. The map data 342 is data indicating a map in the detection area E.

また、図示は省略するが、データ記憶領域304には、様々な計算の結果を一時的に格納するバッファなどが設けられると共に、中央制御装置10の動作に必要な他のカウンタやフラグも設けられる。   Although not shown, the data storage area 304 is provided with a buffer for temporarily storing the results of various calculations and other counters and flags necessary for the operation of the central controller 10. .

具体的には、中央制御装置10のCPU16は、図15−図19に示す処理を含む、複数の処理を並列的に実行する。   Specifically, the CPU 16 of the central control apparatus 10 executes a plurality of processes in parallel including the processes shown in FIGS.

図15に示すように、中央制御装置10のCUP16は、位置履歴記録処理を実行すると、ステップS1で、検出した時刻を記録する。つまり、LRF18で検出領域E内の人間を検出した時刻を記録する。続いて、ステップS3で、検出した各人間の座標を算出する。つまり、検出領域E内で検出された各人間のX軸の座標およびY軸の座標を算出する。続いて、ステップS5では、算出した各座標を記録する。つまり、各人間に対して算出されたX軸の座標およびY軸の座標を記録する。また、ステップS5の処理が終了すると、ステップS1で記録した時刻と、ステップS5で記録した各座標とを、位置履歴データ330を構成する履歴のデータとしてメモリ22に記憶させる。なお、ステップS1−S5の処理時間は、一定時間(約26ミリ秒)であり、位置履歴記録処理はLRF18の検出周期(38.5Hz)と同期して繰り返し実行される。   As shown in FIG. 15, when the CUP 16 of the central controller 10 executes the position history recording process, the detected time is recorded in step S1. That is, the time when the person in the detection area E is detected by the LRF 18 is recorded. Subsequently, in step S3, the coordinates of each detected person are calculated. That is, the X-axis coordinates and Y-axis coordinates of each person detected in the detection area E are calculated. Subsequently, in step S5, the calculated coordinates are recorded. That is, the X-axis coordinates and Y-axis coordinates calculated for each person are recorded. When the process in step S5 is completed, the time recorded in step S1 and the coordinates recorded in step S5 are stored in the memory 22 as history data constituting the position history data 330. Note that the processing time of steps S1-S5 is a fixed time (about 26 milliseconds), and the position history recording process is repeatedly executed in synchronization with the detection period (38.5 Hz) of the LRF 18.

図16は、加速度センサ履歴記録処理のフロー図である。図16で示すように、中央制御装置10のCPU16は、ステップS11で加速度を受信したか否かを判断する。つまり、加速度センサ142が出力する加速度を、携帯端末12から受信したか否かを判断する。ステップS11で“NO”であれば、つまり加速度を受信しなければ、ステップS11の処理を繰り返し実行する。一方、ステップS11で“YES”であれば、つまり加速度を受信すれば、ステップS13で受信した時刻を記録する。つまり、携帯端末12が発信した加速度のデータを受信した、時刻を記録する。続いて、ステップS15では、受信した各加速度のデータを記録する。つまり、各携帯端末12が発信した加速度のデータをそれぞれ記録する。また、ステップS15の処理が終了すると、ステップS13で記録した時刻と、ステップS15で記録した各加速度のデータとを、加速度センサ履歴データ332を構成する履歴のデータとして、メモリ22に記憶させる。   FIG. 16 is a flowchart of the acceleration sensor history recording process. As shown in FIG. 16, the CPU 16 of the central control apparatus 10 determines whether or not acceleration has been received in step S11. That is, it is determined whether or not the acceleration output from the acceleration sensor 142 is received from the mobile terminal 12. If “NO” in the step S11, that is, if no acceleration is received, the process of the step S11 is repeatedly executed. On the other hand, if “YES” in the step S11, that is, if an acceleration is received, the time received in the step S13 is recorded. That is, the time when the acceleration data transmitted by the mobile terminal 12 is received is recorded. In step S15, the received acceleration data is recorded. That is, the acceleration data transmitted by each mobile terminal 12 is recorded. When the processing in step S15 is completed, the time recorded in step S13 and the data of each acceleration recorded in step S15 are stored in the memory 22 as history data constituting the acceleration sensor history data 332.

図17に示すように、中央制御装置10のCPU16は、検出領域E内で人間を検出し、加速度センサ142から加速度のデータを受信すると、管理処理を実行し、ステップS21で、終了操作か否かを判断する。たとえば、管理処理を終了する操作が管理者によってされたか否かを判断する。そして、ステップS21で“YES”であれば、管理処理を終了し、“NO”であれば、ステップS23で携帯端末12のデータを記録し、人間および加速度センサ142の全てにIDを設定する。つまり、各携帯端末12が送信する機器アドレス、公開範囲および公開データをセンサテーブルデータ338に記録する。そして、検出領域E内に居る各人間に人間IDをそれぞれ設定し、さらに受信した機器アドレス、公開範囲および公開データの数に応じてセンサIDを設定する。つまり、ステップS23の処理を実行することで、図9(B)に示す相関テーブルの列数および行数が決まる。続いて、ステップS25で、人間IDの変数Aを初期化する。つまり、人間ID:001からLのそれぞれを指定するための変数Aの値を0にする。   As shown in FIG. 17, when the CPU 16 of the central control device 10 detects a person in the detection area E and receives acceleration data from the acceleration sensor 142, the CPU 16 executes a management process. Determine whether. For example, it is determined whether or not an operation for ending the management process has been performed by the administrator. If “YES” in the step S 21, the management process is ended, and if “NO”, the data of the portable terminal 12 is recorded in a step S 23, and IDs are set for all of the human and the acceleration sensor 142. That is, the device address, the disclosure range, and the disclosure data transmitted by each mobile terminal 12 are recorded in the sensor table data 338. Then, a human ID is set for each person in the detection area E, and a sensor ID is set according to the received device address, public range, and number of public data. That is, by executing the processing of step S23, the number of columns and the number of rows in the correlation table shown in FIG. 9B are determined. Subsequently, in step S25, the variable A of the human ID is initialized. That is, the value of the variable A for designating each of the human IDs 001 to L is set to 0.

続いて、ステップS27で変数Aが最大値であるか否かを判断する。つまり、変数Aの値が人間IDの最大値であるLと一致するか否かを判断する。ステップS27で“NO”であれば、つまり変数Aが最大値でなければ、ステップS29で所定時間内の人間ID:Aの位置履歴を取得する。つまり、位置履歴データから、変数Aで指定されるセンサIDに対応する人間の履歴情報を20秒分、読み出す。続いて、ステップS31では、位置履歴情報からX軸およびY軸の加速度を算出する。つまり、読み出した履歴情報から1秒毎の移動距離を算出し、算出した移動距離を時間で2回微分することで、X軸方向およびY軸方向の加速度を算出する。また、このステップS31の処理を実行するCPU16は第1算出手段として機能する。   Subsequently, in step S27, it is determined whether or not the variable A is the maximum value. That is, it is determined whether or not the value of the variable A matches L, which is the maximum value of the human ID. If “NO” in the step S27, that is, if the variable A is not the maximum value, a position history of the human ID: A within a predetermined time is acquired in a step S29. That is, the human history information corresponding to the sensor ID specified by the variable A is read from the position history data for 20 seconds. Subsequently, in step S31, the X-axis and Y-axis accelerations are calculated from the position history information. That is, the movement distance per second is calculated from the read history information, and the acceleration in the X-axis direction and the Y-axis direction is calculated by differentiating the calculated movement distance twice with respect to time. In addition, the CPU 16 that executes the process of step S31 functions as a first calculation unit.

続いて、ステップS33では、センサIDの変数Bを初期化する。つまり、センサID:001からMのそれぞれを指定するための変数Bの値を0にする。続いて、ステップS35で変数Bが最大値か否かを判断する。つまり、変数BがセンサIDの最大値であるMと一致するか否かを判断する。ステップS35で“NO”であれば、つまり変数Bが最大値でなければ、ステップS37で相関係数算出処理を実行する。このステップS37の処理については後述するため、ここでの詳細な説明は省略する。続いて、ステップS39では、変数Bをインクリメント(B=B+1)し、ステップS35に戻る。つまり、ステップS39では、変数Bが次のセンサIDを指定するように、変数Bをインクリメントする。   In step S33, the sensor ID variable B is initialized. That is, the value of the variable B for designating each of the sensor IDs: 001 to M is set to 0. Subsequently, in step S35, it is determined whether or not the variable B is the maximum value. That is, it is determined whether or not the variable B matches M, which is the maximum value of the sensor ID. If “NO” in the step S35, that is, if the variable B is not the maximum value, a correlation coefficient calculating process is executed in a step S37. Since the process of step S37 will be described later, a detailed description thereof is omitted here. Subsequently, in step S39, the variable B is incremented (B = B + 1), and the process returns to step S35. That is, in step S39, the variable B is incremented so that the variable B designates the next sensor ID.

また、ステップS35で“YES”であれば、つまり変数Bが最大値であれば、ステップS41で変数Aをインクリメント(A=A+1)し、ステップS27に戻る。つまり、ステップS41では、変数Aが次の人間IDを指定するように、変数Aをインクリメントする。   If “YES” in the step S35, that is, if the variable B is the maximum value, the variable A is incremented (A = A + 1) in a step S41, and the process returns to the step S27. That is, in step S41, the variable A is incremented so that the variable A designates the next human ID.

また、ステップS27で“YES”であれば、つまり変数Aが最大値であれば、ステップS43で相関係数に基づいて、人間IDとセンサIDとを対応付けてIDテーブルに記録する。つまり、2つの相関係数のそれぞれが0.80以上であり、かつ2つの相関係数の和が最大値となる、人間IDおよびセンサIDの組み合わせを相関テーブルから特定(同定)し、IDテーブルに記録する。たとえば、図9(A)に示す相関テーブルからは、人間ID:001とセンサID:001との組み合わせ、人間ID:002とセンサID:Mとの組み合わせ、人間ID:003とセンサID:002の組み合わせなどが特定(同定)される。そして、その同定された結果は、図11に示すIDテーブルに記録される。   If “YES” in the step S27, that is, if the variable A is the maximum value, the human ID and the sensor ID are associated with each other and recorded in the ID table based on the correlation coefficient in a step S43. That is, a combination of a human ID and a sensor ID, each of which has two correlation coefficients of 0.80 or more and the sum of the two correlation coefficients is the maximum value, is identified (identified) from the correlation table, and the ID table To record. For example, from the correlation table shown in FIG. 9A, a combination of human ID: 001 and sensor ID: 001, a combination of human ID: 002 and sensor ID: M, and a human ID: 003 and sensor ID: 002. A combination or the like is specified (identified). The identified result is recorded in the ID table shown in FIG.

続いて、ステップS45では、受信した公開範囲および公開データをIDテーブルデータに記録して、ステップS21に戻る。たとえば、図10に示すセンサテーブルを参照して、センサID:001に対応する公開範囲と公開データとを読み出し、図11に示すIDテーブルにおけるセンサID:001に対応する欄に、読み出した公開範囲と公開データとを記録する。   Subsequently, in step S45, the received disclosure range and disclosure data are recorded in the ID table data, and the process returns to step S21. For example, referring to the sensor table shown in FIG. 10, the disclosure range and the disclosure data corresponding to the sensor ID: 001 are read out, and the read disclosure range is read in the column corresponding to the sensor ID: 001 in the ID table shown in FIG. And public data.

なお、ステップS43の処理を実行するCPU16は同定手段として機能する。また、ステップS43,S45の処理を実行するCPU16は処理手段として機能する。さらに、ステップS43,S45の処理を実行するCPU16とメモリ22とは記録手段として機能する。   In addition, CPU16 which performs the process of step S43 functions as an identification means. Further, the CPU 16 that executes the processes of steps S43 and S45 functions as a processing means. Further, the CPU 16 that executes the processes of steps S43 and S45 and the memory 22 function as recording means.

図18は、図17に示したステップS37の相関係数算出処理のフロー図である。図18に示すように、中央制御装置10のCPU16は、相関係数算出処理を開始すると、ステップS61で、センサID:BにおけるXa軸方向の加速度と人間ID:AにおけるX軸方向の加速度との相関係数BxAxを算出する。たとえば、変数Aおよび変数Bが「1」であれば、人間ID:001およびセンサID:001となる。このとき、CPU16は、センサID:001に対応する加速度センサ142の値を、加速度センサ履歴データ332から読み出す。そして、加速度センサ142が出力するXa軸方向の加速度と、上位ルーチンで算出された人間AにおけるX軸方向の加速度とから算出される相関係数(0.96)が相関係数BxAxとなる。そして、相関係数BxAxは、図9(A)に示す計算テーブルにおいて、Xa軸に対応するX軸の欄に記録される。   FIG. 18 is a flowchart of the correlation coefficient calculation process in step S37 shown in FIG. As shown in FIG. 18, when the CPU 16 of the central controller 10 starts the correlation coefficient calculation process, in step S61, the acceleration in the Xa-axis direction at the sensor ID: B and the acceleration in the X-axis direction at the human ID: A The correlation coefficient BxAx is calculated. For example, if the variable A and the variable B are “1”, the human ID is 001 and the sensor ID is 001. At this time, the CPU 16 reads the value of the acceleration sensor 142 corresponding to the sensor ID: 001 from the acceleration sensor history data 332. The correlation coefficient (0.96) calculated from the acceleration in the Xa-axis direction output from the acceleration sensor 142 and the acceleration in the X-axis direction of the human A calculated by the upper routine is the correlation coefficient BxAx. The correlation coefficient BxAx is recorded in the column of the X axis corresponding to the Xa axis in the calculation table shown in FIG.

続いて、ステップS63では、センサID:BにおけるYa軸方向の加速度と人間ID:AにおけるX軸方向の加速度との相関係数ByAxを算出する。つまり、ステップS61と同様に、加速度センサ142が出力するYa軸方向の加速度と人間AにおけるX軸方向の加速度とから算出される相関係数(0.34)が相関係数ByAxとなる。そして、相関係数ByAxは計算テーブルにおいて、Ya軸に対応するX軸の欄に記録される。   Subsequently, in step S63, a correlation coefficient ByAx between the acceleration in the Ya-axis direction at the sensor ID: B and the acceleration in the X-axis direction at the human ID: A is calculated. That is, as in step S61, a correlation coefficient (0.34) calculated from the acceleration in the Ya axis direction output from the acceleration sensor 142 and the acceleration in the X axis direction of the human A is the correlation coefficient ByAx. The correlation coefficient ByAx is recorded in the X-axis column corresponding to the Ya-axis in the calculation table.

続いて、ステップS65では、センサID:BにおけるXa軸方向の加速度と人間ID:AにおけるY軸方向の加速度との相関係数BxAyを算出する。つまり、ステップS61と同様に、加速度センサ142が出力するXa軸方向の加速度と人間AにおけるX軸方向の加速度から算出される相関係数(0.39)が相関係数BxAyとなる。そして、相関係数BxAyは、計算テーブルにおけるXa軸に対するY軸の欄に記録される。   Subsequently, in step S65, a correlation coefficient BxAy between the acceleration in the Xa axis direction at the sensor ID: B and the acceleration in the Y axis direction at the human ID: A is calculated. That is, as in step S61, the correlation coefficient (0.39) calculated from the acceleration in the Xa-axis direction output from the acceleration sensor 142 and the acceleration in the X-axis direction of the human A is the correlation coefficient BxAy. The correlation coefficient BxAy is recorded in the column of the Y axis with respect to the Xa axis in the calculation table.

続いて、ステップS67では、センサID:BにおけるYa軸方向の加速度と人間ID:AにおけるY軸方向の加速度との相関係数ByAyを算出する。つまり、ステップS61と同様に、加速度センサ142が出力するYa軸方向の加速度と人間AにおけるY軸方向の加速度とから算出される相関係数(0.88)が相関係数ByAyとなる。そして、相関係数ByAyは、計算テーブルにおけるYa軸に対するY軸の欄に記録される。   Subsequently, in step S67, a correlation coefficient ByAy between the acceleration in the Ya-axis direction at the sensor ID: B and the acceleration in the Y-axis direction at the human ID: A is calculated. That is, as in step S61, a correlation coefficient (0.88) calculated from the acceleration in the Ya axis direction output from the acceleration sensor 142 and the acceleration in the Y axis direction of the human A is the correlation coefficient ByAy. The correlation coefficient ByAy is recorded in the column of the Y axis with respect to the Ya axis in the calculation table.

続いて、ステップS69では、BxAx>ByAxかつByAy>BxAyであるか否かを判断する。つまり、加速度センサ142が出力するXa軸およびYa軸の方向が、検出領域EにおけるX軸およびY軸の方向と一致しているか否かを判断する。ステップS69で“YES”であれば、つまり軸方向が一致していれば、ステップS71でセンサID:Bに対する人間ID:Aの相関係数(X,Y)を(BxAx,ByAy)とし、相関係数算出処理を終了した後に、管理処理に戻る。たとえば、ステップS71では、X軸における加速度センサ142と人間Aとの相関係数を0.96(BxAx)とし、Y軸における加速度センサ142との人間Aとの相関係数を相関係数0.88(ByAy)とする。つまり、図9(B)に示す相関テーブルのように、人間ID:001およびセンサID001に対応するX軸の欄には0.96が記録され、Y軸の欄には0.88が記録される。   Subsequently, in step S69, it is determined whether BxAx> ByAx and ByAy> BxAy. That is, it is determined whether or not the directions of the Xa axis and the Ya axis output from the acceleration sensor 142 coincide with the directions of the X axis and the Y axis in the detection region E. If “YES” in the step S69, that is, if the axial directions coincide with each other, the correlation coefficient (X, Y) of the human ID: A with respect to the sensor ID: B is set to (BxAx, ByAy) in a step S71. After the relation number calculation process is completed, the process returns to the management process. For example, in step S71, the correlation coefficient between the acceleration sensor 142 on the X axis and the human A is 0.96 (BxAx), and the correlation coefficient between the acceleration sensor 142 on the Y axis and the human A is the correlation coefficient 0. 88 (ByAy). That is, as in the correlation table shown in FIG. 9B, 0.96 is recorded in the X-axis column corresponding to human ID: 001 and sensor ID 001, and 0.88 is recorded in the Y-axis column. The

また、ステップS69で“NO”であれば、つまり軸方向が一致していなければ、ステップS73でセンサID:Bに対する人間ID:Aの相関係数(X,Y)を(BxAy,ByAx)とし、相関係数算出処理を終了する。つまり、ステップS73では、X軸における加速度センサ142と人間との相関係数をBxAyとし、Y軸における加速度センサ142と人間との相関係数をByAxとする。つまり、相関テーブルにおける人間ID:001およびセンサID001に対応するX軸の欄およびY軸の欄に相関係数が記録される。   If “NO” in the step S69, that is, if the axial directions do not match, the correlation coefficient (X, Y) of the human ID: A with respect to the sensor ID: B is set to (BxAy, ByAx) in a step S73. Then, the correlation coefficient calculation process ends. That is, in step S73, the correlation coefficient between the acceleration sensor 142 on the X axis and the human is BxAy, and the correlation coefficient between the acceleration sensor 142 on the Y axis and the human is ByAx. That is, the correlation coefficient is recorded in the X-axis column and Y-axis column corresponding to the human ID: 001 and sensor ID 001 in the correlation table.

なお、ステップS61−S73の処理を実行するCPU16は第2算出手段として機能する。さらに、ステップS61,S65,S69−S73の処理を実行するCPU16は第1方向算出手段としても機能し、ステップS63,S67−S73の処理を実行するCPU16は第2方向算出手段としても機能する。   In addition, CPU16 which performs the process of step S61-S73 functions as a 2nd calculation means. Further, the CPU 16 that executes the processes of steps S61, S65, and S69-S73 also functions as a first direction calculating unit, and the CPU 16 that executes the processes of steps S63 and S67-S73 also functions as a second direction calculating unit.

図19は、公開データ管理処理のフロー図である。図19で示すように、中央制御装置10のCPU16は、ステップS101で探索要求があるか否かを判断する。つまり、携帯端末12が発信した探索要求を受信したか否かを判断する。また、ステップS101の処理を実行するCPU16は探索要求受信手段として機能する。ステップS101で“NO”であれば、つまり探索要求がなければステップS111に進む。一方、ステップS101で“YES”であれば、つまり探索要求があれば、ステップS103で要求元は公開を制限されているか否かを判断する。つまり、ステップS103では、IDテーブルから探索先の携帯端末12を検索し、さらに検索結果に基づいて「公開範囲」の列のデータを読み込む。そして、要求元の携帯端末12の機器アドレスまたはグループ情報が公開範囲に含まれているか否かを判断する。   FIG. 19 is a flowchart of the public data management process. As shown in FIG. 19, the CPU 16 of the central controller 10 determines whether or not there is a search request in step S101. That is, it is determined whether a search request transmitted by the mobile terminal 12 has been received. The CPU 16 that executes the process of step S101 functions as a search request receiving unit. If “NO” in the step S101, that is, if there is no search request, the process proceeds to a step S111. On the other hand, if “YES” in the step S101, that is, if there is a search request, it is determined whether or not the requesting source is restricted in a step S103. That is, in step S103, the searchable portable terminal 12 is searched from the ID table, and further, the data in the column “publication range” is read based on the search result. Then, it is determined whether or not the device address or group information of the requesting mobile terminal 12 is included in the disclosure range.

ステップS103で“YES”であれば、つまり要求元が公開を制限されていれば、ステップS111に進む。一方、ステップS103で“NO”であれば、つまり要求元が公開を制限されていなければ、ステップS105でロボット14による補助要求があるか否かを判断する。つまり、探索要求と共にロボット14による補助要求を受信しているか否かを判断する。ステップS105で“YES”であれば、つまりロボット14による補助要求があれば、ステップS107で探索指示をロボット14に送信し、ステップS101に戻る。つまり、探索先の人間を要求元の人間の元に誘導するための探索指示を、ロボット14に送信する。   If “YES” in the step S103, that is, if the request source is restricted from being disclosed, the process proceeds to a step S111. On the other hand, if “NO” in the step S103, that is, if the request source is not restricted from being disclosed, it is determined whether or not there is an assistance request from the robot 14 in a step S105. That is, it is determined whether an assistance request from the robot 14 is received together with the search request. If “YES” in the step S105, that is, if there is an assistance request from the robot 14, a search instruction is transmitted to the robot 14 in a step S107, and the process returns to the step S101. That is, a search instruction for guiding the search target person to the requesting person is transmitted to the robot 14.

一方、ステップS105で“NO”であれば、つまりロボット14による補助要求がされてなければ、ステップS109で探索先の現在位置と地図データとを要求元に送信し、ステップS101に戻る。つまり、探索先の現在位置を位置履歴データ330から読み出し、さらに現在位置に対応する地図を地図データ342から読み出して、要求元の携帯端末12に送信する。なお、ステップS109の処理を実行するCPU16は位置送信手段として機能する。   On the other hand, if “NO” in the step S105, that is, if the assistance request by the robot 14 is not made, the search destination current position and map data are transmitted to the requesting source in a step S109, and the process returns to the step S101. That is, the current position of the search destination is read from the position history data 330, and a map corresponding to the current position is read from the map data 342 and transmitted to the requesting mobile terminal 12. The CPU 16 that executes the process of step S109 functions as a position transmission unit.

また、ステップS111では、公開データの取得要求があるか否かを判断する。つまり、IDテーブルに記録される公開データを取得する要求があるか否かを判断する。また、ステップS111の処理を実行するCPU16は取得要求受信手段として機能する。ステップS111で“NO”であれば、つまり取得要求がなければ、ステップS101に戻る。一方、ステップS111で“YES”であれば、つまり取得要求があれば、ステップS113で要求元が公開を制限されているか否かを判断する。なお、このステップS113の処理は、ステップS103と同じであるため詳細な説明は省略する。   In step S111, it is determined whether there is a public data acquisition request. That is, it is determined whether or not there is a request for obtaining public data recorded in the ID table. Further, the CPU 16 that executes the process of step S111 functions as an acquisition request receiving unit. If “NO” in the step S111, that is, if there is no acquisition request, the process returns to the step S101. On the other hand, if “YES” in the step S111, that is, if there is an acquisition request, it is determined whether or not the request source is restricted from being released in a step S113. Note that the processing in step S113 is the same as that in step S103, and thus detailed description thereof is omitted.

ステップS113で“YES”であれば、つまり制限されていればステップS101に戻る。一方、ステップS113で“NO”であれば、つまり制限されていなければ、ステップS115で公開データを送信し、ステップS101に戻る。たとえば、情報発信装置が発信した取得要求を受信した場合には、IDテーブルの「公開範囲」の列に「全て」などが記録されている欄に対応する公開データを情報発信装置に送信する。また、ステップS115の処理を実行するCPU16は公開データ送信手段として機能する。   If “YES” in the step S113, that is, if restricted, the process returns to the step S101. On the other hand, if “NO” in the step S113, that is, if not restricted, the public data is transmitted in a step S115, and the process returns to the step S101. For example, when an acquisition request transmitted by the information transmission device is received, public data corresponding to a column in which “all” or the like is recorded in the “public range” column of the ID table is transmitted to the information transmission device. The CPU 16 that executes the process of step S115 functions as a public data transmission unit.

この実施例によれば、移動体管理システム100は、中央制御装置10および携帯端末12を含む。中央制御装置10はLRF18を有し、携帯端末12は加速度センサ142を有する。そして、中央制御装置10および携帯端末12は、Bluetoooth形式の近距離無線通信を確立することが可能であり、携帯端末12は、加速度センサ142が出力する加速度を中央制御装置10に送信する。また、中央制御装置10は、LRF18によって検出領域E内に居る人間A,Bの位置を連続的に取得し、位置履歴データ330として記憶する。この位置履歴データ330からは人間A,Bの加速度を算出することができ、中央制御装置10は、加速度センサ142が出力する加速度との相関係数を算出するそして、中央制御装置10は、人間IDとセンサIDとを対応付けて記録することで、移動する人間を同定する。   According to this embodiment, the mobile management system 100 includes a central control device 10 and a mobile terminal 12. The central controller 10 has an LRF 18, and the mobile terminal 12 has an acceleration sensor 142. The central control device 10 and the mobile terminal 12 can establish Bluetooth short-range wireless communication, and the mobile terminal 12 transmits the acceleration output from the acceleration sensor 142 to the central control device 10. Further, the central controller 10 continuously acquires the positions of the persons A and B in the detection area E by the LRF 18 and stores them as position history data 330. From the position history data 330, the accelerations of the humans A and B can be calculated. The central control device 10 calculates a correlation coefficient with the acceleration output from the acceleration sensor 142. The central control device 10 The moving person is identified by recording the ID and the sensor ID in association with each other.

これによって、検出領域E内に居る各人間は加速度を利用して同定され、さらに管理される。そして、携帯端末12から送信される公開データおよび公開範囲のデータをIDテーブルに記録することで、探索サービスや、情報提供サービスなどを提供できるようになる。   As a result, each person in the detection area E is identified and managed using acceleration. Then, by recording the public data and the public range data transmitted from the mobile terminal 12 in the ID table, a search service, an information providing service, and the like can be provided.

なお、本実施例では、LRF18を用いているが、LRF18に代えて超音波距離センサやミリ波レーダなどを用いて、人間の位置履歴情報を取得してもよい。また、近距離無線通信の形式には、Buletooth形式だけに限らず、ZigBee(登録商標)形式、Wi−Fi(登録商標)形式などの他の無線LAN規格などであってもよい。また、携帯端末12は、加速度センサ付きZigBeeモジュールを備える小型携帯端末、加速度センサ142を備える携帯電話および携帯音楽プレイヤなどであってもよいし、加速度センサ142を後付け可能な携帯ゲーム機であってもよい。また、LRF18は、人間の位置だけなく、ロボット14などの移動体の位置も検出できるため、ロボット14が携帯端末12を所持していてもよい。   In the present embodiment, the LRF 18 is used, but the human position history information may be acquired by using an ultrasonic distance sensor, a millimeter wave radar, or the like instead of the LRF 18. Further, the short-range wireless communication format is not limited to the Bluetooth format, but may be other wireless LAN standards such as the ZigBee (registered trademark) format and the Wi-Fi (registered trademark) format. The mobile terminal 12 may be a small mobile terminal provided with a ZigBee module with an acceleration sensor, a mobile phone provided with an acceleration sensor 142, a mobile music player, or the like, or a mobile game machine to which the acceleration sensor 142 can be retrofitted. Also good. Further, since the LRF 18 can detect not only the position of a human but also the position of a moving body such as the robot 14, the robot 14 may carry the mobile terminal 12.

そして、検出領域E内で検出される人間の数や、受信する加速度のデータの数が変化した場合に、管理処理では変化の差分のみを再計算してもよい。つまり、具体的には、図17に示す管理処理において2回目以降の処理では、ステップS21の前に、人数また加速度センサのデータ数の変化を監視する処理を追加すればよい。そして、ステップS23以降の処理では、差分のみを再計算するように処理する。   When the number of humans detected in the detection area E or the number of received acceleration data changes, only the difference in change may be recalculated in the management process. That is, specifically, in the second and subsequent processes in the management process shown in FIG. 17, a process for monitoring changes in the number of persons or the number of data of the acceleration sensor may be added before step S21. In the processing after step S23, only the difference is recalculated.

10 …中央制御装置
12 …携帯端末
14 …ロボット
16 …CPU
18a,18b …LRF
20 …近距離無線通信装置
22 …メモリ
24 …通信LANボード
26 …無線通信装置
50 …ネットワーク
100 …管理システム
130 …CPU
138 …LCD
142 …加速度センサ
146 …近距離無線通信装置
DESCRIPTION OF SYMBOLS 10 ... Central control apparatus 12 ... Portable terminal 14 ... Robot 16 ... CPU
18a, 18b ... LRF
DESCRIPTION OF SYMBOLS 20 ... Near field communication apparatus 22 ... Memory 24 ... Communication LAN board 26 ... Wireless communication apparatus 50 ... Network 100 ... Management system 130 ... CPU
138 ... LCD
142 ... acceleration sensor 146 ... short-range wireless communication device

Claims (5)

第1移動体に設けられて第1加速度を検出する加速度センサ、
第2移動体の位置を検出する位置検出手段、
前記位置検出手段によって検出された位置の履歴に基づいて第2加速度を算出する第1算出手段、
前記第1加速度および前記第2加速度の相関係数を算出する第2算出手段、
前記相関係数が所定値以上であるとき、前記第1移動体と前記第2移動体とを同一移動体として同定する同定手段、および
前記同定手段による同定に応じて所定の処理を実行する処理手段を備える、移動体管理システム。
An acceleration sensor provided on the first moving body for detecting the first acceleration;
Position detecting means for detecting the position of the second moving body;
First calculation means for calculating a second acceleration based on a history of positions detected by the position detection means;
Second calculating means for calculating a correlation coefficient between the first acceleration and the second acceleration;
When the correlation coefficient is equal to or greater than a predetermined value, an identification unit that identifies the first moving body and the second moving body as the same moving body, and a process that executes a predetermined process in accordance with the identification by the identification unit A mobile management system comprising means.
前記所定処理手段は、前記加速度センサに設定された第1IDと前記第2移動体に設定された第2IDとを対応付けて記録する記録手段を含む、請求項1記載の移動体管理システム。   The mobile object management system according to claim 1, wherein the predetermined processing means includes a recording means for recording the first ID set in the acceleration sensor and the second ID set in the second mobile object in association with each other. 前記第1加速度および前記第2加速度のそれぞれは、地面に水平な第1方向の加速度および前記第1方向に対して垂直に交わり、かつ地面に水平な第2方向の加速度から構成されており、
前記第2算出手段は、前記第1方向の加速度の相関係数を算出する第1方向算出手段および前記第2方向の加速度を算出する第2方向算出手段を含み、
前記同定手段は、前記第1方向算出手段および前記第2方向算出手段のそれぞれが算出した2つの相関係数が所定値以上であり、かつ前記2つの相関係数の和が最大値となる、前記第1移動体と前記第2移動体とを同一移動体として同定する、請求項1または2記載の移動体管理システム。
Each of the first acceleration and the second acceleration is composed of acceleration in a first direction horizontal to the ground and acceleration in a second direction perpendicular to the first direction and horizontal to the ground,
The second calculation means includes first direction calculation means for calculating a correlation coefficient of acceleration in the first direction and second direction calculation means for calculating acceleration in the second direction,
The identification means has two correlation coefficients calculated by the first direction calculation means and the second direction calculation means that are not less than a predetermined value, and the sum of the two correlation coefficients is a maximum value. The mobile body management system according to claim 1 or 2, wherein the first mobile body and the second mobile body are identified as the same mobile body.
第1移動体に設けられる加速度センサが発信する第1加速度を受信する受信手段、
第2移動体の位置を検出する位置検出手段、
前記位置検出手段によって検出された位置の履歴に基づいて第2加速度を算出する第1算出手段、
前記第1加速度および前記第2加速度の相関係数を算出する第2算出手段、
前記相関係数が所定値以上であるとき、前記第1移動体と前記第2移動体とを同一移動体として同定する同定手段、および
前記同定手段による同定に応じて所定の処理を実行する処理手段を備える、移動体管理装置。
Receiving means for receiving a first acceleration transmitted by an acceleration sensor provided in the first moving body;
Position detecting means for detecting the position of the second moving body;
First calculation means for calculating a second acceleration based on a history of positions detected by the position detection means;
Second calculating means for calculating a correlation coefficient between the first acceleration and the second acceleration;
When the correlation coefficient is equal to or greater than a predetermined value, an identification unit that identifies the first moving body and the second moving body as the same moving body, and a process that executes a predetermined process in accordance with the identification by the identification unit A mobile unit management device comprising means.
第1移動体に設けられる加速度センサが発信する第1加速度を受信する受信手段と、第2移動体の位置を検出する位置検出手段とを備える管理装置のプロセサを、
前記位置検出手段によって検出された位置の履歴に基づいて第2加速度を算出する第1算出手段、
前記第1加速度および前記第2加速度の相関係数を算出する第2算出手段、
前記相関係数が所定値以上であるとき、前記第1移動体と前記第2移動体とを同一移動体として同定する同定手段、および
前記同定手段による同定に応じて所定の処理を実行する処理手段として機能させる、移動体管理プログラム。
A processor of a management device comprising: receiving means for receiving a first acceleration transmitted by an acceleration sensor provided in the first moving body; and position detecting means for detecting the position of the second moving body,
First calculation means for calculating a second acceleration based on a history of positions detected by the position detection means;
Second calculating means for calculating a correlation coefficient between the first acceleration and the second acceleration;
When the correlation coefficient is equal to or greater than a predetermined value, an identification unit that identifies the first moving body and the second moving body as the same moving body, and a process that executes a predetermined process in accordance with the identification by the identification unit A mobile management program that functions as a means.
JP2009050127A 2009-03-04 2009-03-04 Mobile object management system, mobile object management apparatus, and mobile object management program Active JP5366046B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009050127A JP5366046B2 (en) 2009-03-04 2009-03-04 Mobile object management system, mobile object management apparatus, and mobile object management program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009050127A JP5366046B2 (en) 2009-03-04 2009-03-04 Mobile object management system, mobile object management apparatus, and mobile object management program

Publications (2)

Publication Number Publication Date
JP2010201566A true JP2010201566A (en) 2010-09-16
JP5366046B2 JP5366046B2 (en) 2013-12-11

Family

ID=42963575

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009050127A Active JP5366046B2 (en) 2009-03-04 2009-03-04 Mobile object management system, mobile object management apparatus, and mobile object management program

Country Status (1)

Country Link
JP (1) JP5366046B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012103169A (en) * 2010-11-11 2012-05-31 Fujitsu Ltd Moving object specification system, moving object specification device and moving object specification program
JP2016145742A (en) * 2015-02-06 2016-08-12 株式会社国際電気通信基礎技術研究所 Identification system, identification program, identification method and identification device
US20210271257A1 (en) * 2018-07-06 2021-09-02 Sony Corporation Information processing device, optimum time estimation method, self-position estimation method, and record medium recording computer program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07225893A (en) * 1994-02-09 1995-08-22 Fuji Heavy Ind Ltd Inter-vehicle distance controller
JPH07225892A (en) * 1994-02-09 1995-08-22 Fuji Heavy Ind Ltd Vehicle traveling controller

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07225893A (en) * 1994-02-09 1995-08-22 Fuji Heavy Ind Ltd Inter-vehicle distance controller
JPH07225892A (en) * 1994-02-09 1995-08-22 Fuji Heavy Ind Ltd Vehicle traveling controller

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012103169A (en) * 2010-11-11 2012-05-31 Fujitsu Ltd Moving object specification system, moving object specification device and moving object specification program
JP2016145742A (en) * 2015-02-06 2016-08-12 株式会社国際電気通信基礎技術研究所 Identification system, identification program, identification method and identification device
US20210271257A1 (en) * 2018-07-06 2021-09-02 Sony Corporation Information processing device, optimum time estimation method, self-position estimation method, and record medium recording computer program

Also Published As

Publication number Publication date
JP5366046B2 (en) 2013-12-11

Similar Documents

Publication Publication Date Title
EP2661663B1 (en) Method and apparatus for tracking orientation of a user
US9915545B2 (en) Smart necklace with stereo vision and onboard processing
JP6069606B2 (en) Robot control system and robot control method
JP5758570B2 (en) Position-recognition mixed reality game platform
JP7439844B2 (en) Terminal device, information processing device, information output method, information processing method, customer service support method and program
CN109478267B (en) Observation-based event tracking
JP2018067314A (en) Method and system for controlling indoor autonomous travelling robot
KR102280798B1 (en) Cart robot and system for controlling robot
KR20170130234A (en) Electronic Apparatus providing indoor navigation and method thereof
US10123297B1 (en) System, method and devices for performing wireless tracking
JP2010231470A (en) Information providing system
CN103245345A (en) Indoor navigation system, indoor navigation method and indoor searching method based on image sensing technology
US9445240B2 (en) Systems and methods for pedestrian indoor positioning
JP6134895B2 (en) Robot control system, robot control program, and explanation robot
JP6150429B2 (en) Robot control system, robot, output control program, and output control method
KR102453807B1 (en) System and method for guiding footpath based on user movement detection
KR20190043569A (en) Industrial electronic badge
JP5366046B2 (en) Mobile object management system, mobile object management apparatus, and mobile object management program
KR20200144363A (en) Robot and operating method thereof
JP2009237870A (en) Guardian management system
JP7347480B2 (en) Information processing device, information processing method and program
Amutha et al. Development of a ZigBee based virtual eye for visually impaired persons
Mendes et al. Automatic wireless mapping and tracking system for indoor location
KR20210113871A (en) Method for processing a data used for determining a location and electronic device supporting the same
Ma et al. An overview of location semantics technologies and applications

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120323

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130305

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130313

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130828

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130902

R150 Certificate of patent or registration of utility model

Ref document number: 5366046

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250