JP2010108037A - Action tracking system, action tracking method, and action tracking program - Google Patents

Action tracking system, action tracking method, and action tracking program Download PDF

Info

Publication number
JP2010108037A
JP2010108037A JP2008276635A JP2008276635A JP2010108037A JP 2010108037 A JP2010108037 A JP 2010108037A JP 2008276635 A JP2008276635 A JP 2008276635A JP 2008276635 A JP2008276635 A JP 2008276635A JP 2010108037 A JP2010108037 A JP 2010108037A
Authority
JP
Japan
Prior art keywords
person
information
user
personality
identification code
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008276635A
Other languages
Japanese (ja)
Inventor
Makoto Iwata
真琴 岩田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Solution Innovators Ltd
Original Assignee
NEC System Technologies Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC System Technologies Ltd filed Critical NEC System Technologies Ltd
Priority to JP2008276635A priority Critical patent/JP2010108037A/en
Publication of JP2010108037A publication Critical patent/JP2010108037A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To track the action of an individual without neither requiring the individual to possess a special device nor to concern about the violation of his/her privacy. <P>SOLUTION: An action tracking system 1 includes: a control part 11; an identification information reading part 12; a person information storage part 13; an information selecting part 14; a person position detecting part 15; a determining part 16; and a position information storage part 17. The identification information reading part 12 reads identification information of a user 3, and recognizes the user 3. The determining part 16 compares positions detected by the person position detecting part 15 with positions expressed by the individual characters and conducts of the users 3 called by the information selecting part 14 with respect to the plurality of users 3, thereby determining that the user 3 with the least distance is the specified user 3. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、行動追跡システム、行動追跡方法および行動追跡プログラムに関する。   The present invention relates to an action tracking system, an action tracking method, and an action tracking program.

近年、センシング技術の発展によって、人の位置を計測したり、人の行動を認識したりすることが可能となりつつある。深夜の駐車場や商店街などのセキュリティ対策のためのセンサ、エレベータのはさまり防止のためのセンサなどが挙げられる。また、人を検知し自動点灯するセンサライトは安全性だけでなく、利便性や省エネの効果があり、多く普及している。   In recent years, with the development of sensing technology, it is becoming possible to measure a person's position and recognize a person's behavior. Sensors for security measures such as late-night parking lots and shopping streets, and sensors for preventing elevator jamming. In addition, sensor lights that automatically turn on when people are detected are not only safe, but also have convenience and energy saving effects, and are widely used.

センシング技術のみでなくネットワーク技術も進歩しており、さまざまな場所にセンサが設置され、その目的も多様化している。集めた情報を時系列に関連付けてみることで過去に起こったことの追体験をしたり、現在までの情報と過去の情報のマッチングをとって未来を予測し、行動の提案を行うことができる。   Not only sensing technology but also network technology has advanced, sensors are installed in various places, and their purposes are diversified. By associating the collected information with time series, you can relive what happened in the past, predict the future by matching the information up to now and the past information, and propose actions .

特許文献1では、データベース部に複数の移動体の識別情報と複数の移動体のそれぞれについての特徴を表すデータ(形状データ/音データ/重量データ)とを対応させて格納することで、発信器を携帯する必要がなく、また移動体が多数ある場合も追跡・識別可能なデータ相関処理を使用した移動体の識別・追跡装置を提供することが記載されている。   In Patent Document 1, the identification information of a plurality of moving bodies and the data (shape data / sound data / weight data) representing the characteristics of each of the plurality of moving bodies are stored in a database unit in association with each other. It is described that a mobile object identification / tracking apparatus using a data correlation process that can be tracked / identified even when there is a large number of mobile objects is not provided.

特許文献2では、カメラにより画像を撮影し、ユーザ認識を行ったり、ユーザ作業行動などを推測し、ユーザごとのキッチン作業状況に応じて、調理設備機能に十分対応した作業支援を自動的に行うことができるキッチン作業支援システムを提供することが記載されている。   In Patent Literature 2, an image is captured by a camera, user recognition is performed, user work behavior is estimated, and work support sufficiently corresponding to a cooking facility function is automatically performed according to a kitchen work situation for each user. It is described to provide a kitchen work support system that can.

特許文献3では、センサ群で活動をモニタリングして検知したユーザの活動状態または環境状況に基づいて、ユーザの目標を検出し、その目標を達成するためのユーザの活動を計画し、その計画した活動を示唆する有効な情報を環境や情動に合わせて呈示させることが記載されている。   In Patent Document 3, the user's goal is detected based on the user's activity state or environmental situation detected by monitoring the activity with a sensor group, and the user's activity for achieving the goal is planned, and the plan is made. It is described that effective information suggesting activities is presented according to the environment and emotions.

特許文献4では、所定の範囲における特定位置を監視する特定位置センサから、当該特定位置を通過する移動体の情報である移動体情報を取得し、特定位置センサによって取得される移動体情報と照合可能な情報として、追跡センサによる追跡結果を、特定位置を通過する移動体の情報である移動体情報に変換し、変換された移動体情報が特定位置センサによって取得された移動体情報に一致するか否かを照合して、追跡センサによる追跡結果の信頼度を判定することが記載されている。   In Patent Document 4, mobile body information that is information on a mobile body that passes through a specific position is acquired from a specific position sensor that monitors a specific position in a predetermined range, and collated with the mobile body information acquired by the specific position sensor. As possible information, the tracking result by the tracking sensor is converted into moving body information that is information on the moving body that passes through the specific position, and the converted moving body information matches the moving body information acquired by the specific position sensor. Whether or not the reliability of the tracking result by the tracking sensor is determined.

特許文献5では、第1の顔検出部による顔の検出結果と第2の顔検出部による顔の検出結果とに基づいて通行者を分類し、その分類結果に基づいて顔照合部による顔照合処理に用いられる認証用の閾値を調整し、顔照合部は登録者の顔の特徴情報との類似度を算出し、算出した類似度が調整された認証用の閾値以上であるか否かにより通行者が登録者であるか否かを判定する人物認識装置および人物認識方法について記載されている。   In Patent Document 5, passers are classified based on a face detection result by a first face detection unit and a face detection result by a second face detection unit, and face matching by a face matching unit is performed based on the classification result. The threshold value for authentication used in the process is adjusted, and the face matching unit calculates the similarity with the registrant's facial feature information, and whether the calculated similarity is equal to or higher than the adjusted authentication threshold. It describes a person recognition device and a person recognition method for determining whether or not a passerby is a registered person.

特許文献6では、電子タグを用いた位置情報追跡システムに関し、GPS機能等に依存することなく、携帯電話に通信が不可能な状況に陥っても、移動体用電子タグは内蔵するバッテリを電源として電磁波を発生させ、識別番号を固定電子タグへ発信することで、児童等の管理対象者の位置情報を追跡することが記載されている。   Patent Document 6 relates to a position information tracking system using an electronic tag, and the mobile electronic tag uses a built-in battery as a power source even if the mobile phone cannot communicate without depending on the GPS function or the like. As described above, it is described that the position information of a management subject such as a child is tracked by generating an electromagnetic wave and transmitting an identification number to a fixed electronic tag.

特開平07−287781号公報Japanese Patent Application Laid-Open No. 07-287781 特開2005−284408号公報JP-A-2005-284408 特開2005−332309号公報JP 2005-332309 A 特開2008−046927号公報JP 2008-046927 A 特開2008−108243号公報JP 2008-108243 A 特開2008−113308号公報JP 2008-113308 A

しかしながら、特許文献1の識別・追跡装置では、備えるセンサを、方向センサ、距離センサ、重量センサ、音センサとしており、設置が困難となるおそれがある。特許文献2や特許文献5の技術では、設置されたカメラにより監視されるため、個人のプライバシーが侵害されてしまうおそれがある。特許文献3や特許文献6の技術では、電子タグやセンサをユーザが所持または装着し、移動に応じて位置を通知する必要があり、日常生活において不便であった。特許文献4の追跡信頼度判定では、移動体は主に車両を想定しており、人を想定した場合と行動パターンが異なる。   However, in the identification / tracking device of Patent Document 1, the sensors included are a direction sensor, a distance sensor, a weight sensor, and a sound sensor, which may make installation difficult. In the techniques of Patent Literature 2 and Patent Literature 5, since monitoring is performed by an installed camera, there is a risk that personal privacy may be infringed. In the techniques of Patent Document 3 and Patent Document 6, it is necessary for a user to carry or wear an electronic tag or a sensor, and to notify the position according to movement, which is inconvenient in daily life. In the tracking reliability determination of Patent Document 4, the moving body mainly assumes a vehicle, and the behavior pattern is different from that when a person is assumed.

本発明は上述の事情に鑑みてなされたもので、個人が特別な装置を所持する必要がなく、かつ、プライバシーの侵害のおそれがなく、その個人の行動を追跡できる行動追跡システム、行動追跡方法および行動追跡プログラムを提供することを目的とする。   The present invention has been made in view of the above circumstances, and it is not necessary for an individual to have a special device, and there is no risk of infringement of privacy, and an action tracking system and an action tracking method capable of tracking the individual's behavior And to provide a behavior tracking program.

本発明の第1の観点に係る行動追跡システムは、
行動を追跡する対象の人について、その人に固有の識別符号と、その人の個人性行を表す情報とを対応づけて記憶する記憶手段と、
行動を追跡する対象の限られた空間に存在する人の前記識別符号を取得する認識手段と、
前記空間を区分した場所ごとに、人の存在を検知し、人が存在する場所を表す位置情報を取得する人検知手段と、
前記人検知手段で取得した位置情報と、前記認識手段で取得した前記空間に存在する人の識別符号に対応する個人性行を表す情報とを比較して、前記位置情報に最も近い個人性行を表す情報に対応する識別符号を、その場所に存在する人の位置情報に対応づける判定手段と、
を備えることを特徴とする。
The behavior tracking system according to the first aspect of the present invention is:
A storage means for storing an identification code unique to the person and information representing the personality line of the person to be tracked in association with each other;
Recognizing means for acquiring the identification code of a person existing in a limited space of a subject whose behavior is to be tracked;
For each place where the space is divided, a person detecting means for detecting the presence of a person and acquiring positional information representing the place where the person exists;
The position information acquired by the person detecting means is compared with the information indicating the individuality line corresponding to the identification code of the person existing in the space acquired by the recognizing means, and the personality line closest to the position information is compared. Determining means for associating an identification code corresponding to information representing the position information of a person existing in the place;
It is characterized by providing.

本発明の第2の観点に係る行動追跡方法は、
行動を追跡する対象の限られた空間に存在する人に固有の識別符号を取得する認識ステップと、
前記認識ステップで認識した識別符号に対応する人の個人性行を表す情報を取得する個人性行情報取得ステップと、
前記空間を区分した場所ごとに、人の存在を検知し、人が存在する場所を表す位置情報を取得する人検知ステップと、
前記人検知ステップで取得した位置情報と、前記個人性行情報取得ステップで取得した前記空間に存在する人の識別符号に対応する個人性行を表す情報とを比較して、前記位置情報に最も近い個人性行を表す情報に対応する識別符号を、その場所に存在する人の位置情報に対応づける判定ステップと、
を備えることを特徴とする。
The behavior tracking method according to the second aspect of the present invention includes:
A recognition step for obtaining an identification code unique to a person existing in a limited space for tracking an action;
A personality line information acquisition step of acquiring information representing a personality line of a person corresponding to the identification code recognized in the recognition step;
For each place where the space is divided, a person detection step of detecting the presence of a person and obtaining position information representing the place where the person exists;
The position information acquired in the human detection step is compared with the information indicating the personality line corresponding to the identification code of the person existing in the space acquired in the personality line information acquisition step. A determination step of associating an identification code corresponding to information representing a close personality line with position information of a person existing in the place;
It is characterized by providing.

本発明の第3の観点に係る行動追跡プログラムは、
コンピュータに、
行動を追跡する対象の限られた空間に存在する人に固有の識別符号を取得する認識ステップと、
前記認識ステップで認識した識別符号に対応する人の個人性行を表す情報を取得する個人性行情報取得ステップと、
前記空間を区分した場所ごとに、人の存在を検知し、人が存在する場所を表す位置情報を取得する人検知ステップと、
前記人検知ステップで取得した位置情報と、前記個人性行情報取得ステップで取得した前記空間に存在する人の識別符号に対応する個人性行を表す情報とを比較して、前記位置情報に最も近い個人性行を表す情報に対応する識別符号を、その場所に存在する人の位置情報に対応づける判定ステップと、
を実行させることを特徴とする。
The behavior tracking program according to the third aspect of the present invention is:
On the computer,
A recognition step for obtaining an identification code unique to a person existing in a limited space for tracking an action;
A personality line information acquisition step of acquiring information representing a personality line of a person corresponding to the identification code recognized in the recognition step;
For each place where the space is divided, a person detection step of detecting the presence of a person and obtaining position information representing the place where the person exists;
The position information acquired in the human detection step is compared with the information indicating the personality line corresponding to the identification code of the person existing in the space acquired in the personality line information acquisition step. A determination step of associating an identification code corresponding to information representing a close personality line with position information of a person existing in the place;
Is executed.

本発明によれば、個人が特別な装置を所持する必要がなく、かつ、プライバシーの侵害のおそれがなく、その個人の行動を追跡することができる。   According to the present invention, it is not necessary for an individual to have a special device, and there is no risk of infringement of privacy, and the behavior of the individual can be tracked.

本発明で、個人性行とは、行動的特徴(癖)が、何らかの場所と関連した行動を示すもののことをいう。例えば、タバコをよく吸う人は灰皿の近くに行く、コーヒーをよく飲む人は何度も販売機の前に立ち止まる、などである。また、本発明では、職場で決まった座席に着くなど、場所により本人が特定できる場合も含む。さらに、場所とは関連していないが、移動速度も個人性行に含む。   In the present invention, individuality refers to a behavioral feature (癖) indicating behavior associated with some place. For example, a person who smokes often goes near the ashtray, and a person who drinks coffee often stops in front of the vending machine. In addition, the present invention includes a case where the person can be identified by a place, such as a seat that is fixed at the workplace. Furthermore, although not related to the place, the moving speed is also included in the personality line.

本発明で、プライバシーの侵害とは、個人の行動の内容を知ることをいい、個人が行った場所を知ることを含まないものとする。   In the present invention, privacy infringement means knowing the content of an individual's action, and does not include knowing the place where the individual has gone.

以下、この発明の実施の形態について図面を参照しながら詳細に説明する。なお、図中同一または相当部分には同一符号を付す。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the drawings, the same or corresponding parts are denoted by the same reference numerals.

(実施の形態1)
図1は、本発明の実施の形態1に係る行動追跡システム全体の構成例を示すブロック図である。行動追跡システム1は、制御部11と、識別情報読み取り部12と、人物情報記憶部13と、情報選択部14と、人物位置検知部15と、判定部16と、位置情報記憶部17と、を備える。制御部11で動作するプログラムで、識別情報読み取り部12、人物情報記憶部13、情報選択部14、人物位置検知部15、判定部16、位置情報記憶部17のそれぞれは自立的な動作が実現する。
(Embodiment 1)
FIG. 1 is a block diagram showing a configuration example of the entire behavior tracking system according to Embodiment 1 of the present invention. The behavior tracking system 1 includes a control unit 11, an identification information reading unit 12, a person information storage unit 13, an information selection unit 14, a person position detection unit 15, a determination unit 16, a position information storage unit 17, Is provided. With the program that operates in the control unit 11, each of the identification information reading unit 12, the person information storage unit 13, the information selection unit 14, the person position detection unit 15, the determination unit 16, and the position information storage unit 17 realizes an independent operation. To do.

識別情報読み取り部12は、タグ31から識別情報を受信する。識別情報読み取り部12は、タグ31が送信する信号を受信し、タグ31の情報を検知する。タグ31は、ユーザが何らかの形で所持しているもので、例えば、入館カード、もしくは、携帯電話や腕時計などにICチップなどの形で組み込まれる。非接触型の無線通信が可能なタイプや、カードリーダに直接通すタイプなど、タグ31の種類により、信号の受信方法は様々である。   The identification information reading unit 12 receives identification information from the tag 31. The identification information reading unit 12 receives a signal transmitted by the tag 31 and detects information of the tag 31. The tag 31 is something the user has in some form. For example, the tag 31 is incorporated in the form of an IC card or the like in an admission card or a mobile phone or a wristwatch. There are various signal reception methods depending on the type of the tag 31, such as a type capable of non-contact wireless communication and a type directly passing through a card reader.

人物情報記憶部13は、ユーザ3のタグ31の識別子と、そのタグ31を所持しているユーザ3の名前や識別番号などと個人性行について記憶する。名前や識別番号などと個人性行は、対応付けられて記憶される。人物情報記憶部13に記憶するユーザ3は、行動追跡システム1で行動を追跡する所定のユーザ3についてであり、ユーザ3は複数であってもよい。予め、キーボードなどの入力装置(図示せず)を用いて、情報を入力し、記憶しておく。   The person information storage unit 13 stores the identifier of the tag 31 of the user 3, the name and identification number of the user 3 who owns the tag 31, and the personality row. Names, identification numbers, etc. and personality rows are stored in association with each other. The user 3 stored in the person information storage unit 13 is for the predetermined user 3 who tracks the behavior by the behavior tracking system 1, and there may be a plurality of users 3. Information is input and stored in advance using an input device (not shown) such as a keyboard.

図2に、人物情報記憶部13に記憶する個人情報の一例を示す。個人情報には、ユーザIDや氏名、その個人の個人性行を示す。個人性行の例として、部屋に入ってすぐに空調機やテレビを付けたり、蛍光灯の明かりを1つ暗めのものを使用したり、決まった椅子に座ったり、などの日常生活における行動が挙げられる。   FIG. 2 shows an example of personal information stored in the personal information storage unit 13. The personal information indicates the user ID, name, and personality of the individual. Examples of personality activities include daily activities such as turning on an air conditioner or TV immediately after entering the room, using a dark fluorescent light, or sitting in a fixed chair. Can be mentioned.

情報選択部14は、何らかの情報を入力された場合に、対応する情報を人物情報記憶部13から読み出す。例えば、個人性行を表す情報からユーザ3の名前を読み出したり、ユーザ3の識別番号から個人性行を表す情報を読み出したりすることができる。   The information selection unit 14 reads the corresponding information from the person information storage unit 13 when any information is input. For example, the name of the user 3 can be read from the information representing the personality line, or the information representing the personality line can be read from the identification number of the user 3.

人物位置検知部15は、センサ2の情報を変換し、ユーザ3の位置を検知する。センサ2は、検知できる範囲を分割した部分のそれぞれに対して、存在する人を検知し、その情報を人物位置検知部15に送信する。例えばセンサ2は、赤外センサなどである。設定エリア内での人の動きを感知する場合、まず、物体から放射される赤外エネルギーの波長分布の変化を測定する。変化を検知した方向が、人の存在する方向であり、人の存在する位置としての情報となる。センサ2を回転させて受光した方位を検知する方法や、受光素子を並べる方法でもよく、センサ2とは異なるが、赤外線カメラで撮像した画像から人の位置を検出してもよい。センサ2の稼働は、識別情報読み取り部12で、タグ31の情報を検知した時から開始しておく。   The person position detection unit 15 converts the information of the sensor 2 and detects the position of the user 3. The sensor 2 detects an existing person for each of the divided parts of the detectable range, and transmits the information to the person position detection unit 15. For example, the sensor 2 is an infrared sensor or the like. When detecting the movement of a person in the set area, first, the change in the wavelength distribution of the infrared energy emitted from the object is measured. The direction in which the change is detected is the direction in which the person exists, and serves as information on the position in which the person exists. A method of detecting the direction of light received by rotating the sensor 2 or a method of arranging light receiving elements may be used. Although different from the sensor 2, the position of a person may be detected from an image captured by an infrared camera. The operation of the sensor 2 is started when the identification information reading unit 12 detects the information of the tag 31.

判定部16は、人物位置検知部15の検知した位置と、情報選択部14に呼び出されたユーザ3の個人性行を比較し、どのユーザ3であるかを判定する。ユーザ3の行動する範囲は、個人性行と深く結びついており、特徴がそれぞれ異なる。検知した位置から、そこに居る可能性が高いユーザ3が選択され、判定部16により判定される。   The determination unit 16 compares the position detected by the person position detection unit 15 with the personality row of the user 3 called by the information selection unit 14 and determines which user 3 is the user 3. The range in which the user 3 acts is deeply related to personality and has different characteristics. From the detected position, the user 3 who is highly likely to be there is selected and determined by the determination unit 16.

位置情報記憶部17は、人物位置検知部15で検知した情報を記憶・保存する。このとき記憶する情報は、ユーザ3の位置情報などである。ユーザ3を判定できている場合は、位置情報だけでなく、名前や番号などの個人を特定する情報も合わせて記憶・保存する。   The position information storage unit 17 stores and saves information detected by the person position detection unit 15. The information stored at this time is the position information of the user 3 or the like. When the user 3 can be determined, not only the position information but also information for identifying an individual such as a name and a number are stored and stored together.

図3は、実施の形態1に係る行動追跡システムの設定エリアを示す一例である。図3の点線は、各々のユーザ3の行動の追跡を示したものである。設定エリア4の入口4D付近に、行動追跡システム1を設置しており、設定エリア4の片隅に、センサ2を設置する。例えば図3のように、屋内で、かつ、部屋の隅につける場合、平面で見たときに、中心角85度、半径12mの範囲を測定可能なセンサ2を用いる。   FIG. 3 is an example illustrating a setting area of the behavior tracking system according to the first embodiment. The dotted line in FIG. 3 shows the tracking of the behavior of each user 3. The action tracking system 1 is installed near the entrance 4D of the setting area 4, and the sensor 2 is installed at one corner of the setting area 4. For example, as shown in FIG. 3, when the sensor is attached indoors and at the corner of a room, the sensor 2 capable of measuring a range of a central angle of 85 degrees and a radius of 12 m when used on a plane is used.

ユーザ3は、ユーザ3Aとユーザ3Bの2人の場合を設定する。個人性行は、ユーザ3Aはタバコを吸うこと、ユーザ3Bは窓を開けること、が記載されているものとする。その個人情報の個人性行により、入室後に、ユーザ3Aは灰皿のある場所に向かい、ユーザ3Bは窓のある場所に向かうことが予測される。   User 3 sets two users, user 3A and user 3B. In the personality line, it is described that the user 3A smokes a cigarette and the user 3B opens a window. Due to the personality of the personal information, after entering the room, it is predicted that the user 3A goes to a place with an ashtray and the user 3B goes to a place with a window.

ユーザ3A、3Bは、入室時に行動追跡システム1にタグ31の読み取りをさせ、設定エリア4に入る。行動追跡システム1の識別情報読み取り部12は、タグ31の情報を検知する。タグ31の情報を検知し、設定エリア4にユーザ3の存在が認識され、センサ2は稼働を開始する。   The users 3A and 3B enter the setting area 4 by causing the behavior tracking system 1 to read the tag 31 when entering the room. The identification information reading unit 12 of the behavior tracking system 1 detects information of the tag 31. The information of the tag 31 is detected, the presence of the user 3 is recognized in the setting area 4, and the sensor 2 starts operation.

識別情報読み取り部12は、タグ31の情報を人物情報記憶部13に送り、ユーザ3は、ユーザ3A、3Bであることが分かる。人物位置検知部15は、測定する時間における分割された部分のエリアに対して、センサ2で人の存在の有無を検知し、ユーザ3の位置データを作成する。このとき、行動追跡システム1は、設定エリア4内に、ユーザ3は2人存在することと、位置データは2箇所を示すことの、情報を備える。   The identification information reading unit 12 sends the information of the tag 31 to the person information storage unit 13, and it is understood that the user 3 is the users 3A and 3B. The person position detection unit 15 detects the presence or absence of a person with the sensor 2 in the divided area in the time to be measured, and creates the position data of the user 3. At this time, the behavior tracking system 1 includes information that there are two users 3 in the setting area 4 and that the position data indicates two locations.

2人のユーザ3A、3Bが設定エリア4内に入り、各々が別々に行動し、同時刻・同場所での接点がない場合は、各々のユーザ3をそのまま行動追跡することが可能である。同時刻・同位置に接触した場合、例えば、ほぼ同時刻で入室した場合は、どのユーザ3かは分からないまま、行動追跡を行う。   If two users 3A and 3B enter the setting area 4 and each act separately, and there is no contact at the same time and place, it is possible to track each user 3 as it is. When touching at the same time and the same position, for example, when entering the room at almost the same time, behavior tracking is performed without knowing which user 3 is.

情報選択部14は、設定エリア4に入ったユーザ3が誰であるかを判定でき次第、そのユーザ3の個人性行の表す情報を人物情報記憶部13から選択しておく。センサ2で検知した位置情報は人物位置検知部15に伝えられる。判定部16は、人物情報記憶部13から選択した個人性行の表す情報と、人物位置検知部15で検知した位置を比較し、検知した位置にいるユーザ3が、どちらのユーザ3であるかの判定を行う。   The information selection unit 14 selects information representing the personality row of the user 3 from the personal information storage unit 13 as soon as it is possible to determine who the user 3 entered the setting area 4 is. The position information detected by the sensor 2 is transmitted to the person position detection unit 15. The determination unit 16 compares the information represented by the personality row selected from the person information storage unit 13 and the position detected by the person position detection unit 15, and which user 3 is the user 3 at the detected position. Judgment is made.

例えば、人物位置検知部15の検知した位置が、徐々に灰皿に向かうのであれば、人物情報記憶部13の個人性行より、ユーザ3はユーザ3Aである可能性が高い。判定部16は、個人性行の表す情報から予測される範囲(閾値)内に、ユーザ3を検知した情報があれば、ユーザ3は、ユーザ3Aであると判断する。同様に判定部16は、窓付近にユーザ3を検知した情報と、個人性行に書かれた窓を開けるという情報を結び付け、個人性行からユーザ3を特定し、ユーザ3はユーザ3Bであると判断する。   For example, if the position detected by the person position detection unit 15 gradually moves toward the ashtray, the user 3 is more likely to be the user 3A than the personality row of the person information storage unit 13. The determination unit 16 determines that the user 3 is the user 3A if there is information that detects the user 3 within a range (threshold value) predicted from the information represented by the personality row. Similarly, the determination unit 16 associates information that detects the user 3 in the vicinity of the window and information that opens the window written in the personality line, identifies the user 3 from the personality line, and the user 3 is the user 3B. Judge.

検知した位置をそれぞれのユーザ3について、位置情報記憶部17に記憶・保存する。所定時間経過毎に、センサ2による位置情報を人物位置検知部15で検知し、位置情報記憶部17に記憶し、行動追跡を行う。行動追跡の終了は、設定エリア4に入ったときのように、識別情報読み取り部12に、設定エリア4から出ることを情報として与えてもよい。識別情報の読み取りをせずに、センサ2の測定できる範囲から逸脱した場合や、設定エリア4から外に出た場合も、行動追跡を終了してもよい。また、設定エリア4に入ってから所定時間経過するまでや、ユーザ3が同じ位置に一定時間とどまっている場合など、目的に合わせて任意に設定できる。   The detected position is stored / saved in the position information storage unit 17 for each user 3. Every time a predetermined time elapses, the position information from the sensor 2 is detected by the person position detection unit 15, stored in the position information storage unit 17, and action tracking is performed. The end of the action tracking may be given to the identification information reading unit 12 as information that the user exits the setting area 4 as when entering the setting area 4. The action tracking may be terminated when the identification information is not read and the sensor 2 deviates from the measurable range or when the user leaves the setting area 4. Further, it can be arbitrarily set according to the purpose, for example, until a predetermined time has elapsed after entering the setting area 4 or when the user 3 stays at the same position for a certain time.

例えば、会社の場合であれば、勤務開始時刻から15分が経過するまで行動追跡するようにシステムを設定しておく。また、家の寝室であれば、同じ場所(ベッド)を5分以上示したら、行動追跡を止めるようにシステムを設定しておく。   For example, in the case of a company, the system is set so that action tracking is performed until 15 minutes have elapsed from the work start time. In the case of a bedroom in the house, the system is set to stop behavior tracking when the same place (bed) is shown for 5 minutes or more.

図4は、実施の形態1に係る行動追跡システムの動作の、在場認識の一例を示すフローチャートである。図5は、実施の形態1に係る行動追跡システムの動作の、個人位置判定の一例を示すフローチャートである。行動追跡システム1は、図1を参照する。ユーザ3および設定エリア4は、図3を参照する。   FIG. 4 is a flowchart illustrating an example of presence recognition of the operation of the behavior tracking system according to the first embodiment. FIG. 5 is a flowchart showing an example of personal position determination of the operation of the behavior tracking system according to the first embodiment. The behavior tracking system 1 refers to FIG. The user 3 and the setting area 4 refer to FIG.

まず、在場認識を行う。識別情報読み取り部12は常に信号の送受信を行い、タグ31の情報を読み取るなどして、ユーザ3の識別情報を読み取る(ステップS11)。そして、特定のユーザ3が設定エリア4内へ入ることを認識する(ステップS12;YES)。人物情報記憶部13にある個人情報と、タグ31から読み取りした情報を照合し、ユーザ3が在場することを、例えば人物情報記憶部13または位置情報記憶部17に記憶する(ステップS13)。同様にして情報を読み取り、設定エリア4内から外へ出ることが認識できると(ステップS14;YES)、そのユーザ3が在場する情報の記憶を消去する(ステップS15)。   First, presence recognition is performed. The identification information reading unit 12 always transmits and receives signals and reads the identification information of the user 3 by reading the information of the tag 31 (step S11). And it recognizes that the specific user 3 enters into the setting area 4 (step S12; YES). The personal information stored in the person information storage unit 13 is collated with the information read from the tag 31, and the presence of the user 3 is stored in, for example, the person information storage unit 13 or the position information storage unit 17 (step S13). Similarly, when the information is read and it is recognized that the user goes out of the setting area 4 (step S14; YES), the storage of the information on which the user 3 is present is erased (step S15).

常に、識別情報読み取り部12はキャリアの送受信をしており、ユーザ3の識別情報の有無から、設定エリア4内のユーザ3の在場を認識する。設定エリア4内へユーザ3が入ってこない場合(ステップS12;NO)は、ユーザ3が在場する情報の記憶は行われない。また、設定エリア4からユーザ3が出ない場合(ステップS14;NO)は、ユーザ3が在場する情報の記憶の消去も行われない。在場認識で得られる情報から、設定エリア4内にどのユーザ3がいるのかが分かり、情報選択部14は在場認識されたユーザ3の個人性行に関する情報の選択を行う。   The identification information reading unit 12 always transmits / receives a carrier and recognizes the presence of the user 3 in the setting area 4 from the presence / absence of the identification information of the user 3. When the user 3 does not enter the setting area 4 (step S12; NO), information on the presence of the user 3 is not stored. Further, when the user 3 does not come out of the setting area 4 (step S14; NO), the storage of the information on which the user 3 is present is not performed. From the information obtained by presence recognition, it can be known which user 3 is in the setting area 4, and the information selection unit 14 selects information related to the personality of the user 3 who has been recognized.

次に、個人位置の判定を行う。個人性行を示す情報を選択するときの順番をユーザ3に振り分けたものをi番目、ユーザ3の存在する人数の数だけ示された位置に番号を振り分けたものをj番目とおく。このときi番目より、特定のユーザ3を特定することができる。   Next, the personal position is determined. The order in which the information indicating the personality row is selected is assigned to the user 3 as the i-th item, and the number assigned to the positions indicated by the number of the users 3 is indicated as the j-th item. At this time, the specific user 3 can be specified from the i-th.

ユーザ3はn人で、n箇所の位置を検知する。全てのユーザ3について、全ての検知した位置を、個人性行で示す位置から想定される行動範囲の閾値内にあるかを判定することで、ユーザ3の特定をすることができる。ユーザ3の位置を検知した状態(ステップS21)から、その位置にいるユーザ3が誰であるかの判定動作を開始する。在場認識されたユーザ3の個人性行に関する情報の、n人分の個人性行のi番目、ここでは1つ目を選択する(ステップS22)。複数箇所について検知した位置の、n箇所のj番目、ここでは1つ目を選択する(ステップS23)。また、Min(i)をとりうる最大値に設定する。そして、個人性行に示される位置と検知した位置との距離d(i、j)を算出する(ステップS24)。距離dは、例えば、空間上の距離(性行情報にある場所と検知位置との距離)と時間上の距離(性行情報のその場所に行く時間と現在時間の差)の線形和で表すことができる。その他、時空間における性行情報と検知位置・時刻との距離を表す何らかの評価関数を用いることができる。   There are n users 3 and n positions are detected. The user 3 can be identified by determining whether all the detected positions are within the threshold of the action range assumed from the position indicated by the personality row for all the users 3. From the state in which the position of the user 3 is detected (step S21), the operation for determining who the user 3 is at that position is started. The i-th, here, the first personality row of n persons of the information related to the personality row of the user 3 recognized in the presence is selected (step S22). The nth j-th, here, the first one of the detected positions is selected (step S23). Also, Min (i) is set to the maximum value that can be taken. Then, a distance d (i, j) between the position indicated in the personality row and the detected position is calculated (step S24). The distance d is represented by, for example, a linear sum of a spatial distance (a distance between a location in the sexual activity information and the detection position) and a temporal distance (a difference between the time to go to the location in the sexual activity information and the current time). be able to. In addition, it is possible to use some evaluation function that represents the distance between the sexual information in spatio-temporal and the detection position / time.

その算出した距離d(i、j)が、考え得る位置の距離Min(i)より小さければ(ステップS25;YES)、判定部16は、そのi番目のユーザ3の個人性行が示す位置と、j番目の位置が一致したとして、位置j番目にいる人をi番目のユーザ3と判定する(ステップS26)。すなわち、Min(i)をd(i,j)で置き換え、その位置のユーザ3を表す変数p(j)にi番目のユーザ3の識別符号ID(i)を対応づける。   If the calculated distance d (i, j) is smaller than the possible position distance Min (i) (step S25; YES), the determination unit 16 determines the position indicated by the personality row of the i-th user 3. If the jth position matches, the person at the jth position is determined as the ith user 3 (step S26). That is, Min (i) is replaced with d (i, j), and the identification code ID (i) of the i-th user 3 is associated with the variable p (j) representing the user 3 at that position.

そして、位置j番の次の番号(j+1)である位置(j+1)番目に進む(ステップS27)。距離d(i、j)が、考え得る位置の距離Min(i)より大きければ(ステップS25;NO)、i番目のユーザ3の個人性行が示す位置とj番目の位置は不一致であるものとして、位置j番の次の番号(j+1)である位置(j+1)番目に進む(ステップS27)。   Then, the process proceeds to the position (j + 1) th position which is the next number (j + 1) after the position j (step S27). If the distance d (i, j) is larger than the possible position distance Min (i) (step S25; NO), the position indicated by the personality line of the i-th user 3 and the j-th position do not match. As a result, the process proceeds to the position (j + 1) th position which is the next number (j + 1) after the position j (step S27).

位置番号jがnより小さい場合(ステップS28;NO)は、ステップS24に戻り、繰り返す。徐々に位置の番号を増やし、n箇所の位置全ての確認を終えるまで、繰り返し行う。最初のユーザ3であるi番目のユーザ3について、全ての位置の確認を行う。   If the position number j is smaller than n (step S28; NO), the process returns to step S24 and is repeated. Gradually increase the position number and repeat until all the n positions have been confirmed. All positions of the i-th user 3 that is the first user 3 are confirmed.

位置番号jがnより大きくなった場合(ステップS28;YES)は、次のユーザ3、すなわち(i+1)番目のユーザ3の個人性行の場合へ進む(ステップS29)。同様に、(i+1)番目の人についても、全ての位置の確認を行う。n人全ての確認を終えるまで、徐々に個人性行が示す位置の番号を増やしていくため、位置番号iがnより小さい場合は(ステップS30;NO)、ステップS23に戻り、繰り返す。nより大きい場合は(ステップS30;YES)は、全てのユーザ3について確認を終えており、個人位置の判定を終了する。   When the position number j is larger than n (step S28; YES), the process proceeds to the case of the personality line of the next user 3, that is, the (i + 1) th user 3 (step S29). Similarly, all positions of the (i + 1) th person are confirmed. The number of the position indicated by the personality line is gradually increased until confirmation of all n persons is completed. When the position number i is smaller than n (step S30; NO), the process returns to step S23 and is repeated. If it is larger than n (step S30; YES), all the users 3 have been confirmed, and the personal position determination is completed.

フローチャートには記載していないが、2つの検知位置に同一のユーザ3が対応づけられる場合は、近い方の位置を優先し、他方の位置を他のユーザ3に対応づける。または、2つの検知位置に同一のユーザ3であるとされた場合、そのユーザ3の個人位置の判定結果を消去し、最後のn番目に個人位置の判定を行うように、プログラムしてもよい。どちらかの位置に、他のユーザ3の対応記録があれば、消去法により、残った方の位置にユーザ3が対応づけられる。   Although not shown in the flowchart, when the same user 3 is associated with two detection positions, the closer position is prioritized and the other position is associated with another user 3. Alternatively, when it is determined that the user 3 is the same at the two detection positions, the determination result of the personal position of the user 3 may be erased and the personal position may be determined at the last nth. . If there is a corresponding record of another user 3 at either position, the user 3 is associated with the remaining position by the erasing method.

全てのユーザ3について、その個人性行が示す位置と、検知した位置とを比較し、判定部16は、その位置にいる最も適したユーザ3を特定することができる。判定部16で判定を終え、特定のユーザ3と、人物位置検知部15で検知した位置情報を、位置情報記憶部17で併せて記憶する。性行で表す位置と検知した位置から、複数のユーザ3が特定された場合や、特に近い結果がなく、ユーザ3が未特定の場合は、ユーザ3は未特定として記憶する。   For all the users 3, the position indicated by the personality row is compared with the detected position, and the determination unit 16 can identify the most suitable user 3 at the position. The determination unit 16 finishes the determination, and the position information storage unit 17 stores the specific user 3 and the position information detected by the person position detection unit 15 together. When a plurality of users 3 are specified from the position represented by the sex act and the detected position, or when there is no particularly close result and the user 3 is not specified, the user 3 is stored as unspecified.

特定のユーザ3と、その位置を記憶していくことで、ユーザ3の行動を追跡することができる。特定のユーザ3の行動を追跡できるにもかかわらず、ユーザ3は設定エリア4に入るときに識別情報を読み取らせるだけで、手間がかからない。複数のユーザ3がほぼ同時に設定エリア4内に入りユーザ3未特定となった場合や、追跡の途中に、接触により、ユーザ3未特定となった場合でも、個人位置判定を行うことで、ユーザ3を判定することができる。さらに、未特定の履歴があった場合でも、特定した時点から遡って、ユーザ3の行動を追跡できる場合がある。   By memorizing a specific user 3 and its position, it is possible to track the action of the user 3. Although the behavior of the specific user 3 can be tracked, the user 3 only needs to read the identification information when entering the setting area 4 and does not take time. Even if a plurality of users 3 enter the setting area 4 almost simultaneously and become unspecified, or even if the user 3 becomes unspecified due to contact during tracking, the user can be determined by performing personal position determination. 3 can be determined. Furthermore, even when there is an unspecified history, it may be possible to trace the action of the user 3 retroactively from the specified time point.

(実施の形態2)
図6は、本発明の実施の形態2に係る行動追跡システム全体の構成例を示すブロック図である。実施の形態2に係る行動追跡システム10は、基本的な構造は、実施の形態1に示す行動追跡システム1と同様である。実施の形態2では、センサ2が複数備えられ、そのセンサ2の位置を管理するセンサ位置管理部18が追加されている。また、位置情報記憶部17を設けた履歴記録管理部19が備えられる。また、実施の形態2では、ユーザ3はタグ31を所持しておらず、例えば指紋認証とパスワード入力などで、設定エリア4内へ出入りするものとする。
(Embodiment 2)
FIG. 6 is a block diagram showing a configuration example of the entire behavior tracking system according to Embodiment 2 of the present invention. The behavior tracking system 10 according to the second embodiment has the same basic structure as the behavior tracking system 1 shown in the first embodiment. In the second embodiment, a plurality of sensors 2 are provided, and a sensor position management unit 18 that manages the positions of the sensors 2 is added. In addition, a history record management unit 19 provided with a position information storage unit 17 is provided. In the second embodiment, it is assumed that the user 3 does not have the tag 31 and enters and leaves the setting area 4 by, for example, fingerprint authentication and password input.

図7は、実施の形態2に係る行動追跡システムの設定エリアを示す一例である。図7の点線は、各々のユーザ3(ユーザ3A、ユーザ3B)の行動の追跡を示したものである。ユーザ3は、ドア41D、42D、43Dを通り、設定エリア4に隣接する設定エリア41、42、43へ移動できる。設定エリア4内の、特にドア41D、42D、43D付近の人の動きを観測できる位置に、センサ21、22、23が取り付けられる。それぞれのセンサ21、22、23により、設定エリア41、42、43へ移動するときのユーザ3の行動を追跡することができる。   FIG. 7 is an example illustrating a setting area of the behavior tracking system according to the second embodiment. The dotted lines in FIG. 7 show the behavior tracking of each user 3 (user 3A, user 3B). The user 3 can move to the setting areas 41, 42, and 43 adjacent to the setting area 4 through the doors 41D, 42D, and 43D. Sensors 21, 22, and 23 are attached to the setting area 4, particularly at positions where people's movements near the doors 41 </ b> D, 42 </ b> D, and 43 </ b> D can be observed. The behavior of the user 3 when moving to the setting areas 41, 42, 43 can be tracked by the respective sensors 21, 22, 23.

行動追跡システム10は、識別情報を読み取りする読み取り装置32が別途備えられており、読み取り装置32で読み取られた情報が、行動追跡システム10の識別情報読み取り部12に通信により伝達される仕組みである。通信は、無線であっても、有線であってもよい。   The behavior tracking system 10 is separately provided with a reading device 32 that reads identification information, and information read by the reading device 32 is transmitted to the identification information reading unit 12 of the behavior tracking system 10 by communication. . Communication may be wireless or wired.

判定部16は、その内部に情報選択部14を備える。主に、情報選択部14は、識別情報読み取り部12で識別されたユーザ3の個人性行などの個人情報を選択する。判定部16は、その情報をもとに、人物位置検知部15の位置と情報を照合する。   The determination unit 16 includes an information selection unit 14 therein. Mainly, the information selection unit 14 selects personal information such as the personality line of the user 3 identified by the identification information reading unit 12. The determination unit 16 collates the position of the person position detection unit 15 with the information based on the information.

センサ位置管理部18は、複数のセンサ21、22、23の位置の情報を記憶する。設定エリア4が複雑な形状であったり、広い場合など、1つのセンサ2では、設定エリア4内を網羅することができず、複数のセンサ2を要する。センサ位置管理部18は、設定エリア4内の様々な場所に置かれた複数のセンサ2の、センサ2位置と設定エリア4を照合する。センサ位置管理部18により、設定エリア4全体におけるユーザ3の位置を把握し、ユーザ3の行動をスムーズに行動追跡することができる。   The sensor position management unit 18 stores information on the positions of the plurality of sensors 21, 22, and 23. When the setting area 4 has a complicated shape or is wide, one sensor 2 cannot cover the setting area 4 and requires a plurality of sensors 2. The sensor position management unit 18 collates the sensor 2 positions with the setting area 4 of the plurality of sensors 2 placed at various places in the setting area 4. The sensor position management unit 18 can grasp the position of the user 3 in the entire setting area 4 and smoothly track the action of the user 3.

履歴記録管理部19は、位置情報記憶部17の記録の他に、ユーザ3の行動に関する記録を保存する。位置情報記憶部17で記録している時間と位置の情報を、時間を軸にとり、位置の変化を記録してもよい。以下、時間と位置を経時変化で捉えたものを軌跡と称する。他に、人物情報記憶部13の個人性行と、実際のユーザ3の行動が一致しているかの履歴を記録しておき、個人情報の個人性行を更新する際に用いることができる。また、ユーザ3を行動により特定できなかった場合の、未特定のユーザ3の行動履歴を一時的に記憶・保存する。   The history record management unit 19 stores a record related to the action of the user 3 in addition to the record in the position information storage unit 17. A change in position may be recorded with the time and position information recorded in the position information storage unit 17 as the axis. Hereinafter, what captured time and a position with time change is called a locus. In addition, it is possible to record a history of whether or not the personality row in the person information storage unit 13 and the actual action of the user 3 coincide with each other and use it when updating the personality row of the personal information. Further, the behavior history of the unspecified user 3 when the user 3 cannot be identified by the behavior is temporarily stored / saved.

未特定のユーザ3であっても、ある時間から、どのユーザ3であるかが分かれば、それまでの連続した軌跡は、そのユーザ3のものであることが分かる。また、ユーザ3全体の様子(設定エリア4内にいる人数など)を把握したり、他のユーザ3を特定していくことで、未特定のユーザ3を特定することが可能となる。   Even if it is an unspecified user 3, if the user 3 is known from a certain time, it can be understood that the continuous trajectory up to that time is that of the user 3. In addition, it is possible to identify an unspecified user 3 by grasping the overall state of the user 3 (the number of people in the setting area 4 or the like) or specifying other users 3.

図8は、実施の形態2に係る行動追跡の軌跡データの一例を示す図である。図中のハイフンは、記録データ無しを示す。図8(a)は、軌跡基本データである。センサ2で位置を検知した時間の時刻tと、そのときの検知した位置の座標(x、y)を記録していく。経時変化するときの、隣接した位置を連続して記録することで、軌跡を抽出することができる。軌跡基本データの最上列にあるID番号は、ユーザ3を特定したときに、ユーザ3を示す番号が入る。   FIG. 8 is a diagram illustrating an example of behavior tracking trajectory data according to the second embodiment. A hyphen in the figure indicates no recorded data. FIG. 8A shows trajectory basic data. The time t when the position is detected by the sensor 2 and the coordinates (x, y) of the detected position at that time are recorded. The trajectory can be extracted by continuously recording the adjacent positions when changing with time. The ID number in the top row of the trajectory basic data is the number indicating the user 3 when the user 3 is specified.

ユーザ3が接触するなどして、同時刻にほぼ同じ位置に存在し、次の隣接した位置を捉えることができなくなった場合に、図8(b)の軌跡保留データに記録が行われる。図8(a)の時刻tn1において、軌跡Aと軌跡Bが同じ座標を示したため、軌跡A、Bは、次の時刻tn2からの座標が、軌跡X、Yとして軌跡保留データに記録されていく。このとき、軌跡Aの続きは、軌跡Xもしくは軌跡Yとなるが、どちらであるか分からない。軌跡に対応する個人性行で表す位置から、ユーザ3の特定を行い、対応する軌跡A、および軌跡Aに連続する軌跡X、もしくはYを決定することで、保留データであった軌跡を併せて、ユーザ3の履歴として記録することができる。例えば、ID番号aを持つユーザ3の個人性行と、軌跡A、軌跡Yが対応づけられた場合、時刻tn1以前の座標の記録からなる軌跡Aと、時刻tn2以降の座標の記録からなる軌跡Yは、特定したユーザ3の軌跡として、まとめられ、履歴記録管理部19に保存される。   When the user 3 comes into contact or the like and is present at substantially the same position at the same time and the next adjacent position cannot be captured, recording is performed on the trajectory holding data in FIG. 8B. Since the trajectory A and the trajectory B have the same coordinates at time tn1 in FIG. 8A, the trajectories A and B are recorded in the trajectory hold data as the trajectories X and Y from the next time tn2. . At this time, the continuation of the trajectory A becomes the trajectory X or the trajectory Y, but it is not known which is. By specifying the user 3 from the position represented by the personality line corresponding to the trajectory and determining the corresponding trajectory A and the trajectory X or Y continuing to the trajectory A, the trajectory that was the pending data is also included. , It can be recorded as the history of the user 3. For example, when the personality row of the user 3 having the ID number a is associated with the trajectory A and the trajectory Y, the trajectory A including the recording of the coordinates before the time tn1 and the trajectory including the recording of the coordinates after the time tn2. Y is collected as the locus of the identified user 3 and stored in the history record management unit 19.

図9は、実施の形態2に係る行動追跡システムの動作の、行動軌跡抽出の一例を示すフローチャートである。図10は、実施の形態2に係る行動追跡システムの動作の、個人軌跡判定の一例を示すフローチャートである。行動追跡システム10は、図6を参照する。ユーザ3および設定エリア4は、図7を参照する。また、個人情報の個人性行の1つとして、ユーザ3Aは設定エリア42内で作業をすること、ユーザ3Bは設定エリア43内で作業をすることが記載されているものとする。   FIG. 9 is a flowchart illustrating an example of behavior trajectory extraction of the operation of the behavior tracking system according to the second embodiment. FIG. 10 is a flowchart showing an example of personal trajectory determination of the operation of the behavior tracking system according to the second embodiment. The behavior tracking system 10 refers to FIG. The user 3 and the setting area 4 refer to FIG. Further, as one of the personality lines of personal information, it is described that the user 3A works in the setting area 42 and the user 3B works in the setting area 43.

先に、図4に示す、在場認識をしておく。設定エリア4内に存在するユーザ3の認識をし、ユーザ3が在場することを、例えば人物情報記憶部13または位置情報記憶部17に記憶する。   First, presence recognition shown in FIG. 4 is performed. The user 3 existing in the setting area 4 is recognized, and the presence of the user 3 is stored in, for example, the person information storage unit 13 or the position information storage unit 17.

次に、行動軌跡抽出を行う。人物位置検知部15はセンサ2の情報を受け、ユーザ3の位置を検知し(ステップS31)、位置情報記憶部17はその位置を一旦記憶しておく(ステップS32)。時間経過毎にデータは増えていき、時間と位置との関係を示す軌跡を抽出することが可能となる。履歴記録管理部19は、位置情報記憶部17と時間のデータより、軌跡を抽出し(ステップS33)、軌跡を記録する(ステップS34)。   Next, action trajectory extraction is performed. The person position detection unit 15 receives the information of the sensor 2 and detects the position of the user 3 (step S31), and the position information storage unit 17 temporarily stores the position (step S32). Data increases as time elapses, and it is possible to extract a trajectory indicating the relationship between time and position. The history record management unit 19 extracts a trajectory from the position information storage unit 17 and time data (step S33), and records the trajectory (step S34).

次に、個人位置の判定を行う。個人性行を示す情報を選択するときの順番をユーザ3に振り分けたものをi番目、ユーザ3の存在する人数の数だけ示された軌跡に番号を振り分けたものをk番目とおく。このときi番目より、特定のユーザ3を特定することができる。   Next, the personal position is determined. The order in which the information indicating the personality row is selected is assigned to the user 3 as the i-th order, and the number assigned to the trajectory indicated by the number of the users 3 is set as the k-th order. At this time, the specific user 3 can be specified from the i-th.

ユーザ3はn人で、n通りの軌跡を抽出する。全てのユーザ3について、全ての抽出した軌跡を、個人性行で示す位置から想定される行動範囲の閾値内にあるかを判定することで、ユーザ3の特定をすることができる。ユーザ3の軌跡を抽出した状態(ステップS41)から、その軌跡がどのユーザ3であるかの判定動作を開始する。在場認識されたユーザ3の個人性行に関する情報の、n人分の個人性行のi番目、ここでは1つ目を選択する(ステップS42)。複数通りについて抽出した軌跡の、n通りのk番目、ここでは1つ目を選択する(ステップS43)。また、Min(i)をとりうる最大値に設定する。   There are n users 3 and n kinds of trajectories are extracted. The user 3 can be identified by determining whether all the extracted trajectories are within the threshold of the action range assumed from the position indicated by the personality row for all the users 3. From the state in which the locus of the user 3 is extracted (step S41), an operation for determining which user 3 the locus is is started. The i-th, here, the first personality row of n persons of the information related to the personality row of the user 3 who is recognized in the presence is selected (step S42). Of the trajectories extracted for a plurality of patterns, the nth k-th, here, the first one is selected (step S43). Also, Min (i) is set to the maximum value that can be taken.

そして、個人性行に示される位置と抽出した軌跡との距離d(i、k)を算出する(ステップS44)。距離dは、例えば、軌跡の各位置と性行情報の各場所との間の、空間上の距離(性行情報にある場所と検知位置との距離)と時間上の距離(性行情報のその場所に行く時間と現在時間の差)の線形和の総和で表すことができる。その他、時空間における性行情報と軌跡との距離を表す何らかの評価関数を用いることができる。   Then, a distance d (i, k) between the position indicated in the personality row and the extracted trajectory is calculated (step S44). The distance d is, for example, a spatial distance (a distance between a location in the sexual activity information and a detection position) and a temporal distance (a value of the sexual activity information) between each position of the trajectory and each location of the sexual activity information. The difference between the time to go to the place and the current time) can be expressed as the sum of the linear sums. In addition, any evaluation function that represents the distance between the sexual activity information and the trajectory in time and space can be used.

その算出した距離d(i、k)が、考え得る軌跡の距離Min(i)より小さければ(ステップS45;YES)、判定部16は、そのi番目のユーザ3の個人性行が示す位置と、k番目の軌跡が一致したとして、軌跡k番目にいる人をi番目のユーザ3と判定する(ステップS46)。すなわち、Min(i)をd(i,k)で置き換え、その軌跡のユーザ3を表す変数p(k)にi番目のユーザ3の識別符号ID(i)を対応づける。   If the calculated distance d (i, k) is smaller than the possible trajectory distance Min (i) (step S45; YES), the determination unit 16 determines the position indicated by the personality row of the i-th user 3. If the kth trajectory coincides, the person who is in the trajectory kth is determined as the i th user 3 (step S46). That is, Min (i) is replaced with d (i, k), and the identification code ID (i) of the i-th user 3 is associated with the variable p (k) representing the user 3 of the trajectory.

そして、軌跡k番の次の番号(k+1)の軌跡に進む(ステップS47)。距離d(i、k)が、考え得る軌跡の距離Min(i)より大きければ(ステップS45;NO)、i番目のユーザ3の個人性行が示す位置とk番目の軌跡は不一致であるものとして、軌跡k番の次の番号(k+1)の軌跡に進む(ステップS47)。   And it progresses to the locus | trajectory of the number (k + 1) following the locus | trajectory k (step S47). If the distance d (i, k) is greater than the possible trajectory distance Min (i) (step S45; NO), the position indicated by the personality line of the i-th user 3 and the k-th trajectory are inconsistent. Then, the process proceeds to the trajectory of the next number (k + 1) after the trajectory k (step S47).

軌跡番号kがnより小さい場合(ステップS48;NO)は、ステップS44に戻り、繰り返す。徐々に軌跡の番号を増やし、n通りの軌跡全ての確認を終えるまで、繰り返し行う。最初のユーザ3であるi番目のユーザ3について、全ての軌跡の確認を行う。   If the trajectory number k is smaller than n (step S48; NO), the process returns to step S44 and is repeated. Gradually increase the track number and repeat until all n tracks have been checked. All trajectories are confirmed for the i-th user 3 that is the first user 3.

軌跡番号kがnより大きくなった場合(ステップS48;YES)は、次のユーザ3、すなわち(i+1)番目のユーザ3の個人性行の場合へ進む(ステップS49)。同様に、(i+1)番目の人についても、全ての軌跡の確認を行う。n人全ての確認を終えるまで、徐々に個人性行が示す位置の番号を増やしていくため、位置番号iがnより小さい場合は(ステップS50;NO)、ステップS43に戻り、繰り返す。nより大きい場合は(ステップS50;YES)は、全てのユーザ3について確認を終えており、個人軌跡の判定を終了する。   When the trajectory number k is larger than n (step S48; YES), the process proceeds to the case of the personality line of the next user 3, that is, the (i + 1) th user 3 (step S49). Similarly, all the loci are confirmed for the (i + 1) th person. The number of the position indicated by the personality line is gradually increased until confirmation of all n persons is completed. When the position number i is smaller than n (step S50; NO), the process returns to step S43 and is repeated. If it is larger than n (step S50; YES), all the users 3 have been confirmed, and the personal trajectory determination ends.

フローチャートには記載していないが、2つの軌跡に同一のユーザ3が対応づけられる場合は、近い方の軌跡を優先し、他方の軌跡を他のユーザ3に対応づける。または、2つの軌跡に同一のユーザ3であるとされた場合、そのユーザ3の個人位置の判定結果を消去し、最後のn番目に個人位置の判定を行うように、プログラムしてもよい。どちらかの軌跡に、他のユーザ3の対応記録があれば、消去法により、残った方の軌跡にユーザ3が対応づけられる。   Although not shown in the flowchart, when the same user 3 is associated with two trajectories, the closer trajectory is prioritized and the other trajectory is associated with another user 3. Alternatively, when it is determined that the user 3 is the same in the two trajectories, the personal position determination result of the user 3 may be erased and the personal position may be determined in the last nth. If there is a correspondence record of the other user 3 in one of the trajectories, the user 3 is associated with the remaining trajectory by the erasing method.

全てのユーザ3について、その個人性行が示す位置と、抽出した軌跡とを比較し、判定部16は、その軌跡にいる最も適したユーザ3を特定することができる。判定部16で判定した特定のユーザ3と、抽出した軌跡であって、位置情報記憶部17に仮に記憶しておいた軌跡の情報とを併せて履歴記録管理部19に記憶する。性行で表す位置と抽出した軌跡から、複数のユーザ3が特定された場合や、特に近い結果がなく、ユーザ3が未特定の場合は、ユーザ3は未特定として、履歴記録管理部19に記憶する。   For all the users 3, the position indicated by the personality row is compared with the extracted trajectory, and the determination unit 16 can specify the most suitable user 3 on the trajectory. The specific user 3 determined by the determination unit 16 and the extracted locus and the locus information temporarily stored in the position information storage unit 17 are stored together in the history record management unit 19. When a plurality of users 3 are specified from the position represented by the sexual activity and the extracted trajectory, or when there is no particularly close result and the user 3 is not specified, the user 3 is not specified and the history record management unit 19 Remember.

特定のユーザ3と、その軌跡を記憶していくことで、ユーザ3の行動を追跡することができる。特定のユーザ3の行動を追跡できるにもかかわらず、ユーザ3は設定エリア4に入るときに識別情報を読み取らせるだけで、手間がかからない。複数のユーザ3がほぼ同時に設定エリア4内に入りユーザ3未特定となった場合や、追跡の途中に、接触により、ユーザ3未特定となった場合でも、個人軌跡判定を行うことで、ユーザ3を判定することができる。さらに、未特定の履歴があった場合でも、特定した時点から遡って、ユーザ3の行動を追跡できる場合がある。   By memorizing a specific user 3 and its trajectory, the action of the user 3 can be tracked. Although the behavior of the specific user 3 can be tracked, the user 3 only needs to read the identification information when entering the setting area 4 and does not take time. Even when a plurality of users 3 enter the setting area 4 almost simultaneously and become unspecified, or even when the user 3 becomes unspecified due to contact during tracking, the user's trajectory determination makes it possible to 3 can be determined. Furthermore, even when there is an unspecified history, it may be possible to trace the action of the user 3 retroactively from the specified time point.

特に、軌跡を用いてユーザ3の特定を行うので、位置を用いて特定する場合に比べて、信頼度が高くなる。また、軌跡そのものを行動追跡のデータとして用いることができる。軌跡のデータを、ユーザ3の個人性行のデータ更新に活用することで、より、信頼度の高い行動追跡が可能となり、ユーザ3未特定の場合が生じた場合であっても、再度、ユーザ3の特定を行うまでの時間を短縮することができる。   In particular, since the user 3 is specified using the trajectory, the reliability is higher than when specifying using the position. Also, the trajectory itself can be used as action tracking data. By utilizing the data of the trajectory for updating the data of the personality line of the user 3, it becomes possible to track the behavior with higher reliability, and even if the case where the user 3 is unspecified occurs, the user again It is possible to shorten the time until the identification of 3 is performed.

性行で表す位置と軌跡が、最も近い場合のユーザ3の情報が設定されることになり、制御部11の指示を受け、判定部16は、ユーザ3の特定を行う。制御部11は、履歴記録管理部19に保存されている記録に、判定部16で判定した特定のユーザ3の記録を併せて記録する。軌跡と性行で表す位置から、複数のユーザ3が特定された場合や、どのユーザ3も該当しないなどの未特定の場合は、ユーザ3未特定として記録を行う。抽出した軌跡がn個の場合は、n個の軌跡について、それぞれ個人軌跡判定が行われる。   Information of the user 3 when the position and trajectory represented by the sexual activity are the closest is set, and the determination unit 16 identifies the user 3 in response to an instruction from the control unit 11. The control unit 11 records the record of the specific user 3 determined by the determination unit 16 together with the record stored in the history record management unit 19. When a plurality of users 3 are specified from the position represented by the trajectory and sex, or when the user 3 is not specified, such as none of the users 3, the user 3 is recorded as unspecified. When the number of extracted trajectories is n, individual trajectory determination is performed for each of the n trajectories.

以上説明したように、本実施の形態に係る行動追跡システムによれば、ユーザ3がタグなどを備えた装置を常に所持していなくても、行動追跡が可能である。それにより、ユーザ3は、設定エリア4内に入る時に入室時の認証手続き(例えば、入館カードを読み取り機に通したり、携帯電話を読み取り機にかざすなど)をするだけでよく、設定エリア4内の移動の際に、特別な装置などを持つことない。また、行動追跡の方法として、監視カメラを用いることなく位置情報のみで済み、プライバシーを保護することができる。   As described above, according to the behavior tracking system according to the present embodiment, behavior tracking is possible even if the user 3 does not always have a device equipped with a tag or the like. Accordingly, when the user 3 enters the setting area 4, the user 3 only has to perform an authentication procedure at the time of entering the room (for example, pass the entrance card through the reader or hold the mobile phone over the reader). There is no special equipment when moving. Further, as a method for tracking behavior, only position information is required without using a surveillance camera, and privacy can be protected.

本実施の形態では、ユーザ3が設定エリア4内へ出入りする際に、タグ31をICカードや携帯電話などを所持する場合、および、指紋による生体認証の場合について例を挙げて説明した。ユーザ3の識別情報の認証方法は、ユーザ3の認証が可能であればよく、生体認証の場合は、他に、瞳の中の虹彩、指静脈、音声など、様々な方法がある。また、パスワードを認証機械に直接入力する方法や、顔認識とパスワード入力、タグ31とパスワード入力など、認証方法を幾つか組み合わせて用いてもよい。   In the present embodiment, the case where the user 3 carries an IC card or a mobile phone when the user 3 enters and leaves the setting area 4 and the case of biometric authentication using fingerprints have been described as examples. The authentication method of the identification information of the user 3 only needs to be able to authenticate the user 3. In the case of biometric authentication, there are various other methods such as iris in the pupil, finger vein, and voice. Further, a combination of several authentication methods such as a method of directly inputting a password to the authentication machine, face recognition and password input, tag 31 and password input may be used.

本実施の形態では、個人性行について、特に本人の趣向と関連する行動についてのみ説明したが、上述した例に限らず、適用可能である。例えば、ユーザ3がよく利用する座席の位置を、ユーザ3を特定する情報に用いてもよい。会社であれば机の場所、家であればリビングに置かれたソファの1つの場所など、ユーザ3がよく利用する場所を個人性行の情報とすることができる。また、ユーザ3の行動追跡を軌跡として記録する際に、ユーザ3の移動速度を個人性行の1つにすることができる。   In the present embodiment, only the behavior related to the personality of the person is described in the present embodiment. However, the present invention is not limited to the above-described example but can be applied. For example, the position of the seat frequently used by the user 3 may be used as information for specifying the user 3. Information that is frequently used by the user 3, such as the location of a desk in the case of a company and the location of a sofa placed in a living room in the case of a house, can be used as personality information. In addition, when the action tracking of the user 3 is recorded as a trajectory, the moving speed of the user 3 can be made one of personality lines.

また、人物位置検知部15で検知した位置情報を記憶する時間の間隔を短くしておくことで、ユーザ3の行動追跡が正確かつ高精度になる。測定する間隔が短い場合は、頻繁にユーザ3の位置情報が更新され、ユーザ3の予測される行動範囲も小さくて済み、かつ、予測と実際の位置の誤差も少なくなり、ユーザ3の行動追跡が行いやすい。また、ユーザ3の足取りも細かく測定できる。   In addition, by keeping the time interval for storing the position information detected by the person position detection unit 15, the action tracking of the user 3 becomes accurate and accurate. When the measurement interval is short, the position information of the user 3 is frequently updated, the predicted action range of the user 3 can be reduced, and the error between the prediction and the actual position is reduced. Is easy to do. In addition, it is possible to measure the gait of the user 3 in detail.

さらに、ユーザ3の履歴記録管理部19にある、過去の行動履歴と、人物情報記憶部13に記録された個人性行を比較し、個人性行のデータを、ユーザ3に合わせて更新してもよい。ユーザ3の行動に即した情報を記録しておくことで、より、ユーザ3の特定が行いやすくなる。特に行動追跡を行う対象のユーザ3が多いときなど、ユーザ3の個人性行などの特徴を細かく検知した位置に反映することで、ユーザ3の特定が行いやすくなる利点がある。また、ユーザ3の特定ができなくなった場合でも、そのユーザ3の行動パターンにより、再度ユーザ3を特定できるようになる。   Furthermore, the past action history in the history record management unit 19 of the user 3 is compared with the personality row recorded in the person information storage unit 13 and the personality row data is updated according to the user 3. Also good. By recording information according to the action of the user 3, the user 3 can be identified more easily. In particular, when there are a large number of users 3 who are subject to behavior tracking, there is an advantage that it is easy to identify the user 3 by reflecting the feature such as the personality line of the user 3 to the position where the feature is finely detected. Further, even when the user 3 cannot be specified, the user 3 can be specified again by the action pattern of the user 3.

なお、センサ2は、赤外線センサを用いることで、人感知の精度が高いだけでなく、簡易に設置ができ便利である。赤外線センサは、感知距離や感知角度が大きいものが多く、使用するセンサ2の数を最小限にすることが可能である。赤外線センサは、熱による感知の精度が高いが、さらに人の体温に合わせた波長の6〜14μmを透過するフィルタを用いることで、他に動くものがあった場合であっても、人の動きのみを感知できる。但し、必ずしも赤外線センサに限らず、振動による感知を用いた超音波センサなどでもよい。また、赤外線カメラでもかまわない。プライバシーを侵害することなく、個人の行動追跡が可能であればよい。   In addition, the sensor 2 is not only high in human detection accuracy but also can be easily installed and convenient by using an infrared sensor. Many infrared sensors have a large sensing distance and sensing angle, and the number of sensors 2 to be used can be minimized. Infrared sensors are highly sensitive to heat, but by using a filter that transmits 6-14 μm of wavelength that matches the human body temperature, even if there are other moving objects, Can only sense. However, the sensor is not necessarily limited to the infrared sensor, and may be an ultrasonic sensor using vibration sensing. An infrared camera may also be used. It is only necessary that individual behavior can be traced without infringing on privacy.

図11は、図1に示す活動記録文書作成システム1のハードウェア構成の一例を示すブロック図である。図6に示す活動記録文書作成システム10のハードウェア構成も基本構造は同じである。行動追跡システム1は、図11に示すように、制御部21、主記憶部22、外部記憶部23、操作部24、表示部25、入出力部26および送受信部27を備える。主記憶部22、外部記憶部23、操作部24、表示部25、入出力部26および送受信部27はいずれも内部バス20を介して制御部21に接続されている。   FIG. 11 is a block diagram showing an example of a hardware configuration of the activity record document creation system 1 shown in FIG. The hardware structure of the activity record document creation system 10 shown in FIG. 6 has the same basic structure. As shown in FIG. 11, the behavior tracking system 1 includes a control unit 21, a main storage unit 22, an external storage unit 23, an operation unit 24, a display unit 25, an input / output unit 26, and a transmission / reception unit 27. The main storage unit 22, the external storage unit 23, the operation unit 24, the display unit 25, the input / output unit 26, and the transmission / reception unit 27 are all connected to the control unit 21 via the internal bus 20.

制御部21はCPU(Central Processing Unit)等から構成され、外部記憶部23に記憶されている制御プログラム30に従って、行動追跡システム1の人物情報記憶部13、情報選択部14、人物位置検知部15および判定部16等の各処理を実行する。   The control unit 21 includes a CPU (Central Processing Unit) and the like, and in accordance with the control program 30 stored in the external storage unit 23, the person information storage unit 13, the information selection unit 14, and the person position detection unit 15 of the behavior tracking system 1. And each process of the determination part 16 grade | etc., Is performed.

主記憶部22はRAM(Random-Access Memory)等から構成され、外部記憶部23に記憶されている制御プログラム30をロードし、制御部21の作業領域として用いられる。   The main storage unit 22 is constituted by a RAM (Random-Access Memory) or the like, loads a control program 30 stored in the external storage unit 23, and is used as a work area of the control unit 21.

外部記憶部23は、フラッシュメモリ、ハードディスク、DVD−RAM(Digital Versatile Disc Random-Access Memory)、DVD−RW(Digital Versatile Disc ReWritable)等の不揮発性メモリから構成され、行動追跡システム1の処理を制御部21に行わせるためのプログラムを予め記憶し、また、制御部21の指示に従って、このプログラムが記憶するデータを制御部21に供給し、制御部21から供給されたデータを記憶する。   The external storage unit 23 includes a nonvolatile memory such as a flash memory, a hard disk, a DVD-RAM (Digital Versatile Disc Random-Access Memory), a DVD-RW (Digital Versatile Disc ReWritable), and controls the processing of the behavior tracking system 1. A program to be executed by the unit 21 is stored in advance, and data stored by the program is supplied to the control unit 21 in accordance with an instruction from the control unit 21, and the data supplied from the control unit 21 is stored.

操作部24はキーボード及びマウスなどのポインティングデバイス等と、キーボード及びポインティングデバイス等を内部バス20に接続するインターフェース装置から構成されている。操作部24を介して、個人情報、特に個人情報の1つである個人性行などが入力され、制御部21に供給される。   The operation unit 24 includes a pointing device such as a keyboard and a mouse, and an interface device that connects the keyboard and the pointing device to the internal bus 20. Personal information, in particular personality information which is one of the personal information, is input via the operation unit 24 and supplied to the control unit 21.

表示部25は、CRT(Cathode Ray Tube)又はLCD(Liquid Crystal Display)などから構成され、位置検出する対象の登録された人および個人性行を含む個人情報や、位置情報などを表示する。   The display unit 25 is configured by a CRT (Cathode Ray Tube) or an LCD (Liquid Crystal Display), and displays personal information including a registered person to be detected and a personality line, position information, and the like.

入出力部26は、シリアルインタフェースまたはパラレルインタフェースから構成されている。入出力部26は、タグの情報を読み取る装置が装置本体に内蔵されてなく外部取り付けの場合は、それと接続する。入出力部26は、人を感知して測定するセンサ2と接続する。   The input / output unit 26 includes a serial interface or a parallel interface. The input / output unit 26 is connected to a device that reads tag information when the device is not built in the device main body and is attached externally. The input / output unit 26 is connected to the sensor 2 that senses and measures a person.

送受信部27は、ネットワークに接続する網終端装置または無線通信装置、及びそれらと接続するシリアルインタフェース又はLAN(Local Area Network)インタフェースから構成されている。送受信部27は、ネットワークを介して、行動追跡した記録を送信し、また、個人性行などを受信する。   The transmission / reception unit 27 includes a network termination device or a wireless communication device connected to the network, and a serial interface or a LAN (Local Area Network) interface connected to them. The transmission / reception unit 27 transmits a behavior-tracked record through the network and receives personality and the like.

図1に示す行動追跡システム1の人物情報記憶部13、情報選択部14、人物位置検知部15および判定部16等の処理は、制御プログラム30が、制御部21、主記憶部22、外部記憶部23、操作部24、表示部25、入出力部26および送受信部27などを資源として用いて処理することによって実行する。   The processing such as the person information storage unit 13, the information selection unit 14, the person position detection unit 15, and the determination unit 16 of the behavior tracking system 1 illustrated in FIG. 1 is performed by the control program 30, the control unit 21, the main storage unit 22, and the external storage. The processing is executed by using the unit 23, the operation unit 24, the display unit 25, the input / output unit 26, the transmission / reception unit 27, and the like as resources.

その他、本発明の好適な変形として、以下の構成が含まれる。   Other suitable modifications of the present invention include the following configurations.

本発明の第1の観点に係る行動追跡システムについて、
好ましくは、前記人検知手段で取得した人の存在場所とその時刻を含む位置情報を記憶する人位置記憶手段と、
前記人位置記憶手段で記憶した位置情報から、人の移動軌跡を抽出する軌跡抽出手段と、
を備え、
前記判定手段は、前記軌跡抽出手段で抽出した人の移動軌跡と、前記認識手段で取得した前記空間に存在する人の識別符号に対応する個人性行を表す情報とを比較して、人の移動軌跡に最も近い個人性行を表す情報に対応する識別符号を、その移動軌跡の人に対応づける、
ことを特徴とする。
About the action tracking system according to the first aspect of the present invention,
Preferably, a person position storage means for storing position information including the location and time of the person acquired by the person detection means,
Trajectory extraction means for extracting a person's movement trajectory from the position information stored in the human position storage means;
With
The determination means compares the movement trajectory of the person extracted by the trajectory extraction means with the information representing the personality line corresponding to the identification code of the person present in the space acquired by the recognition means, The identification code corresponding to the information representing the personality line closest to the movement locus is associated with the person of the movement locus.
It is characterized by that.

好ましくは、前記判定手段で判定した、位置情報と識別符号の対応を表す情報を記録する記録手段を備えることを特徴とする。   Preferably, the recording apparatus includes a recording unit that records information indicating correspondence between the position information and the identification code determined by the determination unit.

好ましくは、前記人検知手段は、前記区分した場所ごとに配置される人検知センサを備え、前記人検知センサの検出情報によって人の存在を検知し、予め記憶された前記人検知センサの位置で、人の存在する場所を特定する。   Preferably, the human detection means includes a human detection sensor arranged for each of the divided locations, detects the presence of a person based on detection information of the human detection sensor, and is stored at a position of the human detection sensor stored in advance. Identify where people are.

本発明の第2の観点に係る行動追跡方法について、
好ましくは、前記人検知ステップで取得した人の存在場所とその時刻を含む位置情報を記憶する人位置記憶ステップと、
前記人位置記憶ステップで記憶した位置情報から、人の移動軌跡を抽出する軌跡抽出ステップと、
を備え、
前記判定ステップは、前記軌跡抽出ステップで抽出した人の移動軌跡と、前記個人性行情報取得ステップで取得した前記空間に存在する人の識別符号に対応する個人性行を表す情報とを比較して、人の移動軌跡に最も近い個人性行を表す情報に対応する識別符号を、その移動軌跡の人に対応づける、
ことを特徴とする。
About the behavior tracking method according to the second aspect of the present invention,
Preferably, a person position storage step for storing position information including the location and time of the person acquired in the person detection step,
A trajectory extraction step for extracting a movement trajectory of a person from the position information stored in the human position storage step;
With
The determination step compares the movement trajectory of the person extracted in the trajectory extraction step with information representing the personality line corresponding to the identification code of the person existing in the space acquired in the personality line information acquisition step. The identification code corresponding to the information representing the personality line closest to the movement trajectory of the person is associated with the person of the movement trajectory.
It is characterized by that.

好ましくは、前記判定ステップで判定した、位置情報と識別符号の対応を表す情報を記録する記録ステップを備えることを特徴とする。   Preferably, the method includes a recording step of recording information representing the correspondence between the position information and the identification code determined in the determination step.

好ましくは、前記人検知ステップは、前記区分した場所ごとに配置される人検知センサから検出情報を受信することよって人の存在を検知し、予め記憶された前記人検知センサの位置情報から人の存在する場所を特定することを特徴とする。   Preferably, the human detection step detects the presence of a person by receiving detection information from a human detection sensor arranged for each of the divided locations, and detects a person's presence from the position information of the human detection sensor stored in advance. It is characterized by specifying an existing location.

その他、前記のハードウエア構成やフローチャートは一例であり、任意に変更および修正が可能である。   In addition, the above-described hardware configuration and flowchart are examples, and can be arbitrarily changed and modified.

人物情報記憶部13、情報選択部14、人物位置検知部15、判定部16、等から構成される行動追跡する人の特定を行うシステムの中心となる部分は、専用のシステムによらず、通常のコンピュータシステムを用いて実現可能である。たとえば、前記の動作を実行するためのコンピュータプログラムを、コンピュータが読みとり可能な記録媒体(フレキシブルディスク、CD−ROM、DVD−ROM等)に格納して配布し、当該コンピュータプログラムをコンピュータにインストールすることにより、前記の処理を実行する活動記録作成システムを構成してもよい。また、インターネット等の通信ネットワーク上のサーバ装置が有する記憶装置に当該コンピュータプログラムを格納しておき、通常のコンピュータシステムがダウンロード等することで活動記録作成システムを構成してもよい。   The central part of the system for identifying the person whose behavior is to be tracked is composed of the person information storage unit 13, the information selection unit 14, the person position detection unit 15, the determination unit 16, and the like. This can be realized using a computer system. For example, a computer program for executing the above operation is stored and distributed in a computer-readable recording medium (flexible disk, CD-ROM, DVD-ROM, etc.), and the computer program is installed in the computer. Thus, an activity record creation system that executes the above-described processing may be configured. Further, the computer program may be stored in a storage device of a server device on a communication network such as the Internet, and an activity record creation system may be configured by downloading or the like by a normal computer system.

また、活動記録作成システムを、OS(オペレーティングシステム)とアプリケーションプログラムの分担、またはOSとアプリケーションプログラムとの協働により実現する場合等には、アプリケーションプログラム部分のみを記録媒体や記憶装置に格納してもよい。   Further, when the activity record creation system is realized by sharing the OS (operating system) and application programs, or by cooperation between the OS and application programs, only the application program portion is stored in a recording medium or a storage device. Also good.

また、搬送波にコンピュータプログラムを重畳し、通信ネットワークを介して配信することも可能である。たとえば、通信ネットワーク上の掲示板(BBS, Bulletin Board System)に前記コンピュータプログラムを掲示し、ネットワークを介して前記コンピュータプログラムを配信してもよい。そして、このコンピュータプログラムを起動し、OSの制御下で、他のアプリケーションプログラムと同様に実行することにより、前記の処理を実行できるように構成してもよい。   It is also possible to superimpose a computer program on a carrier wave and distribute it via a communication network. For example, the computer program may be posted on a bulletin board (BBS, Bulletin Board System) on a communication network, and the computer program distributed via the network. The computer program may be started and executed in the same manner as other application programs under the control of the OS, so that the above-described processing may be executed.

本発明の実施の形態1に係る行動追跡システム全体の構成例を示すブロック図である。It is a block diagram which shows the structural example of the whole action tracking system which concerns on Embodiment 1 of this invention. 人物情報記憶部に記録する個人情報の個人性行を示す一例である。It is an example which shows the individuality line of the personal information recorded on a person information storage part. 実施の形態1に係る行動追跡システムの設定エリアの一例を示す図である。It is a figure which shows an example of the setting area of the action tracking system which concerns on Embodiment 1. FIG. 実施の形態1に係る行動追跡システムの動作の、在場認識の一例を示すフローチャートである。4 is a flowchart illustrating an example of presence recognition of the operation of the behavior tracking system according to the first embodiment. 実施の形態1に係る行動追跡システムの動作の、個人位置判定の一例を示すフローチャートである。4 is a flowchart showing an example of personal position determination of the operation of the behavior tracking system according to the first embodiment. 本発明の実施の形態2に係る行動追跡システム全体の構成例を示すブロック図である。It is a block diagram which shows the structural example of the whole action tracking system which concerns on Embodiment 2 of this invention. 実施の形態2に係る行動追跡システムの設定エリアの一例を示す図である。It is a figure which shows an example of the setting area of the action tracking system which concerns on Embodiment 2. FIG. 実施の形態2に係る行動追跡システムの軌跡データの一例を示す図である。(a)は軌跡基本データ、(b)は軌跡保留データを示す。It is a figure which shows an example of the locus | trajectory data of the action tracking system which concerns on Embodiment 2. FIG. (A) shows trajectory basic data, and (b) shows trajectory hold data. 実施の形態2に係る行動追跡システムの動作の、行動軌跡抽出の一例を示すフローチャートである。12 is a flowchart illustrating an example of behavior trajectory extraction of the operation of the behavior tracking system according to the second embodiment. 実施の形態2に係る行動追跡システムの動作の、個人軌跡判定の一例を示すフローチャートである。10 is a flowchart illustrating an example of personal trajectory determination of the operation of the behavior tracking system according to the second embodiment. 本発明の実施の形態に係る行動追跡システムのハードウェア構成の一例を示すブロック図である。It is a block diagram which shows an example of the hardware constitutions of the action tracking system which concerns on embodiment of this invention.

符号の説明Explanation of symbols

1、10 行動追跡システム
2 センサ
3 ユーザ
4 設定エリア
11 制御部
12 識別情報読み取り部
13 人物情報記憶部
14 情報選択部
15 人物位置検知部
16 判定部
17 位置情報記憶部
18 センサ位置管理部
19 履歴記録管理部
DESCRIPTION OF SYMBOLS 1, 10 Action tracking system 2 Sensor 3 User 4 Setting area 11 Control part 12 Identification information reading part 13 Person information storage part 14 Information selection part 15 Person position detection part 16 Judgment part 17 Position information storage part 18 Sensor position management part 19 History Records management department

Claims (9)

行動を追跡する対象の人について、その人に固有の識別符号と、その人の個人性行を表す情報とを対応づけて記憶する記憶手段と、
行動を追跡する対象の限られた空間に存在する人の前記識別符号を取得する認識手段と、
前記空間を区分した場所ごとに、人の存在を検知し、人が存在する場所を表す位置情報を取得する人検知手段と、
前記人検知手段で取得した位置情報と、前記認識手段で取得した前記空間に存在する人の識別符号に対応する個人性行を表す情報とを比較して、前記位置情報に最も近い個人性行を表す情報に対応する識別符号を、その場所に存在する人の位置情報に対応づける判定手段と、
を備えることを特徴とする行動追跡システム。
A storage means for storing an identification code unique to the person and information representing the personality line of the person to be tracked in association with each other;
Recognizing means for acquiring the identification code of a person existing in a limited space of a subject whose behavior is to be tracked;
For each place where the space is divided, a person detecting means for detecting the presence of a person and acquiring positional information representing the place where the person exists;
The position information acquired by the person detecting means is compared with the information indicating the individuality line corresponding to the identification code of the person existing in the space acquired by the recognizing means, and the personality line closest to the position information is compared. Determining means for associating an identification code corresponding to information representing the position information of a person existing in the place;
A behavior tracking system comprising:
前記人検知手段で取得した人の存在場所とその時刻を含む位置情報を記憶する人位置記憶手段と、
前記人位置記憶手段で記憶した位置情報から、人の移動軌跡を抽出する軌跡抽出手段と、
を備え、
前記判定手段は、前記軌跡抽出手段で抽出した人の移動軌跡と、前記認識手段で取得した前記空間に存在する人の識別符号に対応する個人性行を表す情報とを比較して、人の移動軌跡に最も近い個人性行を表す情報に対応する識別符号を、その移動軌跡の人に対応づける、
ことを特徴とする請求項1に記載の行動追跡システム。
A person position storage means for storing position information including the location and time of the person acquired by the person detection means;
Trajectory extraction means for extracting a person's movement trajectory from the position information stored in the human position storage means;
With
The determination means compares the movement trajectory of the person extracted by the trajectory extraction means with the information representing the personality line corresponding to the identification code of the person present in the space acquired by the recognition means, The identification code corresponding to the information representing the personality line closest to the movement locus is associated with the person of the movement locus.
The behavior tracking system according to claim 1.
前記判定手段で判定した、位置情報と識別符号の対応を表す情報を記録する記録手段を備えることを特徴とする請求項1または2に記載の行動追跡システム。   The behavior tracking system according to claim 1, further comprising a recording unit that records information indicating correspondence between the position information and the identification code determined by the determination unit. 前記人検知手段は、前記区分した場所ごとに配置される人検知センサを備え、前記人検知センサの検出情報によって人の存在を検知し、予め記憶された前記人検知センサの位置で、人の存在する場所を特定することを特徴とする請求項1ないし3のいずれか1項に記載の行動追跡システム。   The human detection means includes a human detection sensor arranged for each of the divided locations, detects the presence of a human by detection information of the human detection sensor, and at a position of the human detection sensor stored in advance, The behavior tracking system according to any one of claims 1 to 3, wherein an existing place is specified. 行動を追跡する対象の限られた空間に存在する人に固有の識別符号を取得する認識ステップと、
前記認識ステップで認識した識別符号に対応する人の個人性行を表す情報を取得する個人性行情報取得ステップと、
前記空間を区分した場所ごとに、人の存在を検知し、人が存在する場所を表す位置情報を取得する人検知ステップと、
前記人検知ステップで取得した位置情報と、前記個人性行情報取得ステップで取得した前記空間に存在する人の識別符号に対応する個人性行を表す情報とを比較して、前記位置情報に最も近い個人性行を表す情報に対応する識別符号を、その場所に存在する人の位置情報に対応づける判定ステップと、
を備えることを特徴とする行動追跡方法。
A recognition step for obtaining an identification code unique to a person existing in a limited space for tracking an action;
A personality line information acquisition step of acquiring information representing a personality line of a person corresponding to the identification code recognized in the recognition step;
For each place where the space is divided, a person detection step of detecting the presence of a person and obtaining position information representing the place where the person exists;
The position information acquired in the human detection step is compared with the information indicating the personality line corresponding to the identification code of the person existing in the space acquired in the personality line information acquisition step. A determination step of associating an identification code corresponding to information representing a close personality line with position information of a person existing in the place;
A behavior tracking method comprising:
前記人検知ステップで取得した人の存在場所とその時刻を含む位置情報を記憶する人位置記憶ステップと、
前記人位置記憶ステップで記憶した位置情報から、人の移動軌跡を抽出する軌跡抽出ステップと、
を備え、
前記判定ステップは、前記軌跡抽出ステップで抽出した人の移動軌跡と、前記個人性行情報取得ステップで取得した前記空間に存在する人の識別符号に対応する個人性行を表す情報とを比較して、人の移動軌跡に最も近い個人性行を表す情報に対応する識別符号を、その移動軌跡の人に対応づける、
ことを特徴とする請求項5に記載の行動追跡方法。
A person position storage step for storing position information including the location and time of the person acquired in the person detection step;
A trajectory extraction step for extracting a movement trajectory of a person from the position information stored in the human position storage step;
With
The determination step compares the movement trajectory of the person extracted in the trajectory extraction step with information representing the personality line corresponding to the identification code of the person existing in the space acquired in the personality line information acquisition step. The identification code corresponding to the information representing the personality line closest to the movement trajectory of the person is associated with the person of the movement trajectory.
The behavior tracking method according to claim 5, wherein:
前記判定ステップで判定した、位置情報と識別符号の対応を表す情報を記録する記録ステップを備えることを特徴とする請求項5または6に記載の行動追跡方法。   The behavior tracking method according to claim 5, further comprising a recording step of recording information representing the correspondence between the position information and the identification code determined in the determination step. 前記人検知ステップは、前記区分した場所ごとに配置される人検知センサから検出情報を受信することよって人の存在を検知し、予め記憶された前記人検知センサの位置情報から人の存在する場所を特定することを特徴とする請求項5ないし7のいずれか1項に記載の行動追跡方法。   The person detection step detects the presence of a person by receiving detection information from a person detection sensor arranged for each of the divided places, and the place where the person exists from the position information of the person detection sensor stored in advance. The behavior tracking method according to claim 5, wherein the behavior tracking method is specified. コンピュータに、
行動を追跡する対象の限られた空間に存在する人に固有の識別符号を取得する認識ステップと、
前記認識ステップで認識した識別符号に対応する人の個人性行を表す情報を取得する個人性行情報取得ステップと、
前記空間を区分した場所ごとに、人の存在を検知し、人が存在する場所を表す位置情報を取得する人検知ステップと、
前記人検知ステップで取得した位置情報と、前記個人性行情報取得ステップで取得した前記空間に存在する人の識別符号に対応する個人性行を表す情報とを比較して、前記位置情報に最も近い個人性行を表す情報に対応する識別符号を、その場所に存在する人の位置情報に対応づける判定ステップと、
を実行させることを特徴とする行動追跡プログラム。
On the computer,
A recognition step for obtaining an identification code unique to a person existing in a limited space for tracking an action;
A personality line information acquisition step of acquiring information representing a personality line of a person corresponding to the identification code recognized in the recognition step;
For each place where the space is divided, a person detection step of detecting the presence of a person and obtaining position information representing the place where the person exists;
The position information acquired in the human detection step is compared with the information indicating the personality line corresponding to the identification code of the person existing in the space acquired in the personality line information acquisition step. A determination step of associating an identification code corresponding to information representing a close personality line with position information of a person existing in the place;
A behavior tracking program characterized by running
JP2008276635A 2008-10-28 2008-10-28 Action tracking system, action tracking method, and action tracking program Pending JP2010108037A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008276635A JP2010108037A (en) 2008-10-28 2008-10-28 Action tracking system, action tracking method, and action tracking program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008276635A JP2010108037A (en) 2008-10-28 2008-10-28 Action tracking system, action tracking method, and action tracking program

Publications (1)

Publication Number Publication Date
JP2010108037A true JP2010108037A (en) 2010-05-13

Family

ID=42297462

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008276635A Pending JP2010108037A (en) 2008-10-28 2008-10-28 Action tracking system, action tracking method, and action tracking program

Country Status (1)

Country Link
JP (1) JP2010108037A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012104993A (en) * 2010-11-09 2012-05-31 Japan Radio Co Ltd Broadcast area change method
JP2013218511A (en) * 2012-04-09 2013-10-24 Panasonic Corp Monitoring system and telephone system
JP2017033482A (en) * 2015-08-06 2017-02-09 三菱電機株式会社 Information output device and information output method, as well as information output program
EP3352126A1 (en) 2017-01-23 2018-07-25 Sony Corporation Information processing device, information processing method, and computer program
CN109829355A (en) * 2018-12-05 2019-05-31 深圳市北斗智能科技有限公司 A kind of dynamic trajectory generation method and system, equipment, storage medium
CN110766101A (en) * 2018-07-26 2020-02-07 杭州海康威视数字技术股份有限公司 Method and device for determining movement track
JP2020102135A (en) * 2018-12-25 2020-07-02 清水建設株式会社 Tracking system, tracking processing method, and program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006134308A (en) * 2003-05-26 2006-05-25 Matsushita Electric Ind Co Ltd Operation history usage system
JP2007280083A (en) * 2006-04-07 2007-10-25 Hitachi Ltd Entrance/location management system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006134308A (en) * 2003-05-26 2006-05-25 Matsushita Electric Ind Co Ltd Operation history usage system
JP2007280083A (en) * 2006-04-07 2007-10-25 Hitachi Ltd Entrance/location management system

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
西山智、岩本健嗣、越塚登、坂村健: "私的空間を対象とするカメラを用いた屋内位置推定システムの提案", マルチメディア,分散,協調とモバイル(DICOMO2008)シンポジウム論文集 情報処理学会シンポジ, vol. 第2008巻、第1号, JPN6011041333, 2 July 2008 (2008-07-02), JP, pages 746 - 754, ISSN: 0001986753 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012104993A (en) * 2010-11-09 2012-05-31 Japan Radio Co Ltd Broadcast area change method
JP2013218511A (en) * 2012-04-09 2013-10-24 Panasonic Corp Monitoring system and telephone system
JP2017033482A (en) * 2015-08-06 2017-02-09 三菱電機株式会社 Information output device and information output method, as well as information output program
EP3352126A1 (en) 2017-01-23 2018-07-25 Sony Corporation Information processing device, information processing method, and computer program
CN110766101A (en) * 2018-07-26 2020-02-07 杭州海康威视数字技术股份有限公司 Method and device for determining movement track
CN110766101B (en) * 2018-07-26 2023-10-20 杭州海康威视数字技术股份有限公司 Method and device for determining movement track
CN109829355A (en) * 2018-12-05 2019-05-31 深圳市北斗智能科技有限公司 A kind of dynamic trajectory generation method and system, equipment, storage medium
CN109829355B (en) * 2018-12-05 2023-01-17 深圳市北斗智能科技有限公司 Dynamic track generation method, system, equipment and storage medium
JP2020102135A (en) * 2018-12-25 2020-07-02 清水建設株式会社 Tracking system, tracking processing method, and program

Similar Documents

Publication Publication Date Title
US11978256B2 (en) Face concealment detection
US11341794B2 (en) Unattended touchless health-check screening systems incorporating biometrics and thermographic technologies
US11657666B2 (en) Verified access to a monitored property
US10614299B2 (en) Indoor identification of individuals through footstep induced structural vibration
JP2010108037A (en) Action tracking system, action tracking method, and action tracking program
JP4753193B2 (en) Flow line management system and program
KR101114699B1 (en) Authentication apparatus and authentication method
JP4559819B2 (en) Suspicious person detection system and suspicious person detection program
KR101838858B1 (en) Access control System based on biometric and Controlling method thereof
KR102168975B1 (en) A method of automatically detecting an object event using a wearable device, and a management server operating the same
CN101169874A (en) Biological identification access control device
CN109858358A (en) Method and system for tracking person track between buildings and computer readable storage medium
JP4892268B2 (en) Entrance / exit / location management system
WO2019181364A1 (en) Store management device and store management method
JP2009076059A (en) Management system, managing device and management program
CN115240264B (en) Visitor risk value evaluation method and system
CN113678178A (en) Monitoring system, monitoring apparatus, monitoring method, and non-transitory computer-readable medium
JPWO2020115890A1 (en) Information processing equipment, information processing methods, and programs
JP7327837B2 (en) Wearable devices that detect events using camera modules and wireless communication devices
JP6969730B2 (en) How to check access permissions using an access control system
JP2006110072A (en) Method and system for noncontact walk detection, and method and system for personal authentication using the system
US11544505B1 (en) Semi-supervised learning based on clustering objects in video from a property
LU101787B1 (en) Door access control system using palm vein recognition
KR20130122306A (en) Smart security system based on estimating a critical condition
US20240320374A1 (en) Multi-person access control

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110711

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110809

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111005

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120508

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120803

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20120810

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20120824