JP6645166B2 - Travel time storage system, travel time storage method, and travel time storage program - Google Patents

Travel time storage system, travel time storage method, and travel time storage program Download PDF

Info

Publication number
JP6645166B2
JP6645166B2 JP2015244697A JP2015244697A JP6645166B2 JP 6645166 B2 JP6645166 B2 JP 6645166B2 JP 2015244697 A JP2015244697 A JP 2015244697A JP 2015244697 A JP2015244697 A JP 2015244697A JP 6645166 B2 JP6645166 B2 JP 6645166B2
Authority
JP
Japan
Prior art keywords
person
travel time
time
image
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015244697A
Other languages
Japanese (ja)
Other versions
JP2017111587A (en
Inventor
利憲 細井
利憲 細井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2015244697A priority Critical patent/JP6645166B2/en
Publication of JP2017111587A publication Critical patent/JP2017111587A/en
Priority to JP2020002208A priority patent/JP6923011B2/en
Application granted granted Critical
Publication of JP6645166B2 publication Critical patent/JP6645166B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Collating Specific Patterns (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Traffic Control Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明は、人物の移動時間の記憶に関する。   The present invention relates to storage of a person's travel time.

一般に、同一人物がある2地点に存在した時刻に基づいて、2地点間の移動にかかる時間を計算することができる。その移動時間を蓄積していくことで、その後、2地点間を人物が移動する場合の移動時間を計算できる。   In general, it is possible to calculate the time required to move between two points based on the time when the same person exists at two points. By accumulating the traveling time, the traveling time when the person moves between the two points can be calculated thereafter.

特許文献1には、ある地点と別の地点との間を人物が移動する時間を自動的に計測する方式が開示されている。この方式では、人物が持ち歩くデバイスが人物固有の情報を送信し、各計測地点に配置された装置がその情報を受信する。この方式であれば、ある特定の人物が各計測地点に存在した時間を取得することができる。各計測地点での存在時刻の差分を計算することにより人物の移動時間を取得する。取得された移動時間は計測地点・計測時刻と共に記憶される。   Patent Literature 1 discloses a method of automatically measuring the time taken for a person to move between a certain point and another point. In this method, a device carried by a person transmits information unique to the person, and devices arranged at each measurement point receive the information. With this method, it is possible to acquire the time during which a specific person has been present at each measurement point. The travel time of the person is obtained by calculating the difference between the existence times at each measurement point. The acquired travel time is stored together with the measurement point and the measurement time.

特開2003−279364号公報JP 2003-279364 A

関連技術における第1の問題点は、移動時間の記憶において、各人物の種別や特徴は考慮されていない点である。   A first problem in the related art is that the type and characteristics of each person are not taken into account in the storage of travel time.

その理由は、人物が持ち歩くデバイスに基づいて移動時間に関する情報が収集されており、人物の種別や特徴に関する情報の収集はされていないからである。   The reason is that information on travel time is collected based on the device carried by the person, and information on the type and characteristics of the person is not collected.

本発明の目的は、人物の種別や特徴に関する情報とその人物の移動時間とを対応付けて記憶するシステムを提供することにある。   An object of the present invention is to provide a system that stores information on the type and characteristics of a person and the travel time of the person in association with each other.

本発明の一態様における移動時間記憶システムは、複数のカメラにより撮像された少なくとも1人の人物が含まれる複数の画像の撮像地点と前記画像の撮像時刻と前記人物の顔データと前記人物の種別とを抽出する特徴抽出手段と、前記撮像地点、前記撮像時刻、及び前記顔データに基づいて、前記人物の移動時間を計算する移動時間計算手段と、前記移動時間と前記種別とを対応付けて記憶する記憶手段と、から構成される。   According to one embodiment of the present invention, a moving time storage system includes a plurality of image capturing points including at least one person captured by a plurality of cameras, a capturing time of the image, face data of the person, and a type of the person. A feature extraction unit that extracts a moving time, a moving time calculating unit that calculates a moving time of the person based on the image capturing point, the image capturing time, and the face data, and associating the moving time with the type. Storage means for storing.

本発明における第1の効果は、人物の種別や特徴に関する情報とその人物の移動時間とを対応付けて記憶できる点である。   A first effect of the present invention is that information on the type and characteristics of a person and the travel time of the person can be stored in association with each other.

図1は、本発明の第1の実施の形態における移動時間記憶システム1の構成を示すブロック図である。FIG. 1 is a block diagram showing a configuration of a travel time storage system 1 according to the first embodiment of the present invention. 図2は、本発明の第1の実施の形態における移動時間記憶システム1の動作を示すフローチャートである。FIG. 2 is a flowchart showing the operation of the travel time storage system 1 according to the first embodiment of the present invention. 図3は、本発明の第2の実施の形態における移動時間記憶システム2の構成を示すブロック図である。FIG. 3 is a block diagram showing a configuration of the travel time storage system 2 according to the second embodiment of the present invention. 図4は、本発明の第2の実施の形態における移動時間記憶システム2の動作を示すフローチャートである。FIG. 4 is a flowchart showing the operation of the travel time storage system 2 according to the second embodiment of the present invention. 図5は、本発明の第3の実施の形態における移動時間記憶システム3の構成を示すブロック図である。FIG. 5 is a block diagram showing a configuration of the travel time storage system 3 according to the third embodiment of the present invention. 図6は、本発明の第3の実施の形態における移動時間記憶システム3の動作を示すフローチャートである。FIG. 6 is a flowchart showing the operation of the travel time storage system 3 according to the third embodiment of the present invention. 図7は、本発明の第3の実施の形態における移動時間記憶システム3の動作を示すフローチャートである。FIG. 7 is a flowchart showing the operation of the travel time storage system 3 according to the third embodiment of the present invention. 図8は、本発明の第4の実施の形態における移動時間記憶システム4の構成を示すブロック図である。FIG. 8 is a block diagram showing a configuration of the travel time storage system 4 according to the fourth embodiment of the present invention. 図9は、本発明の第4の実施の形態における移動時間とその出現頻度ヒストグラムの模式図である。FIG. 9 is a schematic diagram of a movement time and its appearance frequency histogram according to the fourth embodiment of the present invention. 図10は、本発明の第1の実施例にける移動時間記憶システム5の構成を示すブロック図である。FIG. 10 is a block diagram showing the configuration of the travel time storage system 5 according to the first embodiment of the present invention. 図11は、本発明の第2の実施例にける移動時間記憶システム6の構成を示すブロック図である。FIG. 11 is a block diagram showing the configuration of the travel time storage system 6 according to the second embodiment of the present invention. 図12は、一般的な顔認識特性を示す概念図である。FIG. 12 is a conceptual diagram showing general face recognition characteristics.

次に、本発明を実施するための形態について図面を参照して詳細に説明する。なお、各図面および明細書記載の各実施の形態において、同様の機能を備える構成要素には同様の符号が与えられている。   Next, embodiments for carrying out the present invention will be described in detail with reference to the drawings. In each of the drawings and the embodiments described in the specification, components having the same functions are denoted by the same reference numerals.

ここで、画像による顔認識の特性について一般的に知られている事項を述べる。   Here, matters generally known about the characteristics of face recognition using images will be described.

一般に、顔画像認識のエラー率には、本人棄却率(FalseNegativeRateとも呼ばれる)と他人受入率(FalsePositiveRateとも呼ばれる)との2種類がある。これらのエラー率は、互いにトレードオフの関係にある。これらのエラー率は、運用上、顔画像認識結果である顔認識スコアに関する閾値を調整することで設定される。   In general, there are two types of error rates for face image recognition: a false rejection rate (also called FalseNegativeRate) and a false acceptance rate (also called FalsePositiveRate). These error rates are in a trade-off relationship with each other. In operation, these error rates are set by adjusting a threshold value related to a face recognition score as a face image recognition result.

一般に、顔画像認識において、認識率を悪化させる主要因は、顔画像が登録されてからの時間経過に起因する顔の経年変化や照明条件に起因する顔の見え方の違い、カメラ設置角度に起因する顔の向き(姿勢)の違い等である。したがって、顔画像認識処理は、一般に、顔画像を特徴量と呼ばれるデータに変換した後に実行されることが多い。しかし、それでも認識率の低下は発生してしまう。顔画像の認識率を高くするためには、人物の最新の顔画像を登録すること、および複数の顔画像を登録して様々な撮影条件に対応することが重要である。   In general, in face image recognition, the main factors that deteriorate the recognition rate are aging of the face due to the passage of time since the face image was registered, differences in the appearance of the face due to lighting conditions, and the camera installation angle. This is due to a difference in face direction (posture) caused by the difference. Therefore, the face image recognition process is generally executed after the face image is converted into data called a feature amount. However, a reduction in the recognition rate still occurs. In order to increase the recognition rate of a face image, it is important to register the latest face image of a person and to register a plurality of face images to correspond to various shooting conditions.

図12は、上記の顔認識特性を示す概念図である。   FIG. 12 is a conceptual diagram showing the face recognition characteristics described above.

図12は、顔画像の特徴量を2次元ベクトルと仮定し、平面に図示したものである。人物AおよびBの顔の特徴量がそれぞれ3つずつ点として登録されている。登録された人物の最新の顔画像の特徴量は、普通、閾値T以上の高い顔認識スコアとなり、図12に示した閾値Tの領域に入る。しかし、例えば、先に述べた悪化要因の1つである経年変化がある場合、登録された人物Aの最新の顔画像の特徴量は、低い顔認識スコアとなる。このため、図中の黒丸で示した点のように、人物Aの最新の顔画像の特徴量は、閾値Tの領域には入らず、より低い閾値である閾値Yの領域に入る。閾値Yの領域には、他の人物Bの顔の特徴量も入り得る。このため、この黒丸で示した点を人物Aとして追加登録した場合、人物Bを人物Aと誤って登録することが起こり得る。しかし、この黒丸で示した点が経年変化した人物Aの最新の顔画像の特徴量である場合、その後の顔認識を正しく動作させるためには、この点を人物Aとして追加登録する必要がある。実際にこの黒丸で示した点が人物Aであるかは、他の情報を利用するなどして確認されることが望ましい。   FIG. 12 illustrates a feature amount of a face image as a two-dimensional vector and illustrates the feature amount on a plane. The feature amounts of the faces of the persons A and B are each registered as three points. The feature amount of the latest face image of the registered person usually becomes a high face recognition score equal to or larger than the threshold T, and falls in the area of the threshold T shown in FIG. However, for example, when there is aging which is one of the above-mentioned deterioration factors, the feature amount of the latest face image of the registered person A has a low face recognition score. Therefore, as shown by the black circle in the figure, the feature amount of the latest face image of the person A does not enter the area of the threshold T but enters the area of the threshold Y which is a lower threshold. In the area of the threshold Y, the feature amount of the face of another person B can also be included. Therefore, when the point indicated by the black circle is additionally registered as the person A, the person B may be erroneously registered as the person A. However, when the point indicated by the black circle is the feature amount of the latest face image of the person A who has aged, this point must be additionally registered as the person A in order to correctly operate the subsequent face recognition. . It is desirable that whether the point indicated by the black circle is actually the person A is confirmed by using other information.

[第1の実施の形態]
図1は、本発明の第1の実施の形態における移動時間記憶システム1の構成を示すブロック図である。
[First Embodiment]
FIG. 1 is a block diagram showing a configuration of a travel time storage system 1 according to the first embodiment of the present invention.

図1を参照すると、本発明の第1の実施の形態における移動時間記憶システム1は、特徴抽出手段11と、移動時間計算手段12と、記憶手段13と、を備える。   Referring to FIG. 1, the moving time storage system 1 according to the first embodiment of the present invention includes a feature extracting unit 11, a moving time calculating unit 12, and a storing unit 13.

第1の実施の形態における移動時間記憶システム1は、複数のカメラにより撮像された少なくとも1人の人物が含まれる複数の画像の撮像地点と前記画像の撮像時刻と前記人物の顔データと前記人物の種別とを抽出する。また、移動時間記憶システム1は、前記撮像地点、前記撮像時刻および前記顔データに基づいて、前記人物の移動時間を計算する。そして、移動時間記憶システム1は、前記移動時間と前記人物の種別とを対応付けて記憶する。   The moving time storage system 1 according to the first embodiment includes an image capturing point of a plurality of images including at least one person imaged by a plurality of cameras, an image capturing time of the image, face data of the person, and the person Is extracted. Further, the travel time storage system 1 calculates the travel time of the person based on the imaging point, the imaging time, and the face data. Then, the travel time storage system 1 stores the travel time and the type of the person in association with each other.

つまり、第1の実施の形態における移動時間記憶システム1は、人物が持ち歩くデバイスではなく、人物の画像に基づいて、前記人物の移動時間を計算する。よって、移動時間記憶システム1は、人物の画像に基づいて、前記人物の種別を取得することができるため、前記人物の種別と移動時間とを対応付けて記憶することが可能となる。   That is, the travel time storage system 1 in the first embodiment calculates the travel time of the person based on the image of the person, not the device carried by the person. Therefore, since the traveling time storage system 1 can acquire the type of the person based on the image of the person, it is possible to store the type of the person and the traveling time in association with each other.

以下、第1の実施の形態における移動時間記憶システム1が備える各構成要素について説明する。   Hereinafter, each component included in the travel time storage system 1 according to the first embodiment will be described.

===特徴抽出手段11===
特徴抽出手段11は、複数のカメラにより撮像された、各々に少なくとも1人の人物が含まれる、複数の画像を受信する。特徴抽出手段11は、受信した画像に基づいて、人物の顔データと、人物の種別と、画像の撮像地点と、画像の撮像時刻とを抽出する。
=== Feature extraction means 11 ===
The feature extracting unit 11 receives a plurality of images captured by a plurality of cameras, each including at least one person. The feature extracting unit 11 extracts the face data of the person, the type of the person, the image capturing point of the image, and the image capturing time of the image based on the received image.

顔データは、上記で説明した顔認識に用いるためのデータである。例えば、顔画像や特徴量と呼ばれる顔画像を数値列に変換したデータなどがこれに相当する。   The face data is data to be used for the face recognition described above. For example, data obtained by converting a face image called a face image or a feature amount into a numerical sequence corresponds to this.

人物の種別は、画像から判断できる人物のあらゆる外見的特徴を意味する。例えば、性別、体格(身長など)、年代、服装(服の種別、色、持ち物)等である。   The type of a person means all appearance features of the person that can be determined from the image. For example, gender, physique (height, etc.), age, clothing (type of clothing, color, belongings) and the like.

撮像地点は、カメラが設置された位置に関する情報(例えば、地点IDなど)であり、その地点に画像の人物が存在したことを意味する。   The imaging point is information on the position where the camera is installed (for example, a point ID or the like), and means that the person in the image exists at that point.

撮像時刻は、カメラが画像を撮像した時刻であり、その時刻に画像の人物が存在したことを意味する。   The imaging time is the time when the camera captured the image, and means that the person in the image was present at that time.

===移動時間計算手段12===
移動時間計算手段12は、特徴抽出手段11が登録済みの人物と同一人物の顔データを新しく抽出した場合、新しい顔データが抽出された画像の撮像時刻と、その人物の直近に記憶された画像の撮像時刻との差分を計算する。ここで計算された時間は、撮像時刻の差分を計算した2つの画像の撮像地点間の移動時間である。
=== Moving time calculation means 12 ===
When the feature extracting unit 11 newly extracts face data of the same person as the registered person, the moving time calculating unit 12 calculates the image capturing time of the image from which the new face data was extracted and the image stored immediately before that person. Is calculated with respect to the imaging time. The time calculated here is the moving time between the imaging points of the two images for which the difference between the imaging times has been calculated.

===記憶手段13===
記憶手段13は、人物が移動した区間を示す情報(区間IDなど)と、移動時間計算手段12で計算されたその区間の移動時間と、特徴抽出手段11が抽出したその人物の種別とを対応付けて記憶する。記憶手段13は、さらに、人物を特定する人物IDを対応付けて記憶してもよい。
=== Storage means 13 ===
The storage unit 13 associates information (section ID and the like) indicating the section in which the person has moved, the travel time of the section calculated by the travel time calculation unit 12, and the type of the person extracted by the feature extraction unit 11. Attach and remember. The storage unit 13 may further store a person ID specifying a person in association with the person ID.

人物IDは、人物に固有の番号である。同一の人物IDが付された情報は、同一人物の情報であることを意味する。   The person ID is a number unique to the person. Information to which the same person ID is assigned means information of the same person.

本実施の形態において、記憶手段13は、特徴抽出手段11が登録済みの人物と同一人物の顔データを抽出した場合に、その人物の種別を取得するものとする。しかし、人物の種別を取得するタイミングはこれに限定されない。   In the present embodiment, when the feature extraction unit 11 extracts face data of the same person as a registered person, the storage unit 13 acquires the type of the registered person. However, the timing for acquiring the type of the person is not limited to this.

表1は、記憶手段13が記憶する、移動区間と移動時間と人物の種別との対応付けの例を示す。   Table 1 shows an example of the association between the moving section, the moving time, and the type of the person stored in the storage unit 13.

Figure 0006645166
Figure 0006645166

表1は、同一の区間1−2の移動時間と人物の種別とを対応付けた表である。しかし、複数の区間の情報が同一の表にまとめられていてもよい。また、人物の種別は、表1のように数種類記憶されることが望ましいが、少なくとも1種類記憶されていればよい。   Table 1 is a table in which the travel time of the same section 1-2 is associated with the type of person. However, information of a plurality of sections may be put together in the same table. It is preferable that several types of persons are stored as shown in Table 1, but it is sufficient if at least one type is stored.

図2は、本発明の第1の実施の形態における移動時間記憶システム1の動作を示すフローチャートである。   FIG. 2 is a flowchart showing the operation of the travel time storage system 1 according to the first embodiment of the present invention.

移動時間記憶システム1は、人物を含む画像に基づいて、人物の顔データと、人物の種別と、画像の撮像地点と、画像の撮像時刻とを抽出する(ステップS1)。   The moving time storage system 1 extracts the face data of the person, the type of the person, the image capturing point of the image, and the image capturing time of the image based on the image including the person (step S1).

移動時間記憶システム1は、抽出した顔データに基づいて、この画像の人物が既に登録されている人物であるかを照合する(ステップS2)。   The moving time storage system 1 checks whether the person in this image is a registered person based on the extracted face data (step S2).

移動時間記憶システム1は、画像の人物が登録済みの人物であると判定した場合(ステップS3のY)、抽出した画像の撮像地点および撮像時刻と、その人物が直近に記憶された画像の撮像地点および撮像時刻とに基づいて、2地点間の移動時間を計算する(ステップS4)。   When it is determined that the person in the image is a registered person (Y in step S3), the moving time storage system 1 captures the image capturing point and the capturing time of the extracted image, and captures the image in which the person was stored most recently. The travel time between the two points is calculated based on the point and the imaging time (step S4).

移動時間記憶システム1は、計算した移動時間と抽出した人物の種別とを対応付けて記憶する(ステップS5)。   The travel time storage system 1 stores the calculated travel time in association with the extracted type of person (step S5).

移動時間記憶システム1は、画像の人物が新規の人物であると判定した場合(ステップS3のN)、ステップS1で抽出した人物の特徴(顔データ、人物の種別、撮像地点、および撮像時刻)を新規の人物IDと対応付けて記憶する、すなわち抽出された人物を新規に人物登録する(ステップS6)。 第1の実施の形態における移動時間記憶システム1は、人物の画像に基づいて、その人物の移動時間を計算する。移動時間記憶システム1は、人物の画像を用いることによって、人物の種別を取得することができため、人物の種別と移動時間とを対応付けて記憶することができる。   When the moving time storage system 1 determines that the person in the image is a new person (N in step S3), the characteristics of the person extracted in step S1 (face data, type of person, imaging point, and imaging time) Is stored in association with the new person ID, that is, the extracted person is newly registered as a person (step S6). The travel time storage system 1 according to the first embodiment calculates a travel time of a person based on an image of the person. The travel time storage system 1 can acquire the type of the person by using the image of the person, so that the type of the person and the travel time can be stored in association with each other.

[第2の実施の形態]
図3は、本発明の第2の実施の形態における移動時間記憶システム2の構成を示すブロック図である。
[Second embodiment]
FIG. 3 is a block diagram showing a configuration of the travel time storage system 2 according to the second embodiment of the present invention.

図3を参照すると、本発明の第2の実施の形態における移動時間記憶システム2は、データ処理装置210と、記憶装置220と、を備える。   Referring to FIG. 3, the movement time storage system 2 according to the second embodiment of the present invention includes a data processing device 210 and a storage device 220.

データ処理装置210は、顔登録手段211と、顔照合手段212と、同一人物判定手段213と、特徴抽出手段11と、移動時間計算手段12と、を有する。   The data processing device 210 includes a face registration unit 211, a face matching unit 212, a same person determination unit 213, a feature extraction unit 11, and a movement time calculation unit 12.

記憶装置220は、登録データ記憶手段221と、人物存在データ記憶手段222と、記憶手段13と、を有する。   The storage device 220 includes a registration data storage unit 221, a person presence data storage unit 222, and the storage unit 13.

本実施の形態の移動時間記憶システム2は、顔登録手段211と、顔照合手段212と、同一人物判定手段213と、登録データ記憶手段221と、人物存在データ記憶手段222と、をさらに備える点で第1の実施の形態の移動時間記憶システム1と相違する。   The moving time storage system 2 of the present embodiment further includes a face registration unit 211, a face matching unit 212, the same person determination unit 213, a registration data storage unit 221, and a person presence data storage unit 222. This is different from the moving time storage system 1 of the first embodiment.

以下、本実施の形態の第1の実施の形態との相違点について説明する。   Hereinafter, differences between the present embodiment and the first embodiment will be described.

===登録データ記憶手段221===
登録データ記憶手段221は、人物IDと、特徴抽出手段11が抽出した顔データとを対応付けて記憶する。このとき、登録データ記憶手段221は、さらに人物の種別を対応付けて記憶してもよい。
=== Registered Data Storage Means 221 ===
The registration data storage unit 221 stores the person ID and the face data extracted by the feature extraction unit 11 in association with each other. At this time, the registration data storage unit 221 may further store the type of the person in association with the person.

人物IDには、基本的に新規の人物IDが順次割り当てられる。しかし、後述する同一人物判定手段213において、登録済みの人物と同一人物であると判定された場合、その人物の人物IDが割り当てられる。   Basically, new person IDs are sequentially assigned to the person IDs. However, when the same person determination unit 213 described later determines that the registered person is the same person, the person ID of the registered person is assigned.

===人物存在データ記憶手段222===
人物存在データ記憶部222は、人物IDと、特徴抽出手段11が抽出した画像の撮像地点と、画像の撮像時刻とを対応づけて記憶する。ここで、人物IDと、特徴抽出手段11が抽出した画像の撮像地点と、画像の撮像時刻とは、まとめて人物存在情報と呼ばれる。
=== Person Presence Data Storage Means 222 ===
The person presence data storage unit 222 stores the person ID, the image capturing point of the image extracted by the feature extracting unit 11, and the image capturing time of the image in association with each other. Here, the person ID, the image capturing point of the image extracted by the feature extracting unit 11, and the image capturing time of the image are collectively called person presence information.

===顔照合手段212===
顔照合手段212は、特徴抽出手段11で抽出された顔データを登録データ記憶手段221が記憶する顔データと照合する。顔照合手段212は、抽出された顔データと登録済みの人物の顔データとの類似度合いを表す顔認識スコアを計算する。
=== Face Matching Means 212 ===
The face matching unit 212 checks the face data extracted by the feature extracting unit 11 with the face data stored in the registered data storage unit 221. The face matching unit 212 calculates a face recognition score indicating the degree of similarity between the extracted face data and the face data of a registered person.

===同一人物判定手段213===
同一人物判定手段213は、顔照合手段212が計算した顔認識スコアと所定の閾値とを比較し、抽出された人物が登録済みの人物と同一人物であるかを判定する。顔認識スコアtが非常に高い閾値Tを超える場合、同一人物判定手段213は、抽出された人物が登録済みの人物と同一人物であると判定する。
=== Same person determination means 213 ===
The same person determination unit 213 compares the face recognition score calculated by the face matching unit 212 with a predetermined threshold, and determines whether the extracted person is the same as a registered person. If the face recognition score t exceeds a very high threshold T, the same person determination means 213 determines that the extracted person is the same person as the registered person.

図4は、移動時間記憶システム2が画像に基づいて抽出した人物の特徴を人物IDと対応付けて登録する処理を示すフローチャートである。   FIG. 4 is a flowchart showing a process in which the moving time storage system 2 registers a feature of a person extracted based on an image in association with a person ID.

はじめに、移動時間記憶システム2は、カメラにより撮像された画像に基づいて抽出された顔データを登録データ記憶手段221に記憶された顔データと照合する(ステップS211)。ここでは、抽出された顔データと登録済みの顔データとの類似度合いを表す顔認識スコアtを計算する。初期状態では、登録データ記憶手段221に顔データが登録されていないため、この処理は事実上省略される。   First, the moving time storage system 2 compares the face data extracted based on the image captured by the camera with the face data stored in the registration data storage unit 221 (step S211). Here, a face recognition score t representing the degree of similarity between the extracted face data and the registered face data is calculated. In the initial state, the face data is not registered in the registration data storage unit 221, so that this processing is practically omitted.

次に、移動時間記憶システム2は、顔認識スコアと所定の閾値とを比較し、抽出された人物が登録済みの人物と同一人物であるかを判定する(ステップS212)。移動時間記憶システム2は、顔認識スコアtが次式を満たした場合に、抽出された人物が登録済みの人物と同一人物であると判定する。   Next, the travel time storage system 2 compares the face recognition score with a predetermined threshold value, and determines whether the extracted person is the same person as the registered person (Step S212). When the face recognition score t satisfies the following equation, the moving time storage system 2 determines that the extracted person is the same person as the registered person.

Figure 0006645166
Figure 0006645166

移動時間記憶システム2は、式(1)の通り、顔認識スコアtが所定の閾値Tよりも高い場合、抽出された人物が登録済みの人物Pと同一人物であると判定する。通常、登録データ記憶手段221には複数の人物の複数の顔データが登録されている。しかし、移動時間記憶システム2は、顔認識スコアが1位となった人物Pについて上記処理を実行すればよい。   The moving time storage system 2 determines that the extracted person is the same as the registered person P when the face recognition score t is higher than a predetermined threshold T as in Expression (1). Normally, a plurality of face data of a plurality of persons are registered in the registration data storage unit 221. However, the travel time storage system 2 may execute the above processing for the person P having the first face recognition score.

次に、移動時間記憶システム2は、抽出された顔データ、撮像地点、および撮像時刻を人物IDと対応付けて記憶する、すなわち、抽出された人物の特徴を新規人物の特徴または登録済みの人物の特徴として登録する。抽出された人物が登録済みの人物Pと同一人物であると判定された場合(ステップS212のY)、移動時間記憶システム2は、抽出された顔データ、撮像地点、および撮像時刻を人物Pの人物IDと対応付けて記憶する(ステップS213)。抽出された人物が登録済みの人物Pと異なる人物であると判定された場合(ステップS212のN)、移動時間記憶システム2は、抽出された顔データ、撮像地点、および撮像時刻を新規の人物IDと対応付けて記憶する(ステップS214)。   Next, the moving time storage system 2 stores the extracted face data, the image capturing point, and the image capturing time in association with the person ID, that is, stores the extracted characteristics of the person as characteristics of a new person or a registered person. Register as a feature. When it is determined that the extracted person is the same person as the registered person P (Y in step S212), the moving time storage system 2 stores the extracted face data, the image capturing point, and the image capturing time of the person P. The information is stored in association with the person ID (step S213). When it is determined that the extracted person is different from the registered person P (N in step S212), the moving time storage system 2 sets the extracted face data, the imaging location, and the imaging time to a new person. The ID is stored in association with the ID (step S214).

ここで、顔データと人物IDとは、登録データ記憶手段221に記憶される。撮像地点および撮像時刻と人物IDとは、人物存在データ記憶手段222に記憶される。   Here, the face data and the person ID are stored in the registered data storage unit 221. The imaging point, the imaging time, and the person ID are stored in the person presence data storage unit 222.

なお、顔データと人物IDについては、システム稼働前に事前に登録しておいてもよい。人物存在情報がないままでも、問題なく動作する。   Note that the face data and the person ID may be registered in advance before the system starts operating. It works without any problem even if there is no person presence information.

また、登録データ記憶手段221と人物存在データ記憶手段222とは、一つのデータ形式にまとめて記憶されていても構わない。例えば、表形式のデータ(リレーショナルデータベース)にまとめて記憶されてもよい。   Further, the registered data storage unit 221 and the person presence data storage unit 222 may be stored in one data format. For example, they may be stored together in tabular data (relational database).

また、顔認識に使用されるカメラが固定カメラである必要はない。カメラ自身が旋回するPan−Tilt―ズームをしてもよいし、カメラを人や車などに搭載して移動させてもよい。つまり、顔が撮影された際の人物がいる地点を取得できさえすれば、本発明の効果を得られる。この場合、任意の粒度で撮像地点が出現するため、計測履歴が存在しない地点が生じてしまうが、地図をメッシュ状に区切ってその1メッシュ範囲について1つの地点IDを割り当てれば、本発明をそのまま適用できる。   Also, the camera used for face recognition need not be a fixed camera. The camera itself may perform Pan-Tilt-zoom turning, or the camera may be mounted on a person or a car and moved. That is, the effect of the present invention can be obtained as long as the point where the person at the time of capturing the face is present can be obtained. In this case, since an imaging point appears at an arbitrary granularity, a point where no measurement history exists may occur. However, if the map is divided into meshes and one point ID is assigned to one mesh range, the present invention is realized. Applicable as it is.

また、人物存在データ記憶手段222に記憶される情報を増やすために、顔認識以外の手段で得られた人物存在情報も追加利用してもよい。たとえば、個人の携帯端末を用いた所有者認識結果を人物存在データ記憶手段222に追加してもよい。   Further, in order to increase the information stored in the person presence data storage means 222, the person presence information obtained by means other than face recognition may be additionally used. For example, the owner recognition result using the personal mobile terminal may be added to the person presence data storage unit 222.

第2の実施の形態における移動時間記憶システム2は、人物の画像に基づいて、その人物の移動時間を計算する。移動時間記憶システム2は、人物の画像を用いることによって、人物の種別を取得することができため、人物の種別と移動時間とを対応付けて記憶することができる。   The travel time storage system 2 according to the second embodiment calculates the travel time of a person based on the image of the person. The travel time storage system 2 can acquire the type of the person by using the image of the person, so that the type of the person and the travel time can be stored in association with each other.

[第3の実施の形態]
次に、本発明の第3の実施の形態について説明する。
[Third Embodiment]
Next, a third embodiment of the present invention will be described.

第3の実施の形態における移動時間記憶システム3は、以下の2点において第2の実施の形態における移動時間記憶システム2と異なる。第1の点は、移動時間計算手段32は同一人物が2地点間を移動する時間(移動時間)を計算するとともに、過去に計算された移動時間の中から、その2地点間の最短の移動時間(以降、最短移動時間と呼ぶ)および複数の経路を結合した移動時間(以降、結合経路移動時間と呼ぶ)も計算する点である。最短移動時間は、移動区間と対応付けられて最短移動時間記憶手段323に記憶される。移動時間計算手段32の詳細な動作は、図6を参照しながら後述される。第2の点は、同一人物判定手段313は、顔照合手段212が計算した顔認識スコアと所定の閾値と最短移動時間とに基づいて、画像から抽出された人物が登録済みの人物と同一人物であるかを判定する点である。図5に示す他の構成は、第2の実施の形態の移動時間記憶システム2と同様であるため、詳細な説明は省略される。同一人物判定手段313の詳細な動作は、以下で説明される。   The travel time storage system 3 according to the third embodiment differs from the travel time storage system 2 according to the second embodiment in the following two points. The first point is that the travel time calculation means 32 calculates the time (travel time) during which the same person travels between two locations, and, based on travel time calculated in the past, the shortest travel time between the two locations. The point is that the time (hereinafter, referred to as the shortest travel time) and the travel time obtained by combining a plurality of routes (hereinafter, referred to as a combined route travel time) are also calculated. The shortest travel time is stored in the shortest travel time storage unit 323 in association with the travel section. The detailed operation of the movement time calculation means 32 will be described later with reference to FIG. The second point is that, based on the face recognition score calculated by the face matching unit 212, the predetermined threshold value, and the shortest moving time, the same person determination unit 313 determines that the person extracted from the image is the same as the registered person. Is to determine whether The other configuration shown in FIG. 5 is the same as that of the travel time storage system 2 according to the second embodiment, and thus detailed description is omitted. The detailed operation of the same person determination means 313 will be described below.

===同一人物判定手段313===
同一人物判定手段213は、顔照合手段212が計算した顔認識スコアと所定の閾値とを比較し、抽出された人物が登録済みの人物と同一人物であるかを判定する。顔認識スコアtが非常に高い閾値Tを超えるか、または所定の閾値Y(<T)以上である場合、かつ、抽出された人物の撮像地点と登録済みの人物の撮像地点との間の移動時間が、記憶手段23に記憶された最短移動時間Sを超えている場合、同一人物判定手段313は、抽出された人物が登録済みの人物と同一人物であると判定する。
=== Same person determination means 313 ===
The same person determination unit 213 compares the face recognition score calculated by the face matching unit 212 with a predetermined threshold, and determines whether the extracted person is the same as a registered person. If the face recognition score t exceeds a very high threshold value T or is equal to or greater than a predetermined threshold value Y (<T), and the movement between the extracted person's imaging point and the registered person's imaging point If the time exceeds the shortest movement time S stored in the storage unit 23, the same person determination unit 313 determines that the extracted person is the same person as the registered person.

図6は、移動時間記憶システム3が2地点間の最短移動時間を計算する処理を示すフローチャートである。   FIG. 6 is a flowchart showing a process in which the travel time storage system 3 calculates the shortest travel time between two points.

まず、移動時間記憶システム3は、人物存在データ記憶手段222に記憶された人物IDと撮像地点と撮像時刻とに関する情報から、同一人物が2地点に存在した時刻の差分のうち最短の値を探索することで、移動時間を直接的に計算する(ステップS321)。例えば、移動時間記憶システム3は、2地点1−2間について、同一の人物が存在した時刻の差分を計算し、それらの最小値を最短移動時間とする。表2に示す情報が人物存在データ記憶手段222に記憶されている場合、表3に示す暫定の最短移動時間が求まる。   First, the travel time storage system 3 searches for the shortest value of the difference between the times at which the same person was present at two locations from the information on the person ID, the imaging location, and the imaging time stored in the human presence data storage unit 222. Then, the travel time is directly calculated (step S321). For example, the travel time storage system 3 calculates the difference between the times when the same person exists between the two points 1-2, and sets the minimum value thereof as the shortest travel time. When the information shown in Table 2 is stored in the person presence data storage unit 222, the provisional shortest travel time shown in Table 3 is obtained.

Figure 0006645166
Figure 0006645166

次に、移動時間記憶システム3は、複数の経路を結合した場合の移動時間を計算する(ステップS322)。これは、経由地点が1つまたは複数あるとみなした場合の移動時間に相当する。例えば、経由地点が1つの場合は、地点1と別の地点3とにおける撮像時刻の差分と、地点3と地点2とにおける撮像時刻の差分との総和時間を地点1−3−2間の移動時間とする。表3は、上記のように複数の経路を結合した場合の移動時間を計算し、それらと先に計算された直接的な移動時間との最小をとった最短移動時間を示す。   Next, the travel time storage system 3 calculates a travel time when a plurality of routes are combined (step S322). This corresponds to the travel time when it is considered that there is one or more waypoints. For example, when there is one waypoint, the total time of the difference between the imaging times at the point 1 and another point 3 and the difference between the imaging times at the point 3 and the point 2 is determined as the movement between the points 1-3-2. Time. Table 3 shows the shortest travel time obtained by calculating the travel time when a plurality of routes are combined as described above, and taking the minimum of them and the previously calculated direct travel time.

Figure 0006645166
Figure 0006645166

なお、複数の経路を結合して考える場合、一人の人物存在情報のみに基づいて移動時間を計算するだけでなく、他の人物の人物存在情報に基づいて移動時間を計算し、それらを足し合わせてもよい。このようにして、人物存在情報から予想しうる移動時間の最短実績を、最短移動時間とする。この表4の右端列は、計算手順を簡易的に示したものである。後述する式2に登場するC2(P)−C1(P)は、単にm(1,2)と表記されている。 When multiple routes are combined and considered, not only the travel time is calculated based on only one person's presence information, but also the travel time is calculated based on the person's presence information of another person, and they are added. You may. In this way, the shortest travel time of the travel time that can be predicted from the person presence information is set as the shortest travel time. The rightmost column of Table 4 simply shows the calculation procedure. C 2 (P) −C 1 (P) appearing in Expression 2 described later is simply expressed as m (1,2).

Figure 0006645166
Figure 0006645166

なお、人物存在情報の量が十分でない場合には、表4の後半部分のように移動時間が不明となる区間が多い。その場合には、逆経路の差分時間も最短時間の候補とすることで、表5のように移動時間を計算できる。   When the amount of the person presence information is not sufficient, there are many sections in which the movement time is unknown as in the latter half of Table 4. In that case, the moving time can be calculated as shown in Table 5 by setting the difference time of the reverse route as the shortest time candidate.

Figure 0006645166
Figure 0006645166

なお、地点間の人物の移動時間は、交通状況や移動手段の変化により変化していく。このため、最短移動時間を計算するのに用いる人物存在情報を、直近の一定期間(例:1日、1週間など)に絞り込むことにより、より正確な最短移動時間の計算が可能となる。   It should be noted that the travel time of a person between points changes depending on traffic conditions and changes in transportation. For this reason, by narrowing down the person presence information used for calculating the shortest travel time to the latest fixed period (eg, one day, one week, etc.), it is possible to calculate the shortest travel time more accurately.

さらに、地点間の移動時間については、日時、曜日、季節、により定期的に変動する場合がよくある。このため、最短移動時間を計算するのに用いる人物存在情報を、日時、曜日、季節、によって絞り込むことにより、より正確な最短移動時間の計算が可能となる。   Further, the travel time between points often fluctuates periodically depending on the date and time, the day of the week, and the season. For this reason, by narrowing down the person presence information used to calculate the shortest travel time by date and time, day of the week, and season, more accurate calculation of the shortest travel time can be performed.

さらに、地点間の移動時間については、物理的な移動速度の制約により下限がある。このため、一部の最短移動時間に所定の下限値を人手で設定してもよい。   Furthermore, there is a lower limit to the travel time between points due to physical travel speed restrictions. For this reason, a predetermined lower limit may be set manually for some of the shortest movement times.

図7は、移動時間記憶システム3が画像に基づいて抽出した人物の特徴を人物IDと対応付けて登録する処理を示すフローチャートである。   FIG. 7 is a flowchart showing a process in which the moving time storage system 3 registers a feature of a person extracted based on an image in association with a person ID.

第2の実施の形態との違いは、図7のステップS312である。ステップS312は、顔認識スコアと所定の閾値と最短移動時間記憶手段323に記憶された最短移動時間とに基づいて、特徴抽出手段11で抽出された人物が登録済みの人物と同一であるか否か判定する(ステップS312)。移動時間記憶システム3は、顔認識スコアが上記の式(1)または下記の式(2)を満たした場合、抽出された人物と登録済みの人物とが同一であると判定する。   The difference from the second embodiment is step S312 in FIG. In step S312, based on the face recognition score, the predetermined threshold value, and the shortest movement time stored in the shortest movement time storage means 323, it is determined whether or not the person extracted by the feature extraction means 11 is the same as the registered person. Is determined (step S312). When the face recognition score satisfies the above equation (1) or the following equation (2), the moving time storage system 3 determines that the extracted person and the registered person are the same.

現在処理中のカメラがある地点(撮像地点)の地点IDを1、ある人物(人物ID=P)の最新の存在が記憶された地点の地点IDを2とする。また、現在処理中のカメラで顔が撮影された時刻(撮像時刻)をC1(P)、その人物の最新の存在が記憶された時刻をC2(P)、地点1−2の間の最短移動時間をM(1,2)とする。 It is assumed that the point ID of the point (imaging point) where the camera currently being processed is located is 1, and the point ID of the point where the latest existence of a certain person (person ID = P) is stored is 2. The time when the face was photographed by the camera currently being processed (imaging time) is C 1 (P), the time when the latest existence of the person is stored is C 2 (P), Let the shortest moving time be M (1,2).

Figure 0006645166
Figure 0006645166

式2は、同一人物判定の条件を表す。抽出された人物の顔認識スコアt(P,1,2)が閾値Tより低い閾値Yよりも高い、かつ、人物Pの最新の存在が記憶された時刻と、現在処理中のカメラで顔が撮影された時刻との時間差(移動時間)が、同一区間1−2の最短移動時間よりも長い場合、同一人物判定手段313は、抽出された人物を人物Pと同一人物と判定する。   Equation 2 represents the condition for the same person determination. The time at which the extracted face recognition score t (P, 1, 2) of the person is higher than the threshold Y lower than the threshold T, and the time at which the latest existence of the person P is stored is determined by the camera currently being processed. When the time difference (moving time) from the photographing time is longer than the shortest moving time in the same section 1-2, the same person determination unit 313 determines that the extracted person is the same person as the person P.

なお、記憶手段23において、最短移動時間が不明の区間、つまり2地点の片方または両方に同一人物の人物存在情報がない区間については、式(1)のみが適用される。   Note that in the storage unit 23, only the equation (1) is applied to a section where the shortest travel time is unknown, that is, a section in which one or both of two points have no person presence information of the same person.

次に、本実施の形態の効果について説明する。   Next, effects of the present embodiment will be described.

本実施の形態では、顔照合手段を備え、かつ、同一人物判定手段で、移動時間と顔認識スコアの双方を考慮して同一人物か否か判定したうえで、顔データと人物IDを登録する顔登録手段を備えるため、より高い精度で移動時間を計算できる。   In the present embodiment, the face data and the person ID are registered after the face matching means is provided, and the same person determination means determines whether or not the person is the same in consideration of both the moving time and the face recognition score. Since the face registration unit is provided, the movement time can be calculated with higher accuracy.

以下では、この効果が得られる理由について説明する。   Hereinafter, the reason why this effect is obtained will be described.

本実施の形態では、顔認識スコアtが非常に高い閾値Tより大きい場合か、顔認識スコア閾値Yと移動時間の双方の条件を満たした場合のどちらかのみに、その登録済みの人物のIDで登録される。このため、登録される顔データの人物IDに関して、1人の顔データについて複数のIDが付与されることはあっても、複数の人物の顔に1つのIDが付与されることは非常に少ない。つまり、他人を誤認識して受け入れることが少ないため、誤って最短移動時間を過少に計算してしまうことがほとんどない。特に、非常に高い閾値Tよりも若干低い閾値Yを用いることができるため、登録済みの顔データと最新の顔データが多少異なる場合においても、最新の顔データを登録でき、より顔認識の精度が高くなる。このことより、本発明のシステムを稼働させていくと、顔認識精度と移動時間計算精度が互いに改善していく。   In the present embodiment, the ID of the registered person is determined only when the face recognition score t is larger than the very high threshold T or when both the conditions of the face recognition score threshold Y and the moving time are satisfied. Registered at. For this reason, with regard to the person ID of the registered face data, a plurality of IDs may be assigned to one face data, but it is extremely rare that one ID is assigned to the faces of a plurality of persons. . That is, since it is unlikely that another person is erroneously recognized and accepted, the shortest traveling time is erroneously underestimated. In particular, since the threshold Y slightly lower than the very high threshold T can be used, even when the registered face data and the latest face data are slightly different, the latest face data can be registered, and the face recognition accuracy can be improved. Will be higher. From this, when the system of the present invention is operated, the face recognition accuracy and the movement time calculation accuracy are mutually improved.

さらに、最短移動時間の計算において、2地点間の直接的な移動時間の記憶だけでなく、複数の区間をそれぞれ別々の人物が要した時間を結合して計算するため、地点間の存在(移動)の実績が少ない区間においても移動時間を計算でき、より高い精度で最短の移動時間を計算できる。
さらに、移動時間の計算に用いるデータを、定期的な情報と、直近の情報に絞り込むことによってより高い計算精度を得られる。
Furthermore, in the calculation of the shortest travel time, not only the direct travel time between two points is memorized, but also a plurality of sections are calculated by combining the times required by different persons, so that the existence (movement) between the points The travel time can be calculated even in a section where the result of ()) is small, and the shortest travel time can be calculated with higher accuracy.
Further, by narrowing the data used for calculating the travel time to periodic information and the latest information, higher calculation accuracy can be obtained.

なお、第2の実施の形態の場合、もし顔認識スコアの閾値Tを無暗に高く調整しすぎると、他人受入れ率が限りなく0%に近づくが、本人棄却率が高くなってしまい、カメラの前の人物の殆どを認識できなくなり、移動時間を十分計測できない場合がある。しかし、本実施形態では、閾値Tより低い閾値Yも使用するため、この問題が軽減される。   In the case of the second embodiment, if the threshold value T of the face recognition score is adjusted to be too high without any darkness, the false acceptance rate approaches 0% without limit, but the false rejection rate increases. May not be able to recognize most of the person in front of the vehicle, and may not be able to measure the travel time sufficiently. However, in the present embodiment, since the threshold Y lower than the threshold T is also used, this problem is reduced.

[第4の実施の形態]
次に、本発明の第4の実施の形態について説明する。
[Fourth Embodiment]
Next, a fourth embodiment of the present invention will be described.

第4の実施の形態における移動時間記憶システム4は、以下の2点において第3の実施の形態における移動時間記憶システム3と異なる。第1の点は、記憶手段43は移動区間と移動時間と人物の種別とに加えて、出現頻度指数も対応付けて記憶する点である。出現頻度とは、ある移動時間が過去に出現した頻度を表す指標である。記憶手段43は最短でない移動時間も記憶する。つまり、出現頻度指数は、移動時間に関する頻度ヒストグラムである(図9参照)。第2の点は、同一人物判定手段413は、顔照合手段212が計算した顔認識スコアと所定の閾値と最短移動時間と出現頻度指数とに基づいて、画像から抽出された人物が登録済みの人物と同一人物であるかを判定する点である。図8に示す他の構成は、第3の実施の形態の移動時間記憶システム2と同様であるため、詳細な説明は省略される。同一人物判定手段413の詳細な動作は、以下で説明される。   The travel time storage system 4 in the fourth embodiment differs from the travel time storage system 3 in the third embodiment in the following two points. The first point is that the storage means 43 stores the appearance frequency index in association with the moving section, the moving time, and the type of the person. The appearance frequency is an index indicating the frequency at which a certain travel time has appeared in the past. The storage means 43 also stores the non-shortest travel time. That is, the appearance frequency index is a frequency histogram related to the travel time (see FIG. 9). The second point is that, based on the face recognition score calculated by the face matching unit 212, the predetermined threshold value, the shortest movement time, and the appearance frequency index, the same person determination unit 413 registers the person extracted from the image. The point is to determine whether the person is the same person. The other configuration shown in FIG. 8 is the same as that of the travel time storage system 2 of the third embodiment, and thus a detailed description is omitted. The detailed operation of the same person determination means 413 will be described below.

===同一人物判定手段413===
同一人物判定手段413は、式(1)および式(2)だけでなく、移動時間の出現頻度qを用いて登録済みの人物と同一人物であるか判定する。出現頻度qがある閾値Q以上である場合、その場所にその移動時間で該当人物が存在する尤度は高い。図9は、移動時間とその出現頻度ヒストグラムの模式図である。この模式図の例では、人物の移動経路・手段が2種類(たとえば、電車と徒歩)ある場合を想定しており、過去のたいていの人物は2つのピークの移動時間のどちらかに近い移動時間だったことがわかる。このため、本実施の形態において、同一人物判定手段413は、同一人物判定の条件に下記の式(3)を用いる。具体的には、式(1)、式(2)、または式(3)を満たした場合に、同一人物判定手段413は、抽出された人物を登録済みの人物と同一人物であると判定する。
=== Same person determination means 413 ===
The same person determination unit 413 determines whether or not the registered person is the same person using not only the expressions (1) and (2) but also the appearance frequency q of the moving time. When the appearance frequency q is equal to or more than a certain threshold Q, the likelihood that the relevant person exists in the place with the moving time is high. FIG. 9 is a schematic diagram of the movement time and its appearance frequency histogram. In the example of this schematic diagram, it is assumed that there are two types of travel routes / means of a person (for example, a train and a walk), and most past people have travel times closer to one of the two peak travel times. It turns out that it was. For this reason, in the present embodiment, the same person determination means 413 uses the following equation (3) as the same person determination condition. Specifically, when Expression (1), Expression (2), or Expression (3) is satisfied, the same person determination unit 413 determines that the extracted person is the same person as the registered person. .

Figure 0006645166
Figure 0006645166

式(3)のY’は、顔認識スコアの閾値である。Y’は固定値でも構わないが、出現頻度qが高いほど低く設定できる。このため、単調現象な関数f(・)を用いて、Y’は、式(4)のように計算されてもよい。例えば、Y’は、f(・)として単調現象になるようにパラメータを調整したシグモイド関数によって計算されれればよい。   Y ′ in Expression (3) is a threshold value of the face recognition score. Y 'may be a fixed value, but can be set lower as the appearance frequency q increases. Therefore, Y ′ may be calculated as in equation (4) using a monotonous function f (·). For example, Y 'may be calculated by a sigmoid function in which parameters are adjusted so that f (·) becomes a monotonous phenomenon.

Figure 0006645166
Figure 0006645166

次に、本実施形態の効果について説明する。   Next, effects of the present embodiment will be described.

本実施形態を用いることで、人がよく移動する経路について顔認識によって同一人物だと認識し易くなり、移動時間テーブルを計算する際に、より多くの情報を利用できるようになる。この結果、移動時間計算精度がより高くなる。   By using the present embodiment, it becomes easy to recognize the same person by face recognition on a route where a person frequently moves, and more information can be used when calculating the movement time table. As a result, the moving time calculation accuracy becomes higher.

<実施例1>
次に、本発明の第2の形態の第1の実施例ついて、図10を参照して説明する。本実施例は、各地点のカメラの処理と、複数の地点にまたがる処理との2種類に分けられる。このため、図10のように各地点の処理にはPC510を、複数の地点にまたがる処理にはサーバ520を割り当てて構成すればよい。各地点の処理には、顔照合手段212、同一人物判定手段213、特徴抽出手段11が含まれ、これらはソフトウェアとして構成される。一方、複数の地点にまたがる処理には、登録データ記憶手段221、人物存在データ記憶手段222、移動時間計算手段12、記憶手段13が含まれ、これらはメモリ上のデータとソフトウェアとして構成される。なお、各記憶手段については、PC510側に記憶手段を用意して一時的にデータを記憶してから、サーバ520側に送信して記憶してもよい。本実施例の場合、PC510では1台または複数台のカメラ画像を常時処理し、サーバ520側では、移動時間計算手段が移動時間を計算したタイミングで記憶手段を更新すればよい。また、移動時間の計算は、定期的に実行してもよい。
<Example 1>
Next, a first embodiment of the second aspect of the present invention will be described with reference to FIG. The present embodiment is divided into two types: processing by a camera at each point and processing over a plurality of points. Therefore, as shown in FIG. 10, the PC 510 may be assigned to processing at each point, and the server 520 may be assigned to processing spanning a plurality of points. The processing at each point includes a face matching unit 212, a same person determination unit 213, and a feature extraction unit 11, which are configured as software. On the other hand, the processing over a plurality of points includes a registration data storage unit 221, a person presence data storage unit 222, a travel time calculation unit 12, and a storage unit 13, which are configured as data on a memory and software. As for each storage unit, a storage unit may be prepared on the PC 510 side to temporarily store data, and then transmitted to the server 520 side for storage. In the case of this embodiment, the PC 510 always processes one or a plurality of camera images, and the server 520 only needs to update the storage unit at the timing when the moving time calculating unit calculates the moving time. The calculation of the travel time may be performed periodically.

<実施例2>
次に、本発明の第3の形態の第2の実施例ついて図11を参照して説明する。本実施例は、最短移動時間を計算した上で、特定の人物の移動経路を特定する例である。図5との差異は、移動経路特定手段600を備えることであり、指定された人物IDの移動経路を特定する。具体的には、人物存在データ記憶手段222から、該当する人物IDのデータを参照し、抽出する。本発明を用いれば、人物データ記憶部222には、顔認識結果と最短移動時間に関して妥当なデータが記憶されていくため、人物の存在地点の遷移を把握できる。
<Example 2>
Next, a second embodiment of the third aspect of the present invention will be described with reference to FIG. The present embodiment is an example in which the shortest travel time is calculated, and then the travel route of a specific person is specified. The difference from FIG. 5 is that a moving path specifying unit 600 is provided, and the moving path of the designated person ID is specified. Specifically, the data of the corresponding person ID is referred to and extracted from the person presence data storage unit 222. According to the present invention, since the person data storage unit 222 stores valid data regarding the face recognition result and the shortest travel time, it is possible to grasp the transition of the location of the person.

以上、各実施の形態および実施例を参照して本発明を説明したが、本発明は上記実施の形態に限定されるものではない。本発明の構成や詳細には、本発明のスコープ内で当業者が理解しえる様々な変更をすることができる。   As described above, the present invention has been described with reference to the respective embodiments and examples, but the present invention is not limited to the above embodiments. Various changes understandable to those skilled in the art can be made to the configuration and details of the present invention within the scope of the present invention.

また、本発明の各実施の形態における各構成要素は、その機能をハードウェア的に実現することはもちろん、コンピュータとプログラムとで実現することができる。プログラムは、磁気ディスクや半導体メモリなどのコンピュータ可読記録媒体に記録されて提供され、コンピュータの立ち上げ時などにコンピュータに読み取られる。この読み取られたプログラムは、そのコンピュータの動作を制御することにより、そのコンピュータを前述した各実施の形態における構成要素として機能させる。   In addition, each component in each embodiment of the present invention can be realized by a computer and a program, as well as by realizing the function in hardware. The program is provided by being recorded on a computer-readable recording medium such as a magnetic disk or a semiconductor memory, and is read by the computer when the computer starts up. By controlling the operation of the computer, the read program causes the computer to function as a component in each of the above-described embodiments.

上記の各実施の形態および実施例の一部または全部は、以下の付記のようにも記載されうるが、以下には限定されない。   Some or all of the above embodiments and examples can be described as in the following supplementary notes, but are not limited thereto.

(付記1)
複数のカメラにより撮像された少なくとも1人の人物が含まれる複数の画像の撮像地点と前記画像の撮像時刻と前記人物の顔データと前記人物の種別とを抽出する特徴抽出手段と、
前記撮像地点、前記撮像時刻、及び前記顔データに基づいて、前記人物の移動時間を計算する移動時間計算手段と、
前記移動時間と前記種別とを対応付けて記憶する記憶手段と、から構成される、移動時間記憶システム。
(Appendix 1)
A feature extraction unit that extracts an imaging point of a plurality of images including at least one person imaged by a plurality of cameras, an imaging time of the image, face data of the person, and a type of the person;
Based on the imaging point, the imaging time, and the face data, travel time calculation means for calculating the travel time of the person,
A moving time storage system, comprising: a storage unit configured to store the moving time and the type in association with each other.

(付記2)
前記移動時間計算手段は、2地点間の前記移動時間と、他の人物が存在した他の地点を経由した前記2地点間の移動時間との総和のうち、最短の移動時間である最短移動時間を計算する、付記1に記載の移動時間記憶システム。
(Appendix 2)
The shortest travel time, which is the shortest travel time, of the sum of the travel time between the two points and the travel time between the two points via another point where another person was present, 2. The travel time storage system according to claim 1, wherein

(付記3)
前記最短移動時間は、直近の一定時間の前記撮像地点と前記撮像時刻とに基づいて計算される、付記2に記載の移動時間記憶システム。
(Appendix 3)
3. The travel time storage system according to claim 2, wherein the shortest travel time is calculated based on the image capturing point and the image capturing time during the latest fixed time.

(付記4)
前記最短移動時間は、過去の定期的な前記撮像地点と前記撮像時刻とに基づいて計算される、付記2に記載の移動時間記憶システム。
(Appendix 4)
3. The travel time storage system according to claim 2, wherein the shortest travel time is calculated based on the past regular imaging point and the imaging time.

[産業上の利用可能性]
本発明によれば、人物の移動経路をより高精度に特定して行動を解析する用途に適用できる。例えば、大規模店舗における来店客の行動解析に利用できる。
[Industrial applicability]
ADVANTAGE OF THE INVENTION According to this invention, it can apply to the use which specifies a moving route of a person with higher precision, and analyzes an action. For example, it can be used for analyzing the behavior of a visitor in a large-scale store.

1〜6 移動時間記憶システム
11 特徴抽出手段
12、32 移動時間計算手段
13、43 記憶手段
210 データ処理装置
212 顔照合手段
213、313、413 同一人物判定手段
220 記憶装置
221 登録データ記憶手段
222 人物存在データ記憶手段
323 最短移動時間記憶手段
510 PC
520 サーバ
600 移動経路特定手段
1-6 Moving time storage system 11 Feature extraction means 12, 32 Moving time calculation means 13, 43 Storage means 210 Data processing device 212 Face matching means 213, 313, 413 Same person determination means 220 Storage device 221 Registered data storage means 222 People Presence data storage means 323 Shortest travel time storage means 510 PC
520 server 600 travel route specifying means

Claims (8)

複数のカメラにより撮像された少なくとも1人の人物が含まれる複数の画像の撮像地点と前記画像の撮像時刻と前記人物の顔データと前記人物の種別とを抽出する特徴抽出手段と、
前記撮像地点、前記撮像時刻、及び前記顔データに基づいて、前記人物の移動時間を計算する移動時間計算手段と、
前記移動時間と前記種別とを対応付けて記憶する記憶手段と、
前記人物の前記顔データと登録済みの人物の顔データとの類似度合いを表す顔認識スコアを計算する顔照合手段と、
前記顔認識スコアと閾値とを比較して、前記顔認識スコアが前記閾値を上回る場合に、前記画像から抽出した人物が前記登録済みの人物と同一人物であると判定する同一人物判定手段とを備え、
前記同一人物判定手段は、前記登録済みの人物の移動時間とその移動時間での出現頻度との関係を参照し、前記画像から抽出した人物の前記移動時間に関し、前記登録済みの人物の前記出現頻度が高いほど、前記閾値を低く設定する
移動時間記憶システム。
A feature extraction unit that extracts an imaging point of a plurality of images including at least one person imaged by a plurality of cameras, an imaging time of the image, face data of the person, and a type of the person;
Based on the imaging point, the imaging time, and the face data, travel time calculation means for calculating the travel time of the person,
Storage means for storing the travel time and the type in association with each other,
Face matching means for calculating a face recognition score representing a degree of similarity between the face data of the person and face data of a registered person,
Comparing the face recognition score with a threshold, and when the face recognition score exceeds the threshold, the same person determination unit that determines that the person extracted from the image is the same person as the registered person. Prepared,
The same person determination unit refers to a relationship between the movement time of the registered person and the frequency of appearance at the movement time, and regarding the movement time of the person extracted from the image, the appearance of the registered person. The moving time storage system sets the threshold value lower as the frequency increases .
前記記憶手段は、前記移動時間と複数の前記種別とを対応付けて記憶する、請求項1に記載の移動時間記憶システム。   The travel time storage system according to claim 1, wherein the storage unit stores the travel time and the plurality of types in association with each other. 前記移動時間計算手段は、2地点間の前記移動時間と、他の人物が存在した他の地点を経由した前記2地点間の移動時間との総和のうち、最短の移動時間である最短移動時間を計算する、請求項に記載の移動時間記憶システム。 The shortest travel time, which is the shortest travel time, of the sum of the travel time between two locations and the travel time between the two locations via another location where another person was present, The travel time storage system according to claim 1 , wherein the travel time storage system is calculated. 前記同一人物判定手段は、前記最短移動時間と前記顔認識スコアとに基づいて、前記画像から抽出した人物が前記登録済みの人物と同一人物かを判定する、請求項に記載の移動時間記憶システム。 The moving time storage according to claim 3 , wherein the same person determination unit determines whether a person extracted from the image is the same as the registered person based on the shortest moving time and the face recognition score. system. 前記同一人物判定手段は、前記顔認識スコアが前記閾値を超え、かつ、前記移動時間が前記最短移動時間を超えた場合、前記画像から抽出した人物が前記登録済みの人物と同一人物かを判定する、請求項に記載の移動時間記憶システム。 The same person determination means determines whether a person extracted from the image is the same person as the registered person when the face recognition score exceeds the threshold and the movement time exceeds the shortest movement time. 4. The travel time storage system according to claim 3 , wherein: 前記最短移動時間は、2地点間の逆の経路の情報に基づいて計算される、請求項に記載の移動時間記憶システム。 The travel time storage system according to claim 3 , wherein the shortest travel time is calculated based on information on a reverse route between two points. 複数のカメラにより撮像された少なくとも1人の人物が含まれる複数の画像の撮像地点と前記画像の撮像時刻と前記人物の顔データと前記人物の種別とを抽出し、
前記撮像地点、前記撮像時刻、及び前記顔データに基づいて、前記人物の移動時間を計算し、
前記移動時間と前記種別とを対応付けて記憶
前記人物の前記顔データと登録済みの人物の顔データとの類似度合いを表す顔認識スコアを計算し、
前記顔認識スコアと閾値とを比較して、前記顔認識スコアが前記閾値を上回る場合に、前記画像から抽出した人物が前記登録済みの人物と同一人物であると判定し、
前記登録済みの人物の移動時間とその移動時間での出現頻度との関係を参照し、前記画像から抽出した人物の前記移動時間に関し、前記登録済みの人物の前記出現頻度が高いほど、前記閾値を低く設定する
移動時間記憶方法。
Extracting the image capturing points of a plurality of images including at least one person imaged by a plurality of cameras, the image capturing time of the images, the face data of the person, and the type of the person,
Based on the imaging point, the imaging time, and the face data, calculate the travel time of the person,
The travel time and the type are stored in association with each other,
Calculating a face recognition score representing the degree of similarity between the face data of the person and the face data of a registered person,
Comparing the face recognition score and a threshold, if the face recognition score exceeds the threshold, determine that the person extracted from the image is the same person as the registered person,
Referring to the relationship between the travel time of the registered person and the frequency of appearance at that travel time, the travel time of the person extracted from the image, the higher the frequency of appearance of the registered person, the higher the threshold Travel time storage method to set low .
コンピュータに、
複数のカメラにより撮像された少なくとも1人の人物が含まれる複数の画像の撮像地点と前記画像の撮像時刻と前記人物の顔データと前記人物の種別とを抽出する処理と、
前記撮像地点、前記撮像時刻、及び前記顔データに基づいて、前記人物の移動時間を計算する処理と、
前記移動時間と前記種別とを対応付けて記憶する処理と、
前記人物の前記顔データと登録済みの人物の顔データとの類似度合いを表す顔認識スコアを計算する処理と、
前記顔認識スコアと閾値とを比較して、前記顔認識スコアが前記閾値を上回る場合に、前記画像から抽出した人物が前記登録済みの人物と同一人物であると判定する処理とを実行させ、
前記同一人物を判定する処理において、前記登録済みの人物の移動時間とその移動時間での出現頻度との関係を参照させ、前記画像から抽出した人物の前記移動時間に関し、前記登録済みの人物の前記出現頻度が高いほど、前記閾値を低く設定させる
移動時間記憶プログラム。
On the computer,
A process of extracting an image capturing point of a plurality of images including at least one person imaged by a plurality of cameras, an image capturing time of the image, face data of the person, and a type of the person;
A process of calculating the moving time of the person based on the imaging point, the imaging time, and the face data;
A process of storing the travel time and the type in association with each other;
A process of calculating a face recognition score representing a degree of similarity between the face data of the person and face data of a registered person;
Comparing the face recognition score and a threshold, when the face recognition score exceeds the threshold, performing a process of determining that the person extracted from the image is the same person as the registered person,
In the process of determining the same person, the relationship between the travel time of the registered person and the frequency of appearance at the travel time is referred to, and the travel time of the person extracted from the image, A moving time storage program for setting the threshold value lower as the appearance frequency increases .
JP2015244697A 2015-12-16 2015-12-16 Travel time storage system, travel time storage method, and travel time storage program Active JP6645166B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015244697A JP6645166B2 (en) 2015-12-16 2015-12-16 Travel time storage system, travel time storage method, and travel time storage program
JP2020002208A JP6923011B2 (en) 2015-12-16 2020-01-09 Travel time storage system, travel time storage method and travel time storage program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015244697A JP6645166B2 (en) 2015-12-16 2015-12-16 Travel time storage system, travel time storage method, and travel time storage program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020002208A Division JP6923011B2 (en) 2015-12-16 2020-01-09 Travel time storage system, travel time storage method and travel time storage program

Publications (2)

Publication Number Publication Date
JP2017111587A JP2017111587A (en) 2017-06-22
JP6645166B2 true JP6645166B2 (en) 2020-02-14

Family

ID=59081375

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015244697A Active JP6645166B2 (en) 2015-12-16 2015-12-16 Travel time storage system, travel time storage method, and travel time storage program

Country Status (1)

Country Link
JP (1) JP6645166B2 (en)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000200357A (en) * 1998-10-27 2000-07-18 Toshiba Tec Corp Method and device for collecting human movement line information
JP4045111B2 (en) * 2002-03-25 2008-02-13 株式会社リコー Information collection, information update, required time prediction method, apparatus and network system
JP2006221355A (en) * 2005-02-09 2006-08-24 Hitachi Ltd Monitoring device and monitoring system
JP2010113692A (en) * 2008-11-10 2010-05-20 Nec Corp Apparatus and method for recording customer behavior, and program
US8606294B2 (en) * 2010-10-05 2013-12-10 Skyhook Wireless, Inc. Method of and system for estimating temporal demographics of mobile users
US9697420B2 (en) * 2013-02-15 2017-07-04 Nec Corporation Information processing system, information processing method, and computer-readable recording medium
JP6268951B2 (en) * 2013-11-11 2018-01-31 富士通株式会社 Mobile information processing method, mobile information processing program, and mobile information processing apparatus

Also Published As

Publication number Publication date
JP2017111587A (en) 2017-06-22

Similar Documents

Publication Publication Date Title
JP3584334B2 (en) Human detection tracking system and human detection tracking method
US20150339516A1 (en) Collation apparatus and method for the same, and image searching apparatus and method for the same
US9471982B2 (en) Information processing apparatus and information processing method for associating an image with related information
US20180096209A1 (en) Non-transitory computer-readable storage medium, event detection apparatus, and event detection method
JP2024015359A (en) person detection system
US8971577B2 (en) Monitoring device, reliability calculation program, and reliability calculation method
KR20170077366A (en) System and method for face recognition
JP6503079B2 (en) Specific person detection system, specific person detection method and detection device
JP6595375B2 (en) Traffic condition analysis device, traffic condition analysis method, and traffic condition analysis program
EP3236366B1 (en) Information processing apparatus, information processing method, and storage medium
JP2007078409A (en) Object positioning system
JP2023083585A (en) Moving body tracking system, moving body tracking method and program
JP2019020777A (en) Information processing device, control method of information processing device, computer program, and storage medium
US9256945B2 (en) System for tracking a moving object, and a method and a non-transitory computer readable medium thereof
JPWO2019155727A1 (en) Information processing apparatus, tracking method, and tracking program
JP2012103859A (en) Image processing device, image processing method, and image processing program
JP5411641B2 (en) Image classification apparatus, image classification system, image classification method, program, and recording medium
CN112562315A (en) Method, terminal and storage medium for acquiring traffic flow information
JP6645166B2 (en) Travel time storage system, travel time storage method, and travel time storage program
KR102099816B1 (en) Method and apparatus for collecting floating population data on realtime road image
JP6923011B2 (en) Travel time storage system, travel time storage method and travel time storage program
JP2008276613A (en) Mobile body determination device, computer program and mobile body determination method
JP7218778B2 (en) Information processing system, method and program
US20220375227A1 (en) Counting system, counting method, and program
JP6555940B2 (en) Subject tracking device, imaging device, and method for controlling subject tracking device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190819

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190827

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191028

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191210

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191223

R150 Certificate of patent or registration of utility model

Ref document number: 6645166

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150