WO2015189893A1 - Individual identification device, and individual identification method - Google Patents

Individual identification device, and individual identification method Download PDF

Info

Publication number
WO2015189893A1
WO2015189893A1 PCT/JP2014/065232 JP2014065232W WO2015189893A1 WO 2015189893 A1 WO2015189893 A1 WO 2015189893A1 JP 2014065232 W JP2014065232 W JP 2014065232W WO 2015189893 A1 WO2015189893 A1 WO 2015189893A1
Authority
WO
WIPO (PCT)
Prior art keywords
camera
individual identification
person
image
sensing
Prior art date
Application number
PCT/JP2014/065232
Other languages
French (fr)
Japanese (ja)
Inventor
健 河本
Original Assignee
株式会社日立製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立製作所 filed Critical 株式会社日立製作所
Priority to PCT/JP2014/065232 priority Critical patent/WO2015189893A1/en
Publication of WO2015189893A1 publication Critical patent/WO2015189893A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

An individual identification device (1) comprises: an intra-image movement extraction unit (24) which, for each person-region extracted from video data from a camera (2), extracts an intra-image movement quantity graph (12c) representing movement, within an image, of the person-region; a sensing correction unit (23) which, on the basis of a camera distance graph (13b), corrects sensing data representing the movement of each person as measured from sensor terminals (1) held by each person; and an individual identification unit (26) which, on the basis of the degree of similarity between the extracted intra-image movement quantity graphs (12c) and the corrected sensing data, maps the person-region in the video data with a holder of the sensor terminal (1).

Description

個体識別装置、および個体識別方法Individual identification device and individual identification method
 本発明は、個体識別装置、および個体識別方法に関する。 The present invention relates to an individual identification device and an individual identification method.
 定点観測のカメラの撮影画像から人を表す領域を抽出し、その人領域と別の人領域とを区別する処理を「認識」処理とする。この認識処理では、時系列の人領域の移動を追跡できるため、例えば、10時10分に画面左側に写っている人が、10時20分に画面右側に移動したことなどがわかる。 The process of extracting an area representing a person from a captured image of a fixed point observation camera and distinguishing the person area from another person area is referred to as a “recognition” process. In this recognition processing, the movement of the time-series human area can be tracked, so that, for example, it can be seen that a person shown on the left side of the screen at 10:10 moved to the right side of the screen at 10:20.
 さらに、認識処理により個々に抽出された人領域と、あらかじめ登録されている個人情報とを対応づける処理を、「識別」処理と呼ぶ。この識別処理により、例えば、10時10分に画面左側に写っている人が、会員番号1234番のAさんということが特定できる。つまり、認識処理と識別処理とを順に行うことで、カメラの撮影画像に写っている人が、誰であり、どのような動きをしているかがわかる。 Further, the process of associating the human areas individually extracted by the recognition process with the personal information registered in advance is called “identification” process. By this identification processing, for example, the person shown on the left side of the screen at 10:10 can be identified as Mr. A with a membership number of 1234. That is, by performing the recognition process and the identification process in order, it is possible to know who is in the photographed image of the camera and what kind of movement it is.
 まず、識別処理をカメラの撮影画像だけで行う方法がある。画像から人を表す領域を抽出し、各IDについて紐づけられた顔情報や背格好の情報と、抽出した画像領域の類似度から、どの画像領域がどのIDに対応するかを識別する方法である。この方法のメリットは、カメラ1台を設置すれば広範囲に識別を行えるうえ、工場や倉庫や駅などの施設は古くから定点監視カメラを設置していることが多いため、少ないコストで導入できることである。 First, there is a method in which identification processing is performed only with a photographed image of the camera. A method for extracting an area representing a person from an image and identifying which image area corresponds to which ID from the face information and the appearance information associated with each ID and the similarity of the extracted image area is there. The advantage of this method is that a single camera can be used for wide-ranging identification, and facilities such as factories, warehouses, and stations have long been equipped with fixed-point monitoring cameras, so they can be introduced at low cost. is there.
 しかし、画像による人の識別は、人の顔や姿がはっきり映っていないと精度よく行えないため、沢山の人が縦横無尽に動き回る環境では正確に人の識別を行うことは困難であった。また識別を行うために元からIDに対する顔や背格好の情報を保持している必要がある。しかしこういった情報を取得する手間は大きく、自らの顔や背格好の情報がデータベースに保持されていることに対する抵抗を覚える人も少なくなく、社会的に受け入れられにくかった。 However, it is difficult to accurately identify a person in an environment where many people move around in length and breadth, because the person cannot be accurately identified unless the person's face or figure is clearly reflected. In addition, in order to perform identification, it is necessary to hold information on the face and the appearance of the ID from the beginning. However, it took a lot of time to acquire such information, and there were not a few people who felt resistance to the fact that their own information about their face and appearance was held in the database, and it was difficult for them to be accepted by society.
 そこで、特許文献1には、識別処理を被写体に協力してもらう一例として、各幼児が保持した加速度センサから測定した動き情報と、カメラの撮影画像から抽出した人領域の動き情報との類似度が高い組み合わせをもとに、映像内の幼児とIDとを対応づける識別処理が記載されている。 Therefore, in Patent Document 1, as an example of having the subject cooperate with the identification process, the similarity between the motion information measured from the acceleration sensor held by each infant and the motion information of the human area extracted from the captured image of the camera An identification process for associating an infant in an image with an ID based on a combination with a high is described.
特開2004-96501号公報JP 2004-96501 A
 特許文献1などの従来の動き情報のマッチングを行う識別処理システムでは、カメラの撮影画像から抽出する動き情報について、カメラの撮影特性によって誤差が生じてしまう。例えば、カメラの設置位置から被写体の位置までの距離(カメラ距離)が近い被写体については、撮影画像内に大きく写るため、その被写体の微細な動きであっても、撮影画像内に反映される。
 一方、カメラ距離が遠い被写体については、撮影画像内に小さく写るため、その被写体の微細な動きが画像として検出できないこともある。
In a conventional identification processing system that performs matching of motion information such as Patent Document 1, an error occurs in motion information extracted from a captured image of the camera due to the capturing characteristics of the camera. For example, a subject with a short distance from the camera installation position to the subject position (camera distance) appears large in the photographed image, so even a minute movement of the subject is reflected in the photographed image.
On the other hand, since a subject with a long camera distance appears small in the captured image, the minute movement of the subject may not be detected as an image.
 よって、カメラ距離にかかわらず、微細な動きを検出できる加速度センサからの動き情報と、カメラ距離が遠い被写体の撮影画像から微細な動きを検出できない動き情報とでは、本来同一人物であっても、動き情報が類似しないと誤判定されてしまうこともある。 Therefore, regardless of the camera distance, the motion information from the acceleration sensor that can detect a fine motion and the motion information that cannot detect a fine motion from a captured image of a subject with a long camera distance, It may be erroneously determined that the motion information is not similar.
 なお、被写体の現在位置がどの位置であっても、カメラ距離を等距離にするには、例えば、カメラを非常に高い天井(俯瞰位置)に設置し、その天井からの俯瞰映像を用いる形態も考えられる。しかし、駅や店舗などの多くの施設では天井はさほど高くないので、理想的な撮影場所を確保することは、困難である。 In order to make the camera distance the same distance regardless of the current position of the subject, for example, a mode in which the camera is installed on a very high ceiling (overhead position) and an overhead image from the ceiling is used. Conceivable. However, in many facilities such as stations and stores, the ceiling is not so high, and it is difficult to secure an ideal shooting location.
 そこで、本発明は、センサからの動き情報と撮影画像からの動き情報とにより個体識別処理を行うシステムにおいて、カメラの位置や向きにかかわらず、個体識別の精度を向上させることを、主な目的とする。 Accordingly, the main object of the present invention is to improve the accuracy of individual identification in a system that performs individual identification processing based on motion information from a sensor and motion information from a captured image, regardless of the position and orientation of the camera. And
 前記課題を解決するために、本発明の個体識別装置は、
 カメラの映像データから抽出された人領域ごとに、その人領域の画像内の動きを示す画像内移動量データを抽出する画像内移動抽出部と、
 前記カメラの設置位置から前記人領域として写っている人の位置までのカメラ距離をもとに、各人が把持するセンサ端末から測定された各人の動きを示すセンシングデータを補正するセンシング補正部と、
 抽出された前記画像内移動量データと、補正された前記センシングデータとの類似度をもとに、映像データ内の前記人領域と、前記センサ端末の把持者とを対応づける個体識別部と、を有することを特徴とする。
 その他の手段は、後記する。
In order to solve the above-described problem, the individual identification device of the present invention includes:
For each human region extracted from the video data of the camera, an intra-image movement extraction unit that extracts intra-image movement amount data indicating movement in the image of the human region;
A sensing correction unit that corrects sensing data indicating movement of each person measured from a sensor terminal held by each person based on a camera distance from the installation position of the camera to the position of the person shown as the person area When,
Based on the similarity between the extracted movement amount data in the image and the corrected sensing data, the individual identification unit that associates the human region in the video data with the gripper of the sensor terminal, It is characterized by having.
Other means will be described later.
 本発明によれば、センサからの動き情報と撮影画像からの動き情報とにより個体識別処理を行うシステムにおいて、カメラの位置や向きにかかわらず、個体識別の精度を向上させることができる。 According to the present invention, in a system that performs individual identification processing based on motion information from a sensor and motion information from a captured image, the accuracy of individual identification can be improved regardless of the position and orientation of the camera.
本発明の一実施形態に関する個体識別システムを示す構成図(図1(a))と、センサ端末を示す構成図(図1(b))である。It is the block diagram (FIG. 1 (a)) which shows the individual identification system regarding one Embodiment of this invention, and the block diagram (FIG.1 (b)) which shows a sensor terminal. 本発明の一実施形態に関する個体識別装置を示す構成図である。It is a block diagram which shows the individual identification apparatus regarding one Embodiment of this invention. 本発明の一実施形態に関するカメラと空間位置との関係を示す説明図(図3(a))と、図3(a)のカメラで撮影された映像を格納する映像データ格納部およびその映像内に割り当てられる深度マップを格納する深度マップ格納部を示す説明図(図3(b))である。Explanatory drawing (FIG. 3 (a)) which shows the relationship between the camera and space position regarding one Embodiment of this invention, the image | video data storage part which stores the image | video image | photographed with the camera of Fig.3 (a), and its image | video It is explanatory drawing (FIG.3 (b)) which shows the depth map storage part which stores the depth map allocated to. 本発明の一実施形態に関するセンシングテーブル(図4(a))と、人領域テーブル(図4(b))と、個体類似度テーブル(図4(c))と、個体識別テーブル(図4(d))とをそれぞれ示す構成図である。A sensing table (FIG. 4A), a human area table (FIG. 4B), an individual similarity table (FIG. 4C), and an individual identification table (FIG. and d)). 本発明の一実施形態に関する個体識別装置により実行されるメイン処理(図5(a))と、人領域抽出部により実行される人領域抽出処理(図5(b))とを示すフローチャートである。It is a flowchart which shows the main process (FIG.5 (a)) performed by the individual identification apparatus regarding one Embodiment of this invention, and the person area extraction process (FIG.5 (b)) performed by a person area extraction part. . 本発明の一実施形態に関する図6は、類似度評価部などにより実行される類似度評価処理を示すフローチャートである。FIG. 6 relating to an embodiment of the present invention is a flowchart showing similarity evaluation processing executed by a similarity evaluation unit or the like. 本発明の一実施形態に関する補正前センシンググラフ(図7(a))と、カメラ距離グラフ(図7(b))と、補正前センシンググラフ(図7(c))と、画像内移動量グラフ(図7(d))とを示す説明図である。Sensing graph before correction (FIG. 7 (a)), camera distance graph (FIG. 7 (b)), sensing graph before correction (FIG. 7 (c)), and intra-image movement amount graph according to an embodiment of the present invention It is explanatory drawing which shows (FIG.7 (d)). 本発明の一実施形態に関する深度マップ格納部の自動生成処理の第1段階(図8(a))、第2段階(図8(b))、第3段階(図8(c))を示す説明図である。FIG. 8 shows a first stage (FIG. 8A), a second stage (FIG. 8B), and a third stage (FIG. 8C) of the automatic generation processing of the depth map storage unit according to the embodiment of the present invention. It is explanatory drawing. 本発明の一実施形態に関する図9は、作業員管理画面を示す説明図である。FIG. 9 relating to an embodiment of the present invention is an explanatory diagram showing a worker management screen. 本発明の一実施形態に関する表示装置として指向性ディスプレイを活用する例を示す説明図(図10(a))と、図10(a)の表示装置からの各人に見える表示内容を示す画面図(図10(b))である。FIG. 10A is an explanatory diagram illustrating an example in which a directional display is used as a display device according to an embodiment of the present invention, and FIG. 10A is a screen diagram illustrating display contents visible to each person from the display device of FIG. (FIG. 10B). 第1比較例に関する天井のカメラから撮影する様子を示す説明図(図11(a))と、図11(a)のカメラからの映像を示す説明図(図11(b))と、図11(b)の映像をもとにした個体識別結果を示す説明図(図11(c))である。An explanatory view (FIG. 11 (a)) showing a state of shooting from the camera on the ceiling relating to the first comparative example, an explanatory view (FIG. 11 (b)) showing an image from the camera of FIG. 11 (a), and FIG. It is explanatory drawing (FIG.11 (c)) which shows the individual identification result based on the image | video of (b). 第2比較例に関する横方向に向けられたカメラから撮影する様子を示す説明図(図12(a))と、図12(a)のカメラからの映像を示す説明図(図12(b))と、図12(b)の映像をもとにした個体識別結果を示す説明図(図12(c))である。Explanatory drawing (FIG. 12 (a)) which shows a mode that it image | photographs from the camera turned to the horizontal direction regarding a 2nd comparative example, and explanatory drawing (FIG.12 (b)) which shows the image | video from the camera of Fig.12 (a). FIG. 13 is an explanatory diagram (FIG. 12C) showing the individual identification result based on the video of FIG.
 以下、本発明の一実施形態を、図面を参照して詳細に説明する。 Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.
 図1(a)は、個体識別システムを示す構成図である。個体識別システムは、センサ端末1と、カメラ2と、基地局8と、個体識別装置9とがネットワークで接続されて構成される。
 センサ端末1は、対象者の腕などに装着され、生体情報として腕の加速度などの対象者の動作や状態を検出する。センサ端末1は、所定の周期で検出した加速度データをセンシングデータとして、アンテナを介して基地局8へ無線送信する。
 基地局8は、受信したセンシングデータを、個体識別装置9に転送する。なお、センシングデータの通信経路は、有線通信が可能な場合はUSB(Universal Serial Bus)接続などを介して直接(基地局8を介さずに)個体識別装置9に転送することとしてもよい。さらに、センサ端末1からセンシングデータを逐次的に送信してもよいし、センサ端末1に蓄積したセンシングデータを所定周期ごとに送信してもよい。
FIG. 1A is a configuration diagram showing an individual identification system. The individual identification system is configured by connecting a sensor terminal 1, a camera 2, a base station 8, and an individual identification device 9 via a network.
The sensor terminal 1 is attached to the subject's arm or the like, and detects the subject's operation and state such as acceleration of the arm as biological information. The sensor terminal 1 wirelessly transmits the acceleration data detected at a predetermined cycle as sensing data to the base station 8 via the antenna.
The base station 8 transfers the received sensing data to the individual identification device 9. Note that the sensing data communication path may be transferred directly to the individual identification device 9 via a USB (Universal Serial Bus) connection or the like (without going through the base station 8) if wired communication is possible. Furthermore, the sensing data may be transmitted sequentially from the sensor terminal 1, or the sensing data accumulated in the sensor terminal 1 may be transmitted every predetermined period.
 カメラ2は、対象者の姿を撮像するビデオカメラである。撮像された映像データは、無線通信または有線通信を通じて個体識別装置9に送信される。なお、映像データは、逐次送信されてもよいし、映像サーバに蓄積してから所定周期ごとに送信されてもよい。以下では、カメラ2が定点に設置されている例を示すが、例えばカメラ2が人に携帯されるハンディカメラや、ウェアラブルカメラであってもよい。 The camera 2 is a video camera that takes an image of the subject. The captured video data is transmitted to the individual identification device 9 through wireless communication or wired communication. Note that the video data may be transmitted sequentially, or may be transmitted at predetermined intervals after being stored in the video server. In the following, an example in which the camera 2 is installed at a fixed point is shown, but for example, the camera 2 may be a handy camera carried by a person or a wearable camera.
 個体識別装置9は、各人に装着されている各センサ端末1から対象者の動きに応じたセンシングデータを受信し、各カメラ2から撮像された映像データを受信し、それらの受信データをもとに、映像データ内に撮影されている人物がどのセンサ端末1を装着している人物なのかを個体識別し、その結果を表示装置91に表示する。 The individual identification device 9 receives sensing data corresponding to the movement of the target person from each sensor terminal 1 attached to each person, receives video data captured from each camera 2, and also stores the received data. In addition, the sensor terminal 1 that the person photographed in the video data is individually identified, and the result is displayed on the display device 91.
 個体識別装置9には、各種情報を表示する表示装置91と、利用者の操作によって様々な情報の入力を可能とする入力装置92がI/F(Interface)96を介して接続(または個体識別装置9内に内蔵)されている。
 表示装置91は、液晶ディスプレイやCRTディスプレイなどの表示端末として構成されるが、表示装置91の代わりに、プリンタ装置や画像ファイル出力装置などの出力装置を用いてもよい。
 入力装置92は、キーボード、マウスなどの入力用機器である。また、表示装置91と入力装置92はタッチパネル式ディスプレイのような、両方の機能を備える単体の機器でもよい。
The individual identification device 9 is connected to a display device 91 that displays various information and an input device 92 that allows various information to be input by a user's operation via an I / F (Interface) 96 (or individual identification). (Built in the device 9).
Although the display device 91 is configured as a display terminal such as a liquid crystal display or a CRT display, an output device such as a printer device or an image file output device may be used instead of the display device 91.
The input device 92 is an input device such as a keyboard and a mouse. The display device 91 and the input device 92 may be a single device having both functions, such as a touch panel display.
 個体識別装置9は、プロセッサ93と、メモリ94と、記録装置95とを備えるコンピュータとして構成される。記録装置95は、図2で後記する各処理部を実現するための各種プログラムや、各種プログラムが扱う各種データを記録するものであり、例えば、ハードディスクドライブやCDーROMドライブ、フラッシュメモリなどである。なお、複数の記録装置95に各種プログラム、各種データテーブルを分割して記録するようにしてもよい。
 プロセッサ93は、記録装置95に記録されている各種プログラムをメモリ94に読み出して実行することにより各種機能を実現する。
The individual identification device 9 is configured as a computer including a processor 93, a memory 94, and a recording device 95. The recording device 95 records various programs for realizing each processing unit to be described later in FIG. 2 and various data handled by the various programs, such as a hard disk drive, a CD-ROM drive, and a flash memory. . Various programs and various data tables may be divided and recorded in a plurality of recording devices 95.
The processor 93 implements various functions by reading various programs recorded in the recording device 95 into the memory 94 and executing them.
 図1(b)は、センサ端末1の一例として、腕輪型センサノードを示す構成図(正面から見た概略図と、側方から見た断面図)である。このような腕輪型センサノードは、例えば文献「Tanaka T, et al., “Life Microscope:Continuous daily-activity recording system with tiny wireless sensor”, 5th International Conferene on Networked Sensing Systems, 2008」に記載されている。 FIG. 1B is a configuration diagram (a schematic view seen from the front and a cross-sectional view seen from the side) showing a bracelet type sensor node as an example of the sensor terminal 1. Such bracelet-type sensor nodes are described, for example, in the literature “Tanaka T, et al.,“ Life Microscope: ContinuousCondaily-activity recording system with tiny wireless sensor ”, 5th International Conferene on Networked Sensing Systems, 2008". .
 センサ端末1は、センサや制御装置を格納するケース11と、ケース11を人体の腕に装着するバンド12を備える。
 ケース11の内部には、マイクロコンピュータやセンサ6などを備えた基板10が格納される。センサ6は、例えば、X-Y-Zの3軸の加速度をそれぞれ測定する加速度センサであり、装着された人体(生体)の動きを測定する。なお、センサ6として、感圧センサや静電容量センサを備え、利用者がセンサ端末1を装着しているか否かを装着状態として出力してもよい。
The sensor terminal 1 includes a case 11 for storing a sensor and a control device, and a band 12 for attaching the case 11 to an arm of a human body.
Inside the case 11 is stored a substrate 10 provided with a microcomputer, a sensor 6 and the like. The sensor 6 is, for example, an acceleration sensor that measures three-axis accelerations of XYZ, and measures the movement of a human body (living body) that is worn. The sensor 6 may include a pressure-sensitive sensor or a capacitance sensor, and may output whether or not the user is wearing the sensor terminal 1 as a wearing state.
 また、センサ端末1の別の一例として、利用者の動きが測定できるものであれば何でもよく、例えば加速度センサを内蔵するウェアラブルカメラや、加速度センサ内蔵のスマートフォン等の携帯機器でもよい。また取得するセンシングデータは加速度データである必要もなく、例えば角速度センサデータ、地磁気データ、音声データ、映像データ、電波強度データ、機器の操作履歴データ、ドップラーセンサデータなど、利用者の活動を示唆するデータであればなんでもよい。 As another example of the sensor terminal 1, any sensor terminal 1 may be used as long as it can measure a user's movement. For example, a wearable camera with a built-in acceleration sensor or a mobile device such as a smartphone with a built-in acceleration sensor may be used. The acquired sensing data need not be acceleration data, and suggests user activities such as angular velocity sensor data, geomagnetic data, audio data, video data, radio wave intensity data, device operation history data, and Doppler sensor data. Any data is acceptable.
 なお、利用者の動きを測定するセンサ機能を有すればよいセンサ端末1は、三点測位などによる自己位置推定端末を用いるよりも、低コストに導入することができる。まず、自己位置推定端末の動作には、別途建物内に設置されたビーコンの電波を受信する必要があるので、遮蔽による電波強度の低下などにより、環境によっては精度が落ちてしまう。なお、精度を上げるにはビーコンの数を増やす必要があるが、多数のビーコンを環境に設置し、それらの電源やネットワーク接続インフラまで整備するためには多大なコストがかかる。 It should be noted that the sensor terminal 1 that has only a sensor function for measuring the user's movement can be introduced at a lower cost than using a self-position estimation terminal such as three-point positioning. First, since the operation of the self-position estimation terminal needs to receive a radio wave of a beacon separately installed in a building, the accuracy is lowered depending on the environment due to a decrease in radio wave intensity due to shielding. In order to improve accuracy, it is necessary to increase the number of beacons, but it takes a lot of cost to install a large number of beacons in the environment, and to provide power supply and network connection infrastructure.
 図2は、個体識別装置9を示す構成図である。個体識別装置9は、センシングテーブル11aと、補正前センシンググラフ11bの格納部と、補正後センシンググラフ11cの格納部と、映像データ格納部12aと、人領域テーブル12bと、画像内移動量グラフ12cの格納部と、深度マップ格納部13aと、カメラ距離グラフ13bの格納部と、個体類似度テーブル17と、個体識別テーブル18と、スカラ化処理部20と、人領域抽出部21と、カメラ距離抽出部22と、センシング補正部23と、画像内移動抽出部24と、類似度評価部25と、個体識別部26とを有する。
 以下、個体識別装置9の各構成要素の概要を説明する。これらの構成要素の詳細は、図3以降の説明で明らかにする。
FIG. 2 is a configuration diagram showing the individual identification device 9. The individual identification device 9 includes a sensing table 11a, a pre-correction sensing graph 11b storage unit, a post-correction sensing graph 11c storage unit, a video data storage unit 12a, a human region table 12b, and an intra-image movement amount graph 12c. Storage unit, depth map storage unit 13a, camera distance graph 13b storage unit, individual similarity table 17, individual identification table 18, scalarization processing unit 20, human region extraction unit 21, camera distance An extraction unit 22, a sensing correction unit 23, an in-image movement extraction unit 24, a similarity evaluation unit 25, and an individual identification unit 26 are included.
Hereinafter, an outline of each component of the individual identification device 9 will be described. Details of these components will be clarified in the description after FIG.
 センシングテーブル11aには、センサ端末1から受信したセンシングデータと、そのセンサ端末1を識別するセンサIDとが対応づけて格納される。なお、図示を省略したが、センサIDから特定される対象者IDに対して、その対象者に関する情報(例えば、部屋へのアクセス権限情報や、運賃プリペイカードの残高など)を対応づけることにより、個体識別した対象者に関する情報を、表示装置91に表示することもできる。 In the sensing table 11a, sensing data received from the sensor terminal 1 and a sensor ID for identifying the sensor terminal 1 are stored in association with each other. In addition, although illustration was abbreviate | omitted, by associating the information (for example, access authority information to a room, the balance of a fare prepaid card, etc.) regarding the subject with the subject ID identified from the sensor ID, Information about the subject who has been individually identified can also be displayed on the display device 91.
 スカラ化処理部20は、センシングテーブル11aのセンシングデータをスカラ化することで、時刻経過により変化するセンサ端末1の向きに依存しないスカラ値の利用者の動き量へと変換し、その変換結果を補正前センシンググラフ11bへと出力する。
 センシング補正部23は、カメラ距離グラフ13bに記載されるカメラ距離(各時点での映像内人領域のカメラ2からの距離)をもとに、補正前センシンググラフ11bから補正後センシンググラフ11cへと補正する。
The scalarization processing unit 20 converts the sensing data of the sensing table 11a into a scalar, thereby converting it into a user motion amount having a scalar value that does not depend on the orientation of the sensor terminal 1 that changes with the passage of time. It outputs to the sensing graph 11b before correction | amendment.
The sensing correction unit 23 changes from the pre-correction sensing graph 11b to the post-correction sensing graph 11c based on the camera distance described in the camera distance graph 13b (the distance from the camera 2 in the human area in the video at each time point). to correct.
 映像データ格納部12aは、カメラ2の映像データを格納する。
 人領域抽出部21は、映像データ格納部12aの映像データを読み込み、各時点での映像データから認識した人領域ごとに別々のIDを割り当てて、その割り当て結果を人領域テーブル12bへと格納する。
 画像内移動抽出部24は、人領域テーブル12b内の人領域ごとに、映像データを構成する各画像内の移動量をスカラ値として抽出し、その抽出結果を画像内移動量グラフ12cへと格納する。
The video data storage unit 12 a stores video data of the camera 2.
The human area extraction unit 21 reads the video data in the video data storage unit 12a, assigns a different ID to each human area recognized from the video data at each time point, and stores the assignment result in the human area table 12b. .
The intra-image movement extraction unit 24 extracts the movement amount in each image constituting the video data as a scalar value for each human region in the human region table 12b, and stores the extraction result in the intra-image movement amount graph 12c. To do.
 深度マップ格納部13aは、管理者などにより入力された深度マップを格納する。なお、深度マップとは、画像内位置と、その位置に対応するカメラ距離との対応データであり、詳細は図3(b)で後記する。
 カメラ距離抽出部22は、深度マップ格納部13aの深度マップを参照して、人領域テーブル12b内の人領域ごとに、その人領域の画像内位置からその人領域のカメラ距離を特定し、その特定結果をカメラ距離グラフ13bへと出力する。
 または、カメラ距離抽出部22は、深度マップを参照しなくても、例えば、人領域の面積が大きいほどカメラ距離を近くするような所定の関数(人領域の面積がカメラ距離の2乗に反比例する関数など)を元に、画像内の人領域からそのカメラ距離を特定してもよい。
 類似度評価部25は、ともに時系列のスカラ値である補正後センシンググラフ11cと、画像内移動量グラフ12cとを比較することで両グラフの類似度を評価する。
 個体識別部26は、類似度評価部25の評価結果である類似度が高い組み合わせ(センシングデータと画像内人領域データの組み合わせ)を互いに対応づけ、その結果を個体識別テーブル18へと出力する。
The depth map storage unit 13a stores a depth map input by an administrator or the like. The depth map is data corresponding to the position in the image and the camera distance corresponding to the position, and details will be described later with reference to FIG.
The camera distance extraction unit 22 refers to the depth map of the depth map storage unit 13a, specifies the camera distance of the person area from the position in the image of the person area for each person area in the person area table 12b, The specified result is output to the camera distance graph 13b.
Alternatively, the camera distance extraction unit 22 does not refer to the depth map, for example, a predetermined function that makes the camera distance closer as the area of the human area is larger (the area of the human area is inversely proportional to the square of the camera distance. The camera distance may be specified from the human region in the image based on the function to be performed.
The similarity evaluation unit 25 evaluates the similarity of both graphs by comparing the corrected sensing graph 11c, which is a time-series scalar value, with the intra-image movement amount graph 12c.
The individual identification unit 26 associates a combination having a high similarity (a combination of sensing data and in-image human area data) as an evaluation result of the similarity evaluation unit 25 and outputs the result to the individual identification table 18.
 図3(a)は、カメラ2と空間位置との関係を示す説明図である。物流倉庫内の通路脇の右側に作業員が存在しており、カメラ2のカメラ視野内であるので、撮影データには、その作業員が人領域として写る。作業員の空間位置(X,Y,Z)と直線ベクトルについては、後記する。
 なお、カメラ2は、倉庫だけでなく、人が往来する任意の施設や環境を撮像してもよい。例えば、交通システム(駅やホーム、電車など)を撮像し、その人領域として写る各乗客を個体識別装置9に個体識別させることにより、各乗客に関するデータ(口座の残高など)を特定することができる。
 よって、通行料を残高から自動的に引き落とすような完全ウォークスルー型の交通システムを構築することもでき、個体識別できなかった人は、「切符不所持」の乗客として発見することができる。
FIG. 3A is an explanatory diagram showing the relationship between the camera 2 and the spatial position. Since a worker exists on the right side of the passage in the distribution warehouse and is within the camera field of view of the camera 2, the worker is shown as a human area in the photographing data. The worker's spatial position (X, Y, Z) and straight line vector will be described later.
The camera 2 may image not only a warehouse but also any facility or environment where people come and go. For example, by capturing an image of a traffic system (station, platform, train, etc.) and causing the individual identification device 9 to individually identify each passenger shown as the person's area, data relating to each passenger (account balance, etc.) can be specified. it can.
Therefore, it is possible to construct a complete walk-through type traffic system in which the toll is automatically deducted from the balance, and a person who cannot be individually identified can be found as a passenger who has no ticket.
 図3(b)は、図3(a)のカメラ2で撮影された映像を格納する映像データ格納部12aと、その映像内に割り当てられる深度マップを格納する深度マップ格納部13aとを示す説明図である。
 映像データ格納部12aの映像データには、図3(a)の空間位置(X,Y,Z)に存在する作業員が、画像の右上に撮影されている。
FIG. 3B illustrates a video data storage unit 12a that stores video captured by the camera 2 in FIG. 3A and a depth map storage unit 13a that stores a depth map assigned in the video. FIG.
In the video data in the video data storage unit 12a, a worker who exists at the spatial position (X, Y, Z) in FIG. 3A is photographed in the upper right of the image.
 深度マップ格納部13aの深度マップとは、カメラ2ごとに、その撮影データの各画素が表す空間上の各点から、カメラ2の写像素子までの距離を示すデータである。
 例えば、画像の下側は、カメラに近い位置の床を映すので、近い距離(例えば、3m)が格納される。画像の中央側は、やや遠い距離(例えば、5m)を示し、画像の上側は、遠い距離(例えば、10m)を示す。
The depth map in the depth map storage unit 13a is data indicating the distance from each point on the space represented by each pixel of the captured data to the mapping element of the camera 2 for each camera 2.
For example, the lower side of the image shows a floor at a position close to the camera, so a close distance (for example, 3 m) is stored. The center side of the image indicates a slightly far distance (for example, 5 m), and the upper side of the image indicates a far distance (for example, 10 m).
 なお、カメラ2を取り巻く環境が変化すれば(例えば倉庫内に新たな柱が加わったり、カメラ2の向く位置が変わったりした場合)、深度マップの更新も必要になる。深度マップを更新する手段は、例えば、システム管理者がカメラ2ごとに一度だけ(もしくは大きく環境が変化するたびに)手入力してもよいし、センサ(例えば、レーザ距離センサ)などの情報に基づき構築してもよいし、カメラ2の床に対する角度を手入力することで構築してもよいし、センサ(例えば、加速度センサ)などの情報に基づきカメラ2の鉛直に対する角度を測定することで構築してもよい。
 深度マップの更新契機は、環境が変わった際に明示的にシステムの管理者が行うものであってもよいし、例えば所定の周期(一日ごとなど)に自動的に更新するものでもよい。
If the environment surrounding the camera 2 changes (for example, when a new pillar is added in the warehouse or the position where the camera 2 faces changes), the depth map also needs to be updated. The means for updating the depth map may be manually input by the system administrator only once for each camera 2 (or whenever the environment changes significantly), or in information such as a sensor (for example, a laser distance sensor). May be constructed by manually inputting the angle of the camera 2 with respect to the floor, or by measuring the angle of the camera 2 with respect to the vertical based on information such as a sensor (for example, an acceleration sensor). May be built.
The update timing of the depth map may be explicitly performed by the system administrator when the environment changes, or may be automatically updated, for example, at a predetermined cycle (every day or the like).
 図3(a)の直線ベクトルとは、カメラ2の位置からみた作業員の空間位置(X,Y,Z)の方向を示すベクトルである。この直線ベクトルは、カメラの倉庫内の位置と向き情報と、カメラの光学系に関する情報(具体的には、レンズ歪みのモデルや画角などのカメラの仕様データ)を用いて、撮影データの画像内位置(x,y)ごとに求めることができる。なお、直線ベクトルを求めるための入力データは、例えば、環境構築時にユーザに手入力させればよい。
 そして、個体識別装置9は、作業員の直線ベクトルをカメラ2の位置を起点(ゼロ距離)として画像内位置(x,y)における深度マップが示すカメラ距離分(例えば、図3(b)なら10m分)だけ辿ることにより、作業員の空間位置(X,Y,Z)を求めることができる。よって、個体識別装置9は、どの作業員が倉庫内のどの空間位置(X,Y,Z)に存在するのかを特定することができる。
The straight line vector in FIG. 3A is a vector indicating the direction of the worker's spatial position (X, Y, Z) as seen from the position of the camera 2. This straight line vector uses the camera's warehouse position and orientation information and information about the camera's optical system (specifically, the camera's specification data such as the lens distortion model and angle of view). It can be obtained for each internal position (x, y). In addition, what is necessary is just to let a user input manually the input data for calculating | requiring a linear vector at the time of environment construction, for example.
Then, the individual identification device 9 uses the linear vector of the worker as the camera distance indicated by the depth map at the position (x, y) in the image starting from the position of the camera 2 (zero distance) (for example, in FIG. 3B). By tracing only 10 m), the worker's spatial position (X, Y, Z) can be obtained. Therefore, the individual identification device 9 can identify which worker is present at which spatial position (X, Y, Z) in the warehouse.
 図4(a)は、センシングテーブル11aを示す構成図である。センシングテーブル11aには、センサ端末1の識別子であるセンサIDごとに、そのセンサ端末1が取得した加速度データが、その取得時刻に対応づけて格納される。
 なお、本実施形態では、センサ端末1が個体識別の対象者(倉庫の作業員など)ごとに1人1つずつ配布されているので、センサIDは、対象者を識別するためのIDとしても機能する。または、センサIDと対象者IDとが1:1対応しないときには、その両IDを対応づけるデータを別途用意すれば、センサIDから対象者IDを一意に特定できる。
FIG. 4A is a configuration diagram showing the sensing table 11a. In the sensing table 11a, for each sensor ID that is an identifier of the sensor terminal 1, acceleration data acquired by the sensor terminal 1 is stored in association with the acquisition time.
In the present embodiment, since the sensor terminal 1 is distributed one by one for each individual identification target person (such as a warehouse worker), the sensor ID may be used as an ID for identifying the target person. Function. Alternatively, when the sensor ID and the target person ID do not correspond 1: 1, if the data for associating both IDs is prepared separately, the target person ID can be uniquely identified from the sensor ID.
 加速度データは、(x,y,z)の3軸からなるデータである。なお、センサ端末1として、重力加速度成分があらかじめ除外された対象者の動き(相対加速度値)だけを検出するセンサを用いてもよいし、対象者の動きと重力加速度成分と含む動きを検出するセンサを用いてもよい。後者のセンサを用いる場合には、個体識別処理に必要な対象者の動きだけを抽出するため、センサの検出値から重力加速度成分を取り除く処理を、以下に示すように前処理として行う。
 センサ端末1は、重力加速度成分が含まれる(x,y,z)に関して移動平均を算出することでそれぞれの鉛直加速度成分を近似し、それら平均値を(x,y,z)加速度から引くことで、(x,y,z)軸方向それぞれの相対加速度値(dx,dy,dz)を算出する。
The acceleration data is data consisting of three axes (x, y, z). The sensor terminal 1 may be a sensor that detects only the motion (relative acceleration value) of the subject from which the gravitational acceleration component has been excluded in advance, or the motion including the motion of the subject and the gravitational acceleration component. A sensor may be used. When the latter sensor is used, in order to extract only the movement of the subject necessary for the individual identification process, the process of removing the gravitational acceleration component from the detected value of the sensor is performed as a pre-process as shown below.
The sensor terminal 1 approximates each vertical acceleration component by calculating a moving average with respect to (x, y, z) including the gravitational acceleration component, and subtracts the average value from the (x, y, z) acceleration. Thus, the relative acceleration values (dx, dy, dz) in the (x, y, z) axial directions are calculated.
 図4(b)は、人領域テーブル12bを示す構成図である。人領域テーブル12bは、カメラ2の識別子であるカメラIDごとに、そのカメラ2の撮影映像から抽出した人領域ごとに割り当てた人領域IDと、その人領域IDの検出時刻(検出元の映像が撮影された時刻)と、その人領域IDの人領域が存在する画像内位置(中心座標x,中心座標y)とが、対応づけて格納される。なお、人領域の中心点(おなかの位置)の代わりに、人領域の最も下部の座標点(つま先の位置)を、人領域の位置としてもよい。
 ここで、人領域IDは、単独では個人を一意に特定できず、画像内に写っている個々の人が同一人物か別人かだけを認識する程度の情報である。
FIG. 4B is a configuration diagram showing the human area table 12b. The human area table 12b includes, for each camera ID that is an identifier of the camera 2, a human area ID assigned to each human area extracted from the captured video of the camera 2, and a detection time of the human area ID (the detection source video is The time when the image was taken) and the position in the image (center coordinate x, center coordinate y) where the person area of the person area ID exists are stored in association with each other. Instead of the center point (tummy position) of the human area, the lowest coordinate point (toe position) of the human area may be used as the position of the human area.
Here, the person area ID is information that can not uniquely identify an individual alone and recognizes only whether the individual person shown in the image is the same person or a different person.
 図4(c)は、個体類似度テーブル17を示す構成図である。個体類似度テーブル17は、センシングテーブル11aのセンサIDと、人領域テーブル12bの人領域IDとの組み合わせの類似度と、両者の類似度が算出された期間の最新時刻とが、対応づけて格納される。 FIG. 4C is a configuration diagram showing the individual similarity table 17. The individual similarity table 17 stores the similarity of the combination of the sensor ID of the sensing table 11a and the human area ID of the human area table 12b, and the latest time of the period in which the similarity between the two is calculated in association with each other. Is done.
 図4(d)は、個体識別テーブル18を示す構成図である。個体類似度テーブル17の類似度を元に選出されたセンサIDと人領域IDとの対応付けの結果と、個体類似度テーブル17の「時刻」とが、対応づけて格納される。
 例えば、個体類似度テーブル17には、センサID「0x4014」に対応する3つの人領域IDの候補(3-004、3-005、3-006)が存在し、個体識別テーブル18には、3つの候補のうちの類似度が最高の人領域ID(3-004)が個体識別の結果として対応づけられている。つまり、時刻「2014-03-28 15:42:01.191」において、画像内の座標(45,130)に人領域(3-004)として写っている人は、センサID「0x4014」を所持している作業員であると識別される。
FIG. 4D is a configuration diagram showing the individual identification table 18. The result of associating the sensor ID selected based on the similarity in the individual similarity table 17 with the human region ID and the “time” in the individual similarity table 17 are stored in association with each other.
For example, in the individual similarity table 17, there are three human area ID candidates (3-004, 3-005, 3-006) corresponding to the sensor ID “0x4014”. The human region ID (3-004) having the highest similarity among the two candidates is associated as a result of individual identification. In other words, at the time “2014-03-28 15: 42: 01.191”, the person shown as the human area (3-004) at the coordinates (45,130) in the image has the sensor ID “0x4014”. Identified as an employee.
 個体識別部26は、個体類似度テーブル17からセンサIDと人領域IDとの組み合わせについて、すべての組み合わせを取得してもよいし、前回の個体識別処理から変更のあった組み合わせだけを取得してもよい。
 そして、個体識別部26は、取得した組み合わせごとの類似度を参照し、類似度の高いものから順番に並べ、類似度がある閾値以下(例えば、0.5)の組み合わせは破棄することで個体識別の精度を上げる。
 さらに、個体識別部26は、類似度の高い順に、まだセンサIDも人領域IDも採用していない組み合わせを採用し、その採用結果を個体識別テーブル18へと書き出す。これにより、センサIDと人領域IDの組み合わせの類似度が全て相対的に高く、被りの無い組み合わせを選び出すことができる。また、別の実装方法として、選び出した組み合わせの平均類似度が最大化されるようにSimulated Annealing等のアルゴリズムを用いて組み合わせ最適化を図ってもよい。
 ここで、個体識別部26は、対応するセンサが発見できなかった人領域に関しては、センサIDを異常値(例えば、「null」)として個体識別テーブル18に格納する。この「null」の人領域IDも、たとえば、会員登録されていない不審者である可能性があるので、有用な情報である。
The individual identification unit 26 may acquire all combinations of sensor IDs and human area IDs from the individual similarity table 17 or only combinations that have changed from the previous individual identification process. Also good.
Then, the individual identification unit 26 refers to the similarity for each acquired combination, arranges the items in descending order of similarity, and discards combinations whose similarity is equal to or less than a threshold (for example, 0.5). Increase identification accuracy.
Furthermore, the individual identification unit 26 adopts combinations that have not yet adopted the sensor ID and the human area ID in descending order of similarity, and writes the adoption results to the individual identification table 18. Thereby, all the similarity of the combination of sensor ID and person area ID is relatively high, and the combination without a cover can be selected. As another implementation method, combination optimization may be performed using an algorithm such as Simulated Annealing so that the average similarity of the selected combination is maximized.
Here, the individual identification unit 26 stores the sensor ID as an abnormal value (for example, “null”) in the individual identification table 18 for a human region where the corresponding sensor could not be found. This “null” person area ID is also useful information because it may be a suspicious person who is not registered as a member, for example.
 図5(a)は、個体識別装置9により実行されるメイン処理を示すフローチャートである。このフローチャートの実行契機は、例えば、所定期間ごととしてもよいし、センサ端末1との通信が発生したときでもよいし、入力装置92を介して入力が発生したときでもよいし、個体識別装置9や他装置で実行している他のアプリケーションの実行が終了したときでもよい。
 さらに、このフローチャートや後記する各フローチャートの各処理ステップは、一つ前のステップの終了を起因として実行してもよいし、所定の周期(例えば、1秒)ごとに実行してもよい。
FIG. 5A is a flowchart showing main processing executed by the individual identification device 9. The execution timing of this flowchart may be, for example, every predetermined period, when communication with the sensor terminal 1 occurs, when input occurs via the input device 92, or when the individual identification device 9 Or when the execution of another application running on another device is completed.
Furthermore, each processing step of this flowchart or each flowchart described later may be executed due to the end of the previous step, or may be executed every predetermined cycle (for example, 1 second).
 S11のデータ取得処理では、個体識別装置9は、センサ端末1から受信したセンシングデータをセンシングテーブル11aに格納し、カメラ2から受信した映像データを映像データ格納部12aに格納する。
 S12の人領域抽出処理では、人領域抽出部21は、映像データ格納部12aの映像データを読み込み、各時点での映像データから認識した人領域ごとに別々のIDを割り当てて、その割り当て結果を人領域テーブル12bへと格納する。
 S13の類似度算出処理では、類似度評価部25は、S11で格納したセンシングデータの動き情報と、S12で格納した人領域の動き情報との類似度を算出する。
 S14の個体識別処理では、個体識別部26は、S13の類似度が高い組み合わせを互いに対応づけ、その結果を個体識別テーブル18へと出力する。なお、S14の処理は、S13の実行が完了したらすぐに実行してもよいし、任意の時間(例えば、5分)ごとに実行してもよい。
 S15の結果表示処理では、個体識別装置9は、個体識別テーブル18の内容を表示装置91に表示させる。このとき、個体識別の結果(どの画像にだれが写っているか)に加えて、個体識別された各人の補足情報(写っている人の名前など)も併せて表示してもよい(詳細は、図9で後記)。
In the data acquisition process of S11, the individual identification device 9 stores the sensing data received from the sensor terminal 1 in the sensing table 11a, and stores the video data received from the camera 2 in the video data storage unit 12a.
In the human region extraction process of S12, the human region extraction unit 21 reads the video data in the video data storage unit 12a, assigns a different ID to each human region recognized from the video data at each time point, and displays the assignment result. Store in the human area table 12b.
In the similarity calculation process of S13, the similarity evaluation unit 25 calculates the similarity between the motion information of the sensing data stored in S11 and the motion information of the human area stored in S12.
In the individual identification process of S14, the individual identification unit 26 associates the combinations having high similarity in S13 with each other and outputs the result to the individual identification table 18. The process of S14 may be executed immediately after the execution of S13 is completed, or may be executed every arbitrary time (for example, 5 minutes).
In the result display process of S15, the individual identification device 9 causes the display device 91 to display the contents of the individual identification table 18. At this time, in addition to the result of individual identification (who is shown in which image), supplementary information (such as the name of the person shown) of each individual identified may be displayed together (for details) , Later in FIG. 9).
 図5(b)は、人領域抽出部21により実行される人領域抽出処理(S12)の詳細を示すフローチャートである。人領域抽出部21は、特定の時刻に特定のカメラ2から撮像された画像を、映像データ格納部12aから読み取った後、以下の処理を実行する。 FIG. 5B is a flowchart showing details of the human area extraction process (S12) executed by the human area extraction unit 21. The human area extraction unit 21 reads the image captured from the specific camera 2 at a specific time from the video data storage unit 12a, and then executes the following processing.
 S101では、人領域抽出部21は、特定のカメラIDに対応する、特定の時刻の画像を映像データ格納部12aから読み込む。ここにおけるカメラIDとは、例えば未処理の画像が存在する最も若い番号の識別子でよい。またここでいう時刻とは、当該カメラから取得された画像の中から、未処理のもので最も古い時刻でよい。さらに、読み込んだ画像と同じカメラで撮影された時系列的に一つ前の画像も同時に読み込む。 In S101, the human region extraction unit 21 reads an image at a specific time corresponding to a specific camera ID from the video data storage unit 12a. The camera ID here may be, for example, the lowest numbered identifier in which an unprocessed image exists. Further, the time here may be the oldest unprocessed image from the images acquired from the camera. Furthermore, the previous image taken with the same camera as the read image is read simultaneously.
 S102では、人領域抽出部21は、S101で読み込んだ画像と、時系列で一つ前の画像との差分画像を算出する。差分画像の算出処理は、例えば、両画像の各画素について、まず元々は3原色の強度で表される色情報(R、G、B)からスカラ値vに変換し、両画像の同座標から算出された2つのスカラ値(v1、v2)の絶対差(|v1-v2|)を算出する方法が、挙げられる。 In S102, the human region extraction unit 21 calculates a difference image between the image read in S101 and the previous image in time series. For example, for each pixel of both images, the difference image calculation processing is performed by first converting the color information (R, G, B) originally represented by the intensity of the three primary colors into a scalar value v, and then using the same coordinates of both images. A method for calculating the absolute difference (| v1−v2 |) between the two calculated scalar values (v1, v2) is mentioned.
 なお、スカラ値に変換する手段も色々考えられるが、単純には例えば「v=0.299*R+0.587*G+0.144*B」などの式に基づきグレースケールに変換してもよく、画像に映された形状の構造が失われにくい変換式であればなんでもよい。以上で説明した処理により算出される差分画像は、前時刻における画像との差分を評価するものであり、当該時刻における各画素の変化量を表す画像が算出されるため、例えば人などの移動体がより高い値で示される。
 また、差分画像の算出処理は、前の画像との差分を取るのではなく、例えば別途事前に用意した背景画像との差分を取ってもよいし、例えば過去10秒(などの任意の期間)の間に撮影された全画像の平均との差分を取ってもよい。
There are various ways to convert to a scalar value, but it may be converted to gray scale based on an equation such as “v = 0.299 * R + 0.587 * G + 0.144 * B”. Any conversion formula can be used as long as the structure of the formed shape is not easily lost. The difference image calculated by the processing described above evaluates the difference from the image at the previous time, and an image representing the amount of change of each pixel at the time is calculated. Is shown at a higher value.
In addition, the difference image calculation process does not take a difference from the previous image, but may take a difference from a background image separately prepared in advance, for example, for example, the past 10 seconds (an arbitrary period such as) You may take the difference with the average of all the images image | photographed between.
 S103では、人領域抽出部21は、S102で算出した差分画像の各画素が閾値を超えるか否かにより2値化し、値として1と0しか含まれない画像に変換する。この際、閾値とは任意に設定(例えば、0.2)してもよいし、例えば長期的(1日など)にわたって算出された差分画像の各画素の平均値を算出し、平均値を閾値として設定してもよい。このステップにより、人などの移動体は1で表示され、それ以外は0で表示される2値画像が生成される。なお、人領域抽出部21は、S103の前処理または後処理として、ノイズ除去を行ってもよい。 In S103, the human region extraction unit 21 binarizes depending on whether each pixel of the difference image calculated in S102 exceeds a threshold value, and converts it into an image including only 1 and 0 as values. At this time, the threshold value may be arbitrarily set (for example, 0.2), for example, an average value of each pixel of the difference image calculated over a long term (such as one day) is calculated, and the average value is set as the threshold value. May be set as By this step, a binary image is generated in which a moving object such as a person is displayed as 1 and otherwise is displayed as 0. Note that the human region extraction unit 21 may perform noise removal as the pre-processing or post-processing of S103.
 S104では、人領域抽出部21は、S103で算出した2値画像から、それぞれ移動体を表す人領域を抽出する。人領域抽出処理は、例えば、「1」の値を持つ画素同士が隣接する場合は同じオブジェクトに含まれ、かつ「1」の値を持つ画素同士の間に「1」の画素のみを通る経路が存在しない場合は異なるオブジェクトに属するように、「1」の画素のグループ化を行う処理である。この処理により、画面内に映る複数の移動体(例えば、人間)がそれぞれ異なる画素領域として識別されることになる。ここでは領域に関して中心の座標情報や、左上端と右下端の座標点や、領域を構成する全画素の座標点を保持する。
 なお、人領域抽出部21は、S101~S104で例示した人領域抽出処理の代わりに、例えばHaar-like featuresの認識器を用いてオブジェクト抽出してもよい。
In S104, the human region extraction unit 21 extracts human regions each representing a moving object from the binary image calculated in S103. In the human region extraction process, for example, when pixels having a value of “1” are adjacent to each other, a path that is included in the same object and passes only a pixel of “1” between pixels having a value of “1” Is a process of grouping “1” pixels so that they belong to different objects. By this processing, a plurality of moving bodies (for example, humans) reflected in the screen are identified as different pixel areas. Here, the coordinate information of the center regarding the region, the coordinate points of the upper left corner and the lower right corner, and the coordinate points of all pixels constituting the region are held.
Note that the human region extraction unit 21 may extract objects using, for example, a recognizer of Haar-like features, instead of the human region extraction processing exemplified in S101 to S104.
 S105では、人領域抽出部21は、S104で抽出した各オブジェクト領域に人領域IDを付与する。ここでは例えば、当該カメラの一つ前の時間単位に抽出された各人領域につき、今回抽出された各人領域の中で最も重なる面積が大きい領域を割り当てて、新しく抽出された領域には、割り当てられた古い人領域の領域IDを採用する。 In S105, the human area extraction unit 21 assigns a human area ID to each object area extracted in S104. Here, for example, for each person area extracted in the time unit immediately before the camera, an area having the largest overlapping area among the person areas extracted this time is assigned, and the newly extracted area is The area ID of the allocated old person area is adopted.
 S105により、同じ人が連続的な時間にわたって同じIDを付与され続けられることが期待される。また古い人領域と結び付かなかった新しい人領域(即ち、この時刻で初めて撮影された人を表す人領域)には新規のID(例えば過去に遡って一度も使われたことのないID)を発行する。以上ではID管理の単純な実装例を示したが、オブジェクトの遮蔽等の外乱に強い方法(Particle Filterなど)を用いてもよい。
 S106では、人領域抽出部21は、S105で領域IDを付与した人領域を人領域テーブル12bに格納する。
By S105, it is expected that the same person can be continuously given the same ID over a continuous time. In addition, a new ID (for example, an ID that has never been used retroactively in the past) is assigned to a new person area that is not associated with the old person area (that is, a person area that represents a person photographed for the first time at this time). Issue. Although a simple implementation example of ID management has been described above, a method (Particle Filter or the like) that is resistant to disturbances such as object occlusion may be used.
In S106, the human area extraction unit 21 stores the human area assigned with the area ID in S105 in the human area table 12b.
 図6は、類似度評価部25などにより実行される類似度算出処理(S13)の詳細を示すフローチャートである。本処理は、例えばある時刻に関する人領域抽出処理(図5(b))が完了し、更に当該時刻までのセンシングデータがセンサ端末1から収集されたタイミングで実行されてもよいし、例えば任意の時間(例えば、5分)ごとに実行してもよい。 FIG. 6 is a flowchart showing details of the similarity calculation process (S13) executed by the similarity evaluation unit 25 and the like. This process may be executed, for example, at the timing when the human region extraction process (FIG. 5B) relating to a certain time is completed and sensing data up to that time is collected from the sensor terminal 1. It may be executed every time (for example, 5 minutes).
 なお、図6の処理の目的は、あるセンサで取得されたセンサデータと、ある人領域の動作を比較して類似度を評価することで、当該人領域が映している人が当該センサを所持している可能性の度合いを測ることである。そのために、当該人領域が当該センサを持っていたと仮定した場合の類似度(尤もらしさ)を定量化する。 The purpose of the processing in FIG. 6 is to compare the sensor data acquired by a certain sensor with the operation of a certain human area and evaluate the similarity, so that the person who reflects the human area has the sensor. It is to measure the degree of possibility. For that purpose, the similarity (likelihood) when the person region is assumed to have the sensor is quantified.
 S201~S207では、類似度評価部25は、センシングテーブル11aに含まれるセンサIDと、人領域抽出部21に含まれる人領域IDとの組み合わせを網羅するように順に選択するループを実行する。以下、今回のループで選択された組み合わせを「評価ペア」とする。
 S202では、類似度評価部25は、評価ペアのセンサIDに関するレコードをセンシングテーブル11aから読み取り、評価ペアの人領域IDに関するレコードを人領域テーブル12bから読み込む。なお、類似度評価部25は、時刻情報を参照して、過去所定の期間内のデータ(例えば、過去10分間)に絞り込んで評価ペアのレコードを読み込んでもよい。
In S201 to S207, the similarity evaluation unit 25 executes a loop that sequentially selects so as to cover combinations of the sensor IDs included in the sensing table 11a and the human region IDs included in the human region extraction unit 21. Hereinafter, the combination selected in this loop is referred to as an “evaluation pair”.
In S202, the similarity evaluation unit 25 reads a record related to the sensor ID of the evaluation pair from the sensing table 11a, and reads a record related to the human area ID of the evaluation pair from the human area table 12b. The similarity evaluation unit 25 may read records of evaluation pairs by referring to time information and narrowing down to data within a predetermined period in the past (for example, the past 10 minutes).
 S203では、類似度評価部25は、センシング補正部23から、補正後センシンググラフ11cを取得する。
 そのため、まず、スカラ化処理部20は、S202で読み込んだセンシングテーブル11aの加速度データ(dx,dy,dz)に対して、スカラ値に変換することで、図7(a)の補正前センシンググラフ11bを求める。スカラ値の変換式は、例えば、(dxの2乗+dyの2乗+dzの2乗)の平方根である。
 補正前センシンググラフ11bは、センサ端末1の利用者ごとの時系列の動き量(加速度)を示す。例えば、図7(a)の第1期間では利用者は小さく(小刻みに)動き、第2期間では利用者は大きく動いている様子がわかる。
 補正前センシンググラフ11bからは、利用者が活動と停止を繰り返しており、活動中は大きい振動が高周期で繰り返していることが読み取れる。例えば、人の歩行時には周期的な上下運動が行われるため、加速度データから周期的な動きが観測される。
In S203, the similarity evaluation unit 25 acquires the corrected sensing graph 11c from the sensing correction unit 23.
Therefore, first, the scalarization processing unit 20 converts the acceleration data (dx, dy, dz) of the sensing table 11a read in S202 into a scalar value, whereby the sensing graph before correction in FIG. 11b is obtained. The conversion formula of the scalar value is, for example, the square root of (square of dx + square of dy + square of dz).
The pre-correction sensing graph 11b shows a time-series motion amount (acceleration) for each user of the sensor terminal 1. For example, it can be seen that the user moves small (in small increments) in the first period of FIG. 7A and moves greatly in the second period.
From the sensing graph 11b before correction, it can be seen that the user repeats the activity and the stop, and the large vibration is repeated at a high cycle during the activity. For example, since a periodic vertical movement is performed when a person walks, a periodic movement is observed from acceleration data.
 次に、カメラ距離抽出部22は、深度マップ格納部13aの深度マップを参照して、S202で読み込んだ人領域テーブル12b内の人領域ごとに、その人領域の画像内位置からその人領域のカメラ距離を特定し、その特定結果を図7(b)のカメラ距離グラフ13bへと出力する。
 図7(b)では、利用者は、最初はカメラから5m程度のところから始まり、第1期間で13m程度のところまで移動し、静止する。その後、利用者は、3m程度のところまで戻り、静止後、第2期間で3m程度のところに留まって活動している。
Next, the camera distance extraction unit 22 refers to the depth map of the depth map storage unit 13a, and for each human region in the human region table 12b read in S202, the human region is determined from the position in the image of the human region. The camera distance is specified, and the specified result is output to the camera distance graph 13b in FIG.
In FIG. 7B, the user starts from about 5 m from the camera first, moves to about 13 m in the first period, and stops still. After that, the user returns to the place of about 3 m, stays at the place of about 3 m in the second period after standing still, and is active.
 そして、センシング補正部23は、カメラ距離グラフ13bに記載されるカメラ距離(各時点での映像内人領域のカメラ2からの距離)をもとに、補正前センシンググラフ11bから補正後センシンググラフ11cへと補正する。
 補正処理は、例えば、カメラ距離が長いほど、ローパスフィルタの通過帯域を低くする(換言すると、高周波成分を多く除去できるように、強く補正する)処理である。なお、ローパスフィルタの実現方法として、移動平均を用いる方法がある。例えば、距離が0mの時は窓幅0秒の平均をとり、距離が任意の距離以上(例えば、20m)の時は、窓幅を任意の幅(例えば、1秒)に設定し、ある時刻の補正加速度データは、当該時刻の前後窓幅分の加速度データの平均に設定する。
The sensing correction unit 23 then converts the pre-correction sensing graph 11b to the post-correction sensing graph 11c based on the camera distance described in the camera distance graph 13b (the distance from the camera 2 of the human area in the video at each time point). To correct.
The correction process is, for example, a process that lowers the passband of the low-pass filter as the camera distance is longer (in other words, strongly corrects so as to remove more high-frequency components). As a method for realizing the low-pass filter, there is a method using a moving average. For example, when the distance is 0 m, the window width is averaged at 0 seconds, and when the distance is more than an arbitrary distance (for example, 20 m), the window width is set to an arbitrary width (for example, 1 second) at a certain time The corrected acceleration data is set to the average of the acceleration data for the window width before and after the time.
 例えば、図7(c)に示すように、第1期間のようにカメラから遠ざかった時は補正が強くかかる(p1からp2までの広い窓幅の移動平均によりpの補正加速度を求める)ので、図7(a)の第1期間で存在していた高周波成分(小刻みな動き)は補正により除去される。一方、距離がカメラに近い時は加速度データにかかる補正は少ない(q1からq2までの狭い窓幅の移動平均によりqの補正加速度を求める)ので、図7(a)の第2期間で存在していた高周波成分(小刻みな動き)は図7(c)でもある程度は残る。 For example, as shown in FIG. 7 (c), when the camera is moved away from the camera as in the first period, correction is strongly applied (p corrected acceleration is obtained by a moving average of wide window widths from p1 to p2). The high frequency components (small movements) that existed in the first period of FIG. 7A are removed by correction. On the other hand, when the distance is close to the camera, there is little correction on the acceleration data (the correction acceleration of q is obtained by a moving average with a narrow window width from q1 to q2), and therefore exists in the second period of FIG. The high frequency components (minor movements) that have been retained remain to some extent even in FIG.
 このセンシング補正部23の意図は、「カメラから遠ざかると動きが鈍って見える」という現象をセンシングデータに再現することである。ローパスフィルタは、計算量が少ないながらも比較的精度よく上記の現象を再現できるが、より厳密な補正を行うことで、更に精密に加速度がどのように映像として映るかを再現してもよい。
 以上、S203の処理を説明した。
The intent of the sensing correction unit 23 is to reproduce the phenomenon that “the movement appears dull when moving away from the camera” in the sensing data. The low-pass filter can reproduce the above phenomenon with a relatively high accuracy even though the amount of calculation is small, but it may reproduce how the acceleration appears as an image more precisely by performing a stricter correction.
The process of S203 has been described above.
 S204として、類似度評価部25は、画像内移動抽出部24から画像内移動量グラフ12cを取得する。
 そのため、画像内移動抽出部24は、S202で読み込んだ人領域テーブル12bに格納される人領域ごとに、人領域の映像上の動作を数値化する。ある時刻における人領域の画像内位置を座標点(x,y)とすると、各軸に対して二回微分を行うと、映像上の加速度(accX,accY)が求まる。そして、画像内移動抽出部24は、(accXの2乗+accYの2乗)の平方根を計算し、その結果を図7(d)の画像内移動量グラフ12cの縦軸(人領域の移動加速度)とする。
 なお、図12で説明したように、同じ動きをカメラの近くで行った場合と、カメラから遠くで行った場合とでは映像上の動きが異なって見える。つまり、画像内移動量グラフ12cでは、「利用者が実際にどう動いたか」、というよりも、「カメラの映像内では利用者がどう動いたように見えたか」が示される。
As S <b> 204, the similarity evaluation unit 25 acquires the intra-image movement amount graph 12 c from the intra-image movement extraction unit 24.
Therefore, the intra-image movement extraction unit 24 quantifies the operation of the human area on the image for each human area stored in the human area table 12b read in S202. Assuming that the position in the image of the human area at a certain time is a coordinate point (x, y), the acceleration (accX, accY) on the image can be obtained by performing differentiation twice for each axis. Then, the intra-image movement extracting unit 24 calculates the square root of (square of accX + square of accY), and the result is taken as the vertical axis of the intra-image movement amount graph 12c of FIG. ).
Note that, as described with reference to FIG. 12, the motion on the video looks different when the same motion is performed near the camera and when the same motion is performed far from the camera. That is, in the intra-image movement amount graph 12c, rather than “how the user actually moved”, “how the user appeared to move in the video of the camera” is shown.
 S205として、類似度評価部25は、S203で取得した補正後センシンググラフ11cの補正加速度と、S204で取得した画像内移動量グラフ12cの人領域移動加速度との類似度(評価ペアの類似度)を評価する。このためには、類似度評価部25は、単純に各時刻における補正加速度と人領域移動加速度の相関係数、もしくはそれに準ずる係数を算出すればよい。例えば相関係数を算出した場合は、両データ(のグラフの形状)が類似していた場合は1に近い値になる。
 なお、センサ端末1とカメラ2とで時計の時刻にずれがあることを考慮し、補正後センシンググラフ11cまたは画像内移動量グラフ12cの時刻軸を左右にスライドするなど、そのずれを補正してから類似度を評価してもよい。
 S206として、類似度評価部25は、S205で計算した評価ペアの類似度を個体類似度テーブル17に格納する。
As S205, the similarity evaluation unit 25 calculates the similarity between the corrected acceleration of the corrected sensing graph 11c acquired in S203 and the human area movement acceleration of the intra-image movement amount graph 12c acquired in S204 (similarity of evaluation pairs). To evaluate. For this purpose, the similarity evaluation unit 25 simply calculates a correlation coefficient between the corrected acceleration and the human area movement acceleration at each time, or a coefficient equivalent thereto. For example, when the correlation coefficient is calculated, a value close to 1 is obtained if both data (the shape of the graph) are similar.
In consideration of the time difference of the clock between the sensor terminal 1 and the camera 2, the time difference of the corrected sensing graph 11c or the intra-image movement amount graph 12c is slid to the left or right to correct the time difference. The degree of similarity may be evaluated.
As S206, the similarity evaluation unit 25 stores the similarity of the evaluation pair calculated in S205 in the individual similarity table 17.
 以下、図8を参照して、深度マップ格納部13aの自動生成処理を説明する。
 図8(a)に示す第1段階では、初期状態として、深度を全て固定(例えば3m)で初期化した深度マップから開始する。この深度マップ格納部13aをもとにして補正された補正後センシンググラフ11cからは、実際にカメラ距離が3mの位置にいる人Aを発見できる(個体識別に成功する)が、5mの位置にいる人Bや、10mの位置にいる人Cは、補正量が適切ではないため、発見できない。
 なお、図8では、深度マップ格納部13a内の初期値のまま更新されない箇所を破線の楕円で囲み、更新された箇所を実線の楕円で囲む。
Hereinafter, the automatic generation process of the depth map storage unit 13a will be described with reference to FIG.
In the first stage shown in FIG. 8A, the initial state starts from a depth map in which all depths are fixed (for example, 3 m). From the corrected sensing graph 11c corrected based on the depth map storage unit 13a, the person A who is actually at a camera distance of 3 m can be found (successfully identified), but at a position of 5 m. The person B and the person C at a position of 10 m cannot be found because the correction amount is not appropriate.
In FIG. 8, a portion that is not updated as the initial value in the depth map storage unit 13a is surrounded by a dashed ellipse, and an updated portion is surrounded by a solid ellipse.
 図8(b)は、深度マップ格納部13aの自動生成処理の第2段階を示す説明図である。
 個体識別装置9は、図8(a)で発見した人Aを追跡し、人Aの加速度データ(補正前センシンググラフ11b)と、人Aの画像内の見かけ上の加速度(画像内移動量グラフ12cを補正後センシンググラフ11cとみなす)から、カメラ距離グラフ13bを逆演算により推定する。
 つまり、センシング補正部23は、補正前センシンググラフ11bから、カメラ距離グラフ13bに基づく補正量で、補正後センシンググラフ11cへと補正するが、補正前センシンググラフ11bと補正後センシンググラフ11cとが入力されると、カメラ距離グラフ13bに基づく補正量を逆算できる。
 これにより、図8(a)よりも上部に移動した人Aのカメラ距離が5mであると求まるので、その5mで深度マップ格納部13aの初期値(3m)を更新する。
FIG. 8B is an explanatory diagram showing a second stage of the automatic generation process of the depth map storage unit 13a.
The individual identification device 9 tracks the person A found in FIG. 8A, the acceleration data of the person A (sensing graph 11b before correction), and the apparent acceleration in the image of the person A (intra-image movement amount graph). 12c is regarded as the corrected sensing graph 11c), and the camera distance graph 13b is estimated by inverse calculation.
That is, the sensing correction unit 23 corrects the pre-correction sensing graph 11b to the post-correction sensing graph 11c with the correction amount based on the camera distance graph 13b, but the pre-correction sensing graph 11b and the post-correction sensing graph 11c are input. Then, the correction amount based on the camera distance graph 13b can be calculated backward.
As a result, since the camera distance of the person A who has moved to the upper side than FIG. 8A is found to be 5 m, the initial value (3 m) of the depth map storage unit 13 a is updated at 5 m.
 図8(c)は、深度マップ格納部13aの自動生成処理の第3段階を示す説明図である。図8(b)と同じ処理を繰り返し行い、人Aの軌跡を辿る(3m→5m→10m)ことで、次第に深度マップが作成されていく。なお、個体識別装置9は、人Aの軌跡を辿った後は、初期値を3mから5mへと変更することで、人Bの軌跡を辿ることができる。 FIG. 8C is an explanatory diagram showing a third stage of the automatic generation process of the depth map storage unit 13a. The depth map is gradually created by repeating the same process as in FIG. 8B and following the trajectory of the person A (3 m → 5 m → 10 m). Note that the individual identification device 9 can follow the trajectory of the person B by changing the initial value from 3 m to 5 m after following the trajectory of the person A.
 図9は、表示装置91に表示される作業員管理画面1200を示す説明図である。この作業員管理画面1200は、例えば、入力装置92を介して利用者からの表示要求を受け付けたことを契機として、表示される。なお、個体識別装置9で稼働するアプリケーションとしては、ブラウザを採用してもよいし、単独で稼働するアプリケーションが直接作業員管理画面1200を表示してもよい。 FIG. 9 is an explanatory diagram showing a worker management screen 1200 displayed on the display device 91. The worker management screen 1200 is displayed, for example, when a display request from a user is received via the input device 92. Note that a browser may be adopted as an application that runs on the individual identification device 9, or an application that runs alone may directly display the worker management screen 1200.
 この作業員管理画面1200により、倉庫内を移動する作業員が誰であるか分かれば、一人一人の作業員の作業進捗の把握を行うことができる。逆に、認識できなかった人(即ち、倉庫内を歩いているのに、サーバ上にIDの記録がない)場合や、そのIDはその場所に居てはいけないことが記されていたりする場合を発見することができれば、セキュリティに役立てることができる。 This worker management screen 1200 can grasp the work progress of each worker if the worker who moves in the warehouse is known. On the other hand, when the person who could not be recognized (that is, walking in the warehouse but there is no record of the ID on the server) or when it is written that the ID should not be in that place If it can be discovered, it can be used for security.
 作業員管理画面1200は、現在倉庫内にいる各作業員の位置と、画面上で選択した作業員の状態を表示する画面であり、倉庫内の地図と作業者の位置を表示する地図領域1201と、選択された作業者に関する詳細情報を表示する作業者情報領域1202と、選択された作業員について現在の映像を表示する映像表示領域1203から構成される。 The worker management screen 1200 is a screen that displays the position of each worker currently in the warehouse and the state of the worker selected on the screen, and a map area 1201 that displays a map in the warehouse and the position of the worker. And a worker information area 1202 for displaying detailed information on the selected worker, and a video display area 1203 for displaying the current video for the selected worker.
 地図領域1201は、対象となる倉庫内の棚や障害物、図3で説明した各作業者の空間位置(X,Y,Z)などを表示する領域である。棚や障害物の情報は、倉庫設計時の設計書やCAD(Computer Aided Design)データを入力として表示してもよいし、利用者に手入力してもらってもよい。
 各作業者を示すアイコンの近傍には、その作業者が保持しているセンサ端末1のセンサID(例えば「0x2480」)も併せて表示している。また、各作業者を示すアイコンからは、過去任意期間(例えば、5分間)の位置の軌跡を線として表示する。このように、地図領域1201を表示することで、利用者(例えば、倉庫管理者)は倉庫内のどの領域にどれぐらい人が集中しているか、また各作業員が効率的に動いているか、一目で見ることができる。
The map area 1201 is an area for displaying a shelf or an obstacle in the target warehouse, the spatial position (X, Y, Z) of each worker described in FIG. The information on shelves and obstacles may be displayed by inputting a design document and CAD (Computer Aided Design) data at the time of warehouse design, or may be manually input by a user.
In the vicinity of the icon indicating each worker, the sensor ID (for example, “0x2480”) of the sensor terminal 1 held by the worker is also displayed. Further, from the icon indicating each worker, the locus of the position in the past arbitrary period (for example, 5 minutes) is displayed as a line. In this way, by displaying the map area 1201, how many people the user (for example, warehouse manager) concentrates on which area in the warehouse, and each worker is moving efficiently, You can see at a glance.
 また、作業員情報領域1202には、入力装置92を介して特定の作業者(例えば「0x2486」)が選択されると、その選択された作業員の現在の状態(作業進捗状況や、現在の所在地)を表示してもよい。
 作業の進捗状況は、あらかじめ作業者ごとに対応づけられている倉庫情報管理システムのデータを参照してもよいし、特定の目的地までの距離に応じて進捗を算出してもよい。現在の所在地は、座標としても表示してもよいし、利用者が一目で見て分かりやすいように、最寄りの棚の番号を表示してもよい。作業員情報領域1202を表示することで、詳細な情報を利用者に提示することができる。
In addition, when a specific worker (for example, “0x2486”) is selected via the input device 92 in the worker information area 1202, the current state (work progress status or current state) of the selected worker is selected. (Location) may be displayed.
As for the progress status of the work, the data of the warehouse information management system associated with each worker in advance may be referred to, or the progress may be calculated according to the distance to the specific destination. The current location may be displayed as coordinates, or the nearest shelf number may be displayed so that the user can easily see at a glance. By displaying the worker information area 1202, detailed information can be presented to the user.
 さらに、映像表示領域1203では、選択された作業者(例えば「0x2486」)についての最新の映像データ格納部12a内の画像を表示する。この最新の画像は、以下の手順により取得できる。
 (手順1)作業員IDからセンサIDを特定する。
 (手順2)個体識別テーブル18を参照して、センサIDから人領域IDを取得する。
 (手順3)人領域テーブル12bを参照して、人領域IDからその人領域を撮影したカメラのカメラIDと、その時刻を特定する。
 (手順4)映像データ格納部12aから、特定したカメラIDおよび時刻における映像データを取得する。
 (手順5)取得した映像データから人領域テーブル12bの中心座標をもとに、人領域が示す領域と、その周辺(例えば、人領域の2倍の面積まで)を切り出す。
 これにより、これにより、これまで困難であった、監視カメラ映像群から所望の人物を探す作業を簡単に実現できる。
 なお、個体識別装置9は、作業員IDごとに立ち入りが許可される空間位置と、不許可である空間位置とを示す移動許可範囲の情報をあらかじめ用意しておき、移動許可範囲から外れた作業員を検出した場合に画面上に警告画面を出したり、管理者にメールを自動送信したりしてもよい。
Further, in the video display area 1203, the latest image in the video data storage unit 12a for the selected worker (for example, “0x2486”) is displayed. This latest image can be acquired by the following procedure.
(Procedure 1) The sensor ID is specified from the worker ID.
(Procedure 2) Referring to the individual identification table 18, a human region ID is acquired from the sensor ID.
(Procedure 3) With reference to the person area table 12b, the camera ID of the camera that has captured the person area and its time are specified from the person area ID.
(Procedure 4) Video data at the specified camera ID and time is acquired from the video data storage unit 12a.
(Procedure 5) Based on the center coordinates of the human area table 12b, the area indicated by the human area and its periphery (for example, up to twice the area of the human area) are cut out from the acquired video data.
Thereby, the operation | work which looks for a desired person from the surveillance camera video group which was difficult until now by this can be implement | achieved easily.
In addition, the individual identification device 9 prepares in advance information on a movement permission range indicating a spatial position where entry is permitted for each worker ID and a spatial position where the entry is not permitted, and work outside the movement permission range. When an employee is detected, a warning screen may be displayed on the screen, or an email may be automatically transmitted to the administrator.
 図10(a)は、表示装置91として指向性ディスプレイを活用する例を示す説明図である。この指向性ディスプレイは、公共ディスプレイとして設置され、視聴する場所によって異なるコンテンツを表示する。指向性ディスプレイは、例えば、特開2014-41355号公報に記載されるシャッターメガネやレンチキュラーレンズや偏光ディスプレイのいずれかを用いて、場所ごとに違うものを見せるディスプレイとして構成される。
 そして、カメラ2や個体識別装置9としては、例えば、ビデオゲーム用の映像処理システムであるKinect(登録商標)を用いて、各人の個人IDと、各人の位置(例えば、目の位置)とを識別する。その識別結果により、表示装置91の左側に顧客U1が存在し、正面側に社員U2が存在し、右側に幹部U3が存在しているものとする。
FIG. 10A is an explanatory diagram illustrating an example in which a directional display is used as the display device 91. This directional display is installed as a public display and displays different contents depending on the viewing location. The directional display is configured, for example, as a display that shows different things for each place using any of shutter glasses, lenticular lenses, and polarization displays described in Japanese Patent Application Laid-Open No. 2014-41355.
As the camera 2 and the individual identification device 9, for example, using Kinect (registered trademark) which is a video processing system for video games, each person's personal ID and each person's position (for example, eye position) And identify. According to the identification result, it is assumed that the customer U1 exists on the left side of the display device 91, the employee U2 exists on the front side, and the executive U3 exists on the right side.
 図10(b)は、図10(a)の表示装置91からの各人に見える表示内容を示す画面図である。
 顧客U1には、秘匿性の低い「製品のウリ」だけが閲覧できるようにし、社員U2には、「製品のウリ」に加えて、秘匿性のやや高い「担当事業部」も閲覧できるようにし、幹部U3には、「製品のウリ、担当事業部」に加えて、秘匿性の高い「今期売り上げ予想」も閲覧できるようにしている。
 このように、指向性ディスプレイをプレゼンテーションに応用する場合、スライドに表示される内容を所属や権限によって変えることもできる。例えば、指向性ディスプレイは、特定の個人IDの人だけにパスワードを見せ、他の人にはパスワードの表示箇所が秘匿されている状態のものを見せてもよい。
FIG. 10B is a screen diagram showing display contents visible to each person from the display device 91 of FIG.
Only customer “Uri” with low secrecy can be viewed by customer U1, and employee U2 can also browse “Business Division” with slightly higher secrecy in addition to “Uri of Product”. In addition to the “Uri of the product, the division in charge”, the executive U3 is also able to browse the “confidential sales forecast for the current term”.
As described above, when the directional display is applied to the presentation, the content displayed on the slide can be changed depending on the affiliation and authority. For example, the directional display may show a password only to a person with a specific personal ID and show another person in a state where the password display location is concealed.
 このように、個体識別装置9は、誰がどこにいるか(個体識別テーブル18の内容)と、誰に何を見せるか(個人IDや個人属性ごとにあらかじめ対応づけられている表示データ)とをもとに、どこに何を見せるか(指向性ディスプレイの表示内容)を決定して、表示装置91に出力する。
 また、物流倉庫の床や壁などに指向性ディスプレイを設置することで、特定の作業員だけにアラートやナビゲーションを見せることもできる。
 さらに、指向性ディスプレイは、個々人の興味などにより、看板広告を人ごとに変えて見せたりしてもよいし、性別や年代や理解できる言語によって、字幕を見せたり、情報の粒度を変えたりしてもよいし、部屋のインテリアとして設置された指向性ディスプレイの表示色を、嗜好によって変えたりしてもよい。
In this way, the individual identification device 9 is based on who is where (the contents of the individual identification table 18) and what is shown to whom (display data associated in advance for each individual ID or individual attribute). Then, where and what to show (display contents of the directional display) are determined and output to the display device 91.
In addition, by installing directional displays on the floors and walls of distribution warehouses, alerts and navigation can be shown only to specific workers.
In addition, directional displays may show signboard advertisements for each person depending on their interests, etc., or they may show subtitles or change the granularity of information depending on gender, age, or understandable language. Alternatively, the display color of the directional display installed as the interior of the room may be changed according to preference.
 以上説明した本実施形態では、類似度評価部25が、カメラ2からの映像データから抽出した画像内移動量グラフ12cと、センサ端末1からの動きデータを補正した補正後センシンググラフ11cとを比較することで、個体類似度テーブル17を作成する。ここで、センシング補正部23は、補正前センシンググラフ11bから補正後センシンググラフ11cへの補正処理において、カメラ2からの映像データから抽出したカメラ距離グラフ13bに応じて、被写体のカメラ距離が近いときには補正を少なくし、カメラ距離が遠いときには補正を多くすることで、画像内移動量グラフ12cが示すような見かけの動き情報をセンシングデータから作り出すことができる。
 よって、補正後センシンググラフ11cと、画像内移動量グラフ12cとはともに、カメラからみた見かけの動き情報であるので、同一人物が正しく対応づけられることが期待され、個体識別の成功率が向上する。
In the present embodiment described above, the similarity evaluation unit 25 compares the intra-image movement amount graph 12 c extracted from the video data from the camera 2 and the corrected sensing graph 11 c obtained by correcting the motion data from the sensor terminal 1. As a result, the individual similarity table 17 is created. Here, in the correction process from the pre-correction sensing graph 11b to the post-correction sensing graph 11c, the sensing correction unit 23 determines that the subject camera distance is short according to the camera distance graph 13b extracted from the video data from the camera 2. By reducing the correction and increasing the correction when the camera distance is long, it is possible to create apparent motion information from the sensing data as indicated by the intra-image movement amount graph 12c.
Therefore, since both the corrected sensing graph 11c and the intra-image movement amount graph 12c are apparent motion information viewed from the camera, it is expected that the same person is correctly associated, and the success rate of individual identification is improved. .
 本実施形態のセンシング補正部23による補正処理の効果を詳しく説明するため、以下の比較例では、補正を行わない場合(補正前センシンググラフ11bに該当)の個体識別処理を例示する。
 図11(a)は、天井のカメラから撮影する様子を示す説明図である。環境内には人が3人(人1、人2、人3)存在し、その様子を天井に設置されたカメラが真上から撮影している。なお、各人を起点に記載されている曲線は、各人の移動した軌跡を示す。
 図11(b)は、図11(a)のカメラからの映像を示す説明図である。移動体の検出手段は、カメラ映像から人領域(物体A,B,C)を検出する。
 図11(c)は、図11(b)の映像をもとにした個体識別結果を示す説明図である。図11(a)の各人(人1、人2、人3)の保持する加速度センサからの加速度データは、個体識別サーバに随時送信されている。この加速度データが細かく発振しているのは、人は歩行する際、周期的に加速度が変化するためである。
In order to describe in detail the effect of the correction process by the sensing correction unit 23 of the present embodiment, the following comparative example illustrates an individual identification process when correction is not performed (corresponding to the pre-correction sensing graph 11b).
FIG. 11A is an explanatory diagram showing a state of shooting from a ceiling camera. There are three people (person 1, person 2, person 3) in the environment, and a camera installed on the ceiling photographs the situation from directly above. In addition, the curve described with each person as the starting point indicates the trajectory that each person has moved.
FIG.11 (b) is explanatory drawing which shows the image | video from the camera of Fig.11 (a). The moving body detection means detects a human region (objects A, B, C) from the camera video.
FIG.11 (c) is explanatory drawing which shows the individual identification result based on the image | video of FIG.11 (b). The acceleration data from the acceleration sensor held by each person (person 1, person 2, person 3) in FIG. 11A is transmitted to the individual identification server as needed. This acceleration data oscillates finely because when a person walks, the acceleration periodically changes.
 また、個体識別サーバは、図11(b)の映像から抽出された3つの物体についても、時系列で画像内の動きを連続的に追うことで映像内移動体の動作量を算出する。
 そして、個体識別サーバは、加速度データのグラフと、映像内移動体の動作量のグラフとの類似度を評価し、例えば類似度の一番高い組み合わせから順番に採用することで、映像内の物体(例えば、物体C)と、その物体が持っているであろう加速度センサ(例えば、人1)とを対応づける。この対応付けを個体識別とする。
 以上説明した図11の比較例では、3人の個体識別がそれぞれ成功するものの、3人の位置にかかわらずカメラ距離を等距離にするため、図11(a)に示すように、天井のカメラを用いる必要がある。よって、ある程度の識別率を得られるものの、システムの導入コストがかかってしまう。
In addition, the individual identification server calculates the movement amount of the moving body in the image by continuously following the movement in the image in time series for the three objects extracted from the image in FIG.
Then, the individual identification server evaluates the similarity between the acceleration data graph and the motion amount graph of the moving object in the image, and adopts the objects in the image in order, for example, in order from the combination with the highest similarity. (For example, object C) and an acceleration sensor (for example, person 1) that the object will have are associated with each other. This association is referred to as individual identification.
In the comparative example of FIG. 11 described above, although the individual identification of three persons is successful, the camera distance is equalized regardless of the position of the three persons. Therefore, as shown in FIG. Must be used. Therefore, although a certain identification rate can be obtained, the introduction cost of the system is increased.
 図12は、図11とは違い、横方向に向けられたカメラから撮影する様子を示す説明図である。
 図12(a)は、個体識別の対象である人を斜めや真横からのカメラで撮影した場合を示す。
 図12(b)は、図12(a)のカメラからの映像を示す説明図である。
 図12(c)は、図12(b)の映像をもとにした個体識別結果を示す説明図である。
FIG. 12 is an explanatory view showing a state of shooting from a camera directed in the horizontal direction, unlike FIG.
FIG. 12A shows a case where a person who is an object of individual identification is photographed with a camera obliquely or from the side.
FIG. 12B is an explanatory diagram showing an image from the camera of FIG.
FIG.12 (c) is explanatory drawing which shows the individual identification result based on the image | video of FIG.12 (b).
 ここで、人2と物体Aとの個体識別と、人3と物体Bとの個体識別とはそれぞれ成功するものの、人1と物体Cとの個体識別は、互いのグラフの形状が大きく異なるため、失敗してしまう。この失敗する要因としては、物体Cである人1がカメラから遠くに位置しているため、映像内移動体の動作量は、実際の加速度データよりも小さく写ってしまうためである。また、映像内移動体の動作量は、物体がカメラの向く向きと直角に動く場合は映像上大きい動きに映るが、カメラの向く向きに沿って動く場合(カメラに近づいたり、カメラから遠ざかったりする動き)は小さい動きに映るためである。 Here, the individual identification between the person 2 and the object A and the individual identification between the person 3 and the object B are successful, but the individual identification between the person 1 and the object C is greatly different from each other in the shape of the graph. , Fail. The reason for this failure is that the person 1 as the object C is located far from the camera, so that the movement amount of the moving body in the image appears smaller than the actual acceleration data. In addition, the amount of movement of the moving object in the image appears to be a large movement on the image when the object moves at a right angle to the direction of the camera, but when the object moves along the direction of the camera (approaching the camera or moving away from the camera). This is because the movement is reflected in a small movement.
 そのため、物体Cの移動データは、歩行の細かい周期的な動きによる発振動作は消えており、動き出しと動き止まりとの際の、大まかな加速度しかデータに反映されていない。当然ながら、人1の加速度データと物体Cの移動量データの相関を取っても高い値にはならないため、双方のマッチングは正しく行えない。結果的に、人1の識別が失敗する。
 以上説明した図12の比較例では、横方向に向けられたカメラを用いればよいため、システムの導入コストを抑制することができる。しかし、3人のうちの1人の個体識別が、カメラ距離が遠いために失敗してしまう。
For this reason, in the movement data of the object C, the oscillation operation due to the periodic movement of walking is disappeared, and only rough acceleration at the time of starting and stopping is reflected in the data. Of course, even if the correlation between the acceleration data of the person 1 and the movement amount data of the object C is not obtained, a high value is not obtained. As a result, identification of person 1 fails.
In the comparative example of FIG. 12 described above, the introduction cost of the system can be suppressed because a camera directed in the horizontal direction may be used. However, individual identification of one of the three people fails because the camera distance is long.
 図11の比較例,図12の比較例ともに、センシングデータの補正を行わないので、カメラ距離による識別率の低下が問題となっていた。一方、本実施形態の個体識別装置9は、センシングデータの補正を行うことにより、カメラ距離が遠い被写体に対しても識別率は低下せず、かつ、カメラ位置への物理的制約から解放されるので、システムの導入コストを抑えることができる。 In both the comparative example of FIG. 11 and the comparative example of FIG. 12, since the correction of sensing data is not performed, there is a problem of a decrease in the identification rate due to the camera distance. On the other hand, the individual identification device 9 according to the present embodiment corrects the sensing data, so that the identification rate does not decrease even for a subject with a long camera distance, and is freed from physical restrictions on the camera position. Therefore, the introduction cost of the system can be suppressed.
 なお、本発明は前記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、前記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。
 また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。
 また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。また、上記の各構成、機能、処理部、処理手段などは、それらの一部または全部を、例えば集積回路で設計するなどによりハードウェアで実現してもよい。
 また、前記の各構成、機能などは、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。
In addition, this invention is not limited to an above-described Example, Various modifications are included. For example, the above-described embodiments have been described in detail for easy understanding of the present invention, and are not necessarily limited to those having all the configurations described.
Further, a part of the configuration of one embodiment can be replaced with the configuration of another embodiment, and the configuration of another embodiment can be added to the configuration of one embodiment.
Further, it is possible to add, delete, and replace other configurations for a part of the configuration of each embodiment. Each of the above-described configurations, functions, processing units, processing means, and the like may be realized by hardware by designing a part or all of them with, for example, an integrated circuit.
Each of the above-described configurations, functions, and the like may be realized by software by interpreting and executing a program that realizes each function by the processor.
 各機能を実現するプログラム、テーブル、ファイルなどの情報は、メモリや、ハードディスク、SSD(Solid State Drive)などの記録装置、または、IC(Integrated Circuit)カード、SDカード、DVD(Digital Versatile Disc)などの記録媒体に置くことができる。
 また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際にはほとんど全ての構成が相互に接続されていると考えてもよい。
Information such as programs, tables, and files for realizing each function is stored in memory, a hard disk, a recording device such as an SSD (Solid State Drive), an IC (Integrated Circuit) card, an SD card, a DVD (Digital Versatile Disc), etc. Can be placed on any recording medium.
Further, the control lines and information lines indicate what is considered necessary for the explanation, and not all the control lines and information lines on the product are necessarily shown. Actually, it may be considered that almost all the components are connected to each other.
 1   センサ端末
 2   カメラ
 8   基地局
 9   個体識別装置
 11a センシングテーブル
 11b 補正前センシンググラフ
 11c 補正後センシンググラフ
 12a 映像データ格納部
 12b 人領域テーブル
 12c 画像内移動量グラフ
 13a 深度マップ格納部
 13b カメラ距離グラフ
 17  個体類似度テーブル
 18  個体識別テーブル
 21  人領域抽出部
 22  カメラ距離抽出部
 23  センシング補正部
 24  画像内移動抽出部
 25  類似度評価部
 26  個体識別部
 91  表示装置
 92  入力装置
 93  プロセッサ
 94  メモリ
 95  記録装置
 96  I/F
1 Sensor terminal 2 Camera 8 Base station 9 Individual identification device 11a Sensing table 11b Sensing graph before correction 11c Sensing graph after correction 12a Video data storage unit 12b Human area table 12c Intra-image movement amount graph 13a Depth map storage unit 13b Camera distance graph 17 Individual similarity table 18 Individual identification table 21 Human region extraction unit 22 Camera distance extraction unit 23 Sensing correction unit 24 In-image movement extraction unit 25 Similarity evaluation unit 26 Individual identification unit 91 Display device 92 Input device 93 Processor 94 Memory 95 Recording device 96 I / F

Claims (7)

  1.  カメラの映像データから抽出された人領域ごとに、その人領域の画像内の動きを示す画像内移動量データを抽出する画像内移動抽出部と、
     前記カメラの設置位置から前記人領域として写っている人の位置までのカメラ距離をもとに、各人が把持するセンサ端末から測定された各人の動きを示すセンシングデータを補正するセンシング補正部と、
     抽出された前記画像内移動量データと、補正された前記センシングデータとの類似度をもとに、映像データ内の前記人領域と、前記センサ端末の把持者とを対応づける個体識別部と、を有することを特徴とする
     個体識別装置。
    For each human region extracted from the video data of the camera, an intra-image movement extraction unit that extracts intra-image movement amount data indicating movement in the image of the human region;
    A sensing correction unit that corrects sensing data indicating movement of each person measured from a sensor terminal held by each person based on a camera distance from the installation position of the camera to the position of the person shown as the person area When,
    Based on the similarity between the extracted movement amount data in the image and the corrected sensing data, the individual identification unit that associates the human region in the video data with the gripper of the sensor terminal, An individual identification device characterized by comprising:
  2.  前記センシング補正部は、時系列に記録される前記センシングデータに対してローパスフィルタを通過させることで補正し、前記カメラ距離が前記カメラから遠いほど、前記ローパスフィルタにおける通過帯域を低くすることを特徴とする
     請求項1に記載の個体識別装置。
    The sensing correction unit corrects the sensing data recorded in time series by passing through a low-pass filter, and lowers the pass band in the low-pass filter as the camera distance is farther from the camera. The individual identification device according to claim 1.
  3.  前記個体識別装置は、さらに、前記カメラの映像データ内の前記人領域の面積が大きいほど前記カメラ距離を近くする所定の関数をもとに、前記人領域の前記カメラ距離を求めることを特徴とする
     請求項1または請求項2に記載の個体識別装置。
    The individual identification device further determines the camera distance of the human area based on a predetermined function that makes the camera distance closer as the area of the human area in the video data of the camera is larger. The individual identification device according to claim 1 or 2.
  4.  前記個体識別装置は、さらに、前記カメラの映像データ内の画素位置ごとに、その画素位置に対応する前記カメラ距離があらかじめ対応づけられている深度マップを参照して、抽出された前記人領域の画素位置から、その人領域の前記カメラ距離を求めることを特徴とする
     請求項1または請求項2に記載の個体識別装置。
    The individual identification device further refers to a depth map in which the camera distance corresponding to the pixel position is previously associated with each pixel position in the video data of the camera, and The individual identification device according to claim 1, wherein the camera distance of the human region is obtained from a pixel position.
  5.  前記個体識別装置は、さらに、前記カメラの設置位置および設置向きと、前記個体識別部により対応づけられた前記人領域の画像内位置とをもとに、前記カメラの設置位置から前記個体識別部により対応づけられた前記センサ端末を把持する人の位置へと向かう直線ベクトルを求め、前記カメラの設置位置を起点として、求めた直線ベクトルを前記カメラ距離分だけ辿った位置を、前記センサ端末を把持する人の空間位置として特定することを特徴とする
     請求項1または請求項2に記載の個体識別装置。
    The individual identification device further includes the individual identification unit from the installation position of the camera based on the installation position and installation direction of the camera and the in-image position of the human area associated with the individual identification unit. A linear vector heading to the position of the person holding the sensor terminal associated with the sensor terminal is obtained, and the position where the obtained linear vector is traced by the camera distance is determined from the installation position of the camera. The individual identification device according to claim 1, wherein the individual identification device is specified as a spatial position of a grasping person.
  6.  前記個体識別装置は、さらに、あらかじめ用意されている各人ごとに見せる表示データを参照して、前記個体識別部により対応づけられた前記センサ端末を把持する人に見せる表示データを取得し、その取得した表示データを、特定した人の空間位置に向けて表示する旨の表示制御を実施することを特徴とする
     請求項5に記載の個体識別装置。
    The individual identification device further acquires display data to be shown to a person holding the sensor terminal associated by the individual identification unit with reference to display data to be shown for each person prepared in advance, and The individual identification device according to claim 5, wherein display control is performed to display the acquired display data toward a specified person's spatial position.
  7.  個体識別装置は、画像内移動抽出部と、センシング補正部と、個体識別部とを有しており、
     前記画像内移動抽出部は、カメラの映像データから抽出された人領域ごとに、その人領域の画像内の動きを示す画像内移動量データを抽出し、
     前記センシング補正部は、前記カメラの設置位置から前記人領域として写っている人の位置までのカメラ距離をもとに、各人が把持するセンサ端末から測定された各人の動きを示すセンシングデータを補正し、
     前記個体識別部は、抽出された前記画像内移動量データと、補正された前記センシングデータとの類似度をもとに、映像データ内の前記人領域と、前記センサ端末の把持者とを対応づけることを特徴とする
     個体識別方法。
    The individual identification device has an intra-image movement extraction unit, a sensing correction unit, and an individual identification unit,
    The intra-image movement extraction unit extracts, for each human area extracted from the video data of the camera, intra-image movement amount data indicating movement in the image of the human area,
    The sensing correction unit is a sensing data indicating a movement of each person measured from a sensor terminal held by each person based on a camera distance from an installation position of the camera to a position of the person shown as the person area. To correct
    The individual identification unit associates the human region in the video data with the gripper of the sensor terminal based on the similarity between the extracted intra-image movement amount data and the corrected sensing data. The individual identification method characterized by attaching.
PCT/JP2014/065232 2014-06-09 2014-06-09 Individual identification device, and individual identification method WO2015189893A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/065232 WO2015189893A1 (en) 2014-06-09 2014-06-09 Individual identification device, and individual identification method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/065232 WO2015189893A1 (en) 2014-06-09 2014-06-09 Individual identification device, and individual identification method

Publications (1)

Publication Number Publication Date
WO2015189893A1 true WO2015189893A1 (en) 2015-12-17

Family

ID=54833025

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/065232 WO2015189893A1 (en) 2014-06-09 2014-06-09 Individual identification device, and individual identification method

Country Status (1)

Country Link
WO (1) WO2015189893A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109558782A (en) * 2017-09-26 2019-04-02 卡西欧计算机株式会社 Information processing unit, information processing system, information processing method and recording medium

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004096501A (en) * 2002-08-30 2004-03-25 Ntt Advanced Technology Corp System and method for detecting position of mobile object and program
JP2013156671A (en) * 2012-01-26 2013-08-15 Secom Co Ltd Image monitoring device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004096501A (en) * 2002-08-30 2004-03-25 Ntt Advanced Technology Corp System and method for detecting position of mobile object and program
JP2013156671A (en) * 2012-01-26 2013-08-15 Secom Co Ltd Image monitoring device

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
NAOKA MARUHASHI ET AL.: "A method for identification of moving objects by integrative use of a camera and accelerometers", IEICE TECHNICAL REPORT, vol. 110, no. 130, 8 July 2010 (2010-07-08), pages 21 - 28, XP055244484 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109558782A (en) * 2017-09-26 2019-04-02 卡西欧计算机株式会社 Information processing unit, information processing system, information processing method and recording medium

Similar Documents

Publication Publication Date Title
Danielsson et al. Augmented reality smart glasses in industrial assembly: Current status and future challenges
US10915131B2 (en) System and method for managing energy
US10380814B1 (en) System for determining entry of user to an automated facility
JP6434513B2 (en) Inertial navigation based on vision
Puyol et al. Pedestrian simultaneous localization and mapping in multistory buildings using inertial sensors
US8527235B2 (en) Object position estimation system, object position estimation device, object position estimation method and object position estimation program
CN105814609A (en) Fusing device and image motion for user identification, tracking and device association
US10944959B2 (en) Automated spatial indexing of images to video
ES2819859T3 (en) System and method for detecting, tracking and counting human objects of interest using a counting system and data capture device
He et al. Wearable ego-motion tracking for blind navigation in indoor environments
CN109484934A (en) The tracking of the maintenance track of elevator system
CN112949375A (en) Computing system, computing method, and storage medium
Mekruksavanich et al. Automatic Recognition of Construction Worker Activities Using Deep Learning Approaches and Wearable Inertial Sensors.
US20230326041A1 (en) Learning device, learning method, tracking device, and storage medium
US20190220807A1 (en) System, information processing device, information processing method, program, and recording medium
WO2015189893A1 (en) Individual identification device, and individual identification method
JP5342025B2 (en) Behavior estimation device
US10025308B1 (en) System and method to obtain and use attribute data
US20220218230A1 (en) System and method of detecting walking activity using waist-worn inertial sensors
US11216969B2 (en) System, method, and computer-readable medium for managing position of target
Zhang et al. A Spatiotemporal Detection and Tracing Framework for Human Contact Behavior Using Multicamera Sensors
JP2020187532A (en) Cleaning management program, cleaning management method and cleaning management device
JP2021184115A (en) Information processing device, information processing method and program
JP7000935B2 (en) Information processing equipment, information processing system, information processing method and program
Khandelwal et al. Automated Contact Tracing using Person Tracking and Re-Identification

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14894673

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14894673

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP