JP5950296B2 - Person tracking attribute estimation device, person tracking attribute estimation method, program - Google Patents
Person tracking attribute estimation device, person tracking attribute estimation method, program Download PDFInfo
- Publication number
- JP5950296B2 JP5950296B2 JP2012014816A JP2012014816A JP5950296B2 JP 5950296 B2 JP5950296 B2 JP 5950296B2 JP 2012014816 A JP2012014816 A JP 2012014816A JP 2012014816 A JP2012014816 A JP 2012014816A JP 5950296 B2 JP5950296 B2 JP 5950296B2
- Authority
- JP
- Japan
- Prior art keywords
- person
- candidate
- attribute
- tracking
- upper body
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Optical Radar Systems And Details Thereof (AREA)
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
Description
この発明は、人物の位置検出と追跡を行なう方法およびその装置に関し、カメラによる人物認識を加えることで、人物追跡に人物の属性情報(性別、年齢等)を紐付けることを可能にしたものである。 The present invention relates to a method and apparatus for detecting and tracking a person's position, and by adding person recognition by a camera, it is possible to link person attribute information (gender, age, etc.) to person tracking. is there.
レーダー測域センサーなどで三次元実空間内の人物を検出し追跡するシステムが従来より実用化されている。従来の人物位置検出追跡装置は、レーザー照射による物体位置検知を行ない、検知物体の大きさから人物判定を行なうものであった。 A system for detecting and tracking a person in a three-dimensional real space with a radar range sensor has been put into practical use. A conventional person position detection / tracking apparatus detects an object position by laser irradiation and determines a person from the size of the detected object.
また、レーザー測域センサーとカメラを統合した技術として、下記文献1に記載の技術が提案されている。これはレーザー測域センサーによる距離の観測からの人物頭部の三次元実空間内での位置と、カメラによる見えの観測からの頭部形状らしさを相補的に統合した確率密度分布の重み付け和を用いることで、人物追跡の精度と頑健性を向上させるようにしたものである。
前記従来のレーザー測域センサーの人物位置検出追跡は、レーザー測域センサーによるレーザー光の内部ミラー回転による円周上への投光に対する反射光の遅延時間(光飛翔時間)に基づいて、センサーから物体までの距離と方向、物体の大きさを計測することで、物体の大きさから推定した人物の位置を検出追跡するものであり、人物属性を推定することはできなかった。また、前記従来のレーザー測域センサーとカメラを統合した人物追跡は、レーザー測域センサーによる距離の観測と、カメラによる見えの観測の、異なるセンサーモダリティを相補的に統合した手法であるが、その目的は人物追跡の精度と頑健性の向上であり、人物属性情報を人物追跡に紐付けることはできなかった。 The human position detection tracking of the conventional laser range sensor is based on the delay time (light flight time) of the reflected light with respect to the projection on the circumference due to the rotation of the internal mirror of the laser beam by the laser range sensor. By measuring the distance and direction to the object and the size of the object, the position of the person estimated from the size of the object is detected and tracked, and the person attribute cannot be estimated. In addition, the human tracking that integrates the conventional laser range sensor and camera is a method that complementarily integrates different sensor modalities of distance observation by the laser range sensor and appearance observation by the camera. The purpose was to improve the accuracy and robustness of person tracking, and person attribute information could not be linked to person tracking.
本発明は、人物の位置検出追跡に属性推定を紐付け、演算量を低減し、検出精度を向上させた人物追跡属性推定装置に関する。 The present invention relates to a person tracking attribute estimation apparatus that associates attribute estimation with person position detection tracking, reduces the amount of calculation, and improves detection accuracy.
本発明の人物追跡属性推定装置は、レーザー測域センサーの測定データから所定の閾値内の距離である点群をクラスタリングして人物候補を抽出する人物候補クラスタリング部と、人物候補を走査フレーム間で比較し、距離差が所定の範囲内である人物候補を同一の人物候補として人物候補IDを付与し、人物候補IDと同一の人物候補の位置座標とを出力する人物候補追跡部と、位置座標を2次元画像座標に変換するビューポート変換部と、2次元画像座標に基づいて、前記人物候補IDを付与した人物候補に対応する上半身探索領域としてウィンドウ・サイズと座標データとを設定する上半身探索領域設定部と、上半身探索領域設定部からの人物候補ID、ウィンドウ・サイズ及び座標データに基づき、設定範囲内にある複数の同じ人物候補IDの上半身探索領域を一つに統合して人物IDの検出ウィンドウとし、カメラからのフレーム画像データ中の前記検出ウィンドウの人物の顔検出を行い、更に顔検出を行った人物の人物属性を推定し、その人物属性を対応する人物IDと共に出力する人物属性推定部と、人物候補追跡部から出力された人物候補ID及び位置座標と、人物属性推定部からの人物ID及び人物属性情報とに基づいて、人物候補IDと一致する人物IDと位置座標及び人物属性情報との対応付けを行う人物追跡属性判定部と、を有することを特徴とする。 The human tracking attribute estimation apparatus according to the present invention includes a human candidate clustering unit that extracts point candidates by clustering point groups that are within a predetermined threshold from measurement data of a laser range sensor, and a human candidate between scan frames. comparison, the distance difference grant candidate human image ID person candidate is within a predetermined range as the same person candidate, and the character candidate tracking section for outputting the position coordinates of a candidate human ID same person candidate and the position coordinates A viewport conversion unit that converts the image into two-dimensional image coordinates, and an upper-body search that sets a window size and coordinate data as an upper-body search region corresponding to the person candidate given the person candidate ID based on the two-dimensional image coordinates an area setting unit, a candidate human ID from the upper body search area setting unit, based on the window size and the coordinate data, a plurality of the same person within the set range The upper body search area of the auxiliary ID integrated into one as the detection window of the person ID, have rows face detection of a person in the detection window in the frame image data from the camera, People attribute of performing a further face detection estimating the a person attribute estimation unit configured to output together with the person ID corresponding to the person attribute, and the person candidate ID and position coordinates output from the candidate human image tracking unit, and the personal ID and the person attribute information from the person attribute estimation unit based on, and having a a person tracking attribute determining unit for performing the association between the person ID and position coordinates and the person attribute information matching the candidate human ID.
また、本発明の人物追跡属性推定装置の人物追跡属性判定部は、複数のフレーム画像データにおける、同一の人物の人物IDが付与された人物属性情報に基づいて、人物IDの人物属性を判定してもよい。 In addition, the person tracking attribute determination unit of the person tracking attribute estimation apparatus of the present invention determines the person attribute of the person ID based on the person attribute information to which the person ID of the same person is assigned in a plurality of frame image data. May be.
上記人物追跡属性推定装置において、人物追跡属性判定部は、複数の人物属性情報の平均値、中央値、多数決のいずれかに基づいて該人物IDの人物属性を判定してもよい。 In the person tracking attribute estimation apparatus, the person tracking attribute determination unit may determine the person attribute of the person ID based on one of an average value, a median value, and a majority vote of a plurality of person attribute information.
上記人物追跡属性推定装置において、人物追跡属性判定部は、さらに前記人物属性推定部からサムネイル画像を受信し、前記人物IDに対応する位置座標に基づいて、前記サムネイル画像と人物属性情報とをプロットして表示装置へ表示するよう出力するようにしてもよい。 In the person tracking attribute estimation unit, person tracking attribute determining unit further receives the thumbnail image from the person attribute estimation unit, based on the position coordinates corresponding to the person ID, plotting said thumbnail image and the person attribute information Then, it may be output so as to be displayed on the display device.
上記人物追跡属性推定装置において、人物追跡属性判定部は、該人物IDに対応する前記位置座標から動きベクトルを算出し、設定辺に対する動きを判定してもよい。 In the person tracking attribute estimation apparatus, the person tracking attribute determination unit may calculate a motion vector from the position coordinates corresponding to the person ID, and determine a motion with respect to the set side.
上記人物追跡属性推定装置において、人物追跡属性判定部は、複数の人物IDの人物属性情報を集計してもよい。 In the person tracking attribute estimation apparatus, the person tracking attribute determination unit may total person attribute information of a plurality of person IDs.
上記人物追跡属性推定装置において、人物追跡属性判定部は、複数の人物IDの人物属性情報と設定辺に対する動きを合わせて集計してもよい。 In the person tracking attribute estimation apparatus, the person tracking attribute determination unit may total the person attribute information of a plurality of person IDs and movements with respect to the set side.
また、本発明の人物追跡属性推定方法は、レーザー測域センサーの測定データから所定の閾値内の距離である点群をクラスタリングして人物候補を抽出する人物候補クラスタリングステップ、人物候補を走査フレーム間で比較し、距離差が所定の範囲内である人物候補を同一の人物候補として人物候補IDを付与し、前記人物候補IDと前記同一の人物候補の位置座標とを出力する人物候補追跡ステップ、位置座標を2次元画像座標に変換するビューポート変換ステップ、前記2次元画像座標に基づいて、前記人物候補IDを付与した前記人物候補に対応する上半身探索領域としてウィンドウ・サイズと座標データとを設定する上半身探索領域設定ステップ、上半身探索領域設定ステップで設定された人物候補ID、ウィンドウ・サイズ及び座標データに基づき、設定範囲内にある複数の同じ人物候補IDの上半身探索領域を一つに統合して人物IDの検出ウィンドウとし、カメラからのフレーム画像データ中の検出ウィンドウの人物の顔検出を行い、更に顔検出を行った人物の人物属性を推定し、その人物属性を対応する人物IDと共に出力する人物属性推定ステップ、人物候補追跡ステップで出力された人物候補ID及び位置座標と、人物属性推定ステップで出力された人物ID及び人物属性情報とに基づいて、人物候補IDに一致する人物IDと位置座標及び人物属性情報との対応付けを行う人物追跡属性判定ステップ、を有することを特徴とする。 The human tracking attribute estimation method according to the present invention includes a human candidate clustering step of extracting a human candidate by clustering a point cloud having a distance within a predetermined threshold from measurement data of a laser range sensor, and the human candidate between scan frames. And a candidate candidate tracking step of assigning a candidate person ID to a candidate person whose distance difference is within a predetermined range as the same candidate person, and outputting the position candidate coordinates and the position coordinates of the same candidate person. viewport transformation step of converting the position coordinates into the two-dimensional image coordinates, on the basis of the two-dimensional image coordinates, set the window size and the coordinate data as the upper body search region corresponding to the person candidate imparted with the person candidate ID The upper body search area setting step, the person candidate ID set in the upper body search area setting step, the window size, and Based on the target data, the upper body search areas of a plurality of the same person candidate IDs within the set range are integrated into a person ID detection window to detect a person's face in the detection window in the frame image data from the camera. The person attribute estimation step for outputting the person attribute together with the corresponding person ID, the person candidate ID and position coordinates output in the person candidate tracking step, and the person attribute A person tracking attribute determination step for associating a person ID that matches the person candidate ID with the position coordinates and the person attribute information based on the person ID and the person attribute information output in the estimation step. To do.
また、本発明の人物追跡属性推定プログラムは、コンピュータに、レーザー測域センサーの測定データから所定の閾値内の距離である点群をクラスタリングして人物候補を抽出する人物候補クラスタリングステップ、人物候補を走査フレーム間で比較し、距離差が所定の範囲内である人物候補を同一の人物候補として人物候補IDを付与し、前記人物候補IDと前記同一の人物候補の位置座標とを出力する人物候補追跡ステップ、位置座標を2次元画像座標に変換するビューポート変換ステップ、前記2次元画像座標に基づいて、前記人物候補IDを付与した前記人物候補に対応する上半身探索領域としてウィンドウ・サイズと座標データとを設定する上半身探索領域設定ステップ、上半身探索領域設定ステップで設定された人物候補ID、ウィンドウ・サイズ及び座標データに基づき、設定範囲内にある複数の同じ人物候補IDの上半身探索領域を一つに統合して人物IDの検出ウィンドウとし、カメラからのフレーム画像データ中の検出ウィンドウの人物の顔検出を行い、更に顔検出を行った人物の人物属性を推定し、その人物属性を対応する人物IDと共に出力する人物属性推定ステップ、人物候補追跡ステップで出力された人物候補ID及び位置座標と、人物属性推定ステップで出力された人物ID及び人物属性情報とに基づいて、人物候補IDに一致する人物IDと位置座標及び人物属性情報との対応付けを行う人物追跡属性判定ステップ、実行させることを特徴とする。 The human tracking attribute estimation program according to the present invention is a person candidate clustering step for clustering a point cloud that is a distance within a predetermined threshold from measurement data of a laser range sensor and extracting a human candidate on a computer. A person candidate that compares between scanning frames, assigns a person candidate ID as a person candidate whose distance difference is within a predetermined range, and outputs the person candidate ID and the position coordinates of the same person candidate tracking step, viewport transformation step of converting the position coordinates into the two-dimensional image coordinates, on the basis of the two-dimensional image coordinates, window size and the coordinate data as the upper body search region corresponding to the person candidate imparted with the person candidate ID Upper body search area setting step for setting the human candidate ID set in the upper body search area setting step, Based on the window size and coordinate data, the upper body search areas of the same person candidate ID within the set range are integrated into a person ID detection window, and the person in the detection window in the frame image data from the camera The person attribute of the person who performed the face detection is estimated, the person attribute of the person who has detected the face is estimated, and the person attribute is output together with the corresponding person ID. And a person tracking attribute determining step for associating the person ID that matches the person candidate ID with the position coordinates and the person attribute information based on the person ID and the person attribute information output in the person attribute estimating step. It is characterized by that.
本発明によれば、人物追跡・属性統合部30を備えることで、レーザー測域センサーによる物体の3次元実空間位置追跡機能と、カメラによる顔検出属性推定機能を、複数の追跡人物にそれぞれ対応して紐付けることが可能となる。また、上半身識別部41における上半身識別を、上半身探索領域設定部32からのデータを利用することでスキャン回数を減らすことができるため、高速に行うことができる。さらに、人物属性情報を伴った3次元実空間人物追跡を実現できる。
According to the present invention, the person tracking /
また、レーザー測域センサーからの人物IDを用いた、シーケンス画像における人物属性の総合判断を行なうことが可能となり、照明条件の変化や、顔の向きの変化、顔の隠れなどが生じた状態においても安定した高精度の人物属性判定を行なうことが可能となる。 In addition, it is possible to make a comprehensive judgment of person attributes in a sequence image using a person ID from a laser range sensor, and in a state where a change in lighting conditions, a change in face orientation, a face hiding, etc. have occurred In addition, stable and highly accurate person attribute determination can be performed.
さらに、レーザー測域センサーからの人物追跡位置情報と、カメラ映像からの人物属性情報を統合した、人物追跡・属性統合鳥瞰図の生成が可能となり、属性情報や人物写真を伴った行動追跡を鳥瞰図として非常に分かりやすく表示することができる。 Furthermore, it is possible to generate a person tracking / attribute integrated bird's-eye view that integrates the person tracking position information from the laser range sensor and the person attribute information from the camera image, and the action tracking with attribute information and a person photograph can be used as a bird's eye view. It can be displayed very clearly.
また、人物属性と紐付けた行動収集が可能になり、例えば店舗来店客の買い回り行動の収集が可能になり、POSデータからは見えてこない来店客の店舗内の流れを知ることで、商品配置やフロア・レイアウトを最適化することが可能となる。また、ビル内のエレベーターから出てきた人の属性別の流れを時間帯ごとに把握することにより、オフィス店舗複合ビルにおける店舗商品やレストランでのメニューなどを戦略的に検討することも可能となる。 In addition, it is possible to collect behaviors linked to person attributes. For example, it is possible to collect store customers' buying behavior, and by knowing the flow in the store of the store customers that cannot be seen from the POS data, Placement and floor layout can be optimized. It is also possible to strategically examine store products and restaurant menus in office store complex buildings by grasping the flow of people coming out of elevators in the building by time zone. .
この発明を施設内の任意エリア内における来場者追跡と属性推定に適用した実施の形態を以下に説明する。この実施の形態では、レーザー測域センサーをレーザーが水平円周投光するように設置し、カメラはエリア内の人物の顔が適切な大きさで写る位置に設置している。レーザー測域センサーでエリア内の人物候補の実空間三次元座標検出と追跡を行なう。また、カメラで、レーザー測域センサーからの人物候補の実空間三次元座標をカメラ画像座標に射影した画像位置から、レーザー測域センサーからのそれぞれの人物候補に対応した人物検出、人物属性推定を行ない、更にその結果を、レーザー測域センサーからの追跡情報を用いて平均値、中央値、多数決などにより総合判断することで高精度かつ安定した人物属性情報を人物追跡に結び付けることができる。 An embodiment in which the present invention is applied to visitor tracking and attribute estimation in an arbitrary area in a facility will be described below. In this embodiment, the laser range sensor is installed so that the laser emits light in a horizontal circumferential direction, and the camera is installed at a position where a person's face in the area is captured in an appropriate size. Real-time 3D coordinate detection and tracking of human candidates in the area is performed using a laser range sensor. Also, with the camera, the person detection and person attribute estimation corresponding to each person candidate from the laser range sensor is performed from the image position obtained by projecting the real space 3D coordinates of the person candidate from the laser range sensor to the camera image coordinates. In addition, the result is comprehensively determined by the average value, median value, majority vote, etc. using the tracking information from the laser range sensor, so that highly accurate and stable person attribute information can be linked to person tracking.
図1は、本発明にかかるカメラ、レーザー測域センサー、人物追跡属性推定装置から構成される人物追跡属性システムの設置配置の一例である。カメラ10とレーザー測域センサー11は固定されるようにそれぞれ設置されており、カメラ10はビデオカメラであり、人物検出追跡エリア内の人物の顔が適切な大きさで撮影されるように配置・設定され、レーザー測域センサー11は、例えば人物の腰高を想定した床面からの高さ80cmのところにレーザーを水平円周投光するように配置されている。カメラ10とレーザー測域センサー11はそれぞれUSB、LAN、RS−232C等のインタフェースにより人物追跡属性推定装置12と接続される。
FIG. 1 is an example of an installation arrangement of a person tracking attribute system including a camera, a laser range sensor, and a person tracking attribute estimation device according to the present invention. The
レーザー測域センサー11は、レーザーを照射し、物体に反射して戻ってくるまでの時間から物体までの距離を測定する。トランスミッタから照射したレーザーを回転ミラーで反射させ、前方を扇状にスキャンすることで床面から一定の高さの平面上に存在する物体までの距離を測定できる。本システムでは図1のようにレーザー測域センサー11を搭載しているので、床面からの高さが80cmで床面に平行な平面上をスキャンすることになる。
The
レーザー測域センサー11の回転ミラーはステップ角を利用しており、走査方向は反時計回りに走査する。例えば、1[step]は約1.05[deg]とし、最大ステップ数を228[step]として、約240度の扇型が検出エリアとする。レーザー測域センサー11は、角度θ、距離rのr−θ平面の極座標データから構成される測定データを一点ごとに出力する。これらの検出された点群の測定データが走査周波数のタイミングで人物追跡属性推定装置12へ入力される。なお、レーザー測域センサー11の代わりに、例えばGPSに加速度センサーや方位角センサーを組み合わせて角度と座標データを取得してもよい。また、ステレオ・カメラを用いて距離測定を行うことデータを取得してもよい。
The rotating mirror of the
図2は、本発明の一つの実施形態における人物追跡属性推定システムのブロック図である。人物追跡属性推定システムは、カメラ10、レーザー測域センサー11、人物追跡属性推定装置12を有する。人物追跡属性推定装置12は、人物候補検出追跡部20と、人物追跡・属性統合部30と、人物属性推定部40を有する。人物追跡属性推定装置12は、一つの態様では、ハードウェア資源とソフトウェアの協働で実現され、例えばコンピュータである。具体的には、人物追跡属性推定装置12の各種機能は、ROMやハードディスク等の記録媒体に記録された人物追跡属性推定プログラムがメインメモリに読み出されて制御装置(例えば、CPUなどのプロセッサ)によって実行されることで実現される。但し、人物追跡属性推定装置12は、ハードウェアでのみ実現されていてもよい。また、人物追跡属性推定装置12は、物理的に一つの装置により実現されてもよく、複数の装置により実現されていてもよい。また、人物追跡属性推定装置12は、カメラで撮影された画像フレームや、レーザー測域センサーから出力されたデータを入力するための図示せぬ入力インタフェースを備えている。
FIG. 2 is a block diagram of a person tracking attribute estimation system in one embodiment of the present invention. The person tracking attribute estimation system includes a
人物追跡属性推定装置12の人物候補検出追跡部20は、極座標/平面座標変換部21、背景登録部22、人物候補クラスタリング部23、人物候補追跡部24を有する。
The person candidate
極座標/平面座標変換部21は、レーザー測域センサー11から走査周波数ごとのタイミングで入力された角度θ、距離rのr−θ平面の極座標データを有する測定データを、x−y平面の平面座標データに変換する。これにより鳥瞰見取り図として表示することができる。
The polar coordinate / planar coordinate
背景登録部22は、あらかじめ人物検出追跡エリア内に人物がいない状況でレーザー測域センサーの測定結果を背景として登録している。これにより、背景測定との差の大きな点群のみを取り出すことで背景以外の物体を検出することができる。
The
人物候補クラスタリング部23は、レーザー測域センサー11から出力された点群であって、背景登録部22に登録された背景部分との差分を取り出し、距離差が近い点同士のクラスタリングを行う。クラスタリングすることで、点群を物体ごとに分類することができる。例えば幅25cm以上の点群を人物候補とすると、人物候補クラスタリング部23は、その点群の中心のx−y座標を人物候補座標として出力する。
The person
人物候補追跡部24は、レーザー走査フレーム間で距離差が近い人物候補同士を同じ人物だと判断することで同じ人物候補IDを割り振り、人物追跡を行なう。以上により、人物候補検出追跡部20は、人物追跡・属性推定統合部30に対して、レーザー走査フレームごとに、検出人物候補ごとの人物候補IDとx−y位置座標(x、y)を出力する。
The person
人物追跡・属性統合部30は、ビューポート変換部31、上半身探索領域設定部32、人物追跡属性判定部33を有する。ビューポート変換部31は、人物候補検出追跡部20から出力された検出人物候補IDごとのx−y位置座標が入力されると、あらかじめカメラ・キャリブレーションにより求めておいたカメラ内部パラメーターとカメラ外部パラメーターによる投影変換により、レーザー測域センサー11により検出された人物候補IDに対応した頭部の3次元実空間座標を画像座標に変換する。
The person tracking /
上半身探索領域設定部32では、レーザー測域センサー11により検出された人物候補頭部の画像座標を中心に、胸部から頭頂部までの高さに平均身長との差や検出誤差などを考慮して上半身探索領域を設定する。また、平均身長から上半身領域の上端(頭頂部)の高さと、下端(胸部)の高さをそれぞれ3次元空間座標のZwとしてレーザー測域センサー11から検出された人物候補のx−y位置座標(Xw、Yw)と合わせてビューポート変換することで、画像座標における上半身領域の高さを求めることができる。さらに、この情報から、平均身長との差や検出誤差などを考慮し、上半身検出ウィンドウ・サイズの範囲(探索する上半身の大きさの範囲)を設定する。そして、これらの人物候補IDとそれに対応した上半身探索スケール範囲(ウィンドウ・サイズ)と探索領域(座標データ)を人物属性推定部40に入力する。但し、人物属性推定部40への出力タイミングは、レーザー走査周波数のタイミングではなく、人物属性推定部40において人物推定処理が終了し、人物追跡属性判定部33へ属性情報が入力されるタイミングとなる。つまり、人物推定処理に要する時間の間に取得したレーザー走査フレームの情報は、用いられない。人物追跡・属性統合部30からの人物属性推定部40への人物候補ID、上半身探索領域、スケール範囲の情報の出力タイミングは、人物属性推定部40においてその人物候補IDに関する人物属性推定処理が終了するのを待って、次の同じ人物候補IDに関する情報を出力する。
The upper body search
人物属性推定部40は、上半身識別部41、上半身判定部42、顔検出属性推定部43を有し、カメラ10が取得したフレーム画像データと上半身探索領域設定部32から入力された人物候補ID、上半身探索スケール範囲と探索領域を用いて、顔検出を行い、人物属性の推定を行う。
The person attribute
上半身識別部41はカメラからのフレーム画像に対して、上半身探索領域設定部32から入力された人物候補IDに対応した上半身探索スケール範囲と探索領域の中で、周知の画像認識手法を用いてマルチ・スケールにおける人物上半身検出を行ない、上半身の有無、検出上半身の大きさ、画像座標位置を判定する。なお、上半身識別部41は、上半身探索領域設定部32から人物属性推定部40に人物候補ID、上半身探索領域、スケール範囲が入力されるタイミングで、同時間に撮影されたカメラのフレーム画像に対して人物上半身検出を行う。従って、人物属性推定部40に入力されるすべてのカメラフレーム画像が必ずしも用いられるものではない。
人物上半身を識別する処理としては、任意の公知の方法を適用可能である。本発明の方式を、輝度勾配方向ヒストグラムを特徴量としたサポート・ベクター・マシン識別器による人物上半身検出を行なう場合で説明する。
The upper
Any known method can be applied as the process for identifying the upper body of the person. The method of the present invention will be described in the case where human upper body detection is performed by a support vector machine classifier using a luminance gradient direction histogram as a feature amount.
人物上半身検出手法は、特徴量の学習過程と識別過程に分けられる。学習過程では、あらかじめ大量の検出対象である上半身画像と非上半身画像を用意し、それぞれの画像から輝度勾配方向ヒストグラム特徴量を抽出し、サポート・ベクター・マシンを用いて上半身形状特徴を学習する。これにより、入力画像から抽出された輝度勾配方向ヒストグラム特徴量が人物上半身かそうでないかを判断する識別器が得られる。 The human upper body detection method is divided into a feature amount learning process and an identification process. In the learning process, a large number of upper body images and non-upper body images that are detection targets are prepared in advance, luminance gradient direction histogram feature amounts are extracted from each image, and upper body shape features are learned using a support vector machine. As a result, a discriminator that determines whether the luminance gradient direction histogram feature value extracted from the input image is the upper body of the person or not is obtained.
識別過程では、入力画像に対して上半身検出ウィンドウを設定し、この検出ウィンドウを入力画像内で逐次スキャンする。スキャンしながら、スキャンごとに上半身検出ウィンドウによって切り出された領域の輝度勾配方向ヒストグラム特徴量を抽出し、あらかじめ学習により得られたサポート・ベクター・マシン識別器による検出ウィンドウの上半身らしさを評価することで、上半身の識別を行う。 In the identification process, an upper body detection window is set for the input image, and this detection window is sequentially scanned in the input image. While scanning, we extract the luminance gradient direction histogram feature amount of the region cut out by the upper body detection window for each scan, and evaluate the upper body quality of the detection window by the support vector machine classifier obtained by learning in advance Identify the upper body.
また、入力画像内の様々な大きさの人物上半身を検出するために、上半身検出ウィンドウの大きさを変えて、入力画像内の逐次スキャンを繰り返し、それぞれの大きさでの上半身識別を行う。 Further, in order to detect the upper body of a person of various sizes in the input image, the size of the upper body detection window is changed, and sequential scanning in the input image is repeated to identify the upper body of each size.
上半身識別部41は、上半身探索領域設定部32から入力される上半身検出ウィンドウ・サイズ範囲に基づいて、たとえば、16段階ある上半身検出ウィンドウの大きさから、2、3段階のウィンドウ・サイズを選択してスキャンする。従って、上半身探索領域設定部32から入力されたウィンドウ・サイズ範囲を利用することで、スキャンの回数を減らすことができる。更に上半身探索領域設定部32から入力される上半身探索領域の画像座標データを用いることで、入力画像内での検出ウィンドウ・スキャン範囲を画像全体スキャンから上半身探索領域に絞ったスキャンにすることができる。このようにレーザー測域センサーからの検出人物候補の3次元空間座標を用いることで、入力画像内の上半身検出ウィンドウのスキャン数を劇的に少なくすることができ、また人物候補の領域に限定した上半身検出を行なうため、複雑な背景などによる誤検出を減らすことができる。これらの処理により上半身識別部41は人物候補IDごとに対応した上半身識別結果と、上半身が識別された場合にはその識別ウィンドウの画像座標と大きさを上半身判定部42に出力する。
Based on the upper body detection window size range input from the upper body search
上半身判定部42は、上半身識別部41から入力された人物候補IDごとの上半身識別結果である複数の上半身識別ウィンドウの画像座標位置と大きさ(ウィンドウ・サイズ)を用いて、識別ウィンドウの位置と大きさがあらかじめ設定した範囲内に収まっている場合には同じ人物上半身であると想定し、同じ人物候補IDに対応した複数の上半身識別ウィンドウを1つの検出ウィンドウに統合する。入力画像内に人物上半身が存在する場合、通常、複数の上半身識別ウィンドウが重畳して識別される。これら、複数の上半身識別ウィンドウのうち、所定の範囲内に上半身が収まっている一つの識別ウィンドウに統合する。
The upper
なお、所定の数以上の上半身識別ウィンドウが統合された場合のみ上半身が検出されたと判断し、統合処理を行うようにしてもよい。このようにすることで、誤検出を低減することもできる。また、上半身識別ウィンドウの統合判定結果として、人物候補IDごとに対応した上半身判定結果と、上半身と判定された場合にはその人物候補IDを人物IDとし、上半身検出ウィンドウの画像座標と大きさを顔検出属性推定部43に出力する。
Note that the integration process may be performed by determining that the upper body has been detected only when a predetermined number or more of upper body identification windows are integrated. By doing in this way, false detection can also be reduced. In addition, as an integrated determination result of the upper body identification window, an upper body determination result corresponding to each person candidate ID, and if it is determined to be an upper body, the person candidate ID is set as a person ID, and the image coordinates and size of the upper body detection window are set. It outputs to the face detection
顔検出属性推定部43は、上半身判定部42から人物IDと上半身検出ウィンドウの画像座標と大きさが入力されると、上半身検出ウィンドウの位置と大きさから、顔探索スケール範囲と探索領域の中で、周知の画像認識手法を用いてマルチ・スケールにおける顔検出を行う。そして、顔が所定の大きさ以上で検出された場合には、周知の画像認識手法を用いて人物IDごとに顔画像からの属性推定を行い、その結果の人物IDと人物属性情報を、上半身判定部42からの人物候補IDごとの上半身判定結果と合わせて人物追跡属性判定部33に出力する。
When the person ID and the image coordinates and size of the upper body detection window are input from the upper
なお、人物属性推定部40において、まず上半身検出を行ない、上半身検出領域に対して顔検出属性推定を実施する形態で説明したが、人物属性推定部40において、上半身探索領域設定部32からの画像座標における上半身探索スケール範囲と探索領域情報に基づいて、上半身検出を行うことなく、顔検出及び属性推定だけを実施する構成としても良い。
Note that the human
人物追跡属性判定部33では、レーザー測域センサー11による追跡結果とカメラ10による属性情報付きの追跡結果とを最終的に統合する。人物追跡属性判定部33は、人物候補検出追跡部20から出力された検出人物候補IDごとのx−y位置座標を保持している。また、人物追跡属性判定部33は、顔検出属性推定部43から人物IDと対応する人物属性情報が入力されると、それらを一時的に保存する。また、人物属性情報が入力されたことを上半身探索領域設定部32に通知する。人物追跡属性判定部33は、顔検出属性推定部43から入力された人物IDと、レーザー測域センサー11により追跡され、人物候補検出追跡部20から入力された人物候補IDとを比較し、同じ人物IDを有する情報同士を対応づける。また、異なる画像フレームデータにおける同一人物IDに対応する人物属性情報に対して、個々の属性ごとに判定結果やそのパラメーターを平均値、中央値、多数決などをとることで、追跡した同じ人物に対する属性情報のばらつきをなくし、精度を高めて、人物追跡3次元実空間位置情報に人物属性情報を紐付けて出力する。人物追跡属性判定部33における処理の詳細については、後述する。
In person tracking
図3は、ワールド座標、カメラ座標、画像座標の関係を示した図である。レーザー測域センサー11で検出された人物候補の3次元実空間座標はレーザー測域センサー11の位置を原点としたワールド座標となる。また、透視投影によるピンホール・カメラをモデルとして、ピンホール・カメラの光学中心を座標原点Ocにとり、3次元座標のX軸とY軸をそれぞれ撮像素子が置かれる画像面上のu軸およびv軸に平行にとり、Z軸を光軸に対し並行にとるように定義した座標をカメラ座標と呼ぶ。更に、物理的な大きさや位置とは無関係に、画像データの原点をどこにとるか、あるいは画素の細かさや縦横比をどうするかで決まる画素単位で定義される画像座標がある。
FIG. 3 is a diagram showing the relationship between world coordinates, camera coordinates, and image coordinates. The three-dimensional real space coordinates of the human candidate detected by the
このワールド座標に対するカメラの位置、姿勢から決まるカメラ座標の位置関係を回転と平行移動で示したものがカメラ外部パラメーターであり、ワールド座標(Xw、Yw、Zw)からカメラ座標(Xc、Yc、Zc)への変換は次のようになる。
そして、カメラ内部パラメーターを用いて、カメラ座標(Xc、Yc、Zc)から画素を単位とした画像座標(u、v)への変換は次のようになる。
具体例として、レーザー測域センサー11が人物の腰高を想定して床面から80cm高で検出した人物候補のx−y位置座標(Xw、Yw)に対して、例えば平均人物頭部高として145cmとした場合には、ビューポート変換部31において3次元実空間座標(Xw、Yw、145)を2次元画像座標(u、v)に投影変換する。
As a specific example, for an xy position coordinate (Xw, Yw) of a human candidate detected by the
図4は、上半身画像を正方形とした場合の、上半身検出ウィンドウの大きさの変化ステップの例である。この例では、上半身検出ウィンドウの大きさを480画素×480画素の大きさから48画素×48画素の大きさまでの16段階に順次小さくしていきながら、それぞれの検出ウィンドウの大きさごとに、入力画像内の検出ウィンドウをスキャンしながら上半身識別を繰り返し行なうことで、様々な大きさの上半身を検出している。 FIG. 4 is an example of a step of changing the size of the upper body detection window when the upper body image is a square. In this example, the size of the upper body detection window is sequentially reduced in 16 steps from the size of 480 pixels × 480 pixels to the size of 48 pixels × 48 pixels, and the input for each detection window size. The upper body of various sizes is detected by repeatedly identifying the upper body while scanning the detection window in the image.
図5は、複数の上半身識別ウィンドウを1つの上半身検出ウィンドウに統合した場合の画像例である。上半身判定部42で、複数のウィンドウ・サイズを用いて人物上半身を判定する場合の画像例である。入力画像内に人物上半身が存在する場合、図5の上側画像例が示すように複数の上半身識別ウィンドウが識別される。これら、複数の上半身識別ウィンドウのうち、所定の範囲内に上半身が収まっている上半身識別ウィンドウを一つの上半身検出ウィンドウに統合する。統合した例が、図5の下側画像例である。
FIG. 5 is an example of an image when a plurality of upper body identification windows are integrated into one upper body detection window. It is an example of an image when the upper
図6は、レーザー測域センサー11からの信号が入力される人物候補検出追跡部20と、人物追跡・属性統合部30と、カメラ10からの映像が入力される人物属性推定部40、との間におけるデータフローの一例である。レーザー測域センサー11の検出エリア内に人物候補物体がある場合、レーザー測域センサー11からのレーザー測定結果が入力される人物候補検出追跡部20において物体を検出し、人物候補かどうか判定を行う。人物候補と判定された場合、人物候補検出追跡部20の人物候補追跡部24から、人物候補それぞれの人物IDとワールド座標(x、y)が人物追跡・属性統合部30に入力される。
FIG. 6 shows a human candidate
人物追跡・属性統合部30では、人物候補検出追跡部20から入力された人物候補の人物候補IDとワールド座標(x、y)の情報を保持する。そして、ビューポート変換部31において、ワールド座標(x、y)に基づき2次元画像座標に投影変換する。また、上半身探索領域設定部32は、投影変換された座標に基づいて上半身探索スケール範囲と上半身探索領域を設定する。こうして、人物追跡・属性統合部30から人物属性推定部40へ、人物候補IDと上半身探索スケール範囲、上半身探索領域とが出力される。
The person tracking /
人物属性推定部40では、カメラ10からのフレーム画像に基づいて、上半身識別部41において人物上半身検出を行い、上半身判定部42で検出したウィンドウによって上半身位置及び範囲を判定し、顔検出属性推定部43にて顔検出と属性推定を行って、人物IDと人物属性情報とを人物追跡・属性統合部30へ出力する。
In the person attribute
人物追跡属性判定部33では、保持していた人物候補IDと人物IDを一致させることで、ワールド座標(x、y)と人物属性情報とを紐づけて出力することとなる。
The person tracking
次に、人物追跡属性判定部33における処理について詳細に説明する。レーザー測域センサーからの人物IDを用いて、シーケンス画像における人物属性判定行うものである。
Next, processing in the person tracking
図7は、人物追跡属性判定部33における判定処理フローの一例である。人物追跡属性判定部33には、顔検出属性推定部43から人物IDとその人物の属性情報が入力される。例えば、人物の属性情報として人物IDそれぞれに対応した性別識別値と年齢推定値が人物追跡属性判定部33に入力される。
FIG. 7 is an example of a determination process flow in the person tracking
カメラ画像に複数の人物が写っている場合、人物追跡属性判定部33には複数の人物IDと、それぞれの人物IDに対応した性別識別値と年齢推定値が入力される。人物追跡属性判定部33においては、それぞれのフレーム画像において、それぞれの人物IDごとに処理を行なう。まず、その人物IDに対応した性別識別と年齢推定が、現処理画像において行なわれているかどうかを判定する(ステップ71)。レーザー測域センサーで人物検出はされたものの、画像では顔が隠れていた場合など、性別識別と年齢推定が行なわれていない場合もあるためである。性別識別と年齢推定が行なわれている場合にはその人物IDに対応した性別識別値と年齢推定値が入力されるが、性別識別と年齢推定が行なわれていない場合には「NA」が入力されている。
When a plurality of persons are shown in the camera image, a plurality of person IDs, gender identification values and age estimation values corresponding to the respective person IDs are input to the person tracking
現処理画像において性別識別と年齢推定が行なわれている場合には、平均性別識別値更新処理を行なう(ステップ72)。平均性別識別値更新処理の演算は下記の通りである。
人物追跡属性判定部33は、人物属性パラメーター・テーブルとしてそれぞれの人物IDごとに、判定回数、平均性別識別値、平均年齢推定値を保存している。
If gender identification and age estimation are performed in the current processed image, an average gender identification value update process is performed (step 72). The calculation of the average gender identification value update process is as follows.
The person tracking
性別識別値は、サポート・ベクター・マシンにより性別識別された結果の値であり、性別の識別曲面からの距離を表す。例えば、性別識別値が正の値の場合には男性と識別され、負の場合には女性と識別されたことを示す。性別識別値の絶対値が大きいほど、処理顔画像が性別を判定する識別曲面から離れていることを示し、識別の確からしさを表している。ここではサポート・ベクター・マシンの識別値を用いているが、別の統計的識別手法における尤度や確率を代わりに用いることなども可能である。 The gender identification value is a value obtained as a result of gender identification by the support vector machine, and represents a distance from the gender identification curved surface. For example, when the gender identification value is a positive value, it is identified as a male, and when it is negative, it is identified as a female. As the absolute value of the gender identification value is larger, it indicates that the processed face image is farther from the identification curved surface for determining gender, and represents the probability of identification. Although the identification value of the support vector machine is used here, the likelihood and probability in another statistical identification method can be used instead.
次に、平均年齢推定値更新処理を行う(ステップ73)。平均性別識別値更新処理と同様に、下記の演算により平均年齢推定値の更新を行う。
図8は、人物追跡属性判定部33における判定方法の具体的なフローである。図8に示すように、まだ一度もその人物IDの属性推定が行なわれていない時点では、人物属性パラメーター・テーブルのその人物IDに対応したパラメーターは、判定回数=0、平均性別識別値=NA、平均年齢推定値=NAとなっている。
FIG. 8 is a specific flow of the determination method in the person tracking
そして、顔検出属性推定部43から現処理画像(処理画像番号=1)の人物ごとの人物ID、性別識別値、年齢推定値が入力されると、平均性別識別値更新処理の演算により平均性別識別更新値が計算される。人物ID=1の場合では、人物属性パラメーター・テーブルの人物ID=1に対応した判定回数=0、平均性別識別値=0の状態において、顔検出属性推定部43から現処理画像の人物ID=1に対応した性別識別値=+1.26が入力されることで、平均性別識別更新値が1.26となり、人物属性パラメーター・テーブルが人物ID=1の平均性別識別値=1.26に更新される。
When the person ID, the gender identification value, and the age estimation value for each person of the current processed image (processed image number = 1) are input from the face detection
この実施例では、サポート・ベクター・マシンにより性別識別された結果の値を示しており、性別識別値が正の値の場合には男性と識別され、負の場合には女性と識別されたことを示している。 In this example, the value of the result of gender identification by the support vector machine is shown. When the gender identification value is positive, it is identified as male, and when it is negative, it is identified as female. Is shown.
次に、平均年齢推定値更新処理を行われ、平均性別識別値更新処理と同様に、平均年齢推定値更新処理の演算が行われ、平均年齢推定値の更新を行なう。人物ID=1の場合では、顔検出属性推定部43から現処理画像の人物ID=1に対応した年齢推定値24.84が入力されることで、平均年齢推定更新値が24.84となり、人物属性パラメーター・テーブルが人物ID=1の平均年齢推定値=24.84に更新される。
Next, an average age estimated value update process is performed, and an average age estimated value update process is performed in the same manner as the average gender identification value update process to update the average age estimated value. In the case of the person ID = 1, the average age estimated update value is 24.84 by inputting the age estimated value 24.84 corresponding to the person ID = 1 of the currently processed image from the face detection
そして、人物属性パラメーター・テーブルの判定回数を1増加し、人物属性パラメーター・テーブルを判定回数=1とする。その後、人物追跡属性判定結果を出力する。判定結果の出力としては、人物ID=1を例とすると、この時点の人物属性パラメーター・テーブルの人物ID=1に対応する平均性別識別値=+1.26であるので男性と出力し、平均年齢推定値=24.84であるので25歳と出力する。 Then, the number of determinations in the person attribute parameter table is increased by 1, and the number of determinations in the person attribute parameter table is set to 1. Thereafter, the person tracking attribute determination result is output. As an output of the determination result, if the person ID = 1 is taken as an example, since the average gender identification value corresponding to the person ID = 1 in the person attribute parameter table at this time = + 1.26, it is output as male and the average age is output. Since the estimated value is 24.84, 25 years old is output.
なお、図7に示す人物属性判定処理フローは、人物IDごとに行なわれ、これまで図8の人物ID=1について行なった処理を同様に、現処理画像内の全ての人物IDに対して行われる。つまり、人物ID=2、人物ID=3についても同様の処理を行い、現処理画像での人物追跡属性判定を終了する。顔検出属性推定部43からの現処理画像の人物ID=2と人物ID=3の人物ID属性情報が
図9は、次の処理画像(処理画像番号=2)における判定方法のフローである。人物追跡属性判定処理が、図8と同様に示すように行なわれる。例えば、顔検出属性推定部43からの人物ID属性情報が
図10は、更に次の処理画像(処理画像番号=3)における判定方法のフローである。人物追跡属性判定処理が、図8及び図9と同様に行なわれる。顔検出属性推定部43からの人物ID属性情報が
この処理画像番号=3の人物追跡属性判定処理では、顔検出属性推定部43において人物ID=1に対して顔検出がされず属性推定が行なわれなかったため性別識別値=NA、年齢推定値=NAが人物追跡属性判定部33に入力された場合の例を示している。図7のステップ71の判定処理において、顔検出属性推定部43での人物属性が推定されていないため、ステップ72〜75の処理は行なわれず、その結果、人物属性パラメーター・テーブルの人物ID=1に対応する判定回数、平均性別識別値、平均年齢推定値は更新されていない。しかし、以前の値が保持され、その結果、性別判定も年齢判定も出力することができる。こうすることで、カメラ映像シーケンスにおいて顔が隠れた場面などが生じた場合などにおいても、それまでにカメラ映像シーケンスの中で追跡してきたその人物IDの人物属性判定結果を用いることで、正しい判定結果を出力することができる。
In the person tracking attribute determination process with the processed image number = 3, the face detection
更に、処理画像番号=3の人物追跡属性判定処理では、人物ID=2に対して顔画像の照明条件変動や部分隠れなどの影響などにより、顔検出属性推定部43において正しい性別識別が行なわれなかった場合の例を示している。この処理画像(処理画像番号=3)においては、顔検出属性推定部43の人物ID=2に対する性別識別値=+0.18であり、僅かに男性であると識別されている。しかし、平均性別識別値更新処理を行うことで、カメラ映像シーケンスの中での人物ID=2の性別識別値を過去の処理画像における同じ人物IDの性別識別値を含めて総合的に判定することができ、その結果、この処理画像における平均性別識別値=−1.18となり、正しく女性と判定をすることができる。
Furthermore, in the person tracking attribute determination process of process image number = 3, the correct gender identification is performed in the face detection
図11は、処理画像番号=4における判定方法のフローである。図11では、顔検出属性推定部43において人物ID=3の属性推定が行なわれなかった場合の例を示している。この場合も同様に、図7のステップ71の判定の結果、ステップ72〜75の処理は行なわれず、人物属性パラメーター・テーブルの人物ID=3に対応する判定回数、平均性別識別値、平均年齢推定値は更新されていない。しかし、以前の値が保持されているため、性別判定と年齢判定が正しく行なわれる。
FIG. 11 is a flowchart of the determination method when the processing image number = 4. FIG. 11 shows an example in which the face detection
図12は、処理画像番号=5における判定方法のフローである。レーザー測域センサー人物検出で人物ID=1は検出エリアから消え、新しく人物ID=4が検出エリアに加わった状況を示している。レーザー測域センサーの人物検出に対応して、顔検出属性推定部43からの人物ID属性情報も人物ID=2、人物ID=3、人物ID=4の3名分の
人物ID=3については、処理画像番号=3の人物ID=2のときと同様に、顔画像の照明条件や部分隠れなどの影響により顔検出属性推定部43からの性別推定値が−0.04と僅かながら女性と誤識別されているが、本方式の人物追跡属性判定方式により平均性別識別値=+0.61となり、男性と正しく判定される。なお、ここでは判定に平均値を用いた例を述べたが、平均値の代わりに中央値や、性別判定などにおいては多数決などを用いることも可能である。
For the person ID = 3, the gender estimated value from the face detection
次に、人物追跡属性判定部33からの出力の一例について説明する。上述のとおり、人物追跡属性判定部33は、人物ID、人物追跡ワールド座標(x、y)、年齢・性別等の人物属性情報を出力する。これを図示しないディスプレイに出力することで、x軸、y軸の2次元鳥瞰図上に人物IDと共にプロットすることが可能である。また、逐次、人物候補追跡部24から入力される人物候補の人物IDとワールド座標に対応して鳥瞰図上の表示を更新する。
Next, an example of output from the person tracking
図13は、人物追跡属性判定部33から出力される画面の一例である。カメラ10が接続された人物属性推定部40から人物IDに対応付けられた属性情報(性別識別値、年齢推定値)が処理画像ごとに逐次人物追跡・属性統合部30に入力され、その情報から、前述した人物属性パラメーター・テーブルとして、各人物IDに対応した判定回数、平均性別識別値、平均年齢推定値が逐次計算され保存されている。レーザー測域センサー11からのデータに基づく人物ID、人物追跡ワールド座標(x、y)に対し、この各人物IDに対応した平均性別識別値と平均年齢推定値からの性別判定と年齢判定を、付加表示をすることにより、人物追跡情報と属性情報を統合表示した鳥瞰図を生成することができる。
FIG. 13 is an example of a screen output from the person tracking
更に、図13のように、上半身判定部42で判定された上半身画像を人物IDに対応したサムネイル画像として、プロットした位置にあわせて表示をするようにしてもよい。この場合、人物追跡属性判定部33は、上半身検出画像を、人物IDに対応づけた形で顔検出属性推定部43から合わせて受信する。これにより図13に示すような、より分かりやすい人物追跡・属性統合鳥瞰図を作成表示することができる。サムネイル画像の生成については、例えば、顔検出属性推定部43から出力された、カメラ映像からのシーケンス画像における同じ人物IDの上半身検出画像の中から、顔の検出識別値が最大の画像を選択し、更新保存することで、最も正面顔が写った上半身画像をサムネイル画像とする。このようにすることで、鳥瞰図表示の分かりやすさを増すことも可能である。レーザー測域センサーからの人物追跡位置情報と、カメラ映像からの人物属性情報を統合した、人物追跡・属性統合鳥瞰図の生成が可能となり、属性情報や人物写真を伴った行動追跡を鳥瞰図として非常に分かりやすく表示することができる。
Further, as shown in FIG. 13, the upper body image determined by the upper
次に、本人物追跡属性推定装置を利用した来店客の行動収集の方法について、オフィス店舗複合ビル内のエレベーターを出てきた人の行動収集をした例を以下に説明する。 Next, an example of collecting behaviors of people who have come out of an elevator in an office store complex will be described below as a method of collecting behaviors of customers using the person tracking attribute estimation device.
図14は、カメラ10とレーザー測域センサー11の配置の一例である。エレベーターを出てきた人の顔が撮影でき、かつエレベーターを出てきたエリアが人物属性追跡エリアになるようにカメラ10とレーザー測域センサー11が設置される。このようにすることで、エレベーターを出てきた人の位置追跡に属性判定情報を紐付けることができる。
FIG. 14 is an example of the arrangement of the
図14に示すように、人物属性追跡エリアのビル内ショップ&レストラン方面の一辺をA辺、ビル出入口方面の一辺をB辺とし、人物属性の追跡を行う設定辺を定める。人物属性情報が紐付けられた人物位置追跡により、エレベーターを出た人が人物属性追跡エリアのA辺から出ていった人数と、B辺から出ていった人数をそれぞれ人物属性別に時間帯ごとに集計する。 As shown in FIG. 14, one side of the shop / restaurant area in the building in the person attribute tracking area is A side, and one side of the building entrance / exit direction is B side, and the setting side for tracking the person attribute is determined. By tracking the position of the person attribute information, the number of people who got out of the elevator from the side A of the person attribute tracking area and the number of people who came out of the B side for each time zone To sum up.
図15は、人物の入出判定手法を示す図である。人物がA辺、あるいはB辺をどのように横切ったかの判定は、レーザー測域センサー11による人物候補追跡により行なう。人物候補追跡部24から、人物IDと共にワールド座標(x、y)が、レーザー測域センサーの走査周波数ごとのタイミング(t=n)で出力される。人物追跡属性判定部33は、人物IDが同じでタイミングがひとつ前(t=n−1)の実空間座標(xn-1、yn-1)と現タイミングの(xn、yn)を結ぶことで、実空間座標上での人物候補の動きベクトルを算出する。そして、この動きベクトルがA辺、あるいはB辺をどの方向に横切ったかどうかを判定することで、設定したA辺、あるいはB辺をエレベーターから出て行ったか、エレベーターへ入ってきたかを判定することができる。
FIG. 15 is a diagram illustrating a person entering / exiting determination method. How the person crosses the A side or the B side is determined by tracking the human candidate by the
レーザー測域センサー11の仕様により、人物候補の移動に対して走査周波数が非常に速い場合などは、走査周波数のタイミングで出力される人物IDと実空間座標を、例えば5分の1などに間引き、同様の処理を行なうことで、特に設定したA辺、あるいはB辺での横切り判定を安定して行なうことができる。
Due to the specifications of the
1つのレーザー測域センサーで人物候補の実空間座標上での追跡が可能であり、図14に示すように、1つのレーザー測域センサーで人物候補の入出判定を行なう設定辺は複数辺設定することができる。 One laser range sensor can track a human candidate on real space coordinates. As shown in FIG. 14, a plurality of sides are set for setting a candidate for entering / exiting a human candidate with one laser range sensor. be able to.
図16は、午前7時台から午後10時台までの時間帯ごとの、男性の年代別のエレベーターを出てショップ&レストラン方面に向かった人数と出入口方面に向かった人数を集計した結果の一例を示す図である。図17は、午前7時台から午後10時台までの時間帯ごとの、女性の年代別のエレベーターを出てショップ&レストラン方面に向かった人数と出入口方面に向かった人数を集計した結果の一例を示す図である。これらの例において、男女それぞれにおいて、20歳未満、20歳以上40歳未満、40歳以上60歳未満、60歳以上の4つの年代に分類している。このように、判定された人物IDごとの属性情報を蓄積し、人物追跡属性判定部33において、集計するようにすることで、エレベーターを出てきた人全体の各時間帯の性別比率、年代比率を分析することができる。図18は、エレベーターから出てきた人について、時間帯ごとの人数と年代比率を集計した一例の図である。
Figure 16 shows an example of the results of counting the number of men who left the elevators by age group and headed for shops and restaurants and the number of people headed for entrances and exits for each time period from 7 am to 10 pm FIG. Figure 17 shows an example of the results of counting the number of women who left the elevators by age and headed for shops and restaurants and the number of people headed for entrances and exits for each time period from 7 am to 10 pm FIG. In these examples, men and women are classified into four ages of under 20 years old, 20 years old and under 40 years old, 40 years old and under 60 years old, and 60 years old and over. As described above, the attribute information for each determined person ID is accumulated, and the person tracking
さらに、エレベーターを出た後、ショップ&レストラン方面に向かったか、あるいは出入口方面に向かったかの行動調査として、人物属性ごとの動向を調査することができる。図19は、40歳以上60歳未満の男性における、それぞれの時間帯ごとのエレベーターを出た後の向かい先の人数と比率を求めた図の一例である。図20は、20歳以上40歳未満の女性に絞ったエレベーターを出た後の向かい先の人数と比率を求めた図の一例である。こうした分析を行うことで、40歳以上60歳未満の男性が昼休みと定時後にしかショップ&レストランに足を向けないのに対して、20歳以上40歳未満の女性は昼休みから定時後までの時間においてもショップ&レストランに足を向けていることが分析され、この結果から例えば昼休みから定時後までの時間については女性をターゲットにした販売戦略を行なうことで売り上げを伸ばすことが期待できることなどが分かる。 Furthermore, after exiting the elevator, it is possible to investigate a trend for each person attribute as a behavioral survey as to whether it headed for the shop & restaurant or headed for the entrance / exit. FIG. 19 is an example of a diagram in which the number of persons and the ratio of the person after exiting the elevator for each time zone in a male who is 40 years old or older and younger than 60 years old are obtained. FIG. 20 is an example of a diagram in which the number and ratio of the destinations after exiting an elevator focused on women aged between 20 and 40 years old. By doing this analysis, men between the ages of 40 and under 60 turn their feet to the shops and restaurants only after lunch breaks and regular hours, whereas women between the ages of 20 and under 40 years of time from lunch breaks to after regular hours. As a result, it can be seen that, for example, the time from lunch break to after regular hours can be expected to increase sales by carrying out a sales strategy targeting women. .
このように、人物属性と紐付けた行動収集が可能になり、例えば店舗来店客の買い回り行動の収集が可能になり、POSデータからは見えてこない来店客の店舗内の流れを知ることで、商品配置やフロア・レイアウトを最適化することが可能となる。また、ビル内のエレベーターから出てきた人の属性別の流れを時間帯ごとに把握することにより、オフィス店舗複合ビルにおける店舗商品やレストランでのメニューなどを戦略的に検討することも可能となる。 In this way, it is possible to collect behaviors associated with person attributes. For example, it is possible to collect store customers' buying behaviors, and by knowing the flow in the store of the store customers that cannot be seen from the POS data. Product layout and floor layout can be optimized. It is also possible to strategically examine store products and restaurant menus in office store complex buildings by grasping the flow of people coming out of elevators in the building by time zone. .
10 カメラ
11 レーザー測域センサー
12 人物追跡属性推定装置
20 人物候補検出追跡部
21 極座標/平面座標変換部
22 背景登録部
23 人物候補クラスタリング部
24 人物候補追跡部
30 人物追跡・属性統合部
31 ビューポート変換部
32 上半身探索領域設定部
33 人物追跡属性判定部
40 人物属性推定部
41 上半身識別部
42 上半身判定部
43 顔検出属性推定部
DESCRIPTION OF
Claims (9)
前記人物候補を走査フレーム間で比較し、距離差が所定の範囲内である人物候補を同一の人物候補として人物候補IDを付与し、前記人物候補IDと前記同一の人物候補の位置座標とを出力する人物候補追跡部と、
前記位置座標を2次元画像座標に変換するビューポート変換部と、
前記2次元画像座標に基づいて、前記人物候補IDを付与した前記人物候補に対応する上半身探索領域としてウィンドウ・サイズと座標データとを設定する上半身探索領域設定部と、
前記上半身探索領域設定部からの前記人物候補ID、前記ウィンドウ・サイズ及び前記座標データに基づき、設定範囲内にある複数の同じ前記人物候補IDの上半身探索領域を一つに統合して人物IDの検出ウィンドウとし、カメラからのフレーム画像データ中の前記検出ウィンドウの人物の顔検出を行い、更に顔検出を行った人物の人物属性を推定し、その人物属性を対応する前記人物IDと共に出力する人物属性推定部と、
前記人物候補追跡部から出力された前記人物候補ID及び位置座標と、前記人物属性推定部からの前記人物ID及び人物属性情報とに基づいて、前記人物候補IDと一致する前記人物IDと前記位置座標及び前記人物属性情報との対応付けを行う人物追跡属性判定部と、を有することを特徴とする人物追跡属性推定装置。 A human candidate clustering unit that extracts human candidates by clustering point clouds that are distances within a predetermined threshold from the measurement data of the laser range sensor;
Comparing the candidate human image between scan frames, the distance difference grant candidate human image ID person candidate is within a predetermined range as the same person candidate, the position coordinates of the same person candidate and the candidate human ID A candidate candidate tracking unit to output;
A viewport converter for converting the position coordinates into two-dimensional image coordinates;
An upper body search area setting unit that sets a window size and coordinate data as an upper body search area corresponding to the person candidate assigned with the person candidate ID based on the two-dimensional image coordinates;
Based on the person candidate ID, the window size, and the coordinate data from the upper body search area setting unit, a plurality of the same body candidate ID upper body search areas within the setting range are integrated into one to obtain a person ID. and a detection window, have rows face detection of a person in the detection window in the frame image data from the camera, further estimates the People attribute of performing the face detection, and outputs together with the person ID corresponding the person attribute A person attribute estimation unit;
And the person candidate ID and position coordinates output from the candidate human image tracking unit, on the basis of said personal ID and person attribute information from the person attribute estimation unit, the position and the person ID that matches the person candidate ID person tracking attribute estimation apparatus comprising: the person tracking attribute determination unit which performs mapping between the coordinate and the person attribute information.
前記人物候補を走査フレーム間で比較し、距離差が所定の範囲内である人物候補を同一の人物候補として人物候補IDを付与し、前記人物候補IDと前記同一の人物候補の位置座標とを出力する人物候補追跡ステップ、
前記位置座標を2次元画像座標に変換するビューポート変換ステップ、
前記2次元画像座標に基づいて、前記人物候補IDを付与した前記人物候補に対応する上半身探索領域としてウィンドウ・サイズと座標データとを設定する上半身探索領域設定ステップ、
前記上半身探索領域設定ステップで設定された前記人物候補ID、前記ウィンドウ・サイズ及び前記座標データに基づき、設定範囲内にある複数の同じ前記人物候補IDの上半身探索領域を一つに統合して人物IDの検出ウィンドウとし、カメラからのフレーム画像データ中の前記検出ウィンドウの人物の顔検出を行い、更に顔検出を行った人物の人物属性を推定し、その人物属性を対応する前記人物IDと共に出力する人物属性推定ステップ、
前記人物候補追跡ステップで出力された前記人物候補ID及び位置座標と、前記人物属性推定ステップで出力された前記人物ID及び人物属性情報とに基づいて、前記人物候補IDに一致する前記人物IDと前記位置座標及び前記人物属性情報との対応付けを行う人物追跡属性判定ステップ、を有することを特徴とする人物追跡属性推定方法。 A human candidate clustering step of extracting human candidates by clustering point clouds that are distances within a predetermined threshold from the measurement data of the laser range sensor,
The person candidates are compared between scanning frames, a person candidate whose distance difference is within a predetermined range is assigned as a person candidate ID, and the person candidate ID and the position coordinates of the same person candidate are obtained. Human candidate tracking step to output,
A viewport conversion step of converting the position coordinates into two-dimensional image coordinates;
An upper body search area setting step for setting a window size and coordinate data as an upper body search area corresponding to the person candidate assigned with the person candidate ID based on the two-dimensional image coordinates;
Based on the person candidate ID, the window size, and the coordinate data set in the upper body search area setting step, a plurality of the same person candidate ID upper body search areas within the setting range are integrated into one person. As the ID detection window, the face of the person in the detection window in the frame image data from the camera is detected, the person attribute of the person who has detected the face is estimated, and the person attribute is output together with the corresponding person ID Person attribute estimation step,
Based on the person candidate ID and position coordinates output in the person candidate tracking step and the person ID and person attribute information output in the person attribute estimation step, the person ID that matches the person candidate ID and A person tracking attribute estimation method comprising: a person tracking attribute determination step for associating the position coordinates with the person attribute information.
レーザー測域センサーの測定データから所定の閾値内の距離である点群をクラスタリングして人物候補を抽出する人物候補クラスタリングステップ、
前記人物候補を走査フレーム間で比較し、距離差が所定の範囲内である人物候補を同一の人物候補として人物候補IDを付与し、前記人物候補IDと前記同一の人物候補の位置座標とを出力する人物候補追跡ステップ、
前記位置座標を2次元画像座標に変換するビューポート変換ステップ、
前記2次元画像座標に基づいて、前記人物候補IDを付与した前記人物候補に対応する上半身探索領域としてウィンドウ・サイズと座標データとを設定する上半身探索領域設定ステップ、
前記上半身探索領域設定ステップで設定された前記人物候補ID、前記ウィンドウ・サイズ及び前記座標データに基づき、設定範囲内にある複数の同じ前記人物候補IDの上半身探索領域を一つに統合して人物IDの検出ウィンドウとし、カメラからのフレーム画像データ中の前記検出ウィンドウの人物の顔検出を行い、更に顔検出を行った人物の人物属性を推定し、その人物属性を対応する前記人物IDと共に出力する人物属性推定ステップ、
前記人物候補追跡ステップで出力された前記人物候補ID及び位置座標と、前記人物属性推定ステップで出力された前記人物ID及び人物属性情報とに基づいて、前記人物候補IDに一致する前記人物IDと前記位置座標及び前記人物属性情報との対応付けを行う人物追跡属性判定ステップ、
を実行させることを特徴とする人物追跡属性推定プログラム。 On the computer,
A human candidate clustering step of extracting human candidates by clustering point clouds that are distances within a predetermined threshold from the measurement data of the laser range sensor,
The person candidates are compared between scanning frames, a person candidate whose distance difference is within a predetermined range is assigned as a person candidate ID, and the person candidate ID and the position coordinates of the same person candidate are obtained. Human candidate tracking step to output,
A viewport conversion step of converting the position coordinates into two-dimensional image coordinates;
An upper body search area setting step for setting a window size and coordinate data as an upper body search area corresponding to the person candidate assigned with the person candidate ID based on the two-dimensional image coordinates;
Based on the person candidate ID, the window size, and the coordinate data set in the upper body search area setting step, a plurality of the same person candidate ID upper body search areas within the setting range are integrated into one person. As the ID detection window, the face of the person in the detection window in the frame image data from the camera is detected, the person attribute of the person who has detected the face is estimated, and the person attribute is output together with the corresponding person ID Person attribute estimation step,
Based on the person candidate ID and position coordinates output in the person candidate tracking step and the person ID and person attribute information output in the person attribute estimation step, the person ID that matches the person candidate ID and A person tracking attribute determination step for associating the position coordinates with the person attribute information;
A person tracking attribute estimation program characterized in that is executed.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012014816A JP5950296B2 (en) | 2012-01-27 | 2012-01-27 | Person tracking attribute estimation device, person tracking attribute estimation method, program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012014816A JP5950296B2 (en) | 2012-01-27 | 2012-01-27 | Person tracking attribute estimation device, person tracking attribute estimation method, program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013156718A JP2013156718A (en) | 2013-08-15 |
JP5950296B2 true JP5950296B2 (en) | 2016-07-13 |
Family
ID=49051861
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012014816A Expired - Fee Related JP5950296B2 (en) | 2012-01-27 | 2012-01-27 | Person tracking attribute estimation device, person tracking attribute estimation method, program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5950296B2 (en) |
Families Citing this family (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6067527B2 (en) * | 2013-09-30 | 2017-01-25 | 株式会社日立ソリューションズ | Mobile object information management method, apparatus, and program |
JP6417664B2 (en) * | 2013-12-27 | 2018-11-07 | 沖電気工業株式会社 | Person attribute estimation device, person attribute estimation method and program |
DE102014110203B3 (en) * | 2014-07-21 | 2015-08-06 | Sick Ag | Distance measuring sensor for the detection and distance determination of objects |
JP6364371B2 (en) * | 2015-03-24 | 2018-07-25 | トヨタホーム株式会社 | Entrance / exit management system |
JP6364372B2 (en) * | 2015-03-24 | 2018-07-25 | トヨタホーム株式会社 | Regional monitoring system |
US9594984B2 (en) | 2015-08-07 | 2017-03-14 | Google Inc. | Business discovery from imagery |
JP6754574B2 (en) | 2016-01-18 | 2020-09-16 | 株式会社日立情報通信エンジニアリング | Moving object measurement system and method to identify the number of people in the area to be measured |
JP6742157B2 (en) * | 2016-06-06 | 2020-08-19 | 株式会社デンソーアイティーラボラトリ | Object detection device, object detection system, object detection method, and program |
JP6632474B2 (en) * | 2016-06-06 | 2020-01-22 | 三菱電機株式会社 | Monitoring device, monitoring method and airport monitoring system |
JP6492041B2 (en) * | 2016-09-07 | 2019-03-27 | 東芝テリー株式会社 | Surveillance image processing apparatus and surveillance image processing method |
JP6851021B2 (en) * | 2016-10-05 | 2021-03-31 | パナソニックIpマネジメント株式会社 | Assist device, assist method and program |
CN110325818B (en) * | 2017-03-17 | 2021-11-26 | 本田技研工业株式会社 | Joint 3D object detection and orientation estimation via multimodal fusion |
EP3591580A4 (en) * | 2017-03-20 | 2020-03-18 | Huawei Technologies Co., Ltd. | Method and device for recognizing descriptive attributes of appearance feature |
WO2018186398A1 (en) | 2017-04-07 | 2018-10-11 | 日本電気株式会社 | Learning data generation device, learning data generation method, and recording medium |
WO2019026919A1 (en) * | 2017-08-02 | 2019-02-07 | ナーブ株式会社 | Image processing system, image processing method, and program |
US10691926B2 (en) * | 2018-05-03 | 2020-06-23 | Analog Devices, Inc. | Single-pixel sensor |
CN110490030B (en) * | 2018-05-15 | 2023-07-14 | 保定市天河电子技术有限公司 | Method and system for counting number of people in channel based on radar |
JP7107015B2 (en) * | 2018-06-19 | 2022-07-27 | 沖電気工業株式会社 | Point cloud processing device, point cloud processing method and program |
CN109271944B (en) * | 2018-09-27 | 2021-03-12 | 百度在线网络技术(北京)有限公司 | Obstacle detection method, obstacle detection device, electronic apparatus, vehicle, and storage medium |
CN111325082B (en) * | 2019-06-28 | 2024-02-02 | 杭州海康威视系统技术有限公司 | Personnel concentration analysis method and device |
JP2021021639A (en) * | 2019-07-29 | 2021-02-18 | パイオニア株式会社 | Information processing apparatus, information processing method, program, recording medium, and detection system |
TWI705383B (en) * | 2019-10-25 | 2020-09-21 | 緯創資通股份有限公司 | Person tracking system and person tracking method |
CN111310731B (en) * | 2019-11-15 | 2024-04-09 | 腾讯科技(深圳)有限公司 | Video recommendation method, device, equipment and storage medium based on artificial intelligence |
JP7286586B2 (en) * | 2020-05-14 | 2023-06-05 | 株式会社日立エルジーデータストレージ | Ranging system and ranging sensor calibration method |
JP7411539B2 (en) | 2020-12-24 | 2024-01-11 | 株式会社日立エルジーデータストレージ | Ranging system and its coordinate calibration method |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009043176A (en) * | 2007-08-10 | 2009-02-26 | Yamaha Motor Co Ltd | Vending machine |
JP5500559B2 (en) * | 2009-06-03 | 2014-05-21 | 学校法人中部大学 | Object detection device |
-
2012
- 2012-01-27 JP JP2012014816A patent/JP5950296B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2013156718A (en) | 2013-08-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5950296B2 (en) | Person tracking attribute estimation device, person tracking attribute estimation method, program | |
US11430222B2 (en) | Sensor mapping to a global coordinate system using a marker grid | |
US9117281B2 (en) | Surface segmentation from RGB and depth images | |
JP5380789B2 (en) | Information processing apparatus, information processing method, and computer program | |
JP5657113B2 (en) | Semantic analysis of objects in video | |
US9165190B2 (en) | 3D human pose and shape modeling | |
Liu et al. | Detecting and counting people in surveillance applications | |
JP5594672B2 (en) | Object recognition apparatus and object recognition method | |
US11113837B2 (en) | Sensor mapping to a global coordinate system | |
US11188763B2 (en) | Topview object tracking using a sensor array | |
US11080529B2 (en) | Determining candidate object identities during image tracking | |
US11257225B2 (en) | Sensor mapping to a global coordinate system using homography | |
KR20110013200A (en) | Identifying method of human attitude and apparatus of the same | |
US20210216788A1 (en) | Object assignment during image tracking | |
US10943287B1 (en) | Topview item tracking using a sensor array | |
US11308630B2 (en) | Auto-exclusion zone for contour-based object detection | |
US11367124B2 (en) | Detecting and identifying misplaced items using a sensor array | |
JP2022553088A (en) | Action detection during image tracking | |
JP2005250692A (en) | Method for identifying object, method for identifying mobile object, program for identifying object, program for identifying mobile object, medium for recording program for identifying object, and medium for recording program for identifying traveling object | |
JP2010113562A (en) | Apparatus, method and program for detecting and tracking object | |
JP2018185623A (en) | Object detection device | |
JP7208051B2 (en) | State recognition device | |
JP2022137800A (en) | Skeleton recognition method, skeleton recognition program, and physical exercise grading support system | |
JPWO2020175085A1 (en) | Image processing device and image processing method | |
Dadgar et al. | Improvement of human tracking based on an accurate estimation of feet or head position |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140911 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150608 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150616 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150722 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160119 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160128 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160531 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160601 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5950296 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |