JP2013156718A - Person tracking attribute estimation device, person tracking attribute estimation method and program - Google Patents

Person tracking attribute estimation device, person tracking attribute estimation method and program Download PDF

Info

Publication number
JP2013156718A
JP2013156718A JP2012014816A JP2012014816A JP2013156718A JP 2013156718 A JP2013156718 A JP 2013156718A JP 2012014816 A JP2012014816 A JP 2012014816A JP 2012014816 A JP2012014816 A JP 2012014816A JP 2013156718 A JP2013156718 A JP 2013156718A
Authority
JP
Japan
Prior art keywords
person
attribute
tracking
upper body
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012014816A
Other languages
Japanese (ja)
Other versions
JP5950296B2 (en
Inventor
Sachihiro Noguchi
祥宏 野口
Takashi Shimada
敬士 嶋田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Advanced Industrial Science and Technology AIST
Original Assignee
National Institute of Advanced Industrial Science and Technology AIST
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute of Advanced Industrial Science and Technology AIST filed Critical National Institute of Advanced Industrial Science and Technology AIST
Priority to JP2012014816A priority Critical patent/JP5950296B2/en
Publication of JP2013156718A publication Critical patent/JP2013156718A/en
Application granted granted Critical
Publication of JP5950296B2 publication Critical patent/JP5950296B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a person tracking attribute estimation device capable of enhancing detection accuracy by linking an attribute estimation with a position detection track with a fewer calculation amount.SOLUTION: The person tracking attribute estimation device has a person candidate clustering section that performs clustering dot groups which are positioned within a distance of a predetermined threshold value to extract a person candidate from measurement data obtained by a laser measurement range sensor. A person candidate tracking section compares the measurement data between scanning frames and gives a person ID to a dot group the distance difference of which is within a predetermined range as the same person candidate and outputs a person ID and coordinates of the position. A viewport conversion section converts the coordinates of the position to two-dimensional image coordinates. An upper-body image search area setting section sets a window size and coordinate data as an upper-body image search area corresponding to the person ID on the basis of the two dimensional image coordinates. A face detection attribute estimation section detects a face from an image data of a camera on the basis of the upper-body image search area to estimate the person attribute. A person tracking attribute determination section links the person ID to the position coordinates and the person attribute information.

Description

この発明は、人物の位置検出と追跡を行なう方法およびその装置に関し、カメラによる人物認識を加えることで、人物追跡に人物の属性情報(性別、年齢等)を紐付けることを可能にしたものである。   The present invention relates to a method and apparatus for detecting and tracking a person's position, and by adding person recognition by a camera, it is possible to link person attribute information (gender, age, etc.) to person tracking. is there.

レーダー測域センサーなどで三次元実空間内の人物を検出し追跡するシステムが従来より実用化されている。従来の人物位置検出追跡装置は、レーザー照射による物体位置検知を行ない、検知物体の大きさから人物判定を行なうものであった。   A system for detecting and tracking a person in a three-dimensional real space with a radar range sensor has been put into practical use. A conventional person position detection / tracking apparatus detects an object position by laser irradiation and determines a person from the size of the detected object.

また、レーザー測域センサーとカメラを統合した技術として、下記文献1に記載の技術が提案されている。これはレーザー測域センサーによる距離の観測からの人物頭部の三次元実空間内での位置と、カメラによる見えの観測からの頭部形状らしさを相補的に統合した確率密度分布の重み付け和を用いることで、人物追跡の精度と頑健性を向上させるようにしたものである。
小林貴訓、他、「分散カメラとレーザ測域センサの統合によるエリア内人物追跡」画像の認識・理解シンポジウム(MIRU2007)2007年7月
In addition, as a technique in which a laser range sensor and a camera are integrated, a technique described in Document 1 below has been proposed. This is the weighted sum of the probability density distribution that complementarily integrates the position of the human head in the three-dimensional real space from the distance observation by the laser range sensor and the head shape from the observation by the camera. By using it, the accuracy and robustness of person tracking is improved.
Takanori Kobayashi, et al. “Person Tracking in Areas by Integration of Distributed Camera and Laser Range Sensor” Image Recognition and Understanding Symposium (MIRU2007) July 2007

前記従来のレーザー測域センサーの人物位置検出追跡は、レーザー測域センサーによるレーザー光の内部ミラー回転による円周上への投光に対する反射光の遅延時間(光飛翔時間)に基づいて、センサーから物体までの距離と方向、物体の大きさを計測することで、物体の大きさから推定した人物の位置を検出追跡するものであり、人物属性を推定することはできなかった。また、前記従来のレーザー測域センサーとカメラを統合した人物追跡は、レーザー測域センサーによる距離の観測と、カメラによる見えの観測の、異なるセンサーモダリティを相補的に統合した手法であるが、その目的は人物追跡の精度と頑健性の向上であり、人物属性情報を人物追跡に紐付けることはできなかった。   The human position detection tracking of the conventional laser range sensor is based on the delay time (light flight time) of the reflected light with respect to the projection on the circumference due to the rotation of the internal mirror of the laser beam by the laser range sensor. By measuring the distance and direction to the object and the size of the object, the position of the person estimated from the size of the object is detected and tracked, and the person attribute cannot be estimated. In addition, the human tracking that integrates the conventional laser range sensor and camera is a method that complementarily integrates different sensor modalities of distance observation by the laser range sensor and appearance observation by the camera. The purpose was to improve the accuracy and robustness of person tracking, and person attribute information could not be linked to person tracking.

本発明は、人物の位置検出追跡に属性推定を紐付け、演算量を低減し、検出精度を向上させた人物追跡属性推定装置に関する。   The present invention relates to a person tracking attribute estimation apparatus that associates attribute estimation with person position detection tracking, reduces the amount of calculation, and improves detection accuracy.

本発明は、レーザー測域センサーの測定データから所定の閾値内の距離である点群をクラスタリングして人物候補を抽出する人物候補クラスタリング部と、測定データを走査フレーム間で比較し、距離差が所定の範囲内である点群を同一の人物候補として人物IDを付与し、人物IDと位置座標とを出力する人物候補追跡部と、位置座標を2次元画像座標に変換するビューポート変換部と、2次元画像座標に基づいて、前記人物IDに対応する上半身探索領域としてウィンドウ・サイズと座標データとを設定する上半身探索領域設定部と、カメラからのフレーム画像データから、上半身探索領域に基づいて顔検出を行い、人物属性を推定する顔検出属性推定部と、人物候補追跡部から出力された人物IDと位置座標と、顔検出属性推定部からの人物IDと人物属性情報とに基づいて、人物IDと位置座標、人物属性情報の対応付けを行う人物追跡属性判定部と、を有する人物追跡属性推定装置を提供する。   The present invention compares a human candidate clustering unit that extracts point candidates by clustering a point group that is a distance within a predetermined threshold from measurement data of a laser range sensor, and compares the measurement data between scan frames, and the distance difference is A person candidate tracking unit that assigns a person ID to a point group within a predetermined range as the same person candidate, and outputs the person ID and the position coordinates; a viewport conversion unit that converts the position coordinates into two-dimensional image coordinates; Based on the two-dimensional image coordinates, an upper body search area setting unit that sets a window size and coordinate data as an upper body search area corresponding to the person ID, and from frame image data from the camera, based on the upper body search area From a face detection attribute estimation unit that performs face detection and estimates a person attribute, a person ID and position coordinates output from the person candidate tracking unit, and a face detection attribute estimation unit Based on the personal ID and the person attribute information, to provide the person ID and position coordinates, and the person tracking attribute determination unit that performs mapping of the person attribute information, the person tracking attribute estimation apparatus having a.

また、本発明の人物追跡属性推定装置の人物属性追跡判定部は、複数のフレーム画像データにおける、同一の人物IDが付与された人物属性情報に基づいて、人物IDの人物属性を判定してもよい。   In addition, the person attribute tracking determination unit of the person tracking attribute estimation apparatus of the present invention may determine the person attribute of the person ID based on the person attribute information to which the same person ID is assigned in a plurality of frame image data. Good.

上記人物追跡属性推定装置において、人物属性追跡判定部は、複数の人物属性情報の平均値、中央値、多数決のいずれかに基づいて該人物IDの人物属性を判定してもよい。   In the person tracking attribute estimation apparatus, the person attribute tracking determination unit may determine the person attribute of the person ID based on any of an average value, a median value, and a majority vote of a plurality of person attribute information.

上記人物追跡属性推定装置において、人物属性追跡判定部は、さらに前記顔検出属性推定部からサムネイル画像を受信し、該人物IDに対応する位置座標に基づいて、前記サムネイル画像と人物属性情報とをプロットして表示装置へ表示するよう出力するようにしてもよい。   In the person tracking attribute estimation device, the person attribute tracking determination unit further receives a thumbnail image from the face detection attribute estimation unit, and determines the thumbnail image and the person attribute information based on the position coordinates corresponding to the person ID. You may make it output so that it may plot and display on a display apparatus.

上記人物追跡属性推定装置において、人物属性追跡判定部は、該人物IDに対応する前記位置座標から動きベクトルを算出し、設定辺に対する動きを判定してもよい。   In the person tracking attribute estimation apparatus, the person attribute tracking determination unit may calculate a motion vector from the position coordinates corresponding to the person ID, and determine a movement with respect to the set side.

上記人物追跡属性推定装置において、人物属性追跡判定部は、複数の人物IDの人物属性情報を集計してもよい、   In the person tracking attribute estimation device, the person attribute tracking determination unit may total person attribute information of a plurality of person IDs.

上記人物追跡属性推定装置において、人物属性追跡判定部は、複数の人物IDの人物属性情報と設定辺に対する動きを合わせて集計するようにしてもよい。   In the person tracking attribute estimation apparatus, the person attribute tracking determination unit may total the person attribute information of a plurality of person IDs and movements with respect to the set side.

また、本発明は、レーザー測域センサーの測定データから所定の閾値内の距離である点群をクラスタリングして人物候補を抽出する人物候補クラスタリングステップ、測定データを走査フレーム間で比較し、距離差が所定の範囲内である点群を同一の人物候補として人物IDを付与し、人物IDと位置座標とを出力する人物候補追跡ステップ、位置座標を2次元画像座標に変換するビューポート変換ステップ、2次元画像座標に基づいて、前記人物IDに対応する上半身探索領域としてウィンドウ・サイズと座標データとを設定する上半身探索領域設定ステップ、カメラからのフレーム画像データから、上半身探索領域に基づいて顔検出を行い、人物属性を推定する顔検出属性推定ステップ、人物候補追跡ステップで出力された人物IDと位置座標と、顔検出属性推定ステップで出力された人物IDと人物属性情報とに基づいて、人物IDと位置座標、人物属性情報の対応付けを行う人物追跡属性判定ステップ、を有する人物追跡属性推定方法を提供する。   The present invention also provides a human candidate clustering step for clustering a point group that is a distance within a predetermined threshold from measurement data of a laser range sensor to extract a human candidate, comparing measurement data between scan frames, Is a person candidate tracking step of assigning a person ID to a point group having a predetermined range as the same person candidate, and outputting the person ID and the position coordinates, a viewport conversion step of converting the position coordinates into two-dimensional image coordinates, Upper body search area setting step for setting window size and coordinate data as an upper body search area corresponding to the person ID based on the two-dimensional image coordinates, face detection based on the upper body search area from frame image data from the camera And the person ID and position output in the face detection attribute estimation step and the person candidate tracking step for estimating the person attribute. A person tracking attribute estimation method comprising: a person tracking attribute determination step for associating a person ID with position coordinates and person attribute information based on the coordinates and the person ID and person attribute information output in the face detection attribute estimation step I will provide a.

また、本発明は、コンピュータに、レーザー測域センサーの測定データから所定の閾値内の距離である点群をクラスタリングして人物候補を抽出する人物候補クラスタリングステップ、測定データを走査フレーム間で比較し、距離差が所定の範囲内である点群を同一の人物候補として人物IDを付与し、人物IDと位置座標とを出力する人物候補追跡ステップ、位置座標を2次元画像座標に変換するビューポート変換ステップ、2次元画像座標に基づいて、人物IDに対応する上半身探索領域としてウィンドウ・サイズと座標データとを設定する上半身探索領域設定ステップ、カメラからのフレーム画像データから、上半身探索領域に基づいて顔検出を行い、人物属性を推定する顔検出属性推定ステップ、人物候補追跡ステップで出力された人物IDと位置座標と、顔検出属性推定ステップで出力された人物IDと人物属性情報とに基づいて、人物IDと位置座標、人物属性情報の対応付けを行う人物追跡属性判定ステップ、を実行させるための人物追跡属性推定プログラムを提供する。   Further, the present invention provides a human candidate clustering step of clustering a point group having a distance within a predetermined threshold from measurement data of a laser range sensor to extract a human candidate on a computer, and comparing the measurement data between scanning frames. , A person candidate tracking step of assigning a person ID to a point group having a distance difference within a predetermined range as the same person candidate, and outputting the person ID and position coordinates, and a viewport for converting the position coordinates into two-dimensional image coordinates Conversion step: Upper body search area setting step for setting window size and coordinate data as an upper body search area corresponding to the person ID based on the two-dimensional image coordinates, from frame image data from the camera, based on the upper body search area Output in face detection attribute estimation step and person candidate tracking step to perform face detection and estimate person attributes Based on the object ID, the position coordinates, and the person ID and person attribute information output in the face detection attribute estimation step, a person tracking attribute determination step for associating the person ID with the position coordinates and the person attribute information is executed. A person tracking attribute estimation program is provided.

本発明によれば、人物追跡・属性統合部30を備えることで、レーザー測域センサーによる物体の3次元実空間位置追跡機能と、カメラによる顔検出属性推定機能を、複数の追跡人物にそれぞれ対応して紐付けることが可能となる。また、上半身識別部41における上半身識別を、上半身探索領域設定部32からのデータを利用することでスキャン回数を減らすことができるため、高速に行うことができる。さらに、人物属性情報を伴った3次元実空間人物追跡を実現できる。   According to the present invention, the person tracking / attribute integration unit 30 is provided, so that a three-dimensional real space position tracking function of an object by a laser range sensor and a face detection attribute estimation function by a camera are respectively supported for a plurality of tracking persons. And can be tied. In addition, the upper body identification unit 41 can identify the upper body by using the data from the upper body search area setting unit 32, thereby reducing the number of scans. Furthermore, it is possible to realize 3D real space person tracking with person attribute information.

また、レーザー測域センサーからの人物IDを用いた、シーケンス画像における人物属性の総合判断を行なうことが可能となり、照明条件の変化や、顔の向きの変化、顔の隠れなどが生じた状態においても安定した高精度の人物属性判定を行なうことが可能となる。   In addition, it is possible to make a comprehensive judgment of person attributes in a sequence image using a person ID from a laser range sensor, and in a state where a change in lighting conditions, a change in face orientation, a face hiding, etc. have occurred In addition, stable and highly accurate person attribute determination can be performed.

さらに、レーザー測域センサーからの人物追跡位置情報と、カメラ映像からの人物属性情報を統合した、人物追跡・属性統合鳥瞰図の生成が可能となり、属性情報や人物写真を伴った行動追跡を鳥瞰図として非常に分かりやすく表示することができる。   Furthermore, it is possible to generate a person tracking / attribute integrated bird's-eye view that integrates the person tracking position information from the laser range sensor and the person attribute information from the camera image, and the action tracking with attribute information and a person photograph can be used as a bird's eye view. It can be displayed very clearly.

また、人物属性と紐付けた行動収集が可能になり、例えば店舗来店客の買い回り行動の収集が可能になり、POSデータからは見えてこない来店客の店舗内の流れを知ることで、商品配置やフロア・レイアウトを最適化することが可能となる。また、ビル内のエレベーターから出てきた人の属性別の流れを時間帯ごとに把握することにより、オフィス店舗複合ビルにおける店舗商品やレストランでのメニューなどを戦略的に検討することも可能となる。   In addition, it is possible to collect behaviors linked to person attributes. For example, it is possible to collect store customers' buying behavior, and by knowing the flow in the store of the store customers that cannot be seen from the POS data, Placement and floor layout can be optimized. It is also possible to strategically examine store products and restaurant menus in office store complex buildings by grasping the flow of people coming out of elevators in the building by time zone. .

本発明にかかるカメラ、レーザー測域センサー、人物追跡属性推定装置から構成される人物追跡属性システムの設置配置の一例である。It is an example of the installation arrangement | positioning of the person tracking attribute system comprised from the camera concerning this invention, a laser range sensor, and a person tracking attribute estimation apparatus. 本発明の一つの実施形態における人物追跡属性推定システムのブロック図である。It is a block diagram of a person tracking attribute presumption system in one embodiment of the present invention. ワールド座標、カメラ座標、画像座標の関係を示した図である。It is a figure showing the relation of world coordinates, camera coordinates, and image coordinates. 上半身画像を正方形とした場合の、上半身検出ウィンドウの大きさの変化ステップの例である。It is an example of the change step of the size of the upper body detection window when the upper body image is a square. 複数の上半身識別ウィンドウを1つの上半身検出ウィンドウに統合した場合の画像例である。It is an example of an image when a plurality of upper body identification windows are integrated into one upper body detection window. レーザー測域センサー11からの信号が入力される人物候補検出追跡部20と、人物追跡・属性統合部30と、カメラ10からの映像が入力される人物属性推定部40、との間におけるデータフローの一例である。Data flow between a human candidate detection tracking unit 20 to which a signal from the laser range sensor 11 is input, a human tracking / attribute integration unit 30, and a human attribute estimation unit 40 to which an image from the camera 10 is input It is an example. 人物追跡属性判定部33における判定処理フローの一例である。It is an example of the determination processing flow in the person tracking attribute determination part 33. 人物追跡属性判定部33における判定方法の具体的なフローである。It is a specific flow of the determination method in the person tracking attribute determination part 33. FIG. 次の処理画像(処理画像番号=2)における判定方法のフローであるIt is a flow of the determination method in the next processed image (processed image number = 2). 更に次の処理画像(処理画像番号=3)における判定方法のフローである。Furthermore, it is a flow of the determination method in the next processed image (processed image number = 3). 処理画像番号=4における判定方法のフローである。It is the flow of the determination method in process image number = 4. 処理画像番号=5における判定方法のフローである。It is a flow of the determination method in process image number = 5. 人物追跡属性判定部33から出力される画面の一例である。It is an example of the screen output from the person tracking attribute determination part 33. カメラ10とレーザー測域センサー11の配置の一例である。It is an example of arrangement | positioning of the camera 10 and the laser range sensor 11. FIG. 人物の入出判定手法を示す図である。It is a figure which shows the person's entrance / exit determination method. 午前7時台から午後10時台までの時間帯ごとの、男性の年代別のエレベーターを出てショップ&レストラン方面に向かった人数と出入口方面に向かった人数を集計した結果の一例を示す図である。It is a figure showing an example of the result of totaling the number of people who went to the shop & restaurant direction and the number of people who went to the entrance / exit direction after exiting the elevator by men's age group for each time zone from 7 am to 10 pm is there. 午前7時台から午後10時台までの時間帯ごとの、女性の年代別のエレベーターを出てショップ&レストラン方面に向かった人数と出入口方面に向かった人数を集計した結果の一例を示す図である。It is a figure showing an example of the result of totaling the number of people who went to the shop & restaurant direction and the number of people who went to the entrance / exit direction by going out the elevators by women's age group for each time period from 7 am to 10 pm is there. エレベーターから出てきた人について、時間帯ごとの人数と年代比率を集計した一例の図である。It is a figure of an example which totaled the number of persons and the age ratio for every person who came out of the elevator. 40歳以上60歳未満の男性における、それぞれの時間帯ごとのエレベーターを出た後の向かい先の人数と比率を求めた図の一例である。It is an example of the figure which calculated | required the number of persons and the ratio of the other side after leaving the elevator for every time slot | zone in the man of 40 years old or older and less than 60 years old. 20歳以上40歳未満の女性に絞ったエレベーターを出た後の向かい先の人数と比率を求めた図の一例である。It is an example of the figure which calculated | required the number of persons and the ratio of the other side after leaving the elevator restrict | squeezed to the woman 20 years old or older and less than 40 years old.

この発明を施設内の任意エリア内における来場者追跡と属性推定に適用した実施の形態を以下に説明する。この実施の形態では、レーザー測域センサーをレーザーが水平円周投光するように設置し、カメラはエリア内の人物の顔が適切な大きさで写る位置に設置している。レーザー測域センサーでエリア内の人物候補の実空間三次元座標検出と追跡を行なう。また、カメラで、レーザー測域センサーからの人物候補の実空間三次元座標をカメラ画像座標に射影した画像位置から、レーザー測域センサーからのそれぞれの人物候補に対応した人物検出、人物属性推定を行ない、更にその結果を、レーザー測域センサーからの追跡情報を用いて平均値、中央値、多数決などにより総合判断することで高精度かつ安定した人物属性情報を人物追跡に結び付けることができる。   An embodiment in which the present invention is applied to visitor tracking and attribute estimation in an arbitrary area in a facility will be described below. In this embodiment, the laser range sensor is installed so that the laser emits light in a horizontal circumferential direction, and the camera is installed at a position where a person's face in the area is captured in an appropriate size. Real-time 3D coordinate detection and tracking of human candidates in the area is performed using a laser range sensor. Also, with the camera, the person detection and person attribute estimation corresponding to each person candidate from the laser range sensor is performed from the image position obtained by projecting the real space 3D coordinates of the person candidate from the laser range sensor to the camera image coordinates. In addition, the result is comprehensively determined by the average value, median value, majority vote, etc. using the tracking information from the laser range sensor, so that highly accurate and stable person attribute information can be linked to person tracking.

図1は、本発明にかかるカメラ、レーザー測域センサー、人物追跡属性推定装置から構成される人物追跡属性システムの設置配置の一例である。カメラ10とレーザー測域センサー11は固定されるようにそれぞれ設置されており、カメラ10はビデオカメラであり、人物検出追跡エリア内の人物の顔が適切な大きさで撮影されるように配置・設定され、レーザー測域センサーは例えば人物の腰高を想定した床面からの高さ80cmのところにレーザーを水平円周投光するように配置されている。カメラとレーザー測域センサーはそれぞれUSB、LAN、RS−232C等のインタフェースにより人物追跡属性推定装置12と接続される。   FIG. 1 is an example of an installation arrangement of a person tracking attribute system including a camera, a laser range sensor, and a person tracking attribute estimation device according to the present invention. The camera 10 and the laser range sensor 11 are respectively installed so as to be fixed. The camera 10 is a video camera, and is arranged and arranged so that a person's face in the person detection / tracking area is captured with an appropriate size. For example, the laser range sensor is arranged so as to project a laser beam horizontally at a height of 80 cm from the floor surface assuming the waist height of a person. The camera and the laser range sensor are connected to the person tracking attribute estimation device 12 through interfaces such as USB, LAN, and RS-232C.

レーザー測域センサー11は、レーザーを照射し、物体に反射して戻ってくるまでの時間から物体までの距離を測定する。トランスミッタから照射したレーザーを回転ミラーで反射させ、前方を扇状にスキャンすることで床面から一定の高さの平面上に存在する物体までの距離を測定できる。本システムでは図1のようにレーザー測域センサー11を搭載しているので、床面からの高さが80cmで床面に平行な平面上をスキャンすることになる。   The laser range sensor 11 irradiates a laser, and measures the distance to the object from the time it takes for the object to reflect and return. By reflecting the laser emitted from the transmitter with a rotating mirror and scanning the front in a fan shape, the distance from the floor surface to an object existing on a flat surface can be measured. Since this system is equipped with the laser range sensor 11 as shown in FIG. 1, the plane is scanned with a height of 80 cm from the floor parallel to the floor.

レーザー測域センサー11の回転ミラーはステップ角を利用しており、走査方向は反時計回りに走査する。例えば、1[step]は約1.05[deg]とし、最大ステップ数を228[step]として、約240度の扇型が検出エリアとする。レーザー測域センサー11は、角度θ、距離rのr−θ平面の極座標データから構成される測定データを一点ごとに出力する。これらの検出された点群の測定データが走査周波数のタイミングで人物追跡属性推定装置12へ入力される。なお、レーザー測域センサー11の代わりに、例えばGPSに加速度センサーや方位角センサーを組み合わせて角度と座標データを取得してもよい。また、ステレオ・カメラを用いて距離測定を行うことデータを取得してもよい。   The rotating mirror of the laser range sensor 11 uses a step angle, and the scanning direction scans counterclockwise. For example, 1 [step] is about 1.05 [deg], the maximum number of steps is 228 [step], and a fan shape of about 240 degrees is the detection area. The laser range sensor 11 outputs measurement data composed of polar coordinate data on the r-θ plane at an angle θ and a distance r for each point. Measurement data of these detected point groups is input to the person tracking attribute estimation device 12 at the timing of the scanning frequency. Instead of the laser range sensor 11, for example, an acceleration sensor and an azimuth angle sensor may be combined with GPS to acquire angle and coordinate data. In addition, data may be acquired by performing distance measurement using a stereo camera.

図2は、本発明の一つの実施形態における人物追跡属性推定システムのブロック図である。人物追跡属性推定システムは、カメラ10、レーザー測域センサー11、人物追跡属性推定装置12を有する。人物追跡属性推定装置12は、人物候補検出追跡部20と、人物追跡・属性統合部30と、人物属性推定部40を有する。人物追跡属性推定装置12は、一つの態様では、ハードウェア資源とソフトウェアの協働で実現され、例えばコンピュータである。具体的には、人物追跡属性推定装置12の各種機能は、ROMやハードディスク等の記録媒体に記録された人物追跡属性推定プログラムがメインメモリに読み出されて制御装置(例えば、CPUなどのプロセッサ)によって実行されることで実現される。但し、人物追跡属性推定装置12は、ハードウェアでのみ実現されていてもよい。また、人物追跡属性推定装置12は、物理的に一つの装置により実現されてもよく、複数の装置により実現されていてもよい。また、人物追跡属性推定装置12は、カメラで撮影された画像フレームや、レーザー測域センサーから出力されたデータを入力するための図示せぬ入力インタフェースを備えている。   FIG. 2 is a block diagram of a person tracking attribute estimation system in one embodiment of the present invention. The person tracking attribute estimation system includes a camera 10, a laser range sensor 11, and a person tracking attribute estimation device 12. The person tracking attribute estimation device 12 includes a person candidate detection tracking unit 20, a person tracking / attribute integration unit 30, and a person attribute estimation unit 40. In one aspect, the person tracking attribute estimation device 12 is realized by cooperation of hardware resources and software, and is, for example, a computer. Specifically, the various functions of the person tracking attribute estimation device 12 are such that a person tracking attribute estimation program recorded in a recording medium such as a ROM or a hard disk is read into a main memory and a control device (for example, a processor such as a CPU). It is realized by being executed by. However, the person tracking attribute estimation device 12 may be realized only by hardware. Further, the person tracking attribute estimation device 12 may be physically realized by one device or may be realized by a plurality of devices. In addition, the person tracking attribute estimation device 12 includes an input interface (not shown) for inputting image frames taken by a camera and data output from a laser range sensor.

人物追跡属性推定装置12の人物候補検出追跡部20は、極座標/平面座標変換部21、背景登録部22、人物候補クラスタリング部23、人物候補追跡部24を有する。   The person candidate detection tracking unit 20 of the person tracking attribute estimation device 12 includes a polar coordinate / planar coordinate conversion unit 21, a background registration unit 22, a person candidate clustering unit 23, and a person candidate tracking unit 24.

極座標/平面座標変換部21は、レーザー測域センサー11から走査周波数ごとのタイミングで入力された角度θ、距離rのr−θ平面の極座標データを有する測定データを、x−y平面の平面座標データに変換する。これにより鳥瞰見取り図として表示することができる。   The polar coordinate / planar coordinate conversion unit 21 converts the measurement data having polar coordinate data of the r-θ plane of the angle θ and the distance r input from the laser range sensor 11 at the timing for each scanning frequency into the plane coordinates of the xy plane. Convert to data. Thereby, it can display as a bird's-eye view sketch.

背景登録部22は、あらかじめ人物検出追跡エリア内に人物がいない状況でレーザー測域センサーの測定結果を背景として登録している。これにより、背景測定との差の大きな点群のみを取り出すことで背景以外の物体を検出することができる。   The background registration unit 22 registers in advance the measurement result of the laser range sensor as a background when there is no person in the person detection tracking area. Thereby, it is possible to detect an object other than the background by extracting only the point group having a large difference from the background measurement.

人物候補クラスタリング部23は、レーザー測域センサー11から出力された点群であって、背景登録部22に登録された背景部分との差分を取り出し、距離差が近い点同士のクラスタリングを行う。クラスタリングすることで、点群を物体ごとに分類することができる。例えば幅25cm以上の点群を人物候補とすると、人物候補クラスタリング部23は、その点群の中心のx−y座標を人物候補座標として出力する。   The person candidate clustering unit 23 takes out a difference from the background portion registered in the background registration unit 22 that is the point group output from the laser range sensor 11, and performs clustering of points having a close distance difference. By clustering, the point cloud can be classified for each object. For example, if a point group with a width of 25 cm or more is a person candidate, the person candidate clustering unit 23 outputs the xy coordinates of the center of the point group as the person candidate coordinates.

人物候補追跡部24は、レーザー走査フレーム間で距離差が近い人物候補同士を同じ人物だと判断することで同じ人物候補IDを割り振り、人物追跡を行なう。以上により、人物候補検出追跡部20は、人物追跡・属性推定統合部30に対して、レーザー走査フレームごとに、検出人物候補ごとの人物候補IDとx−y位置座標(x、y)を出力する。   The person candidate tracking unit 24 assigns the same person candidate ID by determining that the person candidates having a close distance difference between the laser scanning frames are the same person, and performs person tracking. As described above, the person candidate detection tracking unit 20 outputs the person candidate ID and the xy position coordinates (x, y) for each detected person candidate to the person tracking / attribute estimation integration unit 30 for each laser scanning frame. To do.

人物追跡・属性統合部30は、ビューポート変換部31、上半身探索領域設定部32、人物追跡属性判定部33を有する。ビューポート変換部31は、人物候補検出追跡部20から出力された検出人物候補IDごとのx−y位置座標が入力されると、あらかじめカメラ・キャリブレーションにより求めておいたカメラ内部パラメーターとカメラ外部パラメーターによる投影変換により、レーザー測域センサー11により検出された人物候補IDに対応した頭部の3次元実空間座標を画像座標に変換する。   The person tracking / attribute integration unit 30 includes a viewport conversion unit 31, an upper body search area setting unit 32, and a person tracking attribute determination unit 33. When the xy position coordinates for each detected person candidate ID output from the person candidate detection / tracking unit 20 are input, the viewport conversion unit 31 determines the camera internal parameters and the camera externals obtained in advance by camera calibration. By projective conversion using parameters, the three-dimensional real space coordinates of the head corresponding to the human candidate ID detected by the laser range sensor 11 are converted into image coordinates.

上半身探索領域設定部32では、レーザー測域センサー11により検出された人物候補頭部の画像座標を中心に、胸部から頭頂部までの高さに平均身長との差や検出誤差などを考慮して上半身探索領域を設定する。また、平均身長から上半身領域の上端(頭頂部)の高さと、下端(胸部)の高さをそれぞれ3次元空間座標のZwとしてレーザー測域センサー11から検出された人物候補のx−y位置座標(Xw、Yw)と合わせてビューポート変換することで、画像座標における上半身領域の高さを求めることができる。さらに、この情報から、平均身長との差や検出誤差などを考慮し、上半身検出ウィンドウ・サイズの範囲(探索する上半身の大きさの範囲)を設定する。そして、これらの人物候補IDとそれに対応した上半身探索スケール範囲(ウィンドウ・サイズ)と探索領域(座標データ)を人物属性推定部40に入力する。但し、人物属性推定部40への出力タイミングは、レーザー走査周波数のタイミングではなく、人物属性推定部40において人物推定処理が終了し、人物追跡属性判定部33へ属性情報が入力されるタイミングとなる。つまり、人物推定処理に要する時間の間に取得したレーザー走査フレームの情報は、用いられない。人物追跡・属性統合部30からの人物属性推定部40への人物候補ID、上半身探索領域、スケール範囲の情報の出力タイミングは、人物属性推定部40においてその人物候補IDに関する人物属性推定処理が終了するのを待って、次の同じ人物候補IDに関する情報を出力する。   The upper body search region setting unit 32 takes into consideration the difference from the average height and detection error in the height from the chest to the top of the head, centering on the image coordinates of the human candidate head detected by the laser range sensor 11. Set the upper body search area. Further, the xy position coordinates of the human candidate detected from the laser range sensor 11 with the height of the upper end (top) and the height of the lower end (chest) of the upper body area from the average height as Zw of the three-dimensional space coordinates, respectively. By performing viewport conversion together with (Xw, Yw), the height of the upper body region in the image coordinates can be obtained. Further, from this information, the upper body detection window size range (the upper body size range to be searched) is set in consideration of the difference from the average height and detection error. These person candidate IDs, the corresponding upper body search scale range (window size), and search area (coordinate data) are input to the person attribute estimation unit 40. However, the output timing to the person attribute estimation unit 40 is not the timing of the laser scanning frequency, but the timing at which the person attribute estimation unit 40 ends the person estimation process and the attribute information is input to the person tracking attribute determination unit 33. . That is, the information of the laser scanning frame acquired during the time required for the person estimation process is not used. Regarding the output timing of the information of the person candidate ID, the upper body search area, and the scale range from the person tracking / attribute integrating unit 30 to the person attribute estimating unit 40, the person attribute estimating unit 40 finishes the person attribute estimating process for the person candidate ID. In response, the information regarding the next same person candidate ID is output.

人物属性推定部40は、上半身識別部41、上半身判定部42、顔検出属性推定部43を有し、カメラ10が取得したフレーム画像データと上半身探索領域設定部32から入力された人物候補ID、上半身探索スケール範囲と探索領域を用いて、顔検出を行い、人物属性の推定を行う。   The person attribute estimation unit 40 includes an upper body identification unit 41, an upper body determination unit 42, and a face detection attribute estimation unit 43. The frame image data acquired by the camera 10 and the person candidate ID input from the upper body search area setting unit 32, Face detection is performed using the upper body search scale range and the search area, and person attributes are estimated.

上半身識別部41はカメラからのフレーム画像に対して、上半身探索領域設定部32から入力された人物候補IDに対応した上半身探索スケール範囲と探索領域の中で、周知の画像認識手法を用いてマルチ・スケールにおける人物上半身検出を行ない、上半身の有無、検出上半身の大きさ、画像座標位置を判定する。なお、上半身識別部41は、上半身探索領域設定部32から人物属性推定部40に人物候補ID、上半身探索領域、スケール範囲が入力されるタイミングで、同時間に撮影されたカメラのフレーム画像に対して人物上半身検出を行う。従って、人物属性推定部40に入力されるすべてのカメラフレーム画像が必ずしも用いられるものではない。
人物上半身を識別する処理としては、任意の公知の方法を適用可能である。本発明の方式を、輝度勾配方向ヒストグラムを特徴量としたサポート・ベクター・マシン識別器による人物上半身検出を行なう場合で説明する。
The upper body identifying unit 41 uses a known image recognition technique to perform multi-frame detection on the frame image from the camera, using a well-known image recognition technique within the upper body search scale range and search region corresponding to the person candidate ID input from the upper body search region setting unit 32. The human upper body is detected on the scale, and the presence / absence of the upper body, the size of the detected upper body, and the image coordinate position are determined. It should be noted that the upper body identification unit 41 receives the frame image of the camera photographed at the same time when the human candidate ID, the upper body search region, and the scale range are input from the upper body search region setting unit 32 to the person attribute estimation unit 40. To detect the upper body of the person. Accordingly, not all camera frame images input to the person attribute estimation unit 40 are necessarily used.
Any known method can be applied as the process for identifying the upper body of the person. The method of the present invention will be described in the case where human upper body detection is performed by a support vector machine classifier using a luminance gradient direction histogram as a feature amount.

人物上半身検出手法は、特徴量の学習過程と識別過程に分けられる。学習過程では、あらかじめ大量の検出対象である上半身画像と非上半身画像を用意し、それぞれの画像から輝度勾配方向ヒストグラム特徴量を抽出し、サポート・ベクター・マシンを用いて上半身形状特徴を学習する。これにより、入力画像から抽出された輝度勾配方向ヒストグラム特徴量が人物上半身かそうでないかを判断する識別器が得られる。   The human upper body detection method is divided into a feature amount learning process and an identification process. In the learning process, a large number of upper body images and non-upper body images that are detection targets are prepared in advance, luminance gradient direction histogram feature amounts are extracted from each image, and upper body shape features are learned using a support vector machine. As a result, a discriminator that determines whether the luminance gradient direction histogram feature value extracted from the input image is the upper body of the person or not is obtained.

識別過程では、入力画像に対して上半身検出ウィンドウを設定し、この検出ウィンドウを入力画像内で逐次スキャンする。スキャンしながら、スキャンごとに上半身検出ウィンドウによって切り出された領域の輝度勾配方向ヒストグラム特徴量を抽出し、あらかじめ学習により得られたサポート・ベクター・マシン識別器による検出ウィンドウの上半身らしさを評価することで、上半身の識別を行う。   In the identification process, an upper body detection window is set for the input image, and this detection window is sequentially scanned in the input image. While scanning, we extract the luminance gradient direction histogram feature amount of the region cut out by the upper body detection window for each scan, and evaluate the upper body quality of the detection window by the support vector machine classifier obtained by learning in advance Identify the upper body.

また、入力画像内の様々な大きさの人物上半身を検出するために、上半身検出ウィンドウの大きさを変えて、入力画像内の逐次スキャンを繰り返し、それぞれの大きさでの上半身識別を行う。   Further, in order to detect the upper body of a person of various sizes in the input image, the size of the upper body detection window is changed, and sequential scanning in the input image is repeated to identify the upper body of each size.

上半身識別部41は、上半身探索領域設定部32から入力される上半身検出ウィンドウ・サイズ範囲に基づいて、たとえば、16段階ある上半身検出ウィンドウの大きさから、2、3段階のウィンドウ・サイズを選択してスキャンする。従って、上半身探索領域設定部32から入力されたウィンドウ・サイズ範囲を利用することで、スキャンの回数を減らすことができる。更に上半身探索領域設定部32から入力される上半身探索領域の画像座標データを用いることで、入力画像内での検出ウィンドウ・スキャン範囲を画像全体スキャンから上半身探索領域に絞ったスキャンにすることができる。このようにレーザー測域センサーからの検出人物候補の3次元空間座標を用いることで、入力画像内の上半身検出ウィンドウのスキャン数を劇的に少なくすることができ、また人物候補の領域に限定した上半身検出を行なうため、複雑な背景などによる誤検出を減らすことができる。これらの処理により上半身識別部41は人物候補IDごとに対応した上半身識別結果と、上半身が識別された場合にはその識別ウィンドウの画像座標と大きさを上半身判定部42に出力する。   Based on the upper body detection window size range input from the upper body search area setting unit 32, the upper body identification unit 41 selects, for example, two or three levels of window sizes from the size of the upper body detection window having 16 levels. Scan. Therefore, the number of scans can be reduced by using the window size range input from the upper body search area setting unit 32. Further, by using the image coordinate data of the upper body search area input from the upper body search area setting unit 32, the detection window / scan range in the input image can be changed from the whole image scan to the upper body search area. . By using the three-dimensional spatial coordinates of the detected person candidate from the laser range sensor in this way, the number of scans of the upper body detection window in the input image can be dramatically reduced, and the area is limited to the person candidate area. Since upper body detection is performed, erroneous detection due to a complicated background or the like can be reduced. By these processes, the upper body identification unit 41 outputs the upper body identification result corresponding to each person candidate ID and the image coordinates and size of the identification window when the upper body is identified to the upper body determination unit 42.

上半身判定部42は、上半身識別部41から入力された人物候補IDごとの上半身識別結果である複数の上半身識別ウィンドウの画像座標位置と大きさ(ウィンドウ・サイズ)を用いて、識別ウィンドウの位置と大きさがあらかじめ設定した範囲内に収まっている場合には同じ人物上半身であると想定し、同じ人物候補IDに対応した複数の上半身識別ウィンドウを1つの検出ウィンドウに統合する。入力画像内に人物上半身が存在する場合、通常、複数の上半身識別ウィンドウが重畳して識別される。これら、複数の上半身識別ウィンドウのうち、所定の範囲内に上半身が収まっている一つの識別ウィンドウに統合する。   The upper body determination unit 42 uses the image coordinate position and size (window size) of a plurality of upper body identification windows, which are upper body identification results for each person candidate ID input from the upper body identification unit 41, to determine the position of the identification window. If the size is within a preset range, the same person upper body is assumed and a plurality of upper body identification windows corresponding to the same person candidate ID are integrated into one detection window. When the upper body of a person exists in the input image, a plurality of upper body identification windows are usually identified by being superimposed. Among the plurality of upper body identification windows, these are integrated into one identification window whose upper body is within a predetermined range.

なお、所定の数以上の上半身識別ウィンドウが統合された場合のみ上半身が検出されたと判断し、統合処理を行うようにしてもよい。このようにすることで、誤検出を低減することもできる。また、上半身識別ウィンドウの統合判定結果として、人物候補IDごとに対応した上半身判定結果と、上半身と判定された場合にはその人物候補IDを人物IDとし、上半身検出ウィンドウの画像座標と大きさを顔検出属性推定部43に出力する。   Note that the integration process may be performed by determining that the upper body has been detected only when a predetermined number or more of upper body identification windows are integrated. By doing in this way, false detection can also be reduced. In addition, as an integrated determination result of the upper body identification window, an upper body determination result corresponding to each person candidate ID, and if it is determined to be an upper body, the person candidate ID is set as a person ID, and the image coordinates and size of the upper body detection window are set. It outputs to the face detection attribute estimation part 43.

顔検出属性推定部43は、上半身判定部42から入力された人物IDと上半身検出ウィンドウの画像座標と大きさが入力されると、上半身検出ウィンドウの位置と大きさから、顔探索スケール範囲と探索領域の中で、周知の画像認識手法を用いてマルチ・スケールにおける顔検出を行なう。そして顔が所定の大きさ以上で検出された場合には、周知の画像認識手法を用いて人物IDごとに顔画像からの属性推定を行ない、その結果の人物IDと人物属性情報を、上半身判定部42からの人物候補IDごとの上半身判定結果と合わせて人物属性追跡判定部33に出力する。   When the person ID input from the upper body determination unit 42 and the image coordinates and size of the upper body detection window are input, the face detection attribute estimation unit 43 calculates the face search scale range and the search from the position and size of the upper body detection window. Within a region, face detection in multi-scale is performed using a well-known image recognition technique. When a face is detected with a predetermined size or more, attribute estimation from the face image is performed for each person ID using a well-known image recognition method, and the resulting person ID and person attribute information are determined as upper body The result is output to the person attribute tracking determination unit 33 together with the upper body determination result for each candidate person ID from the unit 42.

なお、人物属性推定部40において、まず上半身検出を行ない、上半身検出領域に対して顔検出属性推定を実施する形態で説明したが、人物属性推定部40において、上半身探索領域設定部32からの画像座標における上半身探索スケール範囲と探索領域情報に基づいて、上半身検出を行うことなく、顔検出及び属性推定だけを実施する構成としても良い。   Note that the human attribute estimation unit 40 first detects the upper body and performs face detection attribute estimation on the upper body detection area. However, in the person attribute estimation unit 40, an image from the upper body search area setting unit 32 is used. Based on the upper body search scale range and the search area information in the coordinates, only the face detection and the attribute estimation may be performed without performing the upper body detection.

人物属性追跡判定部33では、レーザー測域センサー11による追跡結果とカメラ10による属性情報付きの追跡結果を最終的に統合する。人物属性追跡判定部33は、人物候補検出追跡部20から出力された検出人物候補IDごとのx−y位置座標を保持している。顔検出属性推定部43から人物IDと対応する人物属性情報が入力されるとそれらを一時的に保存する。また、人物属性情報が入力されたことを上半身探索領域設定部32に通知する。顔検出属性推定部43から入力された人物IDと、レーザー測域センサー11により追跡され、人物候補検出追跡部20から入力された人物候補IDとを比較し、同じ人物IDを有する情報同士を対応づける。また、異なる画像フレームデータにおける同一人物IDに対応する人物属性情報に対して、個々の属性ごとに判定結果やそのパラメーターを平均値、中央値、多数決などをとることで、追跡した同じ人物に対する属性情報のバラつきをなくし、精度を高めて、人物追跡3次元実空間位置情報に人物属性情報を紐付けて出力する。人物属性追跡判定部33における処理の詳細については、後述する。   The person attribute tracking determination unit 33 finally integrates the tracking result by the laser range sensor 11 and the tracking result with attribute information by the camera 10. The person attribute tracking determination unit 33 holds the xy position coordinates for each detected person candidate ID output from the person candidate detection tracking unit 20. When the person attribute information corresponding to the person ID is input from the face detection attribute estimation unit 43, they are temporarily stored. Also, the upper body search area setting unit 32 is notified that the person attribute information has been input. The person ID input from the face detection attribute estimation unit 43 is compared with the person candidate ID tracked by the laser range sensor 11 and input from the person candidate detection tracking unit 20, and information having the same person ID is matched. Put it on. In addition, with respect to the person attribute information corresponding to the same person ID in different image frame data, the attribute for the same person tracked by taking the average value, median value, majority vote, etc. of the determination result and its parameters for each attribute It eliminates the variation of information, improves accuracy, and outputs the person tracking information linked to the person tracking three-dimensional real space position information. Details of the processing in the person attribute tracking determination unit 33 will be described later.

図3は、ワールド座標、カメラ座標、画像座標の関係を示した図である。レーザー測域センサー11で検出された人物候補の3次元実空間座標はレーザー測域センサー11の位置を原点としたワールド座標となる。また、透視投影によるピンホール・カメラをモデルとして、ピンホール・カメラの光学中心を座標原点Ocにとり、3次元座標のX軸とY軸をそれぞれ撮像素子が置かれる画像面上のu軸およびv軸に平行にとり、Z軸を光軸に対し並行にとるように定義した座標をカメラ座標と呼ぶ。更に、物理的な大きさや位置とは無関係に、画像データの原点をどこにとるか、あるいは画素の細かさや縦横比をどうするかで決まる画素単位で定義される画像座標がある。   FIG. 3 is a diagram showing the relationship between world coordinates, camera coordinates, and image coordinates. The three-dimensional real space coordinates of the human candidate detected by the laser range sensor 11 become world coordinates with the position of the laser range sensor 11 as the origin. Further, using a pinhole camera by perspective projection as a model, the optical center of the pinhole camera is taken as the coordinate origin Oc, and the X axis and Y axis of the three-dimensional coordinate are respectively the u axis and v on the image plane on which the image sensor is placed. The coordinates defined so as to be parallel to the axis and the Z axis parallel to the optical axis are called camera coordinates. Furthermore, there are image coordinates defined in units of pixels that are determined by where the origin of the image data is taken or how the fineness and aspect ratio of the pixels are taken regardless of the physical size and position.

このワールド座標に対するカメラの位置、姿勢から決まるカメラ座標の位置関係を回転と平行移動で示したものがカメラ外部パラメーターであり、ワールド座標(Xw、Yw、Zw)からカメラ座標(Xc、Yc、Zc)への変換は次のようになる。

Figure 2013156718
ここに、r1,1・・・r3,3は回転を表すパラメーターであり、tx、ty、tzは平行移動を表すパラメーターである。 A camera external parameter that indicates the positional relationship of the camera coordinates determined from the position and orientation of the camera with respect to the world coordinates by rotation and translation is the camera external parameter. Conversion to) is as follows.
Figure 2013156718
Here, r1, 1... R3, 3 are parameters representing rotation, and tx, ty, tz are parameters representing translation.

そして、カメラ内部パラメーターを用いて、カメラ座標(Xc、Yc、Zc)から画素を単位とした画像座標(u、v)への変換は次のようになる。

Figure 2013156718
ここに、fはカメラの焦点距離を表し、δuとδvはそれぞれ横方向と縦方向の画素の物理的な間隔を表し、cu、cvは画像座標系における光軸と画像面との交点位置を表し、Sは定数を表す。 The conversion from camera coordinates (Xc, Yc, Zc) to image coordinates (u, v) in units of pixels using the camera internal parameters is as follows.
Figure 2013156718
Here, f represents the focal length of the camera, δu and δv represent the physical spacing between the horizontal and vertical pixels, respectively, and cu and cv represent the intersection position of the optical axis and the image plane in the image coordinate system. And S represents a constant.

具体例として、レーザー測域センサー11が人物の腰高を想定して床面から80cm高で検出した人物候補のx−y位置座標(Xw、Yw)に対して、例えば平均人物頭部高として145cmとした場合には、ビューポート変換部31において3次元実空間座標(Xw、Yw、145)を2次元画像座標(u、v)に投影変換する。   As a specific example, for an xy position coordinate (Xw, Yw) of a human candidate detected by the laser range sensor 11 at a height of 80 cm from the floor assuming the waist height of the person, for example, the average human head height is 145 cm. In this case, the viewport conversion unit 31 projects and converts the three-dimensional real space coordinates (Xw, Yw, 145) into the two-dimensional image coordinates (u, v).

図4は、上半身画像を正方形とした場合の、上半身検出ウィンドウの大きさの変化ステップの例である。この例では、上半身検出ウィンドウの大きさを480画素×480画素の大きさから48画素×48画素の大きさまでの16段階に順次小さくしていきながら、それぞれの検出ウィンドウの大きさごとに、入力画像内の検出ウィンドウをスキャンしながら上半身識別を繰り返し行なうことで、様々な大きさの上半身を検出している。   FIG. 4 is an example of a step of changing the size of the upper body detection window when the upper body image is a square. In this example, the size of the upper body detection window is sequentially reduced in 16 steps from the size of 480 pixels × 480 pixels to the size of 48 pixels × 48 pixels, and the input for each detection window size. The upper body of various sizes is detected by repeatedly identifying the upper body while scanning the detection window in the image.

図5は、複数の上半身識別ウィンドウを1つの上半身検出ウィンドウに統合した場合の画像例である。上半身判定部42で、複数のウィンドウ・サイズを用いて人物上半身を判定する場合の画像例である。入力画像内に人物上半身が存在する場合、図5の左例が示すように複数の上半身識別ウィンドウが識別される。これら、複数の上半身識別ウィンドウのうち、所定の範囲内に上半身が収まっている一つの検出ウィンドウに統合する。統合した例が、図5の右例である。
FIG. 5 is an example of an image when a plurality of upper body identification windows are integrated into one upper body detection window. It is an example of an image when the upper body determination unit 42 determines a person's upper body using a plurality of window sizes. When a person's upper body exists in the input image, a plurality of upper body identification windows are identified as shown in the left example of FIG. Of these multiple upper body identification windows, they are integrated into one detection window whose upper body is within a predetermined range. An example of integration is the right example of FIG.

図6は、レーザー測域センサー11からの信号が入力される人物候補検出追跡部20と、人物追跡・属性統合部30と、カメラ10からの映像が入力される人物属性推定部40、との間におけるデータフローの一例である。レーザー測域センサー11の検出エリア内に人物候補物体がある場合、レーザー測域センサー11からのレーザー測定結果が入力される人物候補検出追跡部20において物体を検出し、人物候補かどうか判定を行う。人物候補と判定された場合、人物候補検出追跡部20の人物候補追跡部24から、人物候補それぞれの人物IDとワールド座標(x、y)が人物追跡・属性統合部30に入力される。   FIG. 6 shows a human candidate detection tracking unit 20 to which a signal from the laser range sensor 11 is input, a human tracking / attribute integration unit 30, and a human attribute estimation unit 40 to which a video from the camera 10 is input. It is an example of the data flow between. When there is a human candidate object in the detection area of the laser range sensor 11, the human candidate detection tracking unit 20 to which the laser measurement result from the laser range sensor 11 is input detects the object and determines whether it is a human candidate. . When the person candidate is determined, the person candidate tracking unit 24 of the person candidate detection and tracking unit 20 inputs the person ID and world coordinates (x, y) of each person candidate to the person tracking / attribute integrating unit 30.

人物追跡・属性統合部30では、人物候補検出追跡部20から入力された人物候補の人物候補IDとワールド座標(x、y)の情報を保持する。そして、ビューポート変換部31において、ワールド座標(x、y)に基づき2次元画像座標に投影変換する。また、上半身探索領域設定部32は、投影変換された座標に基づいて上半身探索スケール範囲と上半身探索領域を設定する。こうして、人物追跡・属性統合部30から人物属性推定部40へ、人物候補IDと上半身探索スケール範囲、上半身探索領域とが出力される。   The person tracking / attribute integrating unit 30 holds the information of the person candidate ID and world coordinates (x, y) of the person candidate input from the person candidate detecting / tracking unit 20. Then, the viewport conversion unit 31 performs projection conversion to two-dimensional image coordinates based on the world coordinates (x, y). The upper body search area setting unit 32 sets an upper body search scale range and an upper body search area based on the projection-transformed coordinates. In this way, the person candidate ID, the upper body search scale range, and the upper body search area are output from the person tracking / attribute integration unit 30 to the person attribute estimation unit 40.

人物属性推定部40では、カメラ10からのフレーム画像に基づいて、上半身識別部41において人物上半身検出を行い、上半身判定部42で検出したウィンドウによって上半身位置及び範囲を判定し、顔検出属性推定部43にて顔検出と属性推定を行って、人物IDと人物属性情報とを人物追跡・属性統合部30へ出力する。   In the person attribute estimation unit 40, based on the frame image from the camera 10, the upper body identification unit 41 detects the upper body of the person, determines the upper body position and range by the window detected by the upper body determination unit 42, and the face detection attribute estimation unit At 43, face detection and attribute estimation are performed, and the person ID and person attribute information are output to the person tracking / attribute integrating unit 30.

人物追跡属性判定部33では、保持していた人物候補IDと人物IDを一致させることで、ワールド座標(x、y)と人物属性情報とを紐づけて出力することとなる。   The person tracking attribute determination unit 33 outputs the world coordinates (x, y) and the person attribute information in association with each other by matching the held person candidate ID with the person ID.

次に、人物追跡属性判定部33における処理について詳細に説明する。レーザー測域センサーからの人物IDを用いて、シーケンス画像における人物属性判定行うものである。   Next, processing in the person tracking attribute determination unit 33 will be described in detail. The person attribute determination in the sequence image is performed using the person ID from the laser range sensor.

図7は、人物追跡属性判定部33における判定処理フローの一例である。人物追跡属性判定部33には、顔検出属性推定部43から人物IDとその人物の属性情報が入力される。例えば、人物の属性情報として人物IDそれぞれに対応した性別識別値と年齢推定値が人物追跡属性判定部33に入力される。   FIG. 7 is an example of a determination process flow in the person tracking attribute determination unit 33. The person tracking attribute determination unit 33 receives the person ID and the attribute information of the person from the face detection attribute estimation unit 43. For example, a gender identification value and an age estimation value corresponding to each person ID are input to the person tracking attribute determination unit 33 as person attribute information.

カメラ画像に複数の人物が写っている場合、人物追跡属性判定部33には複数の人物IDと、それぞれの人物IDに対応した性別識別値と年齢推定値が入力される。人物追跡属性判定部33においては、それぞれのフレーム画像において、それぞれの人物IDごとに処理を行なう。まず、その人物IDに対応した性別識別と年齢推定が、現処理画像において行なわれているかどうかを判定する(ステップ71)。レーザー測域センサーで人物検出はされたものの、画像では顔が隠れていた場合など、性別識別と年齢推定が行なわれていない場合もあるためである。性別識別と年齢推定が行なわれている場合にはその人物IDに対応した性別識別値と年齢推定値が入力されるが、性別識別と年齢推定が行なわれていない場合には「NA」が入力されている。   When a plurality of persons are shown in the camera image, a plurality of person IDs, gender identification values and age estimation values corresponding to the respective person IDs are input to the person tracking attribute determination unit 33. The person tracking attribute determination unit 33 performs processing for each person ID in each frame image. First, it is determined whether gender identification and age estimation corresponding to the person ID is performed in the current processed image (step 71). This is because there are cases where gender identification and age estimation are not performed, such as when a person is detected by a laser range sensor, but the face is hidden in the image. When gender identification and age estimation are performed, the gender identification value and age estimation value corresponding to the person ID are input. When gender identification and age estimation are not performed, “NA” is input. Has been.

現処理画像において性別識別と年齢推定が行なわれている場合には、平均性別識別値更新処理を行なう(ステップ72)。平均性別識別値更新処理の演算は下記の通りである。

Figure 2013156718

人物追跡属性判定部33は、人物属性パラメーター・テーブルとしてそれぞれの人物IDごとに、判定回数、平均性別識別値、平均年齢推定値を保存している。 If gender identification and age estimation are performed in the current processed image, an average gender identification value update process is performed (step 72). The calculation of the average gender identification value update process is as follows.
Figure 2013156718

The person tracking attribute determination unit 33 stores the number of determinations, the average gender identification value, and the average age estimated value for each person ID as a person attribute parameter table.

性別識別値は、サポート・ベクター・マシンにより性別識別された結果の値であり、性別の識別曲面からの距離を表す。例えば、性別識別値が正の値の場合には男性と識別され、負の場合には女性と識別されたことを示す。性別識別値の絶対値が大きいほど、処理顔画像が性別を判定する識別曲面から離れていることを示し、識別の確からしさを表している。ここではサポート・ベクター・マシンの識別値を用いているが、別の統計的識別手法における尤度や確率を代わりに用いることなども可能である。   The gender identification value is a value obtained as a result of gender identification by the support vector machine, and represents a distance from the gender identification curved surface. For example, when the gender identification value is a positive value, it is identified as a male, and when it is negative, it is identified as a female. As the absolute value of the gender identification value is larger, it indicates that the processed face image is farther from the identification curved surface for determining gender, and represents the probability of identification. Although the identification value of the support vector machine is used here, the likelihood and probability in another statistical identification method can be used instead.

次に、平均年齢推定値更新処理を行う(ステップ73)。平均性別識別値更新処理と同様に、下記の演算により平均年齢推定値の更新を行なう。

Figure 2013156718

そして、人物属性パラメーター・テーブルの判定回数を1増加し、人物属性パラメーター・テーブルを判定回数=1とする(ステップ74)。その後、人物追跡属性判定結果を出力する(ステップ75)。 Next, an average age estimated value update process is performed (step 73). Similar to the average gender identification value update process, the average age estimated value is updated by the following calculation.
Figure 2013156718

Then, the number of determinations in the person attribute parameter table is increased by 1, and the number of determinations in the person attribute parameter table is set to 1 (step 74). Thereafter, the person tracking attribute determination result is output (step 75).

図8は、人物追跡属性判定部33における判定方法の具体的なフローである。図8に示すように、まだ一度もその人物IDの属性推定が行なわれていない時点では、人物属性パラメーター・テーブルのその人物IDに対応したパラメーターは、判定回数=0、平均性別識別値=NA、平均年齢推定値=NAとなっている。   FIG. 8 is a specific flow of the determination method in the person tracking attribute determination unit 33. As shown in FIG. 8, when the attribute estimation of the person ID has not been performed yet, the parameter corresponding to the person ID in the person attribute parameter table has the determination number = 0, the average gender identification value = NA. Average age estimated value = NA.

そして、顔検出属性推定部43から現処理画像(処理画像番号=1)の人物ごとの人物ID、性別識別値、年齢推定値が入力されると、平均性別識別値更新処理の演算により平均性別識別更新値が計算される。人物ID=1の場合では、人物属性パラメーター・テーブルの人物ID=1に対応した判定回数=0、平均性別識別値=0の状態において、顔検出属性推定部43から現処理画像の人物ID=1に対応した性別識別値=+1.26が入力されることで、平均性別識別更新値が1.26となり、人物属性パラメーター・テーブルが人物ID=1の平均性別識別値=1.26に更新される。   When the person ID, the gender identification value, and the age estimation value for each person of the current processed image (processed image number = 1) are input from the face detection attribute estimation unit 43, the average gender is calculated by the average gender identification value update process. An identification update value is calculated. In the case of the person ID = 1, the face detection attribute estimation unit 43 sets the person ID of the currently processed image in the state where the determination count corresponding to the person ID = 1 in the person attribute parameter table = 0 and the average gender identification value = 0. 1 is input, the average gender identification update value is 1.26, and the person attribute parameter table is updated to the average gender identification value of person ID = 1 = 1.26. Is done.

この実施例では、サポート・ベクター・マシンにより性別識別された結果の値を示しており、性別識別値が正の値の場合には男性と識別され、負の場合には女性と識別されたことを示している。   In this example, the value of the result of gender identification by the support vector machine is shown. When the gender identification value is positive, it is identified as male, and when it is negative, it is identified as female. Is shown.

次に、平均年齢推定値更新処理を行われ、平均性別識別値更新処理と同様に、平均年齢推定値更新処理の演算が行われ、平均年齢推定値の更新を行なう。人物ID=1の場合では、顔検出属性推定部43から現処理画像の人物ID=1に対応した年齢推定値24.84が入力されることで、平均年齢推定更新値が24.84となり、人物属性パラメーター・テーブルが人物ID=1の平均年齢推定値=24.84に更新される。   Next, an average age estimated value update process is performed, and an average age estimated value update process is performed in the same manner as the average gender identification value update process to update the average age estimated value. In the case of the person ID = 1, the average age estimated update value is 24.84 by inputting the age estimated value 24.84 corresponding to the person ID = 1 of the currently processed image from the face detection attribute estimating unit 43. The person attribute parameter table is updated to the average age estimate of person ID = 1 = 24.84.

そして、人物属性パラメーター・テーブルの判定回数を1増加し、人物属性パラメーター・テーブルを判定回数=1とする。その後、人物追跡属性判定結果を出力する。判定結果の出力としては、人物ID=1を例とすると、この時点の人物属性パラメーター・テーブルの人物ID=1に対応する平均性別識別値=+1.26であるので男性と出力し、平均年齢推定値=24.84であるので25歳と出力する。   Then, the number of determinations in the person attribute parameter table is increased by 1, and the number of determinations in the person attribute parameter table is set to 1. Thereafter, the person tracking attribute determination result is output. As an output of the determination result, if the person ID = 1 is taken as an example, since the average gender identification value corresponding to the person ID = 1 in the person attribute parameter table at this time = + 1.26, it is output as male and the average age is output. Since the estimated value is 24.84, 25 years old is output.

なお、図7に示す人物属性判定処理フローは、人物IDごとに行なわれ、これまで図8の人物ID=1について行なった処理を同様に、現処理画像内の全ての人物IDに対して行われる。つまり、人物ID=2、人物ID=3についても同様の処理を行い、現処理画像での人物追跡属性判定を終了する。顔検出属性推定部43からの現処理画像の人物ID=2と人物ID=3の人物ID属性情報が

Figure 2013156718
の場合、終了時の人物属性パラメーター・テーブルは、
Figure 2013156718
となり、判定結果として
Figure 2013156718
を出力する。 The person attribute determination process flow shown in FIG. 7 is performed for each person ID, and the processes performed so far for person ID = 1 in FIG. 8 are similarly performed for all person IDs in the current process image. Is called. That is, the same processing is performed for the person ID = 2 and the person ID = 3, and the person tracking attribute determination in the current processed image is finished. Person ID attribute information of person ID = 2 and person ID = 3 of the currently processed image from the face detection attribute estimation unit 43 is obtained.
Figure 2013156718
, The person attribute parameter table at the end is
Figure 2013156718
And as a judgment result
Figure 2013156718
Is output.

図9は、次の処理画像(処理画像番号=2)における判定方法のフローである。人物追跡属性判定処理が、図8と同様に示すように行なわれる。例えば、顔検出属性推定部43からの人物ID属性情報が

Figure 2013156718
の場合、終了時の人物属性パラメーター・テーブルは、
Figure 2013156718
となり、判定結果として
Figure 2013156718
を出力する。 FIG. 9 is a flow of the determination method in the next processed image (processed image number = 2). The person tracking attribute determination process is performed as shown in FIG. For example, the person ID attribute information from the face detection attribute estimation unit 43 is
Figure 2013156718
, The person attribute parameter table at the end is
Figure 2013156718
And as a judgment result
Figure 2013156718
Is output.

図10は、更に次の処理画像(処理画像番号=3)における判定方法のフローである。人物追跡属性判定処理が、図8及び図9と同様に行なわれる。顔検出属性推定部43からの人物ID属性情報が

Figure 2013156718
の場合、終了時の人物属性パラメーター・テーブルは、
Figure 2013156718
となり、判定結果として
Figure 2013156718
を出力する。 FIG. 10 is a flowchart of the determination method for the next processed image (processed image number = 3). The person tracking attribute determination process is performed in the same manner as in FIGS. The person ID attribute information from the face detection attribute estimation unit 43 is
Figure 2013156718
, The person attribute parameter table at the end is
Figure 2013156718
And as a judgment result
Figure 2013156718
Is output.

この処理画像番号=3の人物追跡属性判定処理では、顔検出属性推定部43において人物ID=1に対して顔検出がされず属性推定が行なわれなかったため性別識別値=NA、年齢推定値=NAが人物追跡属性判定部33に入力された場合の例を示している。図7のステップ71の判定処理において、顔検出属性推定部43での人物属性が推定されていないため、ステップ72〜75の処理は行なわれず、その結果、人物属性パラメーター・テーブルの人物ID=1に対応する判定回数、平均性別識別値、平均年齢推定値は更新されていない。しかし、以前の値が保持され、その結果、性別判定も年齢判定も出力することができる。こうすることで、カメラ映像シーケンスにおいて顔が隠れた場面などが生じた場合などにおいても、それまでにカメラ映像シーケンスの中で追跡してきたその人物IDの人物属性判定結果を用いることで、正しい判定結果を出力することができる。   In the person tracking attribute determination process with the processed image number = 3, the face detection attribute estimation unit 43 did not detect the face for the person ID = 1 and did not perform attribute estimation, so gender identification value = NA, age estimation value = An example in which NA is input to the person tracking attribute determination unit 33 is shown. In the determination process of step 71 of FIG. 7, since the person attribute is not estimated in the face detection attribute estimation unit 43, the process of steps 72 to 75 is not performed. As a result, person ID = 1 in the person attribute parameter table The number of determinations, the average gender identification value, and the average age estimate corresponding to are not updated. However, the previous value is retained, and as a result, both gender determination and age determination can be output. In this way, even when a scene with a hidden face occurs in the camera video sequence, the correct determination can be made by using the person attribute determination result of the person ID tracked in the camera video sequence so far. The result can be output.

更に、処理画像番号=3の人物追跡属性判定処理では、人物ID=2に対して顔画像の照明条件変動や部分隠れなどの影響などにより、顔検出属性推定部43において正しい性別識別が行なわれなかった場合の例を示している。この処理画像(処理画像番号=3)においては、顔検出属性推定部43の人物ID=2に対する性別識別値=+0.18であり、僅かに男性であると識別されている。しかし、平均性別識別値更新処理を行うことで、カメラ映像シーケンスの中での人物ID=2の性別識別値を過去の処理画像における同じ人物IDの性別識別値を含めて総合的に判定することができ、その結果、この処理画像における平均性別識別値=−1.18となり、正しく女性と判定をすることができる。   Furthermore, in the person tracking attribute determination process of process image number = 3, the correct gender identification is performed in the face detection attribute estimation unit 43 due to the influence of the variation in the illumination condition of the face image, partial hiding, etc. with respect to the person ID = 2. An example of the case where there was no such case is shown. In this processed image (processed image number = 3), the face detection attribute estimation unit 43 has the gender identification value = + 0.18 for the person ID = 2, and is identified as being slightly male. However, the gender identification value of the person ID = 2 in the camera video sequence is comprehensively determined including the gender identification value of the same person ID in the past processed image by performing the average gender identification value update process. As a result, the average gender identification value in this processed image = −1.18, and it can be determined correctly as a woman.

図11は、処理画像番号=4における判定方法のフローである。図11では、顔検出属性推定部43において人物ID=3の属性推定が行なわれなかった場合の例を示している。この場合も同様に、図7のステップ71の判定の結果、ステップ72〜75の処理は行なわれず、人物属性パラメーター・テーブルの人物ID=3に対応する判定回数、平均性別識別値、平均年齢推定値は更新されていない。しかし、以前の値が保持されているため、性別判定と年齢判定が正しく行なわれる。   FIG. 11 is a flowchart of the determination method when the processing image number = 4. FIG. 11 shows an example in which the face detection attribute estimation unit 43 does not perform the attribute estimation of the person ID = 3. In this case as well, as a result of the determination at step 71 in FIG. 7, the processing at steps 72 to 75 is not performed, and the determination count corresponding to the person ID = 3 in the person attribute parameter table, average gender identification value, average age estimation The value has not been updated. However, since the previous value is retained, sex determination and age determination are correctly performed.

図12は、処理画像番号=5における判定方法のフローである。レーザー測域センサー人物検出で人物ID=1は検出エリアから消え、新しく人物ID=4が検出エリアに加わった状況を示している。レーザー測域センサーの人物検出に対応して、顔検出属性推定部43からの人物ID属性情報も人物ID=2、人物ID=3、人物ID=4の3名分の

Figure 2013156718
となる。図10に示される平均性別識別値更新処理52と平均年齢推定値更新処理53の演算により、人物属性パラメーター・テーブルが更新されるが、人物ID=1は顔検出属性推定部43からの人物ID属性情報が無いため更新は行なわれず、以前の値が保持される。また、人物ID=4はこの処理画像で初めて人物ID属性情報が入力されたので、新しく人物属性パラメーター・テーブルに加わり、
Figure 2013156718
となり、判定結果として
Figure 2013156718
を出力する。 FIG. 12 is a flowchart of the determination method when the processing image number = 5. In the laser detection sensor person detection, person ID = 1 disappears from the detection area, and a new person ID = 4 is added to the detection area. Corresponding to the person detection of the laser range sensor, the person ID attribute information from the face detection attribute estimation unit 43 is also for three persons of person ID = 2, person ID = 3, and person ID = 4.
Figure 2013156718
It becomes. The person attribute parameter table is updated by the calculation of the average gender identification value update process 52 and the average age estimated value update process 53 shown in FIG. 10, but person ID = 1 is the person ID from the face detection attribute estimation unit 43. Since there is no attribute information, no update is performed and the previous value is retained. In addition, since the person ID attribute information is input for the first time in this processed image, the person ID = 4 is newly added to the person attribute parameter table,
Figure 2013156718
And as a judgment result
Figure 2013156718
Is output.

人物ID=3については、処理画像番号=3の人物ID=2のときと同様に、顔画像の照明条件や部分隠れなどの影響により顔検出属性推定部43からの性別推定値が−0.04と僅かながら女性と誤識別されているが、本方式の人物追跡属性判定方式により平均性別識別値=+0.61となり、男性と正しく判定される。なお、ここでは判定に平均値を用いた例を述べたが、平均値の代わりに中央値や、性別判定などにおいては多数決などを用いることも可能である。   For the person ID = 3, the gender estimated value from the face detection attribute estimation unit 43 is −0 due to the influence of the illumination condition of the face image, partial hiding, etc., as in the case of the person ID = 2 of the processing image number = 3. Although it is slightly misidentified as female, such as 04, the gender identification value = + 0.61 is obtained by the person tracking attribute determination method of this method, and it is correctly determined as male. Although an example in which the average value is used for the determination has been described here, a median or a majority vote or the like can be used for the gender determination instead of the average value.

次に、人物追跡属性判定部33からの出力の一例について説明する。上述のとおり、人物追跡属性判定部33は、人物ID、人物追跡ワールド座標(x、y)、年齢・性別等の人物属性情報を出力する。これを図示しないディスプレイに出力することで、x軸、y軸の2次元鳥瞰図上に人物IDと共にプロットすることが可能である。また、逐次、人物候補追跡部24から入力される人物候補の人物IDとワールド座標に対応して鳥瞰図上の表示を更新する。   Next, an example of output from the person tracking attribute determination unit 33 will be described. As described above, the person tracking attribute determination unit 33 outputs person attribute information such as a person ID, person tracking world coordinates (x, y), and age / sex. By outputting this to a display (not shown), it is possible to plot it together with the person ID on the two-dimensional bird's-eye view of the x axis and the y axis. In addition, the display on the bird's eye view is updated corresponding to the person ID and world coordinates of the person candidate input from the person candidate tracking unit 24 sequentially.

図13は、人物追跡属性判定部33から出力される画面の一例である。カメラ10が接続された人物属性推定部40から人物IDに対応付けられた属性情報(性別識別値、年齢推定値)が処理画像ごとに逐次人物追跡・属性統合部30に入力され、その情報から、前述した人物属性パラメーター・テーブルとして、各人物IDに対応した判定回数、平均性別識別値、平均年齢推定値が逐次計算され保存されている。レーザー測域センサー11からのデータに基づく人物ID、人物追跡ワールド座標(x、y)に対し、この各人物IDに対応した平均性別識別値と平均年齢推定値からの性別判定と年齢判定を、付加表示をすることにより、人物追跡情報と属性情報を統合表示した鳥瞰図を生成することができる。   FIG. 13 is an example of a screen output from the person tracking attribute determination unit 33. The attribute information (gender identification value, age estimation value) associated with the person ID is input to the person tracking / attribute integration unit 30 for each processed image from the person attribute estimation unit 40 to which the camera 10 is connected. The number of determinations, the average gender identification value, and the average age estimated value corresponding to each person ID are sequentially calculated and stored as the aforementioned person attribute parameter table. For the person ID based on the data from the laser range sensor 11 and the person tracking world coordinates (x, y), gender determination and age determination from the average gender identification value and the average age estimated value corresponding to each person ID, By performing the additional display, it is possible to generate a bird's eye view in which the person tracking information and the attribute information are displayed in an integrated manner.

更に、図13のように、上半身判定部42で判定された上半身画像を人物IDに対応したサムネイル画像として、プロットした位置にあわせて表示をするようにしてもよい。この場合、人物追跡属性判定部33は、上半身検出画像を、人物IDに対応づけた形で顔検出属性推定部43から合わせて受信する。これにより図13に示すような、より分かりやすい人物追跡・属性統合鳥瞰図を作成表示することができる。サムネイル画像の生成については、例えば、顔検出属性推定部43から出力された、カメラ映像からのシーケンス画像における同じ人物IDの上半身検出画像の中から、顔の検出識別値が最大の画像を選択し、更新保存することで、最も正面顔が写った上半身画像をサムネイル画像とする。このようにすることで、鳥瞰図表示の分かりやすさを増すことも可能である。レーザー測域センサーからの人物追跡位置情報と、カメラ映像からの人物属性情報を統合した、人物追跡・属性統合鳥瞰図の生成が可能となり、属性情報や人物写真を伴った行動追跡を鳥瞰図として非常に分かりやすく表示することができる。   Further, as shown in FIG. 13, the upper body image determined by the upper body determination unit 42 may be displayed as a thumbnail image corresponding to the person ID in accordance with the plotted position. In this case, the person tracking attribute determination unit 33 receives the upper body detection image from the face detection attribute estimation unit 43 in a form associated with the person ID. This makes it possible to create and display a person tracking / attribute integrated bird's-eye view that is easier to understand as shown in FIG. For the generation of thumbnail images, for example, an image having the largest face detection identification value is selected from the upper body detection images of the same person ID in the sequence image from the camera video output from the face detection attribute estimation unit 43. By updating and saving, the upper body image showing the most front face is used as the thumbnail image. In this way, it is possible to increase the ease of understanding the bird's-eye view display. The person tracking position information from the laser range sensor and the person attribute information from the camera image can be integrated to generate a person tracking / attribute integrated bird's-eye view, and the action tracking with attribute information and a person photograph is very useful as a bird's eye view. It can be displayed clearly.

次に、本人物追跡属性推定装置を利用した来店客の行動収集の方法について、オフィス店舗複合ビル内のエレベーターを出てきた人の行動収集をした例を以下に説明する。   Next, an example of collecting behaviors of people who have come out of an elevator in an office store complex will be described below as a method of collecting behaviors of customers using the person tracking attribute estimation device.

図14は、カメラ10とレーザー測域センサー11の配置の一例である。エレベーターを出てきた人の顔が撮影でき、かつエレベーターを出てきたエリアが人物属性追跡エリアになるようにカメラ10とレーザー測域センサー11が設置される。このようにすることで、エレベーターを出てきた人の位置追跡に属性判定情報を紐付けることができる。   FIG. 14 is an example of the arrangement of the camera 10 and the laser range sensor 11. The camera 10 and the laser range sensor 11 are installed so that the face of the person who has left the elevator can be photographed and the area that has left the elevator becomes a person attribute tracking area. By doing in this way, attribute determination information can be linked | related with the position tracking of the person who came out of the elevator.

図14に示すように、人物属性追跡エリアのビル内ショップ&レストラン方面の一辺をA辺、ビル出入口方面の一辺をB辺とし、人物属性の追跡を行う設定辺を定める。人物属性情報が紐付けられた人物位置追跡により、エレベーターを出た人が人物属性追跡エリアのA辺から出ていった人数と、B辺から出ていった人数をそれぞれ人物属性別に時間帯ごとに集計する。   As shown in FIG. 14, one side of the shop / restaurant area in the building in the person attribute tracking area is A side, and one side of the building entrance / exit direction is B side, and the setting side for tracking the person attribute is determined. By tracking the position of the person attribute information, the number of people who got out of the elevator from the side A of the person attribute tracking area and the number of people who came out of the B side for each time zone To sum up.

図15は、人物の入出判定手法を示す図である。人物がA辺、あるいはB辺をどのように横切ったかの判定は、レーザー測域センサー11による人物候補追跡により行なう。人物候補追跡部24から、人物IDと共にワールド座標(x、y)が、レーザー測域センサーの走査周波数ごとのタイミング(t=n)で出力される。人物追跡属性判定部33は、人物IDが同じでタイミングがひとつ前(t=n−1)の実空間座標(xn-1、yn-1)と現タイミングの(xn、yn)を結ぶことで、実空間座標上での人物候補の動きベクトルを算出する。そして、この動きベクトルがA辺、あるいはB辺をどの方向に横切ったかどうかを判定することで、設定したA辺、あるいはB辺をエレベーターから出て行ったか、エレベーターへ入ってきたかを判定することができる。 FIG. 15 is a diagram illustrating a person entering / exiting determination method. How the person crosses the A side or the B side is determined by tracking the human candidate by the laser range sensor 11. The human candidate tracking unit 24 outputs the world coordinates (x, y) together with the person ID at the timing (t = n) for each scanning frequency of the laser range sensor. The person tracking attribute determination unit 33 uses the real space coordinates (x n−1 , y n−1 ) of the same person ID and the previous timing (t = n−1 ) and (x n , y n ) of the current timing. , The motion vector of the human candidate on the real space coordinates is calculated. Then, by determining in which direction the motion vector has crossed the A side or B side, it is determined whether the set A side or B side has exited the elevator or entered the elevator. Can do.

レーザー測域センサー11の仕様により、人物候補の移動に対して走査周波数が非常に速い場合などは、走査周波数のタイミングで出力される人物IDと実空間座標を、例えば5分の1などに間引き、同様の処理を行なうことで、特に設定したA辺、あるいはB辺での横切り判定を安定して行なうことができる。   Due to the specifications of the laser range sensor 11, when the scanning frequency is very fast relative to the movement of the person candidate, the person ID and the real space coordinates output at the timing of the scanning frequency are thinned out to, for example, 1/5. By performing the same processing, it is possible to stably perform the crossing judgment on the set A side or B side.

1つのレーザー測域センサーで人物候補の実空間座標上での追跡が可能であり、図14に示すように、1つのレーザー測域センサーで人物候補の入出判定を行なう設定辺は複数辺設定することができる。   One laser range sensor can track a human candidate on real space coordinates. As shown in FIG. 14, a plurality of sides are set for setting a candidate for entering / exiting a human candidate with one laser range sensor. be able to.

図16は、午前7時台から午後10時台までの時間帯ごとの、男性の年代別のエレベーターを出てショップ&レストラン方面に向かった人数と出入口方面に向かった人数を集計した結果の一例を示す図である。図17は、午前7時台から午後10時台までの時間帯ごとの、女性の年代別のエレベーターを出てショップ&レストラン方面に向かった人数と出入口方面に向かった人数を集計した結果の一例を示す図である。これらの例において、男女それぞれにおいて、20歳未満、20歳以上40歳未満、40歳以上60歳未満、60歳以上の4つの年代に分類している。このように、判定された人物IDごとの属性情報を蓄積し、人物追跡属性判定部33において、集計するようにすることで、エレベーターを出てきた人全体の各時間帯の性別比率、年代比率を分析することができる。図18は、エレベーターから出てきた人について、時間帯ごとの人数と年代比率を集計した一例の図である。   Figure 16 shows an example of the results of counting the number of men who left the elevators by age group and headed for shops and restaurants and the number of people headed for entrances and exits for each time period from 7 am to 10 pm FIG. Figure 17 shows an example of the results of counting the number of women who left the elevators by age and headed for shops and restaurants and the number of people headed for entrances and exits for each time period from 7 am to 10 pm FIG. In these examples, men and women are classified into four ages of under 20 years old, 20 years old and under 40 years old, 40 years old and under 60 years old, and 60 years old and over. As described above, the attribute information for each determined person ID is accumulated, and the person tracking attribute determination unit 33 aggregates the information so that the gender ratio and the age ratio of each time zone of the entire person who has exited the elevator Can be analyzed. FIG. 18 is a diagram of an example in which the number of people and the age ratio are tabulated for each person who comes out of the elevator.

さらに、エレベーターを出た後、ショップ&レストラン方面に向かったか、あるいは出入口方面に向かったかの行動調査として、人物属性ごとの動向を調査することができる。図19は、40歳以上60歳未満の男性における、それぞれの時間帯ごとのエレベーターを出た後の向かい先の人数と比率を求めた図の一例である。図20は、20歳以上40歳未満の女性に絞ったエレベーターを出た後の向かい先の人数と比率を求めた図の一例である。こうした分析を行うことで、40歳以上60歳未満の男性が昼休みと定時後にしかショップ&レストランに足を向けないのに対して、20歳以上40歳未満の女性は昼休みから定時後までの時間においてもショップ&レストランに足を向けていることが分析され、この結果から例えば昼休みから定時後までの時間については女性をターゲットにした販売戦略を行なうことで売り上げを伸ばすことが期待できることなどが分かる。   Furthermore, after exiting the elevator, it is possible to investigate a trend for each person attribute as a behavioral survey as to whether it headed for the shop & restaurant or headed for the entrance / exit. FIG. 19 is an example of a diagram in which the number of persons and the ratio of the person after exiting the elevator for each time zone in a male who is 40 years old or older and younger than 60 years old are obtained. FIG. 20 is an example of a diagram in which the number and ratio of the destinations after exiting an elevator focused on women aged between 20 and 40 years old. By doing this analysis, men between the ages of 40 and under 60 turn their feet to the shops and restaurants only after lunch breaks and regular hours, whereas women between the ages of 20 and under 40 years of time from lunch breaks to after regular hours. As a result, it can be seen that, for example, the time from lunch break to after regular hours can be expected to increase sales by carrying out a sales strategy targeting women. .

このように、人物属性と紐付けた行動収集が可能になり、例えば店舗来店客の買い回り行動の収集が可能になり、POSデータからは見えてこない来店客の店舗内の流れを知ることで、商品配置やフロア・レイアウトを最適化することが可能となる。また、ビル内のエレベーターから出てきた人の属性別の流れを時間帯ごとに把握することにより、オフィス店舗複合ビルにおける店舗商品やレストランでのメニューなどを戦略的に検討することも可能となる。   In this way, it is possible to collect behaviors associated with person attributes. For example, it is possible to collect store customers' buying behaviors, and by knowing the flow in the store of the store customers that cannot be seen from the POS data. Product layout and floor layout can be optimized. It is also possible to strategically examine store products and restaurant menus in office store complex buildings by grasping the flow of people coming out of elevators in the building by time zone. .

Claims (9)

レーザー測域センサーの測定データから所定の閾値内の距離である点群をクラスタリングして人物候補を抽出する人物候補クラスタリング部と、
前記測定データを走査フレーム間で比較し、距離差が所定の範囲内である点群を同一の人物候補として人物IDを付与し、人物IDと位置座標とを出力する人物候補追跡部と、
前記位置座標を2次元画像座標に変換するビューポート変換部と、
前記2次元画像座標に基づいて、前記人物IDに対応する上半身探索領域としてウィンドウ・サイズと座標データとを設定する上半身探索領域設定部と、
カメラからのフレーム画像データから、前記上半身探索領域に基づいて顔検出を行い、人物属性を推定する顔検出属性推定部と、
前記人物候補追跡部から出力された人物IDと位置座標と、前記顔検出属性推定部からの人物IDと人物属性情報とに基づいて、人物IDと位置座標、人物属性情報の対応付けを行う人物追跡属性判定部と、を有する人物追跡属性推定装置。
A human candidate clustering unit that extracts human candidates by clustering point clouds that are distances within a predetermined threshold from the measurement data of the laser range sensor;
A human candidate tracking unit that compares the measurement data between scanning frames, assigns a person ID to a point group having a distance difference within a predetermined range as the same human candidate, and outputs the human ID and position coordinates;
A viewport converter for converting the position coordinates into two-dimensional image coordinates;
An upper body search area setting unit that sets a window size and coordinate data as an upper body search area corresponding to the person ID based on the two-dimensional image coordinates;
A face detection attribute estimation unit that performs face detection based on the upper body search area from the frame image data from the camera and estimates a person attribute;
A person who associates a person ID with position coordinates and person attribute information based on the person ID and position coordinates output from the person candidate tracking unit and the person ID and person attribute information from the face detection attribute estimation unit. And a tracking attribute determination unit.
前記人物属性追跡判定部は、複数のフレーム画像データにおける、同一の人物IDが付与された人物属性情報に基づいて、該人物IDの人物属性を判定することを特徴とする請求項1記載の人物追跡属性推定装置。   2. The person according to claim 1, wherein the person attribute tracking determination unit determines a person attribute of the person ID based on person attribute information to which the same person ID is assigned in a plurality of frame image data. Tracking attribute estimation device. 前記人物属性追跡判定部は、複数の人物属性情報の平均値、中央値、多数決のいずれかに基づいて該人物IDの人物属性を判定することを特徴とする請求項2記載の人物追跡属性推定装置。   3. The person tracking attribute estimation according to claim 2, wherein the person attribute tracking determination unit determines a person attribute of the person ID based on one of an average value, a median value, and a majority vote of a plurality of person attribute information. apparatus. 前記人物属性追跡判定部は、さらに前記顔検出属性推定部からサムネイル画像を受信し、該人物IDに対応する位置座標に基づいて、前記サムネイル画像と人物属性情報とをプロットして表示装置へ表示するよう出力することを特徴とする請求項1〜3記載の人物追跡属性推定装置。   The person attribute tracking determination unit further receives a thumbnail image from the face detection attribute estimation unit, plots the thumbnail image and the person attribute information based on the position coordinates corresponding to the person ID, and displays them on the display device The person tracking attribute estimation apparatus according to claim 1, wherein the person tracking attribute estimation apparatus outputs the information. 前記人物属性追跡判定部は、該人物IDに対応する前記位置座標から動きベクトルを算出し、設定辺に対する動きを判定することを特徴とする請求項1〜4記載の人物追跡属性推定装置。   The person tracking attribute estimation apparatus according to claim 1, wherein the person attribute tracking determination unit calculates a motion vector from the position coordinates corresponding to the person ID, and determines a movement with respect to a set side. 前記人物属性追跡判定部は、複数の人物IDの人物属性情報を集計することを特徴とする請求項1〜4記載の人物追跡属性推定装置。   The person tracking attribute estimation device according to claim 1, wherein the person attribute tracking determination unit aggregates person attribute information of a plurality of person IDs. 前記人物属性追跡判定部は、複数の人物IDの人物属性情報と設定辺に対する動きを合わせて集計することを特徴とする請求項5記載の人物追跡属性推定装置。   6. The person tracking attribute estimation apparatus according to claim 5, wherein the person attribute tracking determination unit totals together the person attribute information of a plurality of person IDs and the movement with respect to the set side. レーザー測域センサーの測定データから所定の閾値内の距離である点群をクラスタリングして人物候補を抽出する人物候補クラスタリングステップ、
前記測定データを走査フレーム間で比較し、距離差が所定の範囲内である点群を同一の人物候補として人物IDを付与し、人物IDと位置座標とを出力する人物候補追跡ステップ、
前記位置座標を2次元画像座標に変換するビューポート変換ステップ、
前記2次元画像座標に基づいて、前記人物IDに対応する上半身探索領域としてウィンドウ・サイズと座標データとを設定する上半身探索領域設定ステップ、
カメラからのフレーム画像データから、前記上半身探索領域に基づいて顔検出を行い、人物属性を推定する顔検出属性推定ステップ、
前記人物候補追跡ステップで出力された人物IDと位置座標と、前記顔検出属性推定ステップで出力された人物IDと人物属性情報とに基づいて、人物IDと位置座標、人物属性情報の対応付けを行う人物追跡属性判定ステップ、を有する人物追跡属性推定方法。
A human candidate clustering step of extracting human candidates by clustering point clouds that are distances within a predetermined threshold from the measurement data of the laser range sensor,
A human candidate tracking step of comparing the measurement data between scanning frames, assigning a person ID to a group of points whose distance difference is within a predetermined range as the same human candidate, and outputting the human ID and position coordinates;
A viewport conversion step of converting the position coordinates into two-dimensional image coordinates;
An upper body search area setting step for setting a window size and coordinate data as an upper body search area corresponding to the person ID based on the two-dimensional image coordinates;
A face detection attribute estimation step for performing face detection based on the upper body search area from frame image data from a camera and estimating a person attribute;
Based on the person ID and position coordinates output in the person candidate tracking step and the person ID and person attribute information output in the face detection attribute estimation step, the person ID is associated with the position coordinates and the person attribute information. A person tracking attribute estimation method comprising: a person tracking attribute determination step.
コンピュータに、
レーザー測域センサーの測定データから所定の閾値内の距離である点群をクラスタリングして人物候補を抽出する人物候補クラスタリングステップ、
前記測定データを走査フレーム間で比較し、距離差が所定の範囲内である点群を同一の人物候補として人物IDを付与し、人物IDと位置座標とを出力する人物候補追跡ステップ、
前記位置座標を2次元画像座標に変換するビューポート変換ステップ、
前記2次元画像座標に基づいて、前記人物IDに対応する上半身探索領域としてウィンドウ・サイズと座標データとを設定する上半身探索領域設定ステップ、
カメラからのフレーム画像データから、前記上半身探索領域に基づいて顔検出を行い、人物属性を推定する顔検出属性推定ステップ、
前記人物候補追跡ステップで出力された人物IDと位置座標と、前記顔検出属性推定ステップで出力された人物IDと人物属性情報とに基づいて、人物IDと位置座標、人物属性情報の対応付けを行う人物追跡属性判定ステップ、
を実行させるための人物追跡属性推定プログラム。
On the computer,
A human candidate clustering step of extracting human candidates by clustering point clouds that are distances within a predetermined threshold from the measurement data of the laser range sensor,
A human candidate tracking step of comparing the measurement data between scanning frames, assigning a person ID to a group of points whose distance difference is within a predetermined range as the same human candidate, and outputting the human ID and position coordinates;
A viewport conversion step of converting the position coordinates into two-dimensional image coordinates;
An upper body search area setting step for setting a window size and coordinate data as an upper body search area corresponding to the person ID based on the two-dimensional image coordinates;
A face detection attribute estimation step for performing face detection based on the upper body search area from frame image data from a camera and estimating a person attribute;
Based on the person ID and position coordinates output in the person candidate tracking step and the person ID and person attribute information output in the face detection attribute estimation step, the person ID is associated with the position coordinates and the person attribute information. A person tracking attribute determination step to be performed;
Person tracking attribute estimation program to execute.
JP2012014816A 2012-01-27 2012-01-27 Person tracking attribute estimation device, person tracking attribute estimation method, program Expired - Fee Related JP5950296B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012014816A JP5950296B2 (en) 2012-01-27 2012-01-27 Person tracking attribute estimation device, person tracking attribute estimation method, program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012014816A JP5950296B2 (en) 2012-01-27 2012-01-27 Person tracking attribute estimation device, person tracking attribute estimation method, program

Publications (2)

Publication Number Publication Date
JP2013156718A true JP2013156718A (en) 2013-08-15
JP5950296B2 JP5950296B2 (en) 2016-07-13

Family

ID=49051861

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012014816A Expired - Fee Related JP5950296B2 (en) 2012-01-27 2012-01-27 Person tracking attribute estimation device, person tracking attribute estimation method, program

Country Status (1)

Country Link
JP (1) JP5950296B2 (en)

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015069452A (en) * 2013-09-30 2015-04-13 株式会社日立ソリューションズ Mobile information management method, mobile information management device, and program
JP2015125731A (en) * 2013-12-27 2015-07-06 沖電気工業株式会社 Person attribute evaluation device, person attribute evaluation method and program
JP2016024191A (en) * 2014-07-21 2016-02-08 ジック アーゲー Distance measuring sensor for recognition of object and distance measurement
JP2016181174A (en) * 2015-03-24 2016-10-13 トヨタホーム株式会社 Regional monitoring system
JP2016181173A (en) * 2015-03-24 2016-10-13 トヨタホーム株式会社 Entry/exit management system
JP2017219377A (en) * 2016-06-06 2017-12-14 三菱電機株式会社 Monitoring device, monitoring method, and airport monitoring system
JP2017219385A (en) * 2016-06-06 2017-12-14 株式会社デンソーアイティーラボラトリ Object detector, object detection system, object detection method, and program
KR20180008698A (en) 2016-01-18 2018-01-24 주식회사 히타치 정보통신 엔지니어링 A moving object measurement system, and a method of specifying the number of persons in the area to be measured
JP2018042105A (en) * 2016-09-07 2018-03-15 東芝テリー株式会社 Monitoring image processing device and monitoring image processing method
CN107919164A (en) * 2016-10-05 2018-04-17 松下知识产权经营株式会社 Auxiliary device, householder method and program
KR101856120B1 (en) 2015-08-07 2018-05-10 구글 엘엘씨 Discovery of merchants from images
JP2019194587A (en) * 2018-05-03 2019-11-07 アナログ ディヴァイスィズ インク Single pixel sensor
CN110490030A (en) * 2018-05-15 2019-11-22 保定市天河电子技术有限公司 A kind of channel demographic method and system based on radar
JP2019219248A (en) * 2018-06-19 2019-12-26 沖電気工業株式会社 Point group processor, method for processing point group, and program
JP2020509494A (en) * 2017-03-17 2020-03-26 本田技研工業株式会社 Combining 3D object detection and orientation estimation by multimodal fusion
JP2020510264A (en) * 2017-03-20 2020-04-02 華為技術有限公司Huawei Technologies Co.,Ltd. Method and apparatus for recognizing descriptive attributes of appearance features
JPWO2019026919A1 (en) * 2017-08-02 2020-04-23 ナーブ株式会社 Image processing system, image processing method, and program
CN111310731A (en) * 2019-11-15 2020-06-19 腾讯科技(深圳)有限公司 Video recommendation method, device and equipment based on artificial intelligence and storage medium
CN111325082A (en) * 2019-06-28 2020-06-23 杭州海康威视系统技术有限公司 Personnel concentration degree analysis method and device
JP2020098188A (en) * 2018-09-27 2020-06-25 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド Obstacle detection method, obstacle detection device, electronic apparatus, vehicle and storage medium
US10740653B2 (en) 2017-04-07 2020-08-11 Nec Corporation Learning data generation device, learning data generation method, and recording medium
JP2021021639A (en) * 2019-07-29 2021-02-18 パイオニア株式会社 Information processing apparatus, information processing method, program, recording medium, and detection system
CN112712544A (en) * 2019-10-25 2021-04-27 纬创资通股份有限公司 Person tracking system and person tracking method
CN113671513A (en) * 2020-05-14 2021-11-19 日立乐金光科技株式会社 Distance measuring system and calibration method of distance measuring sensor
JP2022101310A (en) * 2020-12-24 2022-07-06 株式会社日立エルジーデータストレージ Rangefinder system and coordinate calibration method thereof

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009043176A (en) * 2007-08-10 2009-02-26 Yamaha Motor Co Ltd Vending machine
WO2010140613A1 (en) * 2009-06-03 2010-12-09 学校法人中部大学 Object detection device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009043176A (en) * 2007-08-10 2009-02-26 Yamaha Motor Co Ltd Vending machine
WO2010140613A1 (en) * 2009-06-03 2010-12-09 学校法人中部大学 Object detection device

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN6015023594; 小林貴訓 外1名: '分散センサ情報の統合によるエリア内人物追跡と動線推定' 情報処理学会研究報告 2008-CVIM-163 コンピュータビジョンとイメージメディア 第2008巻 第36号, 20080501, 第231-246頁, 社団法人情報処理学会 *

Cited By (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015069452A (en) * 2013-09-30 2015-04-13 株式会社日立ソリューションズ Mobile information management method, mobile information management device, and program
JP2015125731A (en) * 2013-12-27 2015-07-06 沖電気工業株式会社 Person attribute evaluation device, person attribute evaluation method and program
JP2016024191A (en) * 2014-07-21 2016-02-08 ジック アーゲー Distance measuring sensor for recognition of object and distance measurement
JP2016181174A (en) * 2015-03-24 2016-10-13 トヨタホーム株式会社 Regional monitoring system
JP2016181173A (en) * 2015-03-24 2016-10-13 トヨタホーム株式会社 Entry/exit management system
KR101856120B1 (en) 2015-08-07 2018-05-10 구글 엘엘씨 Discovery of merchants from images
KR102069963B1 (en) * 2016-01-18 2020-01-23 주식회사 히타치 정보통신 엔지니어링 Method of specifying number of person in moving object measurement system and area to be measured
KR20180008698A (en) 2016-01-18 2018-01-24 주식회사 히타치 정보통신 엔지니어링 A moving object measurement system, and a method of specifying the number of persons in the area to be measured
JP2017219377A (en) * 2016-06-06 2017-12-14 三菱電機株式会社 Monitoring device, monitoring method, and airport monitoring system
JP2017219385A (en) * 2016-06-06 2017-12-14 株式会社デンソーアイティーラボラトリ Object detector, object detection system, object detection method, and program
JP2018042105A (en) * 2016-09-07 2018-03-15 東芝テリー株式会社 Monitoring image processing device and monitoring image processing method
CN107919164B (en) * 2016-10-05 2023-09-08 松下知识产权经营株式会社 Auxiliary device, auxiliary method, and recording medium
CN107919164A (en) * 2016-10-05 2018-04-17 松下知识产权经营株式会社 Auxiliary device, householder method and program
JP2020509494A (en) * 2017-03-17 2020-03-26 本田技研工業株式会社 Combining 3D object detection and orientation estimation by multimodal fusion
JP2020510264A (en) * 2017-03-20 2020-04-02 華為技術有限公司Huawei Technologies Co.,Ltd. Method and apparatus for recognizing descriptive attributes of appearance features
US11410411B2 (en) 2017-03-20 2022-08-09 Huawei Technologies Co., Ltd. Method and apparatus for recognizing descriptive attribute of appearance feature
US11386297B2 (en) 2017-04-07 2022-07-12 Nec Corporation Learning data generation device, learning data generation method, and recording medium
US10740653B2 (en) 2017-04-07 2020-08-11 Nec Corporation Learning data generation device, learning data generation method, and recording medium
JPWO2019026919A1 (en) * 2017-08-02 2020-04-23 ナーブ株式会社 Image processing system, image processing method, and program
JP2019194587A (en) * 2018-05-03 2019-11-07 アナログ ディヴァイスィズ インク Single pixel sensor
CN110490030A (en) * 2018-05-15 2019-11-22 保定市天河电子技术有限公司 A kind of channel demographic method and system based on radar
CN110490030B (en) * 2018-05-15 2023-07-14 保定市天河电子技术有限公司 Method and system for counting number of people in channel based on radar
JP2019219248A (en) * 2018-06-19 2019-12-26 沖電気工業株式会社 Point group processor, method for processing point group, and program
JP7107015B2 (en) 2018-06-19 2022-07-27 沖電気工業株式会社 Point cloud processing device, point cloud processing method and program
US11393219B2 (en) 2018-09-27 2022-07-19 Apollo Intelligent Driving Technology (Beijing) Co., Ltd. Method and apparatus for detecting obstacle, electronic device, vehicle and storage medium
JP2020098188A (en) * 2018-09-27 2020-06-25 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド Obstacle detection method, obstacle detection device, electronic apparatus, vehicle and storage medium
CN111325082A (en) * 2019-06-28 2020-06-23 杭州海康威视系统技术有限公司 Personnel concentration degree analysis method and device
CN111325082B (en) * 2019-06-28 2024-02-02 杭州海康威视系统技术有限公司 Personnel concentration analysis method and device
JP2021021639A (en) * 2019-07-29 2021-02-18 パイオニア株式会社 Information processing apparatus, information processing method, program, recording medium, and detection system
CN112712544A (en) * 2019-10-25 2021-04-27 纬创资通股份有限公司 Person tracking system and person tracking method
CN111310731A (en) * 2019-11-15 2020-06-19 腾讯科技(深圳)有限公司 Video recommendation method, device and equipment based on artificial intelligence and storage medium
CN111310731B (en) * 2019-11-15 2024-04-09 腾讯科技(深圳)有限公司 Video recommendation method, device, equipment and storage medium based on artificial intelligence
CN113671513A (en) * 2020-05-14 2021-11-19 日立乐金光科技株式会社 Distance measuring system and calibration method of distance measuring sensor
CN113671513B (en) * 2020-05-14 2024-02-23 日立乐金光科技株式会社 Ranging system and calibration method of ranging sensor
JP2022101310A (en) * 2020-12-24 2022-07-06 株式会社日立エルジーデータストレージ Rangefinder system and coordinate calibration method thereof
JP7411539B2 (en) 2020-12-24 2024-01-11 株式会社日立エルジーデータストレージ Ranging system and its coordinate calibration method

Also Published As

Publication number Publication date
JP5950296B2 (en) 2016-07-13

Similar Documents

Publication Publication Date Title
JP5950296B2 (en) Person tracking attribute estimation device, person tracking attribute estimation method, program
US11430222B2 (en) Sensor mapping to a global coordinate system using a marker grid
US20210390715A1 (en) Multi-camera image tracking on a global plane
US9117281B2 (en) Surface segmentation from RGB and depth images
US20240087141A1 (en) Image-based action detection using contour dilation
JP5657113B2 (en) Semantic analysis of objects in video
JP5380789B2 (en) Information processing apparatus, information processing method, and computer program
US9165190B2 (en) 3D human pose and shape modeling
US11756211B2 (en) Topview object tracking using a sensor array
US20210216788A1 (en) Object assignment during image tracking
US11659139B2 (en) Determining candidate object identities during image tracking
US11645698B2 (en) Topview item tracking using a sensor array
US11257225B2 (en) Sensor mapping to a global coordinate system using homography
US11308630B2 (en) Auto-exclusion zone for contour-based object detection
KR20110013200A (en) Identifying method of human attitude and apparatus of the same
US11847688B2 (en) Detecting and identifying misplaced items using a sensor array
US20220292576A1 (en) Identifying non-uniform weight objects using a sensor array
Zu Borgsen et al. Automated door detection with a 3D-sensor
EP4049172A1 (en) Action detection during image tracking
JP2005250692A (en) Method for identifying object, method for identifying mobile object, program for identifying object, program for identifying mobile object, medium for recording program for identifying object, and medium for recording program for identifying traveling object
JP2019174910A (en) Information acquisition device and information aggregation system and information aggregation device
JP2018185623A (en) Object detection device
JP2022137800A (en) Skeleton recognition method, skeleton recognition program, and physical exercise grading support system
Virgona et al. Socially constrained tracking in crowded environments using shoulder pose estimates
US20240119620A1 (en) Posture estimation apparatus, posture estimation method, and computer-readable recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140911

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150608

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150616

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150722

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160119

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160531

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160601

R150 Certificate of patent or registration of utility model

Ref document number: 5950296

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees