JP2013156718A - Person tracking attribute estimation device, person tracking attribute estimation method and program - Google Patents
Person tracking attribute estimation device, person tracking attribute estimation method and program Download PDFInfo
- Publication number
- JP2013156718A JP2013156718A JP2012014816A JP2012014816A JP2013156718A JP 2013156718 A JP2013156718 A JP 2013156718A JP 2012014816 A JP2012014816 A JP 2012014816A JP 2012014816 A JP2012014816 A JP 2012014816A JP 2013156718 A JP2013156718 A JP 2013156718A
- Authority
- JP
- Japan
- Prior art keywords
- person
- attribute
- tracking
- upper body
- candidate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Image Analysis (AREA)
Abstract
Description
この発明は、人物の位置検出と追跡を行なう方法およびその装置に関し、カメラによる人物認識を加えることで、人物追跡に人物の属性情報(性別、年齢等)を紐付けることを可能にしたものである。 The present invention relates to a method and apparatus for detecting and tracking a person's position, and by adding person recognition by a camera, it is possible to link person attribute information (gender, age, etc.) to person tracking. is there.
レーダー測域センサーなどで三次元実空間内の人物を検出し追跡するシステムが従来より実用化されている。従来の人物位置検出追跡装置は、レーザー照射による物体位置検知を行ない、検知物体の大きさから人物判定を行なうものであった。 A system for detecting and tracking a person in a three-dimensional real space with a radar range sensor has been put into practical use. A conventional person position detection / tracking apparatus detects an object position by laser irradiation and determines a person from the size of the detected object.
また、レーザー測域センサーとカメラを統合した技術として、下記文献1に記載の技術が提案されている。これはレーザー測域センサーによる距離の観測からの人物頭部の三次元実空間内での位置と、カメラによる見えの観測からの頭部形状らしさを相補的に統合した確率密度分布の重み付け和を用いることで、人物追跡の精度と頑健性を向上させるようにしたものである。
前記従来のレーザー測域センサーの人物位置検出追跡は、レーザー測域センサーによるレーザー光の内部ミラー回転による円周上への投光に対する反射光の遅延時間(光飛翔時間)に基づいて、センサーから物体までの距離と方向、物体の大きさを計測することで、物体の大きさから推定した人物の位置を検出追跡するものであり、人物属性を推定することはできなかった。また、前記従来のレーザー測域センサーとカメラを統合した人物追跡は、レーザー測域センサーによる距離の観測と、カメラによる見えの観測の、異なるセンサーモダリティを相補的に統合した手法であるが、その目的は人物追跡の精度と頑健性の向上であり、人物属性情報を人物追跡に紐付けることはできなかった。 The human position detection tracking of the conventional laser range sensor is based on the delay time (light flight time) of the reflected light with respect to the projection on the circumference due to the rotation of the internal mirror of the laser beam by the laser range sensor. By measuring the distance and direction to the object and the size of the object, the position of the person estimated from the size of the object is detected and tracked, and the person attribute cannot be estimated. In addition, the human tracking that integrates the conventional laser range sensor and camera is a method that complementarily integrates different sensor modalities of distance observation by the laser range sensor and appearance observation by the camera. The purpose was to improve the accuracy and robustness of person tracking, and person attribute information could not be linked to person tracking.
本発明は、人物の位置検出追跡に属性推定を紐付け、演算量を低減し、検出精度を向上させた人物追跡属性推定装置に関する。 The present invention relates to a person tracking attribute estimation apparatus that associates attribute estimation with person position detection tracking, reduces the amount of calculation, and improves detection accuracy.
本発明は、レーザー測域センサーの測定データから所定の閾値内の距離である点群をクラスタリングして人物候補を抽出する人物候補クラスタリング部と、測定データを走査フレーム間で比較し、距離差が所定の範囲内である点群を同一の人物候補として人物IDを付与し、人物IDと位置座標とを出力する人物候補追跡部と、位置座標を2次元画像座標に変換するビューポート変換部と、2次元画像座標に基づいて、前記人物IDに対応する上半身探索領域としてウィンドウ・サイズと座標データとを設定する上半身探索領域設定部と、カメラからのフレーム画像データから、上半身探索領域に基づいて顔検出を行い、人物属性を推定する顔検出属性推定部と、人物候補追跡部から出力された人物IDと位置座標と、顔検出属性推定部からの人物IDと人物属性情報とに基づいて、人物IDと位置座標、人物属性情報の対応付けを行う人物追跡属性判定部と、を有する人物追跡属性推定装置を提供する。 The present invention compares a human candidate clustering unit that extracts point candidates by clustering a point group that is a distance within a predetermined threshold from measurement data of a laser range sensor, and compares the measurement data between scan frames, and the distance difference is A person candidate tracking unit that assigns a person ID to a point group within a predetermined range as the same person candidate, and outputs the person ID and the position coordinates; a viewport conversion unit that converts the position coordinates into two-dimensional image coordinates; Based on the two-dimensional image coordinates, an upper body search area setting unit that sets a window size and coordinate data as an upper body search area corresponding to the person ID, and from frame image data from the camera, based on the upper body search area From a face detection attribute estimation unit that performs face detection and estimates a person attribute, a person ID and position coordinates output from the person candidate tracking unit, and a face detection attribute estimation unit Based on the personal ID and the person attribute information, to provide the person ID and position coordinates, and the person tracking attribute determination unit that performs mapping of the person attribute information, the person tracking attribute estimation apparatus having a.
また、本発明の人物追跡属性推定装置の人物属性追跡判定部は、複数のフレーム画像データにおける、同一の人物IDが付与された人物属性情報に基づいて、人物IDの人物属性を判定してもよい。 In addition, the person attribute tracking determination unit of the person tracking attribute estimation apparatus of the present invention may determine the person attribute of the person ID based on the person attribute information to which the same person ID is assigned in a plurality of frame image data. Good.
上記人物追跡属性推定装置において、人物属性追跡判定部は、複数の人物属性情報の平均値、中央値、多数決のいずれかに基づいて該人物IDの人物属性を判定してもよい。 In the person tracking attribute estimation apparatus, the person attribute tracking determination unit may determine the person attribute of the person ID based on any of an average value, a median value, and a majority vote of a plurality of person attribute information.
上記人物追跡属性推定装置において、人物属性追跡判定部は、さらに前記顔検出属性推定部からサムネイル画像を受信し、該人物IDに対応する位置座標に基づいて、前記サムネイル画像と人物属性情報とをプロットして表示装置へ表示するよう出力するようにしてもよい。 In the person tracking attribute estimation device, the person attribute tracking determination unit further receives a thumbnail image from the face detection attribute estimation unit, and determines the thumbnail image and the person attribute information based on the position coordinates corresponding to the person ID. You may make it output so that it may plot and display on a display apparatus.
上記人物追跡属性推定装置において、人物属性追跡判定部は、該人物IDに対応する前記位置座標から動きベクトルを算出し、設定辺に対する動きを判定してもよい。 In the person tracking attribute estimation apparatus, the person attribute tracking determination unit may calculate a motion vector from the position coordinates corresponding to the person ID, and determine a movement with respect to the set side.
上記人物追跡属性推定装置において、人物属性追跡判定部は、複数の人物IDの人物属性情報を集計してもよい、 In the person tracking attribute estimation device, the person attribute tracking determination unit may total person attribute information of a plurality of person IDs.
上記人物追跡属性推定装置において、人物属性追跡判定部は、複数の人物IDの人物属性情報と設定辺に対する動きを合わせて集計するようにしてもよい。 In the person tracking attribute estimation apparatus, the person attribute tracking determination unit may total the person attribute information of a plurality of person IDs and movements with respect to the set side.
また、本発明は、レーザー測域センサーの測定データから所定の閾値内の距離である点群をクラスタリングして人物候補を抽出する人物候補クラスタリングステップ、測定データを走査フレーム間で比較し、距離差が所定の範囲内である点群を同一の人物候補として人物IDを付与し、人物IDと位置座標とを出力する人物候補追跡ステップ、位置座標を2次元画像座標に変換するビューポート変換ステップ、2次元画像座標に基づいて、前記人物IDに対応する上半身探索領域としてウィンドウ・サイズと座標データとを設定する上半身探索領域設定ステップ、カメラからのフレーム画像データから、上半身探索領域に基づいて顔検出を行い、人物属性を推定する顔検出属性推定ステップ、人物候補追跡ステップで出力された人物IDと位置座標と、顔検出属性推定ステップで出力された人物IDと人物属性情報とに基づいて、人物IDと位置座標、人物属性情報の対応付けを行う人物追跡属性判定ステップ、を有する人物追跡属性推定方法を提供する。 The present invention also provides a human candidate clustering step for clustering a point group that is a distance within a predetermined threshold from measurement data of a laser range sensor to extract a human candidate, comparing measurement data between scan frames, Is a person candidate tracking step of assigning a person ID to a point group having a predetermined range as the same person candidate, and outputting the person ID and the position coordinates, a viewport conversion step of converting the position coordinates into two-dimensional image coordinates, Upper body search area setting step for setting window size and coordinate data as an upper body search area corresponding to the person ID based on the two-dimensional image coordinates, face detection based on the upper body search area from frame image data from the camera And the person ID and position output in the face detection attribute estimation step and the person candidate tracking step for estimating the person attribute. A person tracking attribute estimation method comprising: a person tracking attribute determination step for associating a person ID with position coordinates and person attribute information based on the coordinates and the person ID and person attribute information output in the face detection attribute estimation step I will provide a.
また、本発明は、コンピュータに、レーザー測域センサーの測定データから所定の閾値内の距離である点群をクラスタリングして人物候補を抽出する人物候補クラスタリングステップ、測定データを走査フレーム間で比較し、距離差が所定の範囲内である点群を同一の人物候補として人物IDを付与し、人物IDと位置座標とを出力する人物候補追跡ステップ、位置座標を2次元画像座標に変換するビューポート変換ステップ、2次元画像座標に基づいて、人物IDに対応する上半身探索領域としてウィンドウ・サイズと座標データとを設定する上半身探索領域設定ステップ、カメラからのフレーム画像データから、上半身探索領域に基づいて顔検出を行い、人物属性を推定する顔検出属性推定ステップ、人物候補追跡ステップで出力された人物IDと位置座標と、顔検出属性推定ステップで出力された人物IDと人物属性情報とに基づいて、人物IDと位置座標、人物属性情報の対応付けを行う人物追跡属性判定ステップ、を実行させるための人物追跡属性推定プログラムを提供する。 Further, the present invention provides a human candidate clustering step of clustering a point group having a distance within a predetermined threshold from measurement data of a laser range sensor to extract a human candidate on a computer, and comparing the measurement data between scanning frames. , A person candidate tracking step of assigning a person ID to a point group having a distance difference within a predetermined range as the same person candidate, and outputting the person ID and position coordinates, and a viewport for converting the position coordinates into two-dimensional image coordinates Conversion step: Upper body search area setting step for setting window size and coordinate data as an upper body search area corresponding to the person ID based on the two-dimensional image coordinates, from frame image data from the camera, based on the upper body search area Output in face detection attribute estimation step and person candidate tracking step to perform face detection and estimate person attributes Based on the object ID, the position coordinates, and the person ID and person attribute information output in the face detection attribute estimation step, a person tracking attribute determination step for associating the person ID with the position coordinates and the person attribute information is executed. A person tracking attribute estimation program is provided.
本発明によれば、人物追跡・属性統合部30を備えることで、レーザー測域センサーによる物体の3次元実空間位置追跡機能と、カメラによる顔検出属性推定機能を、複数の追跡人物にそれぞれ対応して紐付けることが可能となる。また、上半身識別部41における上半身識別を、上半身探索領域設定部32からのデータを利用することでスキャン回数を減らすことができるため、高速に行うことができる。さらに、人物属性情報を伴った3次元実空間人物追跡を実現できる。
According to the present invention, the person tracking /
また、レーザー測域センサーからの人物IDを用いた、シーケンス画像における人物属性の総合判断を行なうことが可能となり、照明条件の変化や、顔の向きの変化、顔の隠れなどが生じた状態においても安定した高精度の人物属性判定を行なうことが可能となる。 In addition, it is possible to make a comprehensive judgment of person attributes in a sequence image using a person ID from a laser range sensor, and in a state where a change in lighting conditions, a change in face orientation, a face hiding, etc. have occurred In addition, stable and highly accurate person attribute determination can be performed.
さらに、レーザー測域センサーからの人物追跡位置情報と、カメラ映像からの人物属性情報を統合した、人物追跡・属性統合鳥瞰図の生成が可能となり、属性情報や人物写真を伴った行動追跡を鳥瞰図として非常に分かりやすく表示することができる。 Furthermore, it is possible to generate a person tracking / attribute integrated bird's-eye view that integrates the person tracking position information from the laser range sensor and the person attribute information from the camera image, and the action tracking with attribute information and a person photograph can be used as a bird's eye view. It can be displayed very clearly.
また、人物属性と紐付けた行動収集が可能になり、例えば店舗来店客の買い回り行動の収集が可能になり、POSデータからは見えてこない来店客の店舗内の流れを知ることで、商品配置やフロア・レイアウトを最適化することが可能となる。また、ビル内のエレベーターから出てきた人の属性別の流れを時間帯ごとに把握することにより、オフィス店舗複合ビルにおける店舗商品やレストランでのメニューなどを戦略的に検討することも可能となる。 In addition, it is possible to collect behaviors linked to person attributes. For example, it is possible to collect store customers' buying behavior, and by knowing the flow in the store of the store customers that cannot be seen from the POS data, Placement and floor layout can be optimized. It is also possible to strategically examine store products and restaurant menus in office store complex buildings by grasping the flow of people coming out of elevators in the building by time zone. .
この発明を施設内の任意エリア内における来場者追跡と属性推定に適用した実施の形態を以下に説明する。この実施の形態では、レーザー測域センサーをレーザーが水平円周投光するように設置し、カメラはエリア内の人物の顔が適切な大きさで写る位置に設置している。レーザー測域センサーでエリア内の人物候補の実空間三次元座標検出と追跡を行なう。また、カメラで、レーザー測域センサーからの人物候補の実空間三次元座標をカメラ画像座標に射影した画像位置から、レーザー測域センサーからのそれぞれの人物候補に対応した人物検出、人物属性推定を行ない、更にその結果を、レーザー測域センサーからの追跡情報を用いて平均値、中央値、多数決などにより総合判断することで高精度かつ安定した人物属性情報を人物追跡に結び付けることができる。 An embodiment in which the present invention is applied to visitor tracking and attribute estimation in an arbitrary area in a facility will be described below. In this embodiment, the laser range sensor is installed so that the laser emits light in a horizontal circumferential direction, and the camera is installed at a position where a person's face in the area is captured in an appropriate size. Real-time 3D coordinate detection and tracking of human candidates in the area is performed using a laser range sensor. Also, with the camera, the person detection and person attribute estimation corresponding to each person candidate from the laser range sensor is performed from the image position obtained by projecting the real space 3D coordinates of the person candidate from the laser range sensor to the camera image coordinates. In addition, the result is comprehensively determined by the average value, median value, majority vote, etc. using the tracking information from the laser range sensor, so that highly accurate and stable person attribute information can be linked to person tracking.
図1は、本発明にかかるカメラ、レーザー測域センサー、人物追跡属性推定装置から構成される人物追跡属性システムの設置配置の一例である。カメラ10とレーザー測域センサー11は固定されるようにそれぞれ設置されており、カメラ10はビデオカメラであり、人物検出追跡エリア内の人物の顔が適切な大きさで撮影されるように配置・設定され、レーザー測域センサーは例えば人物の腰高を想定した床面からの高さ80cmのところにレーザーを水平円周投光するように配置されている。カメラとレーザー測域センサーはそれぞれUSB、LAN、RS−232C等のインタフェースにより人物追跡属性推定装置12と接続される。
FIG. 1 is an example of an installation arrangement of a person tracking attribute system including a camera, a laser range sensor, and a person tracking attribute estimation device according to the present invention. The
レーザー測域センサー11は、レーザーを照射し、物体に反射して戻ってくるまでの時間から物体までの距離を測定する。トランスミッタから照射したレーザーを回転ミラーで反射させ、前方を扇状にスキャンすることで床面から一定の高さの平面上に存在する物体までの距離を測定できる。本システムでは図1のようにレーザー測域センサー11を搭載しているので、床面からの高さが80cmで床面に平行な平面上をスキャンすることになる。
The
レーザー測域センサー11の回転ミラーはステップ角を利用しており、走査方向は反時計回りに走査する。例えば、1[step]は約1.05[deg]とし、最大ステップ数を228[step]として、約240度の扇型が検出エリアとする。レーザー測域センサー11は、角度θ、距離rのr−θ平面の極座標データから構成される測定データを一点ごとに出力する。これらの検出された点群の測定データが走査周波数のタイミングで人物追跡属性推定装置12へ入力される。なお、レーザー測域センサー11の代わりに、例えばGPSに加速度センサーや方位角センサーを組み合わせて角度と座標データを取得してもよい。また、ステレオ・カメラを用いて距離測定を行うことデータを取得してもよい。
The rotating mirror of the
図2は、本発明の一つの実施形態における人物追跡属性推定システムのブロック図である。人物追跡属性推定システムは、カメラ10、レーザー測域センサー11、人物追跡属性推定装置12を有する。人物追跡属性推定装置12は、人物候補検出追跡部20と、人物追跡・属性統合部30と、人物属性推定部40を有する。人物追跡属性推定装置12は、一つの態様では、ハードウェア資源とソフトウェアの協働で実現され、例えばコンピュータである。具体的には、人物追跡属性推定装置12の各種機能は、ROMやハードディスク等の記録媒体に記録された人物追跡属性推定プログラムがメインメモリに読み出されて制御装置(例えば、CPUなどのプロセッサ)によって実行されることで実現される。但し、人物追跡属性推定装置12は、ハードウェアでのみ実現されていてもよい。また、人物追跡属性推定装置12は、物理的に一つの装置により実現されてもよく、複数の装置により実現されていてもよい。また、人物追跡属性推定装置12は、カメラで撮影された画像フレームや、レーザー測域センサーから出力されたデータを入力するための図示せぬ入力インタフェースを備えている。
FIG. 2 is a block diagram of a person tracking attribute estimation system in one embodiment of the present invention. The person tracking attribute estimation system includes a
人物追跡属性推定装置12の人物候補検出追跡部20は、極座標/平面座標変換部21、背景登録部22、人物候補クラスタリング部23、人物候補追跡部24を有する。
The person candidate
極座標/平面座標変換部21は、レーザー測域センサー11から走査周波数ごとのタイミングで入力された角度θ、距離rのr−θ平面の極座標データを有する測定データを、x−y平面の平面座標データに変換する。これにより鳥瞰見取り図として表示することができる。
The polar coordinate / planar coordinate
背景登録部22は、あらかじめ人物検出追跡エリア内に人物がいない状況でレーザー測域センサーの測定結果を背景として登録している。これにより、背景測定との差の大きな点群のみを取り出すことで背景以外の物体を検出することができる。
The
人物候補クラスタリング部23は、レーザー測域センサー11から出力された点群であって、背景登録部22に登録された背景部分との差分を取り出し、距離差が近い点同士のクラスタリングを行う。クラスタリングすることで、点群を物体ごとに分類することができる。例えば幅25cm以上の点群を人物候補とすると、人物候補クラスタリング部23は、その点群の中心のx−y座標を人物候補座標として出力する。
The person
人物候補追跡部24は、レーザー走査フレーム間で距離差が近い人物候補同士を同じ人物だと判断することで同じ人物候補IDを割り振り、人物追跡を行なう。以上により、人物候補検出追跡部20は、人物追跡・属性推定統合部30に対して、レーザー走査フレームごとに、検出人物候補ごとの人物候補IDとx−y位置座標(x、y)を出力する。
The person
人物追跡・属性統合部30は、ビューポート変換部31、上半身探索領域設定部32、人物追跡属性判定部33を有する。ビューポート変換部31は、人物候補検出追跡部20から出力された検出人物候補IDごとのx−y位置座標が入力されると、あらかじめカメラ・キャリブレーションにより求めておいたカメラ内部パラメーターとカメラ外部パラメーターによる投影変換により、レーザー測域センサー11により検出された人物候補IDに対応した頭部の3次元実空間座標を画像座標に変換する。
The person tracking /
上半身探索領域設定部32では、レーザー測域センサー11により検出された人物候補頭部の画像座標を中心に、胸部から頭頂部までの高さに平均身長との差や検出誤差などを考慮して上半身探索領域を設定する。また、平均身長から上半身領域の上端(頭頂部)の高さと、下端(胸部)の高さをそれぞれ3次元空間座標のZwとしてレーザー測域センサー11から検出された人物候補のx−y位置座標(Xw、Yw)と合わせてビューポート変換することで、画像座標における上半身領域の高さを求めることができる。さらに、この情報から、平均身長との差や検出誤差などを考慮し、上半身検出ウィンドウ・サイズの範囲(探索する上半身の大きさの範囲)を設定する。そして、これらの人物候補IDとそれに対応した上半身探索スケール範囲(ウィンドウ・サイズ)と探索領域(座標データ)を人物属性推定部40に入力する。但し、人物属性推定部40への出力タイミングは、レーザー走査周波数のタイミングではなく、人物属性推定部40において人物推定処理が終了し、人物追跡属性判定部33へ属性情報が入力されるタイミングとなる。つまり、人物推定処理に要する時間の間に取得したレーザー走査フレームの情報は、用いられない。人物追跡・属性統合部30からの人物属性推定部40への人物候補ID、上半身探索領域、スケール範囲の情報の出力タイミングは、人物属性推定部40においてその人物候補IDに関する人物属性推定処理が終了するのを待って、次の同じ人物候補IDに関する情報を出力する。
The upper body search
人物属性推定部40は、上半身識別部41、上半身判定部42、顔検出属性推定部43を有し、カメラ10が取得したフレーム画像データと上半身探索領域設定部32から入力された人物候補ID、上半身探索スケール範囲と探索領域を用いて、顔検出を行い、人物属性の推定を行う。
The person attribute
上半身識別部41はカメラからのフレーム画像に対して、上半身探索領域設定部32から入力された人物候補IDに対応した上半身探索スケール範囲と探索領域の中で、周知の画像認識手法を用いてマルチ・スケールにおける人物上半身検出を行ない、上半身の有無、検出上半身の大きさ、画像座標位置を判定する。なお、上半身識別部41は、上半身探索領域設定部32から人物属性推定部40に人物候補ID、上半身探索領域、スケール範囲が入力されるタイミングで、同時間に撮影されたカメラのフレーム画像に対して人物上半身検出を行う。従って、人物属性推定部40に入力されるすべてのカメラフレーム画像が必ずしも用いられるものではない。
人物上半身を識別する処理としては、任意の公知の方法を適用可能である。本発明の方式を、輝度勾配方向ヒストグラムを特徴量としたサポート・ベクター・マシン識別器による人物上半身検出を行なう場合で説明する。
The upper
Any known method can be applied as the process for identifying the upper body of the person. The method of the present invention will be described in the case where human upper body detection is performed by a support vector machine classifier using a luminance gradient direction histogram as a feature amount.
人物上半身検出手法は、特徴量の学習過程と識別過程に分けられる。学習過程では、あらかじめ大量の検出対象である上半身画像と非上半身画像を用意し、それぞれの画像から輝度勾配方向ヒストグラム特徴量を抽出し、サポート・ベクター・マシンを用いて上半身形状特徴を学習する。これにより、入力画像から抽出された輝度勾配方向ヒストグラム特徴量が人物上半身かそうでないかを判断する識別器が得られる。 The human upper body detection method is divided into a feature amount learning process and an identification process. In the learning process, a large number of upper body images and non-upper body images that are detection targets are prepared in advance, luminance gradient direction histogram feature amounts are extracted from each image, and upper body shape features are learned using a support vector machine. As a result, a discriminator that determines whether the luminance gradient direction histogram feature value extracted from the input image is the upper body of the person or not is obtained.
識別過程では、入力画像に対して上半身検出ウィンドウを設定し、この検出ウィンドウを入力画像内で逐次スキャンする。スキャンしながら、スキャンごとに上半身検出ウィンドウによって切り出された領域の輝度勾配方向ヒストグラム特徴量を抽出し、あらかじめ学習により得られたサポート・ベクター・マシン識別器による検出ウィンドウの上半身らしさを評価することで、上半身の識別を行う。 In the identification process, an upper body detection window is set for the input image, and this detection window is sequentially scanned in the input image. While scanning, we extract the luminance gradient direction histogram feature amount of the region cut out by the upper body detection window for each scan, and evaluate the upper body quality of the detection window by the support vector machine classifier obtained by learning in advance Identify the upper body.
また、入力画像内の様々な大きさの人物上半身を検出するために、上半身検出ウィンドウの大きさを変えて、入力画像内の逐次スキャンを繰り返し、それぞれの大きさでの上半身識別を行う。 Further, in order to detect the upper body of a person of various sizes in the input image, the size of the upper body detection window is changed, and sequential scanning in the input image is repeated to identify the upper body of each size.
上半身識別部41は、上半身探索領域設定部32から入力される上半身検出ウィンドウ・サイズ範囲に基づいて、たとえば、16段階ある上半身検出ウィンドウの大きさから、2、3段階のウィンドウ・サイズを選択してスキャンする。従って、上半身探索領域設定部32から入力されたウィンドウ・サイズ範囲を利用することで、スキャンの回数を減らすことができる。更に上半身探索領域設定部32から入力される上半身探索領域の画像座標データを用いることで、入力画像内での検出ウィンドウ・スキャン範囲を画像全体スキャンから上半身探索領域に絞ったスキャンにすることができる。このようにレーザー測域センサーからの検出人物候補の3次元空間座標を用いることで、入力画像内の上半身検出ウィンドウのスキャン数を劇的に少なくすることができ、また人物候補の領域に限定した上半身検出を行なうため、複雑な背景などによる誤検出を減らすことができる。これらの処理により上半身識別部41は人物候補IDごとに対応した上半身識別結果と、上半身が識別された場合にはその識別ウィンドウの画像座標と大きさを上半身判定部42に出力する。
Based on the upper body detection window size range input from the upper body search
上半身判定部42は、上半身識別部41から入力された人物候補IDごとの上半身識別結果である複数の上半身識別ウィンドウの画像座標位置と大きさ(ウィンドウ・サイズ)を用いて、識別ウィンドウの位置と大きさがあらかじめ設定した範囲内に収まっている場合には同じ人物上半身であると想定し、同じ人物候補IDに対応した複数の上半身識別ウィンドウを1つの検出ウィンドウに統合する。入力画像内に人物上半身が存在する場合、通常、複数の上半身識別ウィンドウが重畳して識別される。これら、複数の上半身識別ウィンドウのうち、所定の範囲内に上半身が収まっている一つの識別ウィンドウに統合する。
The upper
なお、所定の数以上の上半身識別ウィンドウが統合された場合のみ上半身が検出されたと判断し、統合処理を行うようにしてもよい。このようにすることで、誤検出を低減することもできる。また、上半身識別ウィンドウの統合判定結果として、人物候補IDごとに対応した上半身判定結果と、上半身と判定された場合にはその人物候補IDを人物IDとし、上半身検出ウィンドウの画像座標と大きさを顔検出属性推定部43に出力する。
Note that the integration process may be performed by determining that the upper body has been detected only when a predetermined number or more of upper body identification windows are integrated. By doing in this way, false detection can also be reduced. In addition, as an integrated determination result of the upper body identification window, an upper body determination result corresponding to each person candidate ID, and if it is determined to be an upper body, the person candidate ID is set as a person ID, and the image coordinates and size of the upper body detection window are set. It outputs to the face detection
顔検出属性推定部43は、上半身判定部42から入力された人物IDと上半身検出ウィンドウの画像座標と大きさが入力されると、上半身検出ウィンドウの位置と大きさから、顔探索スケール範囲と探索領域の中で、周知の画像認識手法を用いてマルチ・スケールにおける顔検出を行なう。そして顔が所定の大きさ以上で検出された場合には、周知の画像認識手法を用いて人物IDごとに顔画像からの属性推定を行ない、その結果の人物IDと人物属性情報を、上半身判定部42からの人物候補IDごとの上半身判定結果と合わせて人物属性追跡判定部33に出力する。
When the person ID input from the upper
なお、人物属性推定部40において、まず上半身検出を行ない、上半身検出領域に対して顔検出属性推定を実施する形態で説明したが、人物属性推定部40において、上半身探索領域設定部32からの画像座標における上半身探索スケール範囲と探索領域情報に基づいて、上半身検出を行うことなく、顔検出及び属性推定だけを実施する構成としても良い。
Note that the human
人物属性追跡判定部33では、レーザー測域センサー11による追跡結果とカメラ10による属性情報付きの追跡結果を最終的に統合する。人物属性追跡判定部33は、人物候補検出追跡部20から出力された検出人物候補IDごとのx−y位置座標を保持している。顔検出属性推定部43から人物IDと対応する人物属性情報が入力されるとそれらを一時的に保存する。また、人物属性情報が入力されたことを上半身探索領域設定部32に通知する。顔検出属性推定部43から入力された人物IDと、レーザー測域センサー11により追跡され、人物候補検出追跡部20から入力された人物候補IDとを比較し、同じ人物IDを有する情報同士を対応づける。また、異なる画像フレームデータにおける同一人物IDに対応する人物属性情報に対して、個々の属性ごとに判定結果やそのパラメーターを平均値、中央値、多数決などをとることで、追跡した同じ人物に対する属性情報のバラつきをなくし、精度を高めて、人物追跡3次元実空間位置情報に人物属性情報を紐付けて出力する。人物属性追跡判定部33における処理の詳細については、後述する。
The person attribute tracking
図3は、ワールド座標、カメラ座標、画像座標の関係を示した図である。レーザー測域センサー11で検出された人物候補の3次元実空間座標はレーザー測域センサー11の位置を原点としたワールド座標となる。また、透視投影によるピンホール・カメラをモデルとして、ピンホール・カメラの光学中心を座標原点Ocにとり、3次元座標のX軸とY軸をそれぞれ撮像素子が置かれる画像面上のu軸およびv軸に平行にとり、Z軸を光軸に対し並行にとるように定義した座標をカメラ座標と呼ぶ。更に、物理的な大きさや位置とは無関係に、画像データの原点をどこにとるか、あるいは画素の細かさや縦横比をどうするかで決まる画素単位で定義される画像座標がある。
FIG. 3 is a diagram showing the relationship between world coordinates, camera coordinates, and image coordinates. The three-dimensional real space coordinates of the human candidate detected by the
このワールド座標に対するカメラの位置、姿勢から決まるカメラ座標の位置関係を回転と平行移動で示したものがカメラ外部パラメーターであり、ワールド座標(Xw、Yw、Zw)からカメラ座標(Xc、Yc、Zc)への変換は次のようになる。
そして、カメラ内部パラメーターを用いて、カメラ座標(Xc、Yc、Zc)から画素を単位とした画像座標(u、v)への変換は次のようになる。
具体例として、レーザー測域センサー11が人物の腰高を想定して床面から80cm高で検出した人物候補のx−y位置座標(Xw、Yw)に対して、例えば平均人物頭部高として145cmとした場合には、ビューポート変換部31において3次元実空間座標(Xw、Yw、145)を2次元画像座標(u、v)に投影変換する。
As a specific example, for an xy position coordinate (Xw, Yw) of a human candidate detected by the
図4は、上半身画像を正方形とした場合の、上半身検出ウィンドウの大きさの変化ステップの例である。この例では、上半身検出ウィンドウの大きさを480画素×480画素の大きさから48画素×48画素の大きさまでの16段階に順次小さくしていきながら、それぞれの検出ウィンドウの大きさごとに、入力画像内の検出ウィンドウをスキャンしながら上半身識別を繰り返し行なうことで、様々な大きさの上半身を検出している。 FIG. 4 is an example of a step of changing the size of the upper body detection window when the upper body image is a square. In this example, the size of the upper body detection window is sequentially reduced in 16 steps from the size of 480 pixels × 480 pixels to the size of 48 pixels × 48 pixels, and the input for each detection window size. The upper body of various sizes is detected by repeatedly identifying the upper body while scanning the detection window in the image.
図5は、複数の上半身識別ウィンドウを1つの上半身検出ウィンドウに統合した場合の画像例である。上半身判定部42で、複数のウィンドウ・サイズを用いて人物上半身を判定する場合の画像例である。入力画像内に人物上半身が存在する場合、図5の左例が示すように複数の上半身識別ウィンドウが識別される。これら、複数の上半身識別ウィンドウのうち、所定の範囲内に上半身が収まっている一つの検出ウィンドウに統合する。統合した例が、図5の右例である。
FIG. 5 is an example of an image when a plurality of upper body identification windows are integrated into one upper body detection window. It is an example of an image when the upper
図6は、レーザー測域センサー11からの信号が入力される人物候補検出追跡部20と、人物追跡・属性統合部30と、カメラ10からの映像が入力される人物属性推定部40、との間におけるデータフローの一例である。レーザー測域センサー11の検出エリア内に人物候補物体がある場合、レーザー測域センサー11からのレーザー測定結果が入力される人物候補検出追跡部20において物体を検出し、人物候補かどうか判定を行う。人物候補と判定された場合、人物候補検出追跡部20の人物候補追跡部24から、人物候補それぞれの人物IDとワールド座標(x、y)が人物追跡・属性統合部30に入力される。
FIG. 6 shows a human candidate
人物追跡・属性統合部30では、人物候補検出追跡部20から入力された人物候補の人物候補IDとワールド座標(x、y)の情報を保持する。そして、ビューポート変換部31において、ワールド座標(x、y)に基づき2次元画像座標に投影変換する。また、上半身探索領域設定部32は、投影変換された座標に基づいて上半身探索スケール範囲と上半身探索領域を設定する。こうして、人物追跡・属性統合部30から人物属性推定部40へ、人物候補IDと上半身探索スケール範囲、上半身探索領域とが出力される。
The person tracking /
人物属性推定部40では、カメラ10からのフレーム画像に基づいて、上半身識別部41において人物上半身検出を行い、上半身判定部42で検出したウィンドウによって上半身位置及び範囲を判定し、顔検出属性推定部43にて顔検出と属性推定を行って、人物IDと人物属性情報とを人物追跡・属性統合部30へ出力する。
In the person attribute
人物追跡属性判定部33では、保持していた人物候補IDと人物IDを一致させることで、ワールド座標(x、y)と人物属性情報とを紐づけて出力することとなる。
The person tracking
次に、人物追跡属性判定部33における処理について詳細に説明する。レーザー測域センサーからの人物IDを用いて、シーケンス画像における人物属性判定行うものである。
Next, processing in the person tracking
図7は、人物追跡属性判定部33における判定処理フローの一例である。人物追跡属性判定部33には、顔検出属性推定部43から人物IDとその人物の属性情報が入力される。例えば、人物の属性情報として人物IDそれぞれに対応した性別識別値と年齢推定値が人物追跡属性判定部33に入力される。
FIG. 7 is an example of a determination process flow in the person tracking
カメラ画像に複数の人物が写っている場合、人物追跡属性判定部33には複数の人物IDと、それぞれの人物IDに対応した性別識別値と年齢推定値が入力される。人物追跡属性判定部33においては、それぞれのフレーム画像において、それぞれの人物IDごとに処理を行なう。まず、その人物IDに対応した性別識別と年齢推定が、現処理画像において行なわれているかどうかを判定する(ステップ71)。レーザー測域センサーで人物検出はされたものの、画像では顔が隠れていた場合など、性別識別と年齢推定が行なわれていない場合もあるためである。性別識別と年齢推定が行なわれている場合にはその人物IDに対応した性別識別値と年齢推定値が入力されるが、性別識別と年齢推定が行なわれていない場合には「NA」が入力されている。
When a plurality of persons are shown in the camera image, a plurality of person IDs, gender identification values and age estimation values corresponding to the respective person IDs are input to the person tracking
現処理画像において性別識別と年齢推定が行なわれている場合には、平均性別識別値更新処理を行なう(ステップ72)。平均性別識別値更新処理の演算は下記の通りである。
人物追跡属性判定部33は、人物属性パラメーター・テーブルとしてそれぞれの人物IDごとに、判定回数、平均性別識別値、平均年齢推定値を保存している。
If gender identification and age estimation are performed in the current processed image, an average gender identification value update process is performed (step 72). The calculation of the average gender identification value update process is as follows.
The person tracking
性別識別値は、サポート・ベクター・マシンにより性別識別された結果の値であり、性別の識別曲面からの距離を表す。例えば、性別識別値が正の値の場合には男性と識別され、負の場合には女性と識別されたことを示す。性別識別値の絶対値が大きいほど、処理顔画像が性別を判定する識別曲面から離れていることを示し、識別の確からしさを表している。ここではサポート・ベクター・マシンの識別値を用いているが、別の統計的識別手法における尤度や確率を代わりに用いることなども可能である。 The gender identification value is a value obtained as a result of gender identification by the support vector machine, and represents a distance from the gender identification curved surface. For example, when the gender identification value is a positive value, it is identified as a male, and when it is negative, it is identified as a female. As the absolute value of the gender identification value is larger, it indicates that the processed face image is farther from the identification curved surface for determining gender, and represents the probability of identification. Although the identification value of the support vector machine is used here, the likelihood and probability in another statistical identification method can be used instead.
次に、平均年齢推定値更新処理を行う(ステップ73)。平均性別識別値更新処理と同様に、下記の演算により平均年齢推定値の更新を行なう。
そして、人物属性パラメーター・テーブルの判定回数を1増加し、人物属性パラメーター・テーブルを判定回数=1とする(ステップ74)。その後、人物追跡属性判定結果を出力する(ステップ75)。
Next, an average age estimated value update process is performed (step 73). Similar to the average gender identification value update process, the average age estimated value is updated by the following calculation.
Then, the number of determinations in the person attribute parameter table is increased by 1, and the number of determinations in the person attribute parameter table is set to 1 (step 74). Thereafter, the person tracking attribute determination result is output (step 75).
図8は、人物追跡属性判定部33における判定方法の具体的なフローである。図8に示すように、まだ一度もその人物IDの属性推定が行なわれていない時点では、人物属性パラメーター・テーブルのその人物IDに対応したパラメーターは、判定回数=0、平均性別識別値=NA、平均年齢推定値=NAとなっている。
FIG. 8 is a specific flow of the determination method in the person tracking
そして、顔検出属性推定部43から現処理画像(処理画像番号=1)の人物ごとの人物ID、性別識別値、年齢推定値が入力されると、平均性別識別値更新処理の演算により平均性別識別更新値が計算される。人物ID=1の場合では、人物属性パラメーター・テーブルの人物ID=1に対応した判定回数=0、平均性別識別値=0の状態において、顔検出属性推定部43から現処理画像の人物ID=1に対応した性別識別値=+1.26が入力されることで、平均性別識別更新値が1.26となり、人物属性パラメーター・テーブルが人物ID=1の平均性別識別値=1.26に更新される。
When the person ID, the gender identification value, and the age estimation value for each person of the current processed image (processed image number = 1) are input from the face detection
この実施例では、サポート・ベクター・マシンにより性別識別された結果の値を示しており、性別識別値が正の値の場合には男性と識別され、負の場合には女性と識別されたことを示している。 In this example, the value of the result of gender identification by the support vector machine is shown. When the gender identification value is positive, it is identified as male, and when it is negative, it is identified as female. Is shown.
次に、平均年齢推定値更新処理を行われ、平均性別識別値更新処理と同様に、平均年齢推定値更新処理の演算が行われ、平均年齢推定値の更新を行なう。人物ID=1の場合では、顔検出属性推定部43から現処理画像の人物ID=1に対応した年齢推定値24.84が入力されることで、平均年齢推定更新値が24.84となり、人物属性パラメーター・テーブルが人物ID=1の平均年齢推定値=24.84に更新される。
Next, an average age estimated value update process is performed, and an average age estimated value update process is performed in the same manner as the average gender identification value update process to update the average age estimated value. In the case of the person ID = 1, the average age estimated update value is 24.84 by inputting the age estimated value 24.84 corresponding to the person ID = 1 of the currently processed image from the face detection
そして、人物属性パラメーター・テーブルの判定回数を1増加し、人物属性パラメーター・テーブルを判定回数=1とする。その後、人物追跡属性判定結果を出力する。判定結果の出力としては、人物ID=1を例とすると、この時点の人物属性パラメーター・テーブルの人物ID=1に対応する平均性別識別値=+1.26であるので男性と出力し、平均年齢推定値=24.84であるので25歳と出力する。 Then, the number of determinations in the person attribute parameter table is increased by 1, and the number of determinations in the person attribute parameter table is set to 1. Thereafter, the person tracking attribute determination result is output. As an output of the determination result, if the person ID = 1 is taken as an example, since the average gender identification value corresponding to the person ID = 1 in the person attribute parameter table at this time = + 1.26, it is output as male and the average age is output. Since the estimated value is 24.84, 25 years old is output.
なお、図7に示す人物属性判定処理フローは、人物IDごとに行なわれ、これまで図8の人物ID=1について行なった処理を同様に、現処理画像内の全ての人物IDに対して行われる。つまり、人物ID=2、人物ID=3についても同様の処理を行い、現処理画像での人物追跡属性判定を終了する。顔検出属性推定部43からの現処理画像の人物ID=2と人物ID=3の人物ID属性情報が
図9は、次の処理画像(処理画像番号=2)における判定方法のフローである。人物追跡属性判定処理が、図8と同様に示すように行なわれる。例えば、顔検出属性推定部43からの人物ID属性情報が
図10は、更に次の処理画像(処理画像番号=3)における判定方法のフローである。人物追跡属性判定処理が、図8及び図9と同様に行なわれる。顔検出属性推定部43からの人物ID属性情報が
この処理画像番号=3の人物追跡属性判定処理では、顔検出属性推定部43において人物ID=1に対して顔検出がされず属性推定が行なわれなかったため性別識別値=NA、年齢推定値=NAが人物追跡属性判定部33に入力された場合の例を示している。図7のステップ71の判定処理において、顔検出属性推定部43での人物属性が推定されていないため、ステップ72〜75の処理は行なわれず、その結果、人物属性パラメーター・テーブルの人物ID=1に対応する判定回数、平均性別識別値、平均年齢推定値は更新されていない。しかし、以前の値が保持され、その結果、性別判定も年齢判定も出力することができる。こうすることで、カメラ映像シーケンスにおいて顔が隠れた場面などが生じた場合などにおいても、それまでにカメラ映像シーケンスの中で追跡してきたその人物IDの人物属性判定結果を用いることで、正しい判定結果を出力することができる。
In the person tracking attribute determination process with the processed image number = 3, the face detection
更に、処理画像番号=3の人物追跡属性判定処理では、人物ID=2に対して顔画像の照明条件変動や部分隠れなどの影響などにより、顔検出属性推定部43において正しい性別識別が行なわれなかった場合の例を示している。この処理画像(処理画像番号=3)においては、顔検出属性推定部43の人物ID=2に対する性別識別値=+0.18であり、僅かに男性であると識別されている。しかし、平均性別識別値更新処理を行うことで、カメラ映像シーケンスの中での人物ID=2の性別識別値を過去の処理画像における同じ人物IDの性別識別値を含めて総合的に判定することができ、その結果、この処理画像における平均性別識別値=−1.18となり、正しく女性と判定をすることができる。
Furthermore, in the person tracking attribute determination process of process image number = 3, the correct gender identification is performed in the face detection
図11は、処理画像番号=4における判定方法のフローである。図11では、顔検出属性推定部43において人物ID=3の属性推定が行なわれなかった場合の例を示している。この場合も同様に、図7のステップ71の判定の結果、ステップ72〜75の処理は行なわれず、人物属性パラメーター・テーブルの人物ID=3に対応する判定回数、平均性別識別値、平均年齢推定値は更新されていない。しかし、以前の値が保持されているため、性別判定と年齢判定が正しく行なわれる。
FIG. 11 is a flowchart of the determination method when the processing image number = 4. FIG. 11 shows an example in which the face detection
図12は、処理画像番号=5における判定方法のフローである。レーザー測域センサー人物検出で人物ID=1は検出エリアから消え、新しく人物ID=4が検出エリアに加わった状況を示している。レーザー測域センサーの人物検出に対応して、顔検出属性推定部43からの人物ID属性情報も人物ID=2、人物ID=3、人物ID=4の3名分の
人物ID=3については、処理画像番号=3の人物ID=2のときと同様に、顔画像の照明条件や部分隠れなどの影響により顔検出属性推定部43からの性別推定値が−0.04と僅かながら女性と誤識別されているが、本方式の人物追跡属性判定方式により平均性別識別値=+0.61となり、男性と正しく判定される。なお、ここでは判定に平均値を用いた例を述べたが、平均値の代わりに中央値や、性別判定などにおいては多数決などを用いることも可能である。
For the person ID = 3, the gender estimated value from the face detection
次に、人物追跡属性判定部33からの出力の一例について説明する。上述のとおり、人物追跡属性判定部33は、人物ID、人物追跡ワールド座標(x、y)、年齢・性別等の人物属性情報を出力する。これを図示しないディスプレイに出力することで、x軸、y軸の2次元鳥瞰図上に人物IDと共にプロットすることが可能である。また、逐次、人物候補追跡部24から入力される人物候補の人物IDとワールド座標に対応して鳥瞰図上の表示を更新する。
Next, an example of output from the person tracking
図13は、人物追跡属性判定部33から出力される画面の一例である。カメラ10が接続された人物属性推定部40から人物IDに対応付けられた属性情報(性別識別値、年齢推定値)が処理画像ごとに逐次人物追跡・属性統合部30に入力され、その情報から、前述した人物属性パラメーター・テーブルとして、各人物IDに対応した判定回数、平均性別識別値、平均年齢推定値が逐次計算され保存されている。レーザー測域センサー11からのデータに基づく人物ID、人物追跡ワールド座標(x、y)に対し、この各人物IDに対応した平均性別識別値と平均年齢推定値からの性別判定と年齢判定を、付加表示をすることにより、人物追跡情報と属性情報を統合表示した鳥瞰図を生成することができる。
FIG. 13 is an example of a screen output from the person tracking
更に、図13のように、上半身判定部42で判定された上半身画像を人物IDに対応したサムネイル画像として、プロットした位置にあわせて表示をするようにしてもよい。この場合、人物追跡属性判定部33は、上半身検出画像を、人物IDに対応づけた形で顔検出属性推定部43から合わせて受信する。これにより図13に示すような、より分かりやすい人物追跡・属性統合鳥瞰図を作成表示することができる。サムネイル画像の生成については、例えば、顔検出属性推定部43から出力された、カメラ映像からのシーケンス画像における同じ人物IDの上半身検出画像の中から、顔の検出識別値が最大の画像を選択し、更新保存することで、最も正面顔が写った上半身画像をサムネイル画像とする。このようにすることで、鳥瞰図表示の分かりやすさを増すことも可能である。レーザー測域センサーからの人物追跡位置情報と、カメラ映像からの人物属性情報を統合した、人物追跡・属性統合鳥瞰図の生成が可能となり、属性情報や人物写真を伴った行動追跡を鳥瞰図として非常に分かりやすく表示することができる。
Further, as shown in FIG. 13, the upper body image determined by the upper
次に、本人物追跡属性推定装置を利用した来店客の行動収集の方法について、オフィス店舗複合ビル内のエレベーターを出てきた人の行動収集をした例を以下に説明する。 Next, an example of collecting behaviors of people who have come out of an elevator in an office store complex will be described below as a method of collecting behaviors of customers using the person tracking attribute estimation device.
図14は、カメラ10とレーザー測域センサー11の配置の一例である。エレベーターを出てきた人の顔が撮影でき、かつエレベーターを出てきたエリアが人物属性追跡エリアになるようにカメラ10とレーザー測域センサー11が設置される。このようにすることで、エレベーターを出てきた人の位置追跡に属性判定情報を紐付けることができる。
FIG. 14 is an example of the arrangement of the
図14に示すように、人物属性追跡エリアのビル内ショップ&レストラン方面の一辺をA辺、ビル出入口方面の一辺をB辺とし、人物属性の追跡を行う設定辺を定める。人物属性情報が紐付けられた人物位置追跡により、エレベーターを出た人が人物属性追跡エリアのA辺から出ていった人数と、B辺から出ていった人数をそれぞれ人物属性別に時間帯ごとに集計する。 As shown in FIG. 14, one side of the shop / restaurant area in the building in the person attribute tracking area is A side, and one side of the building entrance / exit direction is B side, and the setting side for tracking the person attribute is determined. By tracking the position of the person attribute information, the number of people who got out of the elevator from the side A of the person attribute tracking area and the number of people who came out of the B side for each time zone To sum up.
図15は、人物の入出判定手法を示す図である。人物がA辺、あるいはB辺をどのように横切ったかの判定は、レーザー測域センサー11による人物候補追跡により行なう。人物候補追跡部24から、人物IDと共にワールド座標(x、y)が、レーザー測域センサーの走査周波数ごとのタイミング(t=n)で出力される。人物追跡属性判定部33は、人物IDが同じでタイミングがひとつ前(t=n−1)の実空間座標(xn-1、yn-1)と現タイミングの(xn、yn)を結ぶことで、実空間座標上での人物候補の動きベクトルを算出する。そして、この動きベクトルがA辺、あるいはB辺をどの方向に横切ったかどうかを判定することで、設定したA辺、あるいはB辺をエレベーターから出て行ったか、エレベーターへ入ってきたかを判定することができる。
FIG. 15 is a diagram illustrating a person entering / exiting determination method. How the person crosses the A side or the B side is determined by tracking the human candidate by the
レーザー測域センサー11の仕様により、人物候補の移動に対して走査周波数が非常に速い場合などは、走査周波数のタイミングで出力される人物IDと実空間座標を、例えば5分の1などに間引き、同様の処理を行なうことで、特に設定したA辺、あるいはB辺での横切り判定を安定して行なうことができる。
Due to the specifications of the
1つのレーザー測域センサーで人物候補の実空間座標上での追跡が可能であり、図14に示すように、1つのレーザー測域センサーで人物候補の入出判定を行なう設定辺は複数辺設定することができる。 One laser range sensor can track a human candidate on real space coordinates. As shown in FIG. 14, a plurality of sides are set for setting a candidate for entering / exiting a human candidate with one laser range sensor. be able to.
図16は、午前7時台から午後10時台までの時間帯ごとの、男性の年代別のエレベーターを出てショップ&レストラン方面に向かった人数と出入口方面に向かった人数を集計した結果の一例を示す図である。図17は、午前7時台から午後10時台までの時間帯ごとの、女性の年代別のエレベーターを出てショップ&レストラン方面に向かった人数と出入口方面に向かった人数を集計した結果の一例を示す図である。これらの例において、男女それぞれにおいて、20歳未満、20歳以上40歳未満、40歳以上60歳未満、60歳以上の4つの年代に分類している。このように、判定された人物IDごとの属性情報を蓄積し、人物追跡属性判定部33において、集計するようにすることで、エレベーターを出てきた人全体の各時間帯の性別比率、年代比率を分析することができる。図18は、エレベーターから出てきた人について、時間帯ごとの人数と年代比率を集計した一例の図である。
Figure 16 shows an example of the results of counting the number of men who left the elevators by age group and headed for shops and restaurants and the number of people headed for entrances and exits for each time period from 7 am to 10 pm FIG. Figure 17 shows an example of the results of counting the number of women who left the elevators by age and headed for shops and restaurants and the number of people headed for entrances and exits for each time period from 7 am to 10 pm FIG. In these examples, men and women are classified into four ages of under 20 years old, 20 years old and under 40 years old, 40 years old and under 60 years old, and 60 years old and over. As described above, the attribute information for each determined person ID is accumulated, and the person tracking
さらに、エレベーターを出た後、ショップ&レストラン方面に向かったか、あるいは出入口方面に向かったかの行動調査として、人物属性ごとの動向を調査することができる。図19は、40歳以上60歳未満の男性における、それぞれの時間帯ごとのエレベーターを出た後の向かい先の人数と比率を求めた図の一例である。図20は、20歳以上40歳未満の女性に絞ったエレベーターを出た後の向かい先の人数と比率を求めた図の一例である。こうした分析を行うことで、40歳以上60歳未満の男性が昼休みと定時後にしかショップ&レストランに足を向けないのに対して、20歳以上40歳未満の女性は昼休みから定時後までの時間においてもショップ&レストランに足を向けていることが分析され、この結果から例えば昼休みから定時後までの時間については女性をターゲットにした販売戦略を行なうことで売り上げを伸ばすことが期待できることなどが分かる。 Furthermore, after exiting the elevator, it is possible to investigate a trend for each person attribute as a behavioral survey as to whether it headed for the shop & restaurant or headed for the entrance / exit. FIG. 19 is an example of a diagram in which the number of persons and the ratio of the person after exiting the elevator for each time zone in a male who is 40 years old or older and younger than 60 years old are obtained. FIG. 20 is an example of a diagram in which the number and ratio of the destinations after exiting an elevator focused on women aged between 20 and 40 years old. By doing this analysis, men between the ages of 40 and under 60 turn their feet to the shops and restaurants only after lunch breaks and regular hours, whereas women between the ages of 20 and under 40 years of time from lunch breaks to after regular hours. As a result, it can be seen that, for example, the time from lunch break to after regular hours can be expected to increase sales by carrying out a sales strategy targeting women. .
このように、人物属性と紐付けた行動収集が可能になり、例えば店舗来店客の買い回り行動の収集が可能になり、POSデータからは見えてこない来店客の店舗内の流れを知ることで、商品配置やフロア・レイアウトを最適化することが可能となる。また、ビル内のエレベーターから出てきた人の属性別の流れを時間帯ごとに把握することにより、オフィス店舗複合ビルにおける店舗商品やレストランでのメニューなどを戦略的に検討することも可能となる。 In this way, it is possible to collect behaviors associated with person attributes. For example, it is possible to collect store customers' buying behaviors, and by knowing the flow in the store of the store customers that cannot be seen from the POS data. Product layout and floor layout can be optimized. It is also possible to strategically examine store products and restaurant menus in office store complex buildings by grasping the flow of people coming out of elevators in the building by time zone. .
Claims (9)
前記測定データを走査フレーム間で比較し、距離差が所定の範囲内である点群を同一の人物候補として人物IDを付与し、人物IDと位置座標とを出力する人物候補追跡部と、
前記位置座標を2次元画像座標に変換するビューポート変換部と、
前記2次元画像座標に基づいて、前記人物IDに対応する上半身探索領域としてウィンドウ・サイズと座標データとを設定する上半身探索領域設定部と、
カメラからのフレーム画像データから、前記上半身探索領域に基づいて顔検出を行い、人物属性を推定する顔検出属性推定部と、
前記人物候補追跡部から出力された人物IDと位置座標と、前記顔検出属性推定部からの人物IDと人物属性情報とに基づいて、人物IDと位置座標、人物属性情報の対応付けを行う人物追跡属性判定部と、を有する人物追跡属性推定装置。 A human candidate clustering unit that extracts human candidates by clustering point clouds that are distances within a predetermined threshold from the measurement data of the laser range sensor;
A human candidate tracking unit that compares the measurement data between scanning frames, assigns a person ID to a point group having a distance difference within a predetermined range as the same human candidate, and outputs the human ID and position coordinates;
A viewport converter for converting the position coordinates into two-dimensional image coordinates;
An upper body search area setting unit that sets a window size and coordinate data as an upper body search area corresponding to the person ID based on the two-dimensional image coordinates;
A face detection attribute estimation unit that performs face detection based on the upper body search area from the frame image data from the camera and estimates a person attribute;
A person who associates a person ID with position coordinates and person attribute information based on the person ID and position coordinates output from the person candidate tracking unit and the person ID and person attribute information from the face detection attribute estimation unit. And a tracking attribute determination unit.
前記測定データを走査フレーム間で比較し、距離差が所定の範囲内である点群を同一の人物候補として人物IDを付与し、人物IDと位置座標とを出力する人物候補追跡ステップ、
前記位置座標を2次元画像座標に変換するビューポート変換ステップ、
前記2次元画像座標に基づいて、前記人物IDに対応する上半身探索領域としてウィンドウ・サイズと座標データとを設定する上半身探索領域設定ステップ、
カメラからのフレーム画像データから、前記上半身探索領域に基づいて顔検出を行い、人物属性を推定する顔検出属性推定ステップ、
前記人物候補追跡ステップで出力された人物IDと位置座標と、前記顔検出属性推定ステップで出力された人物IDと人物属性情報とに基づいて、人物IDと位置座標、人物属性情報の対応付けを行う人物追跡属性判定ステップ、を有する人物追跡属性推定方法。 A human candidate clustering step of extracting human candidates by clustering point clouds that are distances within a predetermined threshold from the measurement data of the laser range sensor,
A human candidate tracking step of comparing the measurement data between scanning frames, assigning a person ID to a group of points whose distance difference is within a predetermined range as the same human candidate, and outputting the human ID and position coordinates;
A viewport conversion step of converting the position coordinates into two-dimensional image coordinates;
An upper body search area setting step for setting a window size and coordinate data as an upper body search area corresponding to the person ID based on the two-dimensional image coordinates;
A face detection attribute estimation step for performing face detection based on the upper body search area from frame image data from a camera and estimating a person attribute;
Based on the person ID and position coordinates output in the person candidate tracking step and the person ID and person attribute information output in the face detection attribute estimation step, the person ID is associated with the position coordinates and the person attribute information. A person tracking attribute estimation method comprising: a person tracking attribute determination step.
レーザー測域センサーの測定データから所定の閾値内の距離である点群をクラスタリングして人物候補を抽出する人物候補クラスタリングステップ、
前記測定データを走査フレーム間で比較し、距離差が所定の範囲内である点群を同一の人物候補として人物IDを付与し、人物IDと位置座標とを出力する人物候補追跡ステップ、
前記位置座標を2次元画像座標に変換するビューポート変換ステップ、
前記2次元画像座標に基づいて、前記人物IDに対応する上半身探索領域としてウィンドウ・サイズと座標データとを設定する上半身探索領域設定ステップ、
カメラからのフレーム画像データから、前記上半身探索領域に基づいて顔検出を行い、人物属性を推定する顔検出属性推定ステップ、
前記人物候補追跡ステップで出力された人物IDと位置座標と、前記顔検出属性推定ステップで出力された人物IDと人物属性情報とに基づいて、人物IDと位置座標、人物属性情報の対応付けを行う人物追跡属性判定ステップ、
を実行させるための人物追跡属性推定プログラム。 On the computer,
A human candidate clustering step of extracting human candidates by clustering point clouds that are distances within a predetermined threshold from the measurement data of the laser range sensor,
A human candidate tracking step of comparing the measurement data between scanning frames, assigning a person ID to a group of points whose distance difference is within a predetermined range as the same human candidate, and outputting the human ID and position coordinates;
A viewport conversion step of converting the position coordinates into two-dimensional image coordinates;
An upper body search area setting step for setting a window size and coordinate data as an upper body search area corresponding to the person ID based on the two-dimensional image coordinates;
A face detection attribute estimation step for performing face detection based on the upper body search area from frame image data from a camera and estimating a person attribute;
Based on the person ID and position coordinates output in the person candidate tracking step and the person ID and person attribute information output in the face detection attribute estimation step, the person ID is associated with the position coordinates and the person attribute information. A person tracking attribute determination step to be performed;
Person tracking attribute estimation program to execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012014816A JP5950296B2 (en) | 2012-01-27 | 2012-01-27 | Person tracking attribute estimation device, person tracking attribute estimation method, program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012014816A JP5950296B2 (en) | 2012-01-27 | 2012-01-27 | Person tracking attribute estimation device, person tracking attribute estimation method, program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013156718A true JP2013156718A (en) | 2013-08-15 |
JP5950296B2 JP5950296B2 (en) | 2016-07-13 |
Family
ID=49051861
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012014816A Expired - Fee Related JP5950296B2 (en) | 2012-01-27 | 2012-01-27 | Person tracking attribute estimation device, person tracking attribute estimation method, program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5950296B2 (en) |
Cited By (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015069452A (en) * | 2013-09-30 | 2015-04-13 | 株式会社日立ソリューションズ | Mobile information management method, mobile information management device, and program |
JP2015125731A (en) * | 2013-12-27 | 2015-07-06 | 沖電気工業株式会社 | Person attribute evaluation device, person attribute evaluation method and program |
JP2016024191A (en) * | 2014-07-21 | 2016-02-08 | ジック アーゲー | Distance measuring sensor for recognition of object and distance measurement |
JP2016181174A (en) * | 2015-03-24 | 2016-10-13 | トヨタホーム株式会社 | Regional monitoring system |
JP2016181173A (en) * | 2015-03-24 | 2016-10-13 | トヨタホーム株式会社 | Entry/exit management system |
JP2017219377A (en) * | 2016-06-06 | 2017-12-14 | 三菱電機株式会社 | Monitoring device, monitoring method, and airport monitoring system |
JP2017219385A (en) * | 2016-06-06 | 2017-12-14 | 株式会社デンソーアイティーラボラトリ | Object detector, object detection system, object detection method, and program |
KR20180008698A (en) | 2016-01-18 | 2018-01-24 | 주식회사 히타치 정보통신 엔지니어링 | A moving object measurement system, and a method of specifying the number of persons in the area to be measured |
JP2018042105A (en) * | 2016-09-07 | 2018-03-15 | 東芝テリー株式会社 | Monitoring image processing device and monitoring image processing method |
CN107919164A (en) * | 2016-10-05 | 2018-04-17 | 松下知识产权经营株式会社 | Auxiliary device, householder method and program |
KR101856120B1 (en) | 2015-08-07 | 2018-05-10 | 구글 엘엘씨 | Discovery of merchants from images |
JP2019194587A (en) * | 2018-05-03 | 2019-11-07 | アナログ ディヴァイスィズ インク | Single pixel sensor |
CN110490030A (en) * | 2018-05-15 | 2019-11-22 | 保定市天河电子技术有限公司 | A kind of channel demographic method and system based on radar |
JP2019219248A (en) * | 2018-06-19 | 2019-12-26 | 沖電気工業株式会社 | Point group processor, method for processing point group, and program |
JP2020509494A (en) * | 2017-03-17 | 2020-03-26 | 本田技研工業株式会社 | Combining 3D object detection and orientation estimation by multimodal fusion |
JP2020510264A (en) * | 2017-03-20 | 2020-04-02 | 華為技術有限公司Huawei Technologies Co.,Ltd. | Method and apparatus for recognizing descriptive attributes of appearance features |
JPWO2019026919A1 (en) * | 2017-08-02 | 2020-04-23 | ナーブ株式会社 | Image processing system, image processing method, and program |
CN111310731A (en) * | 2019-11-15 | 2020-06-19 | 腾讯科技(深圳)有限公司 | Video recommendation method, device and equipment based on artificial intelligence and storage medium |
CN111325082A (en) * | 2019-06-28 | 2020-06-23 | 杭州海康威视系统技术有限公司 | Personnel concentration degree analysis method and device |
JP2020098188A (en) * | 2018-09-27 | 2020-06-25 | バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド | Obstacle detection method, obstacle detection device, electronic apparatus, vehicle and storage medium |
US10740653B2 (en) | 2017-04-07 | 2020-08-11 | Nec Corporation | Learning data generation device, learning data generation method, and recording medium |
JP2021021639A (en) * | 2019-07-29 | 2021-02-18 | パイオニア株式会社 | Information processing apparatus, information processing method, program, recording medium, and detection system |
CN112712544A (en) * | 2019-10-25 | 2021-04-27 | 纬创资通股份有限公司 | Person tracking system and person tracking method |
CN113671513A (en) * | 2020-05-14 | 2021-11-19 | 日立乐金光科技株式会社 | Distance measuring system and calibration method of distance measuring sensor |
JP2022101310A (en) * | 2020-12-24 | 2022-07-06 | 株式会社日立エルジーデータストレージ | Rangefinder system and coordinate calibration method thereof |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009043176A (en) * | 2007-08-10 | 2009-02-26 | Yamaha Motor Co Ltd | Vending machine |
WO2010140613A1 (en) * | 2009-06-03 | 2010-12-09 | 学校法人中部大学 | Object detection device |
-
2012
- 2012-01-27 JP JP2012014816A patent/JP5950296B2/en not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009043176A (en) * | 2007-08-10 | 2009-02-26 | Yamaha Motor Co Ltd | Vending machine |
WO2010140613A1 (en) * | 2009-06-03 | 2010-12-09 | 学校法人中部大学 | Object detection device |
Non-Patent Citations (1)
Title |
---|
JPN6015023594; 小林貴訓 外1名: '分散センサ情報の統合によるエリア内人物追跡と動線推定' 情報処理学会研究報告 2008-CVIM-163 コンピュータビジョンとイメージメディア 第2008巻 第36号, 20080501, 第231-246頁, 社団法人情報処理学会 * |
Cited By (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015069452A (en) * | 2013-09-30 | 2015-04-13 | 株式会社日立ソリューションズ | Mobile information management method, mobile information management device, and program |
JP2015125731A (en) * | 2013-12-27 | 2015-07-06 | 沖電気工業株式会社 | Person attribute evaluation device, person attribute evaluation method and program |
JP2016024191A (en) * | 2014-07-21 | 2016-02-08 | ジック アーゲー | Distance measuring sensor for recognition of object and distance measurement |
JP2016181174A (en) * | 2015-03-24 | 2016-10-13 | トヨタホーム株式会社 | Regional monitoring system |
JP2016181173A (en) * | 2015-03-24 | 2016-10-13 | トヨタホーム株式会社 | Entry/exit management system |
KR101856120B1 (en) | 2015-08-07 | 2018-05-10 | 구글 엘엘씨 | Discovery of merchants from images |
KR102069963B1 (en) * | 2016-01-18 | 2020-01-23 | 주식회사 히타치 정보통신 엔지니어링 | Method of specifying number of person in moving object measurement system and area to be measured |
KR20180008698A (en) | 2016-01-18 | 2018-01-24 | 주식회사 히타치 정보통신 엔지니어링 | A moving object measurement system, and a method of specifying the number of persons in the area to be measured |
JP2017219377A (en) * | 2016-06-06 | 2017-12-14 | 三菱電機株式会社 | Monitoring device, monitoring method, and airport monitoring system |
JP2017219385A (en) * | 2016-06-06 | 2017-12-14 | 株式会社デンソーアイティーラボラトリ | Object detector, object detection system, object detection method, and program |
JP2018042105A (en) * | 2016-09-07 | 2018-03-15 | 東芝テリー株式会社 | Monitoring image processing device and monitoring image processing method |
CN107919164B (en) * | 2016-10-05 | 2023-09-08 | 松下知识产权经营株式会社 | Auxiliary device, auxiliary method, and recording medium |
CN107919164A (en) * | 2016-10-05 | 2018-04-17 | 松下知识产权经营株式会社 | Auxiliary device, householder method and program |
JP2020509494A (en) * | 2017-03-17 | 2020-03-26 | 本田技研工業株式会社 | Combining 3D object detection and orientation estimation by multimodal fusion |
JP2020510264A (en) * | 2017-03-20 | 2020-04-02 | 華為技術有限公司Huawei Technologies Co.,Ltd. | Method and apparatus for recognizing descriptive attributes of appearance features |
US11410411B2 (en) | 2017-03-20 | 2022-08-09 | Huawei Technologies Co., Ltd. | Method and apparatus for recognizing descriptive attribute of appearance feature |
US11386297B2 (en) | 2017-04-07 | 2022-07-12 | Nec Corporation | Learning data generation device, learning data generation method, and recording medium |
US10740653B2 (en) | 2017-04-07 | 2020-08-11 | Nec Corporation | Learning data generation device, learning data generation method, and recording medium |
JPWO2019026919A1 (en) * | 2017-08-02 | 2020-04-23 | ナーブ株式会社 | Image processing system, image processing method, and program |
JP2019194587A (en) * | 2018-05-03 | 2019-11-07 | アナログ ディヴァイスィズ インク | Single pixel sensor |
CN110490030A (en) * | 2018-05-15 | 2019-11-22 | 保定市天河电子技术有限公司 | A kind of channel demographic method and system based on radar |
CN110490030B (en) * | 2018-05-15 | 2023-07-14 | 保定市天河电子技术有限公司 | Method and system for counting number of people in channel based on radar |
JP2019219248A (en) * | 2018-06-19 | 2019-12-26 | 沖電気工業株式会社 | Point group processor, method for processing point group, and program |
JP7107015B2 (en) | 2018-06-19 | 2022-07-27 | 沖電気工業株式会社 | Point cloud processing device, point cloud processing method and program |
US11393219B2 (en) | 2018-09-27 | 2022-07-19 | Apollo Intelligent Driving Technology (Beijing) Co., Ltd. | Method and apparatus for detecting obstacle, electronic device, vehicle and storage medium |
JP2020098188A (en) * | 2018-09-27 | 2020-06-25 | バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド | Obstacle detection method, obstacle detection device, electronic apparatus, vehicle and storage medium |
CN111325082A (en) * | 2019-06-28 | 2020-06-23 | 杭州海康威视系统技术有限公司 | Personnel concentration degree analysis method and device |
CN111325082B (en) * | 2019-06-28 | 2024-02-02 | 杭州海康威视系统技术有限公司 | Personnel concentration analysis method and device |
JP2021021639A (en) * | 2019-07-29 | 2021-02-18 | パイオニア株式会社 | Information processing apparatus, information processing method, program, recording medium, and detection system |
CN112712544A (en) * | 2019-10-25 | 2021-04-27 | 纬创资通股份有限公司 | Person tracking system and person tracking method |
CN111310731A (en) * | 2019-11-15 | 2020-06-19 | 腾讯科技(深圳)有限公司 | Video recommendation method, device and equipment based on artificial intelligence and storage medium |
CN111310731B (en) * | 2019-11-15 | 2024-04-09 | 腾讯科技(深圳)有限公司 | Video recommendation method, device, equipment and storage medium based on artificial intelligence |
CN113671513A (en) * | 2020-05-14 | 2021-11-19 | 日立乐金光科技株式会社 | Distance measuring system and calibration method of distance measuring sensor |
CN113671513B (en) * | 2020-05-14 | 2024-02-23 | 日立乐金光科技株式会社 | Ranging system and calibration method of ranging sensor |
JP2022101310A (en) * | 2020-12-24 | 2022-07-06 | 株式会社日立エルジーデータストレージ | Rangefinder system and coordinate calibration method thereof |
JP7411539B2 (en) | 2020-12-24 | 2024-01-11 | 株式会社日立エルジーデータストレージ | Ranging system and its coordinate calibration method |
Also Published As
Publication number | Publication date |
---|---|
JP5950296B2 (en) | 2016-07-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5950296B2 (en) | Person tracking attribute estimation device, person tracking attribute estimation method, program | |
US11430222B2 (en) | Sensor mapping to a global coordinate system using a marker grid | |
US20210390715A1 (en) | Multi-camera image tracking on a global plane | |
US9117281B2 (en) | Surface segmentation from RGB and depth images | |
US20240087141A1 (en) | Image-based action detection using contour dilation | |
JP5657113B2 (en) | Semantic analysis of objects in video | |
JP5380789B2 (en) | Information processing apparatus, information processing method, and computer program | |
US9165190B2 (en) | 3D human pose and shape modeling | |
US11756211B2 (en) | Topview object tracking using a sensor array | |
US20210216788A1 (en) | Object assignment during image tracking | |
US11659139B2 (en) | Determining candidate object identities during image tracking | |
US11645698B2 (en) | Topview item tracking using a sensor array | |
US11257225B2 (en) | Sensor mapping to a global coordinate system using homography | |
US11308630B2 (en) | Auto-exclusion zone for contour-based object detection | |
KR20110013200A (en) | Identifying method of human attitude and apparatus of the same | |
US11847688B2 (en) | Detecting and identifying misplaced items using a sensor array | |
US20220292576A1 (en) | Identifying non-uniform weight objects using a sensor array | |
Zu Borgsen et al. | Automated door detection with a 3D-sensor | |
EP4049172A1 (en) | Action detection during image tracking | |
JP2005250692A (en) | Method for identifying object, method for identifying mobile object, program for identifying object, program for identifying mobile object, medium for recording program for identifying object, and medium for recording program for identifying traveling object | |
JP2019174910A (en) | Information acquisition device and information aggregation system and information aggregation device | |
JP2018185623A (en) | Object detection device | |
JP2022137800A (en) | Skeleton recognition method, skeleton recognition program, and physical exercise grading support system | |
Virgona et al. | Socially constrained tracking in crowded environments using shoulder pose estimates | |
US20240119620A1 (en) | Posture estimation apparatus, posture estimation method, and computer-readable recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140911 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150608 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150616 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150722 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160119 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160128 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160531 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160601 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5950296 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |