JP6067527B2 - 移動体情報管理方法及び装置並びにプログラム - Google Patents

移動体情報管理方法及び装置並びにプログラム Download PDF

Info

Publication number
JP6067527B2
JP6067527B2 JP2013203615A JP2013203615A JP6067527B2 JP 6067527 B2 JP6067527 B2 JP 6067527B2 JP 2013203615 A JP2013203615 A JP 2013203615A JP 2013203615 A JP2013203615 A JP 2013203615A JP 6067527 B2 JP6067527 B2 JP 6067527B2
Authority
JP
Japan
Prior art keywords
information
flow line
attribute
time
identifier
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013203615A
Other languages
English (en)
Other versions
JP2015069452A (ja
Inventor
智揮 矢田
智揮 矢田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Solutions Ltd
Original Assignee
Hitachi Solutions Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Solutions Ltd filed Critical Hitachi Solutions Ltd
Priority to JP2013203615A priority Critical patent/JP6067527B2/ja
Publication of JP2015069452A publication Critical patent/JP2015069452A/ja
Application granted granted Critical
Publication of JP6067527B2 publication Critical patent/JP6067527B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、顧客の移動情報(動線)と顧客属性(年齢・性別)とを対応付ける方法及び装置並びにプログラムに関する。
近年、様々なセンサの低価格化やネットワークの進化に伴い、店舗内にカメラや位置測定装置を設置することで、店舗内で顧客がどのように回遊したかの情報を分析し、店舗の売上向上の施策を講じるといったことが行われている。特にどのような属性(年齢・性別)を持った顧客が、どのように店舗内を移動しているか(動線)を把握して分析することは、店舗改善を行う上で重要である。
例えば、下記の非特許文献1には、カメラ画像に映った顔を検出し、人物の属性(年齢・性別)を判定する方法が開示されている。店舗の出入口をカメラで撮影し、非特許文献1の技術を用いる事で、入店した顧客の属性を分析することが可能となる。
また、非特許文献2には、レーザ光線で周囲をスキャンして対象物までの距離を測定する装置が開示されている。前記装置を店舗内に設置することで、顧客が店舗内を時々刻々とどのように回遊しているかの情報が得られる。この情報を元に、店舗が意図した順路で顧客が回遊しているか(動線)などを分析することが可能となる。
また、下記の特許文献1には、顧客が所有しているカード(例えばポイントカード)に記録された属性情報を入店時等に読み取り、読み取った属性情報と動線とを対応づけるシステムについて開示されている。
サイトセンシング株式会社、Face Grapher、http://site-sensing.com 北陽電機株式会社、スキャナ式レンジセンサ(測域センサ)、http://www.hokuyo-aut.co.jp/02senser/#scanner
特開2012−73915号公報
しかし特許文献1は、顧客がカードを所有していることを前提としており、ポイントカードを所持していない顧客、若しくはポイントカードがない店舗には適用できない。また、非特許文献1、非特許文献2は、それぞれ顧客の属性と動線とを取得する装置であり、属性と動線とを対応付ける具体的な方法を開示していない。
本発明はこのような状況に鑑みてなされたものであり、カメラで取得した顧客の属性情報と測域センサで取得した動線情報とを対応付ける方法及び装置を提供することを目的とするものである。
上記課題を解決するために、本発明に係る移動体情報管理方法は、カメラで撮影された情報を分析して得られる人物の属性情報と、位置測定装置で測定された情報を分析して得られる人物の動線情報とを移動体情報管理装置によって対応付ける方法であって、
前記移動体情報管理装置が、
前記属性情報内の特定の属性識別子を持つ属性に含まれる時刻t1におけるカメラ画像内の顔の中心位置のy座標値y1から実空間内で人物が存在する推定点e1を算出する第1のステップと、
前記属性情報内の前記特定の属性識別子を持つ属性に含まれる時刻t2におけるカメラ画像内の顔の中心位置のy座標値y2から実空間内で人物が存在する推定点e2を算出する第2のステップと、
前記動線情報内の各動線識別子毎に前記時刻t1に最も近い時刻における実空間内の位置と前記推定点e1との間の距離と、前記動線情報内の各動線識別子毎に前記時刻t2に最も近い時刻における実空間内の位置と前記推定点e2との間の距離との和をスコアとし、前記スコアを最小とする動線識別子と前記特定の属性識別子とを対応付ける第3のステップと、を備えることを特徴とする。
また、前記位置測定装置として測域センサを用いることを特徴とする。
また、前記第1のステップと前記第2のステップにおいて、y座標値y1とy座標値y2の他に更に人物の性別と年齢とから推定される平均身長の情報を加えて推定点e1と推定点e2とを算出することを特徴とする。
本発明に係る移動体情報管理装置は、カメラで撮影された情報を分析して得られる人物の属性情報と、位置測定装置で測定された情報を分析して得られる人物の動線情報とを対応づける装置であって、
前記属性情報内の特定の属性識別子を持つ属性に含まれる時刻t1におけるカメラ画像内の顔の中心位置のy座標値y1から実空間内で人物が存在する推定点e1を算出する第1の手段と、
前記属性情報内の前記特定の属性識別子を持つ属性に含まれる時刻t2におけるカメラ画像内の顔の中心位置のy座標値y2から実空間内で人物が存在する推定点e2を算出する第2の手段と、
前記動線情報内の各動線識別子毎に前記時刻t1に最も近い時刻における実空間内の位置と前記推定点e1との間の距離と、前記動線情報内の各動線識別子毎に前記時刻t2に最も近い時刻における実空間内の位置と前記推定点e2との間の距離との和をスコアとし、前記スコアを最小とする動線識別子と前記特定の属性識別子とを対応付ける第3の手段と、を備えることを特徴とする。
また、位置測定装置として測域センサを用いることを特徴とする。
また、前記第1の手段と前記第2の手段において、y座標値y1とy座標値y2の他に更に人物の性別と年齢とから推定される平均身長の情報を加えて推定点e1と推定点e2とを算出することを特徴とする。
また、位置測定装置として測域センサを用いることを特徴とする。
また、前記第1の手段と前記第2の手段において、y座標値y1とy座標値y2の他に更に人物の性別と年齢とから推定される平均身長の情報を加えて推定点e1と推定点e2とを算出することを特徴とする。
本発明に係るプログラムは、カメラで撮影された情報を分析して得られる人物の属性情報と、位置測定装置で測定された情報を分析して得られる人物の動線情報とを対応づける移動体情報管理で使用するプログラムであって、
前記移動体情報管理を、
前記属性情報内の特定の属性識別子を持つ属性に含まれる時刻t1におけるカメラ画像内の顔の中心位置のy座標値y1から実空間内で人物が存在する推定点e1を算出する第1の手段と、
前記属性情報内の前記特定の属性識別子を持つ属性に含まれる時刻t2におけるカメラ画像内の顔の中心位置のy座標値y2から実空間内で人物が存在する推定点e2を算出する第2の手段と、
前記動線情報内の各動線識別子毎に前記時刻t1に最も近い時刻における実空間内の位置と前記推定点e1との間の距離と、前記動線情報内の各動線識別子毎に前記時刻t2に最も近い時刻における実空間内の位置と前記推定点e2との間の距離との和をスコアとし、前記スコアを最小とする動線識別子と前記特定の属性識別子とを対応付ける第3の手段として機能させることを特徴とするプログラム。
本発明によれば、カメラで取得した顧客の属性情報と測域センサで取得した動線情報とを対応付けることが可能となり、どのような属性を持った顧客がどのように店舗を回遊したかが把握できる。さらに、この情報を元にして店舗のレイアウト変更など店舗の売上向上などの施策を実施することが可能となる。
本発明に係る移動体情報管理システムの実施形態を示すブロック構成図である。 移動体情報管理サーバのブロック構成図である。 属性情報の構成図である。 動線情報の構成図である。 動線属性情報の構成図である。 カメラ画像の概略図である。 推定点を説明する図である。 スコアの算出方法を説明する図である。 スコア算出処理を示すフローチャートである。 本発明の実施形態に係るスコアを説明する図である。
以下、図面に基づいて、本発明の実施の形態を説明する。なお、本発明の実施態様は、後述する形態例に限定されるものではなく、その技術思想の範囲において、種々の変形が可能である。また、実施の形態を説明するための全図において、同一の機能を有する部材には同一または関連する符号を付し、その繰り返しの説明は省略する。
図1は、本発明の実施形態に関わる移動体情報管理システム構成のブロック図である。
この実施形態の移動情報管理システムは、店舗101に設置されたカメラ102、位置測定装置103、移動体情報管理サーバ106で構成される。
カメラ102は、店舗101の出入口105の方向を撮影し、映像をネットワーク107を介して移動体情報管理サーバ106に送信する。ここでは、カメラ102は出入口105の方向を撮影しているとしたが、撮影する領域は任意で良い。また、カメラも1台だけでなく複数台あってもよい。カメラとしては、店舗に設置された防犯カメラやウェブカメラが相当する。
位置測定装置103は、店舗内を顧客が時々刻々とどのように移動したか(動線)の情報を記録する装置である。位置測定装置103としては、測域センサ、屋内GPS(Global Positioning System)、Wi-Fi電波強度による位置測定装置が該当する。例えば位置測定装置103が測域センサである場合、ある時刻における測域センサと店舗内の対象物との距離を測定し、対象物が人物の部分を分析して抽出することで、店舗内の動線を知ることができる。なお、図1には位置測定装置103を4つ示したが、台数は限定されない。
ネットワーク107は、カメラ102と位置測定装置103とが、移動体情報管理サーバ106に対して通信できるようにするためのものであり、例えばイーサネット(登録商標)、Wi-Fi(登録商標)、USB(Universal Serial Bus)等が相当するが、これらに限定されない。
なお、カメラ102、位置測定装置103は測定中にネットワーク107と必ずしも接続されている必要はない。例えば、カメラ102が撮影した映像をカメラ内に情報として記録し、店舗の閉店後にカメラ102内の情報を移動体情報管理サーバ106に送信してもよい。
図2に、移動体情報管理サーバ106の構成を示す。
移動体情報管理サーバ106は、位置測定装置103から測定情報を取得して動線情報205を作成する移動情報管理部201と、カメラ102から映像を取得して分析することで、カメラに映った顧客の属性(年齢、性別等)を推測して属性情報206を作成する属性情報管理部202と、カメラ102の前を通過した顧客の動線と属性とを対応付けて動線属性対応情報207を作成する動線属性情報管理部203と、記憶部204と、
ネットワーク接続部208とで構成される。
記憶部204には、動線情報205と、属性情報206と、動線属性対応情報207とが保存される。記憶部204としては、RAM、HDDなどが相当する。
本実施形態の場合、移動体情報管理サーバ106は、サーバ、PC(Personal Computer)、仮想マシンなどを想定する。なお、移動体情報管理サーバ106には、図示しないが、CPU(Central Processing Unit)、メモリ、入力指示装置(キーボード、マウス)などが必要に応じて搭載されているものとする。
また、移動体情報管理サーバ106が設置されている場所については限定しない。店舗内に設置されていてもよいし、クラウド上にあってもよい。図2に移動体情報管理サーバ106の構成を示しているが、個々の構成要素は別々の移動体情報管理サーバ106にあってもよい。
図3は属性情報206の構成を示す図である。
図3の属性情報206について、二行目の項目を例に取って説明する。
属性情報管理部202が、カメラ102が撮影した映像を解析して人物の顔を検出する。検出した顔毎に固有の識別子「1」をfield_id301として割り当て、検出した時刻「2013-05-01T10:00:00.000+09:00」をstart_time302とし、映像内の顔の中心座標の横成分「200」をstart_cx304、縦成分「300」をstart_cy305とする。
属性情報管理部202は、顔を検出した後に当該人物を追跡し、当該人物がカメラの撮影範囲から外れたり、顔が識別不能になった場合に追跡を終了する。
その際の終了時刻「2013-05-01T10:00:05.123+09:00」をend_time303とし、映像内の顔の中心座標の横成分「500」をend_cx306、縦成分「400」をend_cy307とする。
また、属性情報管理部202は、当該人物の年齢や性別を推定し、年齢「20」をage308、性別「男」をgender309とする。
ここで、例えば「2013-05-01T10:00:00.000+09:00」は、2013年5月1日10時00分00秒000ミリ秒(時差9時間)を意味するが、時刻の表現方法は限定しない。
なお、属性情報206は一例であり、年齢や性別以外の属性情報を含んでいてもよい。
図4は動線情報205の構成を示す図である。
図4の動線情報205について、二行目の項目を例に取って説明する。
動線情報管理部201が、位置測定装置103が測定した情報を解析して店舗内の顧客の位置を検出する。検出した顧客毎に固有の識別子「1」をhuman_id401として割り当て、検出した時刻「2013-05-01T10:00:00.000+09:00 」をtime402とし、店舗内の顧客の座標の横成分「100」をx403、縦成分「200」をy404とする。
動線情報管理部201は、定期的若しくは非定期的に店舗内の顧客の位置情報を動線情報205として記録する。但し、human_id401については、以前に検出した顧客と同一人物と推定される場合には、その際に採番した識別子を用いる。
従って、例えば動線情報205からhuman_id401が「1」のものだけ取り出すと、human_id401が「1」と割り当てられた顧客が、どの時刻に店舗内のどこに存在したかの一連の情報が分かることになる。
上記までは動線情報205と属性情報206とを別々に関連がないものとして説明した。しかし、店舗内でどのような属性(性別・年齢)をもった顧客が、どのような経路で買い回りをしているか、という情報が得られると、店舗の売上向上などの施策を打ち立てる際に、より価値の高い情報として利用できる。
次に、店舗の出入口105から入店した顧客に対して割り当てられた属性と動線とを対応付ける方法について説明する。
まず、図6を用いて属性と動線との対応付けに必要となる基準線について説明する。ここでカメラ画像601は、カメラ102で出入口105を撮影した場合の一例である。
始点605、終点607は顧客の顔の中心を表している。ここでは仮想的に、顧客がカメラ102の前を始点605から終点607の位置まで移動した場合の始点605と終点607とを同一のカメラ画像601に図示している。
カメラ画像601で撮影した領域が店舗101内の実空間内のどの領域に対応するか決めるために、基準線602を設定する。ここで基準線602の左端を点P603、右端を点Q604とする。基準線602としては、例えば店舗の自動ドアや防犯ゲートの床面接地部分のように直線になっており、かつ点P603、点Q604が自動ドアの両端、防犯ゲートの両端のようにカメラ画像内の位置と、店舗内の実際の位置とが対応付けられるものが良い。
<基準線からの距離の推定>
図6の始点605と終点607とを比較すると、顧客がカメラ102に近づくほど、顔の中心位置はカメラ画像601の下部に移動していくことが分かる。具体的に図6、図7を用いて説明をする。終点607から基準線602に垂直に引いた線との交点を交点E608とし、交点E608の実空間上の対応する点を図7の交点E'704とし、カメラ102の実空間上の設置位置を点O'706とすると、終点607を持つ人物は、実空間上では交点E'704と点O'706とを結ぶ直線上に存在することになる。交点E608と交点E'704との対応方法としては、交点E608が基準線602をm対nに内分したとすると、基準線701をm対nに内分するような点を交点E'704とする。
ここでカメラ画像601内の基準線602、点P603、点Q604は、実空間上では、基準線701、点P'702、点Q'703にそれぞれ対応するとする。
次に、当該人物の実空間上の存在位置を推定する方法を説明する。
推定された位置を推定点E'705とすると、推定点E'705は、基準線701から距離RE'706離れた距離に基準線701と平行に引いた直線L'707と交点E'704と点O'708との交点になる。したがって、カメラ画像601内の終点607から距離RE'706が推定できれば、推定点E'705が算出できることになる。
距離RE'706の推定方法の一例を説明する。
例えば、カメラ画像601の縦幅を600ピクセルとし、人物が基準線602上に立った場合の顔の中心位置のy座標値をカメラ画像601の上部から測って200ピクセルであり、カメラ102前に立った場合に顔の中心位置のy座標値が600ピクセルだったとする。この場合、y座標値と基準線602からの距離を線形補間することで、y座標値が400であれば、基準線602とカメラ102との中間地点に人物が存在したと推定することができる。
上記ではy座標値のみを用いたが、属性情報206には年齢・性別の情報も含まれることから、例えば年代別性別ごとの全国平均身長の情報を加味して距離RE'706を推定してもよい。例えば、子どもと大人では身長が子どもの方が一般に低いため、大人と子供が出入口に立った場合に、カメラ画像内のy座標値は子どもの方が大きくなる。これを踏まえた上で上記補間方法を変更することもできる。
<スコアの導入>
以下に、本発明の特徴となるスコアの概念について述べる。まず、店舗の出入口が狭いために同一時刻には一人しか入店できない場合や、出入口が広くても人の出入りが少ない場合を考える。この場合は、カメラ102に人が映った時刻と、位置測定装置103が出入口で人を検出した時刻とを対応させることで、動線と属性を簡単に対応付けることができる。
しかし、例えば家族連れ顧客など複数人が同時に出入口から入店する場合は、カメラ102に人が映った時刻に、位置測定装置103は複数人検知するため、時刻のみではどの属性とどの動線とを対応付けてよいか判断できない。
そこで本発明では、顔が検出された時刻における推定点と、前記時刻における人の位置との距離をスコアとして、スコアを最小化する動線を抽出する。
図10を用いて、スコア最小化の意味を説明する。図10では、二人が出入口105から入店し、それぞれ動線A1001、動線B1002が位置測定装置103により得られた場合を想定する。また、カメラ102が入店者を検出して対応する属性情報206を作成した場合を想定する。この時のstart_time302の値を、仮に「時刻T」とする。
上記想定のもと、前述の方法に従って「時刻T」における推定点1007を求める。次に、動線A1001・動線B1002のそれぞれについて「時刻T」に最も近い時刻における位置測定装置103が測定した位置を、それぞれ位置A1003、位置B1004とする。この時、位置A1003と推定点1007との距離を距離A1005、位置B1004と推定点1007との距離を距離B1006を求める。距離A1005と距離B1006とを比較すると、距離A1005の方が小さい。すなわち、「時刻T」においてカメラ102に映った顔の位置から推定された推定点1007に最も近い場所に存在したのが動線Aに対応する人だと判断できる。
このように、スコアを導入することで、複数人が出入口105から入店した場合においても、属性情報206と対応させるべき人を適切に選び出すことが可能となる。
尚、上記では説明を簡単にするため、スコアとしてstart_time302に対応する推定点と前記時刻に最も近い時刻における人の位置との距離をスコアとしたが、左記に加えてend_time303に対応する推定点と前記時刻に最も近い時刻における人の位置との距離の合計値をスコアとした方が、より精度が高まる。
<動線と属性との対応方法>
以上に基づき、動線情報205と属性情報206とが与えられた場合に、動線属性情報管理部203が動線属性対応情報207を作成する方法について説明する。
動線属性対応情報207は図5に示すように、face_id301とhuman_id401とを対応付ける表で構成される。
以下、図8と図9のフローチャートとを用いて、動線属性対応情報207を作成する手順を説明する。
まず、属性情報206から上から順に一行取り出す(ステップ901)。
次に、動線情報205の中の各human_id401毎に、ステップ901で取り出した属性のstart_time302、end_time303ぞれぞれに対して最も近いtime402を持つ行を探す(ステップ902)。例えば、human_id401が「1」のものが含まれていたとすると、図8の動線T'809に示すように、顧客が店舗を時々刻々と移動しているうち、前記start_time302に最も近いtime402の時に、位置S'804、同様に前記end_time303に最も近いtime402の時に、位置E'808に存在したということが分かる。
ここで、前記start_time302を始点、前記end_time303を終点とすると、カメラ画像601において、人物の顔の中心はそれぞれ始点605、終点607に対応することになる。
次に、上記で説明したように、カメラ画像内で始点605、終点607に対応する交点S606、交点E608を求め、実空間上で対応する交点S'801、交点E'805を求める。これらの情報を用い、ステップ901で取得した顔の中心位置のy座標値start_cy305、end_cy307から、推定点S'802、推定点E'806を推定する(ステップ903)。
さらに、各human_id毎に推定点S'802と位置S'804との距離RS'803、および推定点E'806と位置E'808との距離RE'807を求め、距離RS'803と距離RE'807との合計値をスコアとする(ステップ904)。
以上により、face_id301ひとつにつき、各human_id401とスコアとの組の情報が得られることになる。この中からスコアを最小とするhuman_id401を選ぶ(ステップ905)。これにより、face_id301に対応したhuman_id401をひとつ与えることができ、face_id301とhuman_id301との組を動線属性対応情報207として記録する(ステップ906)。
上述の手順を属性情報205の項目がなくなるまで繰り返し(ステップ907)、動線属性対応情報207の作成を終了する。
以上のようにして店舗内でカメラ102と位置測定装置103との測定情報から得られた顧客の属性と動線とを、上記の手法で対応付けることにより、属性情報付きの動線が得られる。これを元にして、どの属性を持つ顧客が店舗内をどのように回遊しているかなどを分析することができ、店舗の売上向上の施策の計画に利用できる。
101…店舗
102…カメラ
103…位置測定装置
106…移動体情報管理サーバ
201…動線情報管理部
202…属性情報管理部
203…動線属性情報管理部
205…動線情報
206…属性情報
207…動線属性対応情報

Claims (7)

  1. カメラで撮影された情報を分析して得られる人物の属性情報と、
    位置測定装置で測定された情報を分析して得られる人物の動線情報とを移動体情報管理装置によって対応付ける方法であって、
    前記移動体情報管理装置が、
    前記属性情報内の特定の属性識別子を持つ属性に含まれる時刻t1におけるカメラ画像内の顔の中心位置のy座標値y1から実空間内で人物が存在する推定点e1を算出する第1のステップと、
    前記属性情報内の前記特定の属性識別子を持つ属性に含まれる時刻t2におけるカメラ画像内の顔の中心位置のy座標値y2から実空間内で人物が存在する推定点e2を算出する第2のステップと、
    前記動線情報内の各動線識別子毎に前記時刻t1に最も近い時刻における実空間内の位置と前記推定点e1との間の距離と、前記動線情報内の各動線識別子毎に前記時刻t2に最も近い時刻における実空間内の位置と前記推定点e2との間の距離との和をスコアとし、前記スコアを最小とする動線識別子と前記特定の属性識別子とを対応付ける第3のステップと、を備えることを特徴とする移動体情報管理方法。
  2. 前記位置測定装置として測域センサを用いることを特徴とする請求項1に記載の移動体情報管理方法。
  3. 前記第1のステップと前記第2のステップにおいて、y座標値y1とy座標値y2の他に更に人物の性別と年齢とから推定される平均身長の情報を加えて推定点e1と推定点e2とを算出することを特徴とする請求項1または請求項2に記載の移動体情報管理方法。
  4. カメラで撮影された情報を分析して得られる人物の属性情報と、位置測定装置で測定された情報を分析して得られる人物の動線情報とを対応付ける装置であって、
    前記属性情報内の特定の属性識別子を持つ属性に含まれる時刻t1におけるカメラ画像内の顔の中心位置のy座標値y1から実空間内で人物が存在する推定点e1を算出する第1の手段と、
    前記属性情報内の前記特定の属性識別子を持つ属性に含まれる時刻t2におけるカメラ画像内の顔の中心位置のy座標値y2から実空間内で人物が存在する推定点e2を算出する第2の手段と、
    前記動線情報内の各動線識別子毎に前記時刻t1に最も近い時刻における実空間内の位置と前記推定点e1との間の距離と、前記動線情報内の各動線識別子毎に前記時刻t2に最も近い時刻における実空間内の位置と前記推定点e2との間の距離との和をスコアとし、前記スコアを最小とする動線識別子と前記特定の属性識別子とを対応付ける第3の手段と、を備えることを特徴とする移動体情報管理装置。
  5. 前記位置測定装置として測域センサを用いることを特徴とする請求項4に記載の移動体情報管理装置。
  6. 前記第1の手段と前記第2の手段において、y座標値y1とy座標値y2の他に更に人物の性別と年齢とから推定される平均身長の情報を加えて推定点e1と推定点e2とを算出することを特徴とする請求項4または請求項5に記載の移動体情報管理装置。
  7. カメラで撮影された情報を分析して得られる人物の属性情報と、位置測定装置で測定された情報を分析して得られる人物の動線情報とを対応づける移動体情報管理で使用するプログラムであって、
    前記移動体情報管理を、
    前記属性情報内の特定の属性識別子を持つ属性に含まれる時刻t1におけるカメラ画像内の顔の中心位置のy座標値y1から実空間内で人物が存在する推定点e1を算出する第1の手段と、
    前記属性情報内の前記特定の属性識別子を持つ属性に含まれる時刻t2におけるカメラ画像内の顔の中心位置のy座標値y2から実空間内で人物が存在する推定点e2を算出する第2の手段と、
    前記動線情報内の各動線識別子毎に前記時刻t1に最も近い時刻における実空間内の位置と前記推定点e1との間の距離と、前記動線情報内の各動線識別子毎に前記時刻t2に最も近い時刻における実空間内の位置と前記推定点e2との間の距離との和をスコアとし、前記スコアを最小とする動線識別子と前記特定の属性識別子とを対応付ける第3の手段として機能させることを特徴とするプログラム。
JP2013203615A 2013-09-30 2013-09-30 移動体情報管理方法及び装置並びにプログラム Active JP6067527B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013203615A JP6067527B2 (ja) 2013-09-30 2013-09-30 移動体情報管理方法及び装置並びにプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013203615A JP6067527B2 (ja) 2013-09-30 2013-09-30 移動体情報管理方法及び装置並びにプログラム

Publications (2)

Publication Number Publication Date
JP2015069452A JP2015069452A (ja) 2015-04-13
JP6067527B2 true JP6067527B2 (ja) 2017-01-25

Family

ID=52836037

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013203615A Active JP6067527B2 (ja) 2013-09-30 2013-09-30 移動体情報管理方法及び装置並びにプログラム

Country Status (1)

Country Link
JP (1) JP6067527B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11023739B2 (en) 2016-11-21 2021-06-01 Nec Corporation Flow line combining device, flow line combining method, and recording medium
US20230267506A1 (en) 2020-06-22 2023-08-24 Nec Corporation Matching device, sales promotion assistance system, matching method, and non-transitory computer-readable medium

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6658348B2 (en) * 2001-10-09 2003-12-02 Hewlett-Packard Development Company, L.P. Systems and methods for providing information to users
JP4125634B2 (ja) * 2003-05-26 2008-07-30 Necソフト株式会社 顧客情報収集管理方法及びそのシステム
JP4753193B2 (ja) * 2008-07-31 2011-08-24 九州日本電気ソフトウェア株式会社 動線管理システムおよびプログラム
JP5147760B2 (ja) * 2009-03-02 2013-02-20 セコム株式会社 画像監視装置
JP5448952B2 (ja) * 2010-03-16 2014-03-19 グローリー株式会社 同一人判定装置、同一人判定方法および同一人判定プログラム
JP5950296B2 (ja) * 2012-01-27 2016-07-13 国立研究開発法人産業技術総合研究所 人物追跡属性推定装置、人物追跡属性推定方法、プログラム

Also Published As

Publication number Publication date
JP2015069452A (ja) 2015-04-13

Similar Documents

Publication Publication Date Title
Dong et al. Structural displacement monitoring using deep learning-based full field optical flow methods
Wang et al. Vision-based framework for automatic progress monitoring of precast walls by using surveillance videos during the construction phase
Liu et al. Tracking-based 3D human skeleton extraction from stereo video camera toward an on-site safety and ergonomic analysis
JP6622894B2 (ja) 多因子画像特徴登録及び追尾のための方法、回路、装置、システム、及び、関連するコンピュータで実行可能なコード
JP5950296B2 (ja) 人物追跡属性推定装置、人物追跡属性推定方法、プログラム
US8965050B2 (en) Behavior analysis device
CN107025658A (zh) 采用单个相机检测运动物体的方法和系统
JP5853141B2 (ja) 人数計測装置、人数計測システムおよび人数計測方法
JP6120404B2 (ja) 移動体行動分析・予測装置
US10638115B2 (en) Calibration device
EP2450832A1 (en) Image processing apparatus and image processing method
KR102096230B1 (ko) 도착 레인으로 합병되는 이동 아이템의 출발 레인을 결정
US20210209793A1 (en) Object tracking device, object tracking method, and object tracking program
CN105424026A (zh) 一种基于点云轨迹的室内导航定位方法与系统
Zhao et al. Video‐based multiscale identification approach for tower vibration of a cable‐stayed bridge model under earthquake ground motions
CN109961472B (zh) 3d热力图生成的方法、系统、存储介质及电子设备
JP2017083980A (ja) 行動分析装置及びシステム及び方法
JP2021536649A (ja) 対象の検出と追跡のためのビデオ監視システムを構築する方法
JP2017224148A (ja) 人流解析システム
JP6067527B2 (ja) 移動体情報管理方法及び装置並びにプログラム
CN112513870A (zh) 用于利用改进的高度计算对感兴趣的人类对象进行检测、跟踪和计数的系统和方法
JP2016066111A (ja) 動線編集装置及び動線編集方法、動線編集プログラム
Ettehadieh Systematic parameter optimization and application of automated tracking in pedestrian-dominant situations
WO2023152825A1 (ja) 動作評価システム、動作評価方法、及び非一時的なコンピュータ可読媒体
JP7010030B2 (ja) 店内監視装置、店内監視方法、および店内監視プログラム

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20150413

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20150420

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160209

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161221

R150 Certificate of patent or registration of utility model

Ref document number: 6067527

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250