JP4198951B2 - グループ属性推定方法及びグループ属性推定装置 - Google Patents
グループ属性推定方法及びグループ属性推定装置 Download PDFInfo
- Publication number
- JP4198951B2 JP4198951B2 JP2002207889A JP2002207889A JP4198951B2 JP 4198951 B2 JP4198951 B2 JP 4198951B2 JP 2002207889 A JP2002207889 A JP 2002207889A JP 2002207889 A JP2002207889 A JP 2002207889A JP 4198951 B2 JP4198951 B2 JP 4198951B2
- Authority
- JP
- Japan
- Prior art keywords
- person
- group
- attribute
- scene image
- estimated
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Processing (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Image Analysis (AREA)
Description
【発明の属する技術分野】
本発明は、複数の人物が撮像された場面画像データから、複数の人物によって形成されるグループのグループ属性を推定するグループ属性推定方法及びグループ属性推定装置に関するものである。
【0002】
【従来の技術】
従来、例えばコンビニエンス・ストア等の店舗では、商品を購入した顧客について、その性別・年代等の属性を店員が目視によって推定し、その商品に対する購入情報として蓄積・利用することが知られている。このような顧客の属性情報を、顧客が撮像された画像データを画像処理することによって自動で取得する試みが提案されている。
【0003】
例えば特開平2000−149105号広報には、商品購入者を撮像し、その顔画像データを解析して商品購入者の性別や年代を推定する自動販売機が提案されている。その手法としては、予め性別・年代別の平均顔データを用意しておき、購入者の顔画像データに最も類似する平均顔データの性別・年代を購入者の性別・年代として推定する方法を用いることが記載されている。
【0004】
また、特開2001−218020号広報には、未知人物の顔画像データから唇部分の領域を抽出し、その唇部分の色味に基づいて未知人物の性別を推定する画像処理方法が提案されている。
【0005】
また、特開平6−333023号広報には、顔の縦横比、目の高さ、しわの本数、髪際の後退度等の特徴量に基づいて、対象人物の年齢を推定する方法が提案されている。
【0006】
【発明が解決しようとする課題】
ところで、商品の購入情報としては、複数の顧客で形成されたグループの、例えば親子、友人、カップル等といったグループ属性との関連が重要である。
【0007】
しかしながら、上記の各公報に開示されている手法は、人物毎の人物属性を推定しようとするものであり、複数の人物によって形成されるグループのグループ属性を自動で推定するものではない。従って、上記の各手法を用いる限りでは、商品の購入情報をより高度に蓄積・利用することができない問題がある。
【0008】
本発明は、上記課題を解決するためになされたものであって、その目的は、複数の人物が撮像された場面画像から、複数の人物によって形成されるグループのグループ属性を推定することができるグループ属性推定方法及びグループ属性推定装置を提供することにある。
【0009】
【課題を解決するための手段】
上記課題を解決するため、請求項1に記載の発明は、人物が通過する場所が撮像された場面画像データから、その場面画像に撮像された人物を抽出する人物抽出処理と、前記場面画像データを用い、人物抽出処理により前記抽出された人物同士の実空間における距離間隔を求め、この距離間隔に基づき、同一のグループを形成する複数の人物を推定するグループ推定処理と、前記場面画像データを用い、同一のグループを形成すると推定された人物毎にその人物属性を推定する人物属性推定処理と、前記人物毎に推定された人物属性に基づき、前記グループのグループ属性を判定するグループ属性判定処理とを行うことを特徴とする。
【0010】
請求項1に記載の発明によれば、先ず、場面画像データに撮像された複数の人物から、同一のグループを形成する複数の人物が推定される。そして、この複数の人物毎の人物属性から、そのグループのグループ属性が判定される。従って、複数の人物が撮像された場面画像から、複数の人物によって形成されるグループのグループ属性を推定することができる。
【0012】
特に、人物同士の距離間隔がある距離以下であれば、その人物同士が同一のグループを形成する可能性があると推定できる。このため、場面画像から推定可能な、人物同士の距離間隔に基づいて、同一のグループを形成する複数の人物を推定することができる。
【0013】
請求項2に記載の発明は、グループ推定処理において、前記場面画像データを用いて、人物抽出処理により前記抽出された人物同士の場面画像上での重なり状態を検出し、この重なり状態に基づき、同一のグループを形成する複数の人物を推定することを特徴とする。
【0014】
請求項2に記載の発明には、次の作用がある。人物同士の重なり程度が大きいときには、その人物同士が手を繋いだり、あるいは、腕を組んでいる可能性が高い状態であって、この人物同士の親密度が高いと推定できる。このため、場面画像から推定可能な、人物同士の重なり状態に基づいて、同一のグループを形成する複数の顧客を推定することができる。
【0015】
請求項3に記載の発明は、グループ推定処理において、時間を隔てて撮像された前記場面画像データを用い、前記人物抽出処理により抽出された人物同士の実空間における距離間隔の変化状態を検出し、この変化状態に基づき、同一のグループを形成する複数の人物を推定することを特徴とする。
【0016】
請求項3に記載の発明には、次の作用がある。人物同士の実空間における距離間隔がある距離以下である状態が継続するときには、その人物同士がいっしょに行動している状態であって、この人物同士の親密度が高いと推定できる。このため、時間を隔てて撮像された場面画像から推定可能な、人物同士の距離間隔の変化状態に基づいて、同一のグループを形成する複数の人物を推定できる。
【0017】
請求項4に記載の発明は、グループ推定処理において、前記場面画像データを用いて、前記人物抽出処理により抽出された人物同士の顔向き合い状態を検出し、この顔向き合い状態に基づき、同一のグループを形成する複数の人物を推定することを特徴とする。
【0018】
請求項4に記載の発明には、次の作用がある。人物同士が互いに顔を向き合わせているときには、その人物同士がいっしょに会話をしている状態であって、この人物同士の親密度が高いと推定できる。
このため、場面画像から推定可能な、人物同士の顔向き合い状態に基づいて、同一のグループを形成する複数の人物を推定することができる。
【0019】
請求項5に記載の発明は、請求項1〜請求項4のいずれか一項に記載の発明において、前記人物属性推定処理では、属性が異なる複数の参照人物の顔を所定の異なる複数の顔向き方向で撮像した参照顔画像毎に取得され、かつ、その参照人物の属性が関連付けられた参照特徴量と、前記場面画像を用いて前記人物毎の顔画像から取得された対象特徴量とから該人物の属性を推定することを特徴とする。
【0020】
請求項5に記載の発明には、請求項1〜請求項4のいずれか一項に記載の発明の作用に加えて次の作用がある。人物の顔画像から取得された対象特徴量は、属性が異なる複数の参照人物の顔を所定の異なる複数の顔向き方向で撮像した参照顔画像毎に取得された参照特徴量の内、その顔向き方向に近い顔向き方向の範囲で撮像された参照人物の参照顔画像から取得された参照特徴量に類似する。さらに、対象特徴量は、その顔向き方向に近い顔向き方向の範囲で撮像された参照顔画像の参照特徴量の内、人物の属性に近い属性を備えた参照人物の参照顔画像から取得された参照特徴量に類似する。このため、先ず、全ての参照特徴量の中から、人物の顔画像の対象特徴量に類似する参照特徴量を判別することによって人物の顔画像が撮像された顔向き方向が推定される。そして、推定された顔向き方向の範囲で撮像された参照顔画像の参照特徴量の中から、人物の顔画像の対象特徴量に類似する参照特徴量を判別することによって、人物の属性が推定される。
従って、場面画像から抽出された人物の顔画像から、その人物の人物属性が推定される。
【0021】
請求項6に記載の発明は、請求項1〜請求項5のいずれか一項に記載の発明において、前記人物属性は、性別及び年齢の少なくともいずれか一方であることを特徴とする。
【0022】
請求項6に記載の発明には、請求項1〜請求項5のいずれか一項に記載の発明の作用に加えて次の作用がある。同一のグループを形成する複数の人物毎の性別及び年齢の少なくともいずれか一方から、そのグループのグループ属性が推定される。このため、グループを形成する人物の性別及び年齢の少なくともいずれか一方によって特徴付けられるグループ属性がより高い精度で推定できる。
【0023】
請求項7に記載の発明は、請求項1〜請求項6のいずれか一項に記載の発明において、前記グループ属性は、親子、カップル、夫婦、友達、兄弟、姉妹、及び、祖父又は祖母と孫のいずれかであることを特徴とする。
【0024】
請求項7に記載の発明には、請求項1〜請求項6のいずれか一項に記載の発明の作用に加えて次の作用がある。同一のグループを形成する複数の人物毎の属性から、そのグループのグループ属性が親子、カップル、夫婦、友達、兄弟、姉妹、及び、祖父又は祖母と孫のいずれかであることが推定される。
【0025】
請求項8に記載の発明は、人物が通過する場所が撮像された場面画像データから、その場面画像に撮像された人物を抽出する人物抽出手段と、前記場面画像データを用い、前記人物抽出処理により抽出された複数の人物から、同一のグループを形成する複数の人物を推定するグループ推定手段と、前記場面画像データを用い、同一のグループを形成すると推定された人物毎にその人物属性を推定する人物属性推定手段と、前記人物毎に推定された属性に基づき、前記グループのグループ属性を判定するグループ属性判定手段とを備えたことを特徴とする。
請求項9に記載の発明は、人物が通過する場所が撮像された場面画像データから、その場面画像に撮像された人物を抽出する人物抽出手段と、前記場面画像データを用いて、前記人物抽出処理により抽出された人物同士の場面画像上での重なり状態を検出し、この重なり状態に基づき、同一のグループを形成する複数の人物を推定するグループ推定手段と、前記場面画像データを用い、同一のグループを形成すると推定された人物毎にその人物属性を推定する人物属性推定手段と、前記人物毎に推定された人物属性に基づき、前記グループのグループ属性を判定するグループ属性判定手段とを行うことを特徴とする。
請求項10に記載の発明は、人物が通過する場所が撮像された場面画像データから、その場面画像に撮像された人物を抽出する人物抽出手段と、時間を隔てて撮像された前記場面画像データを用い、前記人物抽出処理により抽出された人物同士の実空間における距離間隔の変化状態を検出し、この変化状態に基づき、同一のグループを形成する複数の人物を推定するグループ推定手段と、前記場面画像データを用い、同一のグループを形成すると推定された人物毎にその人物属性を推定する人物属性推定手段と、前記人物毎に推定された人物属性に基づき、前記グループのグループ属性を判定するグループ属性判定手段とを行うことを特徴とする。
請求項11に記載の発明は、人物が通過する場所が撮像された場面画像データから、その場面画像に撮像された人物を抽出する人物抽出手段と、前記場面画像データを用いて、前記人物抽出処理により抽出された人物同士の顔向き合い状態を検出し、この顔向き合い状態に基づき、同一のグループを形成する複数の人物を推定するグループ推定手段と、前記場面画像データを用い、同一のグループを形成すると推定された人物毎にその人物属性を推定する人物属性推定手段と、前記人物毎に推定された人物属性に基づき、前記グループのグループ属性を判定するグループ属性判定手段とを行うことを特徴とする。
【0026】
請求項8〜11に記載の発明には、請求項1〜4に記載の発明と同様の作用がある。
【0027】
【発明の実施の形態】
(第1実施形態)
以下、本発明を、店舗内で複数の顧客が形成するグループのグループ属性を推定するグループ属性推定方法に具体化した第1実施形態を図1〜図8に従って説明する。
【0028】
本実施形態のグループ属性推定装置は、店舗内において顧客が通過する場所が撮像された場面画像から複数の顧客を検出し、この複数の顧客から同一のグループを形成する複数の顧客を推定する。そして、同一のグループを形成する複数の顧客毎にその人物属性を推定し、この各顧客の人物属性に基づいてそのグループのグループ属性を推定する。本実施形態における人物属性は性別及び年齢であり、同じくグループ属性は親子、カップル、夫婦、友達、兄弟、姉妹、及び、祖父又は祖母と孫である。
【0029】
グループ属性推定装置が推定したグループの属性情報は、例えば、このグループの顧客が購入した商品の販売情報として蓄積され、商品販売戦略に利用される。
【0030】
図2に示すように、グループ属性推定装置10は、ビデオカメラ11、画像処理装置12とからなる。
ビデオカメラ11は、店舗内の、顧客が通過する場所を撮像範囲とする場面画像をカラーで撮像する。
【0031】
画像処理装置12は、信号処理装置13及びコンピュータ14等からなる。
本実施形態では、ビデオカメラ11が撮像手段であり、信号処理装置13及びコンピュータ14が画像取得手段である。また、コンピュータ14が、人物抽出手段、グループ推定手段、人物属性推定手段及びグループ属性判定手段である。
【0032】
コンピュータ14は、ビデオカメラ11を撮像制御して場面画像を撮像し、所定時間が経過する毎に、そのときビデオカメラ11が撮像する場面画像を取得する。コンピュータ14は、取得した場面画像に撮像された複数の顧客によって形成されるグループを推定し、このグループのグループ属性を推定するグループ属性推定処理を行う。
【0033】
(グループ属性推定処理)
次に、画像処理装置が行うグループ属性推定処理の概要を説明する。
グループ属性推定処理は、図1に示すように、画像取得処理、人物抽出処理、グループ推定処理、人物属性推定処理、グループ属性判定処理及び結果出力処理からなる。
【0034】
先ず、画像取得処理として、所定時間経過毎に、ビデオカメラ11がそのとき撮像する場面画像の場面画像データ(以下、単に場面画像という。)を取得する(S100)。
【0035】
次に、人物抽出処理として、取得された場面画像から、画像処理を用いて複数の顧客を抽出する(S200)。
次に、グループ推定処理として、抽出された複数の顧客から、同一のグループを形成する複数の顧客を推定する(S300)。
【0036】
次に、人物属性推定処理として、同一のグループを形成する複数の顧客毎に、その顧客の人物属性を推定する(S400)。本実施形態で推定する人物属性は、性別及び年齢である。
【0037】
次に、グループ属性判定処理として、顧客毎に推定された人物属性に基づき、そのグループのグループ属性を推定する(S500)。本実施形態で推定するグループ属性は、親子、カップル、夫婦、友達、兄弟、姉妹、及び、祖父又は祖母と孫である。
【0038】
最後に、結果出力処理として、同一のグループを形成する複数の顧客毎の人物属性と、そのグループのグループ属性とを対応させて出力する(S600)。
(人物抽出処理)
次に、人物抽出処理について詳述する。
【0039】
人物抽出処理では、場面画像データから、画像処理によって、顧客の全身に対応する画像領域である人物領域を求め、また、顧客の顔部分に対応する画像領域である顔領域を抽出する。そして、人物領域が抽出され、かつ、その人物領域内に顔領域が抽出できたときに、1人の顧客として認識する。
【0040】
人物領域を検出するには、図3に示すように、先ず、顧客がいない状態で予め撮像されている背景画像と、新たに取得された場面画像とから背景差分画像を生成する(S210)。
【0041】
次に、この背景差分画像から、所定の閾値により背景領域と背景領域以外の検出領域を分離する。なお、検出領域に対して膨張縮小処理を施すことで、ノイズ除去および検出領域の安定化を図る(S220)。
【0042】
最後に、この検出領域から、その面積が所定の判定値を超える画像領域を抽出し、この画像領域を人物領域とする(S230)。
また、顔領域を検出するには、色情報を用いた公知の肌色基準値による手法を用いる。肌色基準値による手法としては、均等知覚色空間の1つであるCIE−L*U*V*表色系の他、rgb,HSV,CIE−Lav,CIE−xyx表色系等を用いてもよい。
【0043】
先ず、場面画像の全領域に亘り、U,V座標値による2次元ヒストグラムを求め、予め設定された肌色有効範囲内のピーク値(度数が最大の値)を肌色基準値とする(S240)。
【0044】
次に、公知の判別分析法を用いて、肌色基準値からの色差に対する閾値を決定し、この閾値に基づいて場面画像を肌色領域と非肌色領域とに2値化する(S250)。
【0045】
最後に、抽出された複数の肌色領域毎に、その肌色領域を形成する画素数(面積)を求め、その画素数が所定の判定値以上である肌色領域を顔領域とする(S260)。
【0046】
従って、この人物抽出処理では、場面画像に撮像されている顧客であっても、その顔がある大きさで場面画像に撮像されていない場合には、顧客として抽出されない。
【0047】
(グループ推定処理)
次に、グループ推定処理について詳述する。
グループ推定処理は、図4に示すように、距離間隔推定処理及び重なり状態推定処理からなる。
【0048】
先ず、距離間隔推定処理として、場面画像を用いて、人物抽出処理で抽出された複数の顧客同士の実空間における距離間隔を求め、この距離間隔に基づき、同一のグループを形成する可能性がある複数の顧客を選別する(S310)。
【0049】
次に、重なり状態推定処理として、場面画像を用い、距離間隔推定処理で選別された顧客同士の場面画像上での重なり状態を検出し、この重なり状態に基づき、同一のグループを形成する複数の顧客を最終的に推定する(S320)。
【0050】
(距離間隔推定処理)
次に、距離間隔推定処理について詳述する。
距離間隔推定処理では、図5に示すように、先ず、場面画像から抽出された人物領域毎にその重心位置を求め、この重心位置間の場面画像上での重心間距離を求める(S311)。
【0051】
次に、この重心間距離から、予め記憶されているテーブルを用いて実空間における人物同士の距離間隔を算出する(S312)。
最後に、算出された距離間隔が予め設定されている距離判定値以下である顧客同士を同一のグループを形成する顧客であると判定することにより、同一のグループを形成する可能性がある複数の顧客として推定する(S313)。
【0052】
(重なり状態推定処理)
次に、重なり状態推定処理について詳述する。
重なり状態推定処理では、図6に示すように、先ず、同一のグループを形成する可能性がある複数の顧客について、人物抽出処理で検出した人物領域から、各顧客に対応する人物領域の垂直方向での画素数の累積ヒストグラムを作成する(S321)。
【0053】
そして、この累積ヒストグラムから、所定の閾値以上の領域を人物領域としてカウントし、顔領域の検出より得られた人数と比較することで、顧客同士が寄り添っている、または手をつないでいる可能性があるか否かを判定する。
【0054】
例えば、図8(a)は、夫、妻及び子供からなる3人の親子が撮像された場面画像から生成された2値画像を示す。
この親子は、夫と妻とが寄り添い、又、夫と子供とが手を繋いでいる。
【0055】
この2値画像の人物領域から得られる累積ヒストグラムは、図8(b)に示すように、夫と妻との人物領域が明確に分離されず、また、夫と子供との人物領域は、繋がれた手の領域が重なった状態となる。しかし、カメラアングル、ノイズなどにより顧客同士が手をつないでいなくても、累積ヒストグラム上で接触していると判断される場合がある。
【0056】
そこで、次に、隣り合う人物領域の範囲で、画素の累積数が「0」でなく、かつ、所定の閾値未満の領域を抽出し、この画像領域を腕候補領域とする(S322)。
【0057】
最後に、この腕候補領域に対し、人物抽出処理と同様の手法によって、肌色領域が含まれているか否かを判定し、肌色領域が含まれていたときには、人物同士が手を繋いでいると推定する(S323)。
【0058】
そして、手を繋いでいる顧客同士が同一のグループを形成していると最終的に推定する。
(人物属性推定処理)
次に、人物属性推定処理について詳述する。
【0059】
人物属性推定処理では、性別及び年齢が異なる不特定多数の参照人物の顔を所定の異なる複数の顔向き方向で撮像した参照顔画像毎に取得され、かつ、その参照人物の性別及び年齢が関連付けられた参照特徴量と、場面画像を用いて顧客毎の顔画像から取得した対象特徴量とから該顧客の性別及び年齢を推定する。
【0060】
参照人物の参照特徴量は、学習データとしてコンピュータ14に予め記憶されている。
(学習データ)
この学習データは、グループ属性推定装置10とは異なるシステムにより、顔画像取得処理、顔領域検出処理及び特徴ベクトル作成処理によって生成される。
【0061】
先ず、顔画像取得処理では、参照人物毎に、予め設定された複数の異なる顔向き方向で撮像された参照顔画像を取得する。
次に、顔領域検出処理では、参照顔画像毎に、その参照人物の顔領域を検出する。これは、人物抽出処理で用いる手法によって検出することができる。
【0062】
次に、特徴ベクトル作成行程では、顔領域が検出された参照顔画像毎に、その参照顔領域の特徴量を表した参照特徴ベクトル(参照特徴量)を作成する。これは、以下のように行うことができる。先ず、参照顔画像の顔領域における濃淡勾配から4方向のベクトル場を求め、この各方向毎に分割した方向エッジ画像を得る。次に、4つの方向エッジ画像を顔領域で正規化した後、それぞれ8×8に低解像度化する。最後に、参照顔画像毎に、4つの方向エッジ画像について、それぞれ8×8に低解像度化した画像の濃淡値を特徴量として抽出した256次元の特徴ベクトル(以下、参照特徴ベクトルという。)とする。
【0063】
この参照特徴ベクトルは、その参照顔画像が撮像された参照人物、撮像された顔向き方向、その参照人物の性別及び年齢に対応された学習データとしてコンピュータ14に記憶される。
【0064】
(人物属性推定処理)
人物属性推定処理は、特徴ベクトル作成処理、顔向き推定処理、性別推定処理及び年齢推定処理からなる。
【0065】
先ず、特徴ベクトル作成処理では、同一のグループを形成する可能性がある顧客毎に、人物抽出処理で抽出したその顔領域に対応する場面画像の領域である顔画像から、その顧客の顔画像に対する対象特徴ベクトル(対象特徴量)を取得する(S410)。この対象特徴ベクトルは、参照人物から参照特徴ベクトルを取得した方法と同じ手法で取得される。
【0066】
次に、顔向き推定処理では、対象特徴ベクトルが取得された顧客毎に、学習データの全ての参照特徴ベクトルと、その顧客の対象特徴ベクトルとを用いて、その顧客の顔画像が撮像された顔向き方向が含まれる可能性が高い顔向き方向の範囲を推定する(S420)。
【0067】
これは、線形判別分析によって異なる顔向き方向の範囲毎にクラス化された顔向き判別空間に対象特徴ベクトルを線形写像し、この顔向き方向判別空間において対象特徴ベクトルが最も類似するクラスの顔向き方向の範囲を識別結果とする方法で推定することができる。
【0068】
次に、性別推定処理では、顔向き方向の範囲が推定された顧客毎に、推定された顔向き方向の範囲で撮像された全ての参照顔画像から取得された参照特徴ベクトルと、その顧客の対象特徴ベクトルとを用いて、その顧客の性別を推定する(S430)。
【0069】
これは、線形判別分析によって性別毎にクラス化された性別判別空間に対象特徴ベクトルを線形写像し、この性別判別空間において対象特徴ベクトルが最も類似するクラスの性別を識別結果とする方法で推定することができる。
【0070】
次に、年齢推定処理では、性別が推定された顧客毎に、推定された顔向き方向の範囲で取得された参照特徴ベクトルの内、推定された性別の参照人物から取得された全ての参照特徴ベクトルと、その顧客の対象特徴ベクトルとを用いて、その顧客の年齢を推定する(S440)。
【0071】
これは、線形判別分析によって異なる年齢毎にクラス化された年齢判別空間に対象特徴ベクトルを線形写像し、この年齢判別空間において対象特徴ベクトルが最も類似するクラスの年齢を識別結果とする方法で推定することができる。
【0072】
(グループ属性判定処理)
次に、グループ属性判定処理について説明する。
グループ属性判定処理では、あるグループを形成する顧客の人数と、各顧客の性別及び年齢とに基づいて、そのグループ属性を推定する。
【0073】
例えば、グループを形成する顧客の人数が2〜4人であり、グループが20歳以上かつ40歳未満の年齢差がある2つの顧客のサブグループに分割でき、かつ、年齢が高い方のサブグループを形成する顧客の人数が1人又は2人であるときには、そのグループ属性が親子であると推定する。
【0074】
また、グループを形成する顧客の人数が2〜4人であり、グループが60歳以上の年齢差がある2つの顧客のサブグループに分割でき、かつ、年齢が高い方のサブグループを形成する顧客の人数が1人又は2人であるときには、そのグループ属性が祖父及び祖母の少なくとも一方と孫であると推定する。
【0075】
また、グループを形成する顧客の人数が2人であり、性別が男女であり、かつ、その年齢差が10歳以内であるときには、そのグループ属性がカップル、夫婦、あるいは友達のいずれかであると推定する。
【0076】
さらに、カップル、夫婦あるいは友達のいずれかであると推定したグループを形成する2人の顧客同士が重なり状態推定処理において互いに手を繋いでいると推定されているときには、このグループ属性が一組のカップル又は夫婦であると推定する。
【0077】
また、グループを形成する顧客の人数が2人又は3人であり、性別が男のみ又は女のみであり、かつ、その年齢差が10歳以内であるときには、そのグループ属性が兄弟、姉妹あるいは友達のいずれかであると推定する。
【0078】
さらに、グループを形成する顧客の人数が3人以上あり、性別が男のみ又は女のみであり、かつ、その年齢差が5歳以内であるときには、そのグループ属性が友達であると推定する。
【0079】
このグループ属性判定処理における各グループ属性の推定の結果は、確率で表してもよい。例えば、友人の確率80%となる。
以上詳述した本実施形態は、下記(1)〜(6)に記載した各効果を有する。
【0080】
(1) 本実施形態では、先ず、店舗内が撮像された場面画像から、その場面画像に撮像された顧客(人物)を抽出する人物抽出処理を行う。次に、場面画像データを用い、抽出された複数の顧客から同一のグループを形成する複数の顧客を推定するグループ推定処理を行う。次に、場面画像を用いて、同一のグループを形成すると推定された顧客毎に、その人物属性を推定する人物属性推定処理を行う。最後に、顧客毎に推定された人物属性に基づき、グループ属性を推定するグループ属性推定処理を行う。
【0081】
このため、先ず、場面画像に撮像された複数の顧客から、同一のグループを形成する複数の顧客が推定される。そして、この複数の顧客毎の人物属性から、そのグループのグループ属性が推定される。従って、複数の顧客が撮像された場面画像から、複数の顧客によって形成されるグループのグループ属性を推定することができる。
【0082】
(2) 又、本実施形態では、グループ推定処理として、場面画像を用いて、抽出された顧客同士の実空間における距離間隔を求め、この距離間隔に基づき、同一のグループを形成する可能性がある複数の顧客を推定する距離間隔推定処理を行う。このため、場面画像から推定可能な、顧客同士の距離間隔に基づいて、同一のグループを形成する複数の顧客を推定することができる。
【0083】
(3) 又、本実施形態では、グループ推定処理として、場面画像を用いて、抽出された顧客同士の場面画像上での重なり状態を検出し、この重なり状態に基づき、同一のグループを形成する複数の顧客を推定する。このため、場面画像から推定可能な、顧客同士の重なり状態に基づいて、同一のグループを形成する複数の顧客を推定することができる。
【0084】
また、距離間隔推定処理で推定された顧客に対して行うので、同一のグループに属するか否かをより高い精度で推定することができる。
(4) 又、本実施形態では、人物属性推定処理として、性別及び年齢(属性)が異なる複数の参照人物の顔画像から取得された参照特徴量(参照特徴ベクトル)と、顧客の顔画像から取得された対象特徴量(対象特徴ベクトル)とから該顧客の性別及び年齢を推定する。従って、場面画像から抽出された顧客の顔画像から、その顧客の人物属性が推定される。
【0085】
(5) 又、本実施形態では、人物属性として、性別及び年齢を推定する。このため、グループを形成する顧客の性別及び年齢によって特徴付けられるグループ属性がより高い精度で推定できる。
【0086】
(6) 又、本実施形態では、グループ属性として、親子、カップル、夫婦、友達、兄弟、姉妹、及び、祖父又は祖母と孫を推定することができる。
(第2実施形態)
次に、本発明を具体化した第2実施形態を図9に従って説明する。尚、本実施形態は、前記第1実施形態における重なり状態推定処理に代えて、距離変化推定処理を行うことのみが第1実施形態と異なる。従って、第1実施形態と同じ構成については、符号を同じにしてその説明を省略し、距離変化推定処理のみについて詳述する。
【0087】
(距離変化推定処理)
距離変化推定処理について詳述する。
距離変化推定処理では、時間を隔てて撮像された場面画像を用い、同一のグループを形成する可能性がある人物同士の実空間における距離間隔を求める。そして、この距離間隔が所定値以下である状態が所定時間以上継続したときに、この人物同士が同一のグループを形成すると推定する。
【0088】
距離変化推定処理では、図9に示すように、先ず、グループ推定処理において同一のグループを形成すると推定された複数の顧客毎に、次に取得した場面画像から人物抽出処理によって抽出した人物領域の重心と、先の場面画像から抽出した人物領域の重心との重心間距離が所定値以下であるか否か判断する。
【0089】
そして、この重心距離が所定値以下のときに、この2つの場面画像から人物領域が抽出された顧客が同一人物であると推定する(S321)。
次に、先の場面画像において同一のグループを形成すると推定され、かつ、前記次の場面画像においてそれぞれ同一人物であると推定された複数の顧客について、同次の場面画像における両人物領域間の重心間距離が所定値以下であるか否かを判定する。
【0090】
そして、次の場面画像において両人物領域の重心距離が所定値以下であったときには、この顧客同士が近い距離を保っていると判断する(S322)。
次に、順次取得する場面画像から抽出する人物領域から、同一のグループを形成すると一旦推定した顧客同士が、継続して重心間距離が所定値以下である状態が所定時間を超えて継続したか否かを判断する。
【0091】
そして、顧客同士の距離間隔が所定値以下である状態が所定時間を超えて継続したときには、その顧客同士が同一のグループを形成していると最終的に推定する(S323)。
【0092】
距離変化推定処理が終了すると、その推定結果に基づき、同一のグループを形成していると推定された複数の顧客について、第1実施形態と同様に、人物属性推定処理及びグループ属性推定処理を行って、その複数の顧客によって形成されるグループのグループ属性を推定する。
【0093】
以上詳述した本実施形態は、前記第1実施形態の(1),(2),(4)〜(6)に記載した各効果に加え、下記(7)に記載した効果を有する。
(7) 本実施形態では、グループ推定処理として、時間を隔てて撮像された場面画像データを用い、抽出された顧客同士の実空間における距離間隔の変化状態を検出し、この変化状態に基づき、同一のグループを形成する複数の顧客を推定する。このため、時間を隔てて撮像された複数の場面画像から推定可能な、顧客同士の距離間隔の変化状態に基づいて、同一のグループを形成する複数の顧客を推定することができる。
【0094】
また、距離間隔推定処理で推定された顧客に対して行うので、同一のグループに属するか否かをより高い精度で推定することができる。
(第3実施形態)
次に、本発明を具体化した第3実施形態を図10及び図11に従って説明する。尚、本実施形態は、前記第1実施形態における重なり状態推定処理に代えて、顔向き合い状態推定処理を行うことのみが第1実施形態と異なる。従って、第1実施形態と同じ構成については、符号を同じにしてその説明を省略し、顔向き合い状態推定処理のみについて詳述する。
【0095】
(顔向き合い状態推定処理)
顔向き合い状態推定処理について詳述する。
顔向き合い状態推定処理では、場面画像を用い、同一のグループを形成する可能性がある顧客同士の顔向き合い状態を検出し、この顔向き合い状態に基づき、同一のグループを形成する複数の顧客を最終的に推定する。
【0096】
詳述すると、親密度推定処理は、図10に示すように、人物位置推定処理、顔向き方向推定処理及び顔向き合い状態判定処理からなる。
先ず、人物位置推定処理では、場面画像を用い、同一のグループを形成する可能性がある顧客毎に、その顧客に対応する人物領域の場面画像上の重心位置から、実空間に対応した所定の座標系における座標位置を求める(S321)。これは、予め場面画像上に設定した複数の参照位置に対し、前記座標系の座標位置を対応させておき、参照位置以外の重心位置に対応する座標位置を、複数の参照位置に対応する座標位置から求めることで行う。
【0097】
次に、顔向き方向推定処理では、座標位置が求められた顧客毎に、その顧客の顔向き方向を線形判別分析によって推定する(S322)。
次に、顔向き合い状態判定処理では、顔向き方向が推定された顧客毎に、人物位置推定処理で推定した座標位置と、その顔向き方向とから、顧客同士が顔を互いに向き合わせているか否かを判定する(S323)。
【0098】
そして、顧客同士が顔を向き合わせているときに、この顧客同士が同一のグループを形成していると最終的に推定する。
(顔向き方向推定処理)
次に、顔向き方向推定処理について詳述する。
【0099】
顔向き方向推定処理では、座標位置が求められた顧客毎に、その顧客の顔領域に対応する顔画像から取得した特徴量に最も類似する特徴量を、人物属性推定処理で用いる学習データに登録されている参照人物の参照特徴量の中から抽出する。そして、この最も類似する特徴量が取得された参照人物の参照顔画像が撮像された顔向き方向が、その顧客の顔向き方向であると推定する。
【0100】
顔向き方向推定処理は、図11に示すように、特徴ベクトル作成処理、左右顔向き推定処理及び上下顔向き推定処理からなる。
先ず、特徴ベクトル作成処理では、座標位置が求められた顧客毎に、その顧客の顔画像から、学習データと同様にして、その対象特徴ベクトルを取得する(S3221)。
【0101】
次に、左右顔向き推定処理では、顔画像の対象特徴ベクトルが取得された顧客毎に、学習データの全ての参照特徴ベクトルと、その顧客の対象特徴ベクトルとを用いて、その顧客の顔画像が撮像された顔向き方向が含まれる左右方向の顔向き範囲を推定する(S3222)。
【0102】
これは、線形判別分析によって左右方向の異なる顔向き範囲毎にクラス化された左右顔向き判別空間に対象特徴ベクトルを線形写像し、この左右顔向き判別空間において対象特徴ベクトルが最も類似するクラスの左右顔向き範囲を識別結果とする方法で推定することができる。
【0103】
次に、上下顔向き推定処理では、顔向き方向が含まれる左右方向の範囲が推定された顧客毎に、その左右方向の顔向き範囲で撮像された参照顔画像の参照特徴ベクトルと、その顧客の対象特徴ベクトルとを用いて、その顧客の顔画像が撮像された上下方向の顔向き範囲を推定する(S3223)。
【0104】
これは、線形判別分析によって上下方向の異なる顔向き範囲毎にクラス化された上下顔向き判別空間に対象特徴ベクトルを線形写像し、この上下顔向き判別空間において対象特徴ベクトルが最も類似するクラスの上下顔向き範囲を識別結果とする方法で推定することができる。
【0105】
顔向き合い状態推定処理が終了すると、その推定結果に基づき、同一のグループを形成すると推定された複数の顧客について、第1実施形態と同様に、人物属性推定処理及びグループ属性推定処理を行って、その複数の顧客によって形成されるグループのグループ属性を推定する。
【0106】
以上詳述した本実施形態は、前記第1実施形態の(1),(2),(4)〜(6)に記載した各効果の他に、下記(8)に記載した効果を有する。
(8) 本実施形態では、グループ推定処理として、場面画像データを用いて、抽出された顧客同士の顔向き合い状態を検出し、この顔向き合い状態に基づき、同一のグループを形成する複数の顧客を推定する。このため、場面画像から推定可能な、顧客同士の顔向き合い状態に基づき、同一のグループを形成する複数の顧客を推定することができる。
【0107】
また、距離間隔推定処理で推定された顧客に対して行うので、同一のグループに属するか否かをより高い精度で推定することができる。
(他の実施形態)
次に、上記第1、第2及び第3実施形態以外の実施形態を列記する。
【0108】
・ 前記第1実施形態の重なり状態推定処理で、累積ヒストグラムの閾値をより大きく設定することにより、顧客同士が腕を組んでいる状態を検出する構成とする。この場合には、腕を組む可能性があるカップルをより確実に検出できる可能性がある。
【0109】
・ 前記第1、第2及び第3実施形態の距離間隔推定処理として、時間を隔てて撮像された複数の場面画像データを用い、同一の場面画像に撮像されていない人物同士の距離間隔を推定し、この距離間隔に基づき、同一のグループを形成する可能性がある複数の顧客を推定する構成とする。この場合には、時間を隔てて撮像された複数の場面画像から推定可能な、人物同士の距離間隔に基づいて、同一のグループを形成する複数の人物を推定することができる。
【0110】
・ 前記第1、第2及び第3実施形態の人物属性推定処理として、共に場面画像から取得可能な、人物のビデオカメラ11からの距離と、人物領域の横幅とに基づいて、その顧客が大人であるか子供であるかという人物属性を推定する構成とする。そして、グループ属性推定処理において、年齢に代えて、性別に加え、大人であるか子供であるかという人物属性に基づいてグループ属性を推定する構成とする。
【0111】
・ 前記第1、第2及び第3実施形態のグループ推定処理として、人物抽出処理で抽出された顧客の人物領域について色ヒストグラムを求め、顧客同士でその分布がある所定の閾値より差がない場合は、その顧客同士が共に同じ衣服を着用していると推定する。すなわち、衣服の類似度が高いと推定する。そして、この同じ服を着た各顧客が、学生やクラブチームといったグループに属していると推定する構成とする。この場合には、学生やクラブチームを形成する複数の顧客をより高い精度で推定することができる。
【0112】
・ 前記第3実施形態の顔向き方向推定処理として、場面画像から抽出した顔部品(眼、鼻、口)の実空間上での位置関係に基づいて顔向き方向を推定する構成であってもよい。または、3D顔モデルを回転させて最もマッチした顔向き方向を推定結果とする構成であってもよい。
【0113】
・ 前記第1、第2及び第3実施形態の人物属性推定処理で、その顔画像から、その顧客が東洋人であるか西洋人であるかといった人種を人物属性として推定する構成とする。そして、グループ属性推定処理において、性別及び年齢に加え、人種を考慮してグループ属性を推定する構成とする。
【0114】
・ 前記第3実施形態の顔向き合い状態推定処理で行う人物位置推定処理で、人物位置を検出するために、場面画像を撮像するビデオカメラ11とは別に設けられた天井カメラで撮像した場面画像を用いて、人物位置を検出する構成とする。この場合には、人物位置をより高い精度で検出することが可能となり、グループ属性の推定精度の向上を図ることができる。
【0115】
・ 前記第3実施形態で、ビデオカメラ11としてステレオカメラを用いることにより、人物位置推定処理において、カメラから顧客までの距離を図ることによって、人物位置を検出する構成とする。
【0116】
(その他の技術的思想)
以下、前記各実施形態から把握される技術的思想を列記する。
(1) 請求項1に記載の発明において、前記グループ推定処理では、前記場面画像データを用いて、前記抽出された人物同士の実空間における距離間隔を求め、この距離間隔に基づき、同一のグループを形成する可能性がある複数の人物を選別する距離間隔推定処理と、前記場面画像データを用いて、前記選別された人物同士の場面画像上での重なり状態を検出し、この重なり状態に基づき、同一のグループを形成する複数の人物を最終的に推定する重なり状態推定処理とを行うことを特徴とするグループ属性推定方法。
【0117】
(2) 請求項1に記載の発明において、前記グループ推定処理では、前記場面画像データを用いて、前記抽出された人物同士の実空間における距離間隔を求め、この距離間隔に基づき、同一のグループを形成する可能性がある複数の人物を選別する距離間隔推定処理と、時間を隔てて撮像された前記場面画像データを用い、前記選別された人物同士の実空間における距離間隔の変化状態を検出し、この変化状態に基づき、同一のグループを形成する複数の人物を最終的に推定する距離変化推定処理とを行うことを特徴とするグループ属性推定方法。
【0118】
(3) 請求項1に記載の発明において、前記グループ推定処理では、前記場面画像データを用いて、前記抽出された人物同士の実空間における距離間隔を求め、この距離間隔に基づき、同一のグループを形成する可能性がある複数の人物を選別する距離間隔推定処理と、前記場面画像データを用いて、前記選別された人物同士の顔向き合い状態を検出し、この顔向き合い状態に基づき、同一のグループを形成する複数の人物を最終的に推定する顔向き合い状態推定処理とを行うことを特徴とするグループ属性推定方法。
【0119】
(4) 請求項1に記載の発明において、前記グループ推定処理では、前記場面画像データを用いて、前記抽出された人物同士が着用する衣服の類似度を求め、この服装の類似度に基づき、同一のグループを形成する複数の顧客を推定することを特徴とするグループ属性推定方法。
【0120】
(5) 請求項9に記載の発明において、前記場面画像を撮像する撮像手段(ビデオカメラ11)と、所定時間経過する毎に、前記撮像手段がそのとき撮像する場面画像を取得する画像取得手段(画像処理装置12)と、同一のグループを形成する複数の人物毎の人物属性と、そのグループのグループ属性とを対応させて出力する結果出力手段(コンピュータ14)とを備えていることを特徴とするグループ属性推定装置。
【0121】
【発明の効果】
請求項1〜請求項9に記載の発明によれば、場面画像データに撮像された複数の人物から、同一のグループを形成する複数の人物が推定され、この複数の人物毎の人物属性から、そのグループのグループ属性が判定される。従って、複数の人物が撮像された場面画像から、複数の人物によって形成されるグループのグループ属性を推定することができる。
【図面の簡単な説明】
【図1】 第1実施形態のグループ属性推定処理を示すフローチャート。
【図2】 グループ属性推定装置を示す模式構成図。
【図3】 人物抽出処理を示すフローチャート。
【図4】 グループ推定処理を示すフローチャート。
【図5】 距離間隔推定処理を示すフローチャート。
【図6】 重なり状態推定処理を示すフローチャート。
【図7】 人物属性推定処理を示すフローチャート。
【図8】 (a)は人物領域が抽出された2値画像を示す模式図、(b)は人物領域における垂直方向での画素数の累積ヒストグラム。
【図9】 第2実施形態の距離変化推定処理を示すフローチャート。
【図10】 第3実施形態の顔向き合い状態推定処理を示すフローチャート。
【図11】 顔向き方向推定処理を示すフローチャート。
【符号の説明】
10…グループ属性推定装置、11…ビデオカメラ(撮像手段)、12…画像処理装置(画像取得手段)、13…信号処理装置、14…コンピュータ(人物抽出手段、グループ推定手段、人物属性推定手段、グループ属性判定手段)。
Claims (11)
- 人物が通過する場所が撮像された場面画像データから、その場面画像に撮像された人物を抽出する人物抽出処理と、
前記場面画像データを用いて、前記人物抽出処理により抽出された人物同士の実空間における距離間隔を求め、この距離間隔に基づき、同一のグループを形成する複数の人物を推定するグループ推定処理と、
前記場面画像データを用い、同一のグループを形成すると推定された人物毎にその人物属性を推定する人物属性推定処理と、
前記人物毎に推定された人物属性に基づき、前記グループのグループ属性を判定するグループ属性判定処理とを行うことを特徴とするグループ属性推定方法。 - 人物が通過する場所が撮像された場面画像データから、その場面画像に撮像された人物を抽出する人物抽出処理と、
前記場面画像データを用いて、前記人物抽出処理により抽出された人物同士の場面画像上での重なり状態を検出し、この重なり状態に基づき、同一のグループを形成する複数の人物を推定するグループ推定処理と、
前記場面画像データを用い、同一のグループを形成すると推定された人物毎にその人物属性を推定する人物属性推定処理と、
前記人物毎に推定された人物属性に基づき、前記グループのグループ属性を判定するグループ属性判定処理とを行うことを特徴とするグループ属性推定方法。 - 人物が通過する場所が撮像された場面画像データから、その場面画像に撮像された人物を抽出する人物抽出処理と、
時間を隔てて撮像された前記場面画像データを用い、前記人物抽出処理により抽出された人物同士の実空間における距離間隔の変化状態を検出し、この変化状態に基づき、同一のグループを形成する複数の人物を推定するグループ推定処理と、
前記場面画像データを用い、同一のグループを形成すると推定された人物毎にその人物属性を推定する人物属性推定処理と、
前記人物毎に推定された人物属性に基づき、前記グループのグループ属性を判定するグループ属性判定処理とを行うことを特徴とするグループ属性推定方法。 - 人物が通過する場所が撮像された場面画像データから、その場面画像に撮像された人物を抽出する人物抽出処理と、
前記場面画像データを用いて、前記人物抽出処理により抽出された人物同士の顔向き合い状態を検出し、この顔向き合い状態に基づき、同一のグループを形成する複数の人物を推定するグループ推定処理と、
前記場面画像データを用い、同一のグループを形成すると推定された人物毎にその人物属性を推定する人物属性推定処理と、
前記人物毎に推定された人物属性に基づき、前記グループのグループ属性を判定するグループ属性判定処理とを行うことを特徴とするグループ属性推定方法。 - 前記人物属性推定処理では、
属性が異なる複数の参照人物の顔を所定の異なる複数の顔向き方向で撮像した参照顔画像毎に取得され、かつ、その参照人物の属性が関連付けられた参照特徴量と、前記場面画像を用いて前記人物毎の顔画像から取得された対象特徴量とから該人物の属性を推定することを特徴とする請求項1〜請求項4のいずれか一項に記載のグループ属性推定方法。 - 前記人物属性は、性別及び年齢の少なくともいずれか一方であることを特徴とする請求項1〜請求項5のいずれか一項に記載のグループ属性推定方法。
- 前記グループ属性は、親子、カップル、夫婦、友達、兄弟、姉妹、及び、祖父又は祖母と孫のいずれかであることを特徴とする請求項1〜請求項6のいずれか一項に記載のグループ属性推定方法。
- 人物が通過する場所が撮像された場面画像データから、その場面画像に撮像された人物を抽出する人物抽出手段と、
前記場面画像データを用いて、前記人物抽出処理により抽出された人物同士の実空間に おける距離間隔を求め、この距離間隔に基づき、同一のグループを形成する複数の人物を推定するグループ推定手段と、
前記場面画像データを用い、同一のグループを形成すると推定された人物毎にその人物属性を推定する人物属性推定手段と、
前記人物毎に推定された人物属性に基づき、前記グループのグループ属性を判定するグループ属性判定手段とを備えたことを特徴とするグループ属性推定装置。 - 人物が通過する場所が撮像された場面画像データから、その場面画像に撮像された人物を抽出する人物抽出手段と、
前記場面画像データを用いて、前記人物抽出処理により抽出された人物同士の場面画像上での重なり状態を検出し、この重なり状態に基づき、同一のグループを形成する複数の人物を推定するグループ推定手段と、
前記場面画像データを用い、同一のグループを形成すると推定された人物毎にその人物属性を推定する人物属性推定手段と、
前記人物毎に推定された人物属性に基づき、前記グループのグループ属性を判定するグループ属性判定手段とを行うことを特徴とするグループ属性推定装置。 - 人物が通過する場所が撮像された場面画像データから、その場面画像に撮像された人物を抽出する人物抽出手段と、
時間を隔てて撮像された前記場面画像データを用い、前記人物抽出処理により抽出された人物同士の実空間における距離間隔の変化状態を検出し、この変化状態に基づき、同一のグループを形成する複数の人物を推定するグループ推定手段と、
前記場面画像データを用い、同一のグループを形成すると推定された人物毎にその人物属性を推定する人物属性推定手段と、
前記人物毎に推定された人物属性に基づき、前記グループのグループ属性を判定するグループ属性判定手段とを行うことを特徴とするグループ属性推定装置。 - 人物が通過する場所が撮像された場面画像データから、その場面画像に撮像された人物を抽出する人物抽出手段と、
前記場面画像データを用いて、前記人物抽出処理により抽出された人物同士の顔向き合い状態を検出し、この顔向き合い状態に基づき、同一のグループを形成する複数の人物を推定するグループ推定手段と、
前記場面画像データを用い、同一のグループを形成すると推定された人物毎にその人物属性を推定する人物属性推定手段と、
前記人物毎に推定された人物属性に基づき、前記グループのグループ属性を判定するグループ属性判定手段とを行うことを特徴とするグループ属性推定装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002207889A JP4198951B2 (ja) | 2002-07-17 | 2002-07-17 | グループ属性推定方法及びグループ属性推定装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002207889A JP4198951B2 (ja) | 2002-07-17 | 2002-07-17 | グループ属性推定方法及びグループ属性推定装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004054376A JP2004054376A (ja) | 2004-02-19 |
JP4198951B2 true JP4198951B2 (ja) | 2008-12-17 |
Family
ID=31932178
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002207889A Expired - Fee Related JP4198951B2 (ja) | 2002-07-17 | 2002-07-17 | グループ属性推定方法及びグループ属性推定装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4198951B2 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10242271B2 (en) | 2014-12-25 | 2019-03-26 | Panasonic Intellectual Property Management Co., Ltd. | Facility use measuring device and facility use measuring system |
JP2019133437A (ja) * | 2018-01-31 | 2019-08-08 | キヤノン株式会社 | 情報処理装置、システム、情報処理装置の制御方法、及び、プログラム |
Families Citing this family (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004227158A (ja) * | 2003-01-21 | 2004-08-12 | Omron Corp | 情報提供装置および情報提供方法 |
WO2006025272A1 (ja) * | 2004-09-01 | 2006-03-09 | Nec Corporation | 映像分類装置、映像分類プログラム、映像検索装置、および映像検索プログラム |
JP4490214B2 (ja) * | 2004-09-10 | 2010-06-23 | 富士フイルム株式会社 | 電子アルバム表示システム、電子アルバム表示方法、及び電子アルバム表示プログラム |
US7634106B2 (en) | 2004-09-22 | 2009-12-15 | Fujifilm Corporation | Synthesized image generation method, synthesized image generation apparatus, and synthesized image generation program |
JP4506381B2 (ja) * | 2004-09-27 | 2010-07-21 | 沖電気工業株式会社 | 単独行動者及びグループ行動者検知装置 |
JP4311322B2 (ja) | 2004-09-28 | 2009-08-12 | ソニー株式会社 | 視聴コンテンツ提供システム及び視聴コンテンツ提供方法 |
JPWO2006085383A1 (ja) * | 2005-02-10 | 2008-06-26 | 富士通株式会社 | 情報提供システムおよび情報提供方法 |
JP5010937B2 (ja) * | 2007-02-16 | 2012-08-29 | 株式会社日立製作所 | 画像処理装置、プログラム及び画像処理方法 |
JP2009139857A (ja) * | 2007-12-10 | 2009-06-25 | Unicast Corp | コンテンツ表示制御装置、コンテンツ表示制御方法およびコンテンツ表示制御プログラム |
US7953690B2 (en) * | 2008-01-25 | 2011-05-31 | Eastman Kodak Company | Discovering social relationships from personal photo collections |
JP5248236B2 (ja) * | 2008-08-08 | 2013-07-31 | パナソニック株式会社 | 画像処理装置および画像処理方法 |
JP5238933B2 (ja) * | 2008-08-27 | 2013-07-17 | 株式会社アセットソリューション | 客層付販売情報生成システム |
US20100106573A1 (en) * | 2008-10-25 | 2010-04-29 | Gallagher Andrew C | Action suggestions based on inferred social relationships |
JP5715390B2 (ja) * | 2009-12-03 | 2015-05-07 | パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America | 視聴端末装置、視聴統計装置、視聴統計処理システムおよび視聴統計処理方法 |
JP5649301B2 (ja) * | 2009-12-16 | 2015-01-07 | キヤノン株式会社 | 映像加工処理方法及びその装置 |
JP2011248548A (ja) | 2010-05-25 | 2011-12-08 | Fujitsu Ltd | コンテンツ決定プログラムおよびコンテンツ決定装置 |
JP5715861B2 (ja) * | 2011-03-18 | 2015-05-13 | 東芝テック株式会社 | 電子機器、情報処理装置、情報処理システム、情報処理方法、及び情報処理プログラム |
JP5923723B2 (ja) | 2011-06-02 | 2016-05-25 | パナソニックIpマネジメント株式会社 | 人物属性推定システム、人物属性推定装置、及び人物属性推定方法 |
JP5478559B2 (ja) * | 2011-06-13 | 2014-04-23 | 株式会社日立製作所 | ディスプレイ制御装置、ディスプレイ制御方法、ディスプレイ制御プログラム、およびディスプレイ |
JP2013065110A (ja) * | 2011-09-15 | 2013-04-11 | Omron Corp | 検出装置、該検出装置を備えた表示制御装置および撮影制御装置、物体検出方法、制御プログラム、ならびに、記録媒体 |
JP2015011597A (ja) * | 2013-07-01 | 2015-01-19 | 株式会社 日立産業制御ソリューションズ | 共連れ制御入退出管理システムおよびその共連れ制御方法 |
JP5567725B2 (ja) * | 2013-08-21 | 2014-08-06 | 株式会社国際電気通信基礎技術研究所 | グループ行動推定装置 |
JP6500374B2 (ja) * | 2014-09-11 | 2019-04-17 | 富士ゼロックス株式会社 | 画像処理装置及び画像処理プログラム |
JP6447108B2 (ja) * | 2014-12-24 | 2019-01-09 | 富士通株式会社 | 利用可能性算出装置、利用可能性算出方法及び利用可能性算出プログラム |
JP5856726B1 (ja) * | 2015-01-22 | 2016-02-10 | 三菱電機インフォメーションシステムズ株式会社 | 属性推定装置及び属性推定プログラム |
JP2016177755A (ja) * | 2015-03-23 | 2016-10-06 | 日本電気株式会社 | 注文端末装置、注文システム、客情報生成方法、及びプログラム |
JP6898165B2 (ja) * | 2017-07-18 | 2021-07-07 | パナソニック株式会社 | 人流分析方法、人流分析装置及び人流分析システム |
JP6611772B2 (ja) * | 2017-10-02 | 2019-11-27 | 株式会社ぐるなび | 制御方法、情報処理装置及び制御プログラム |
JP7336835B2 (ja) * | 2018-05-09 | 2023-09-01 | コニカミノルタ株式会社 | 属性決定装置、属性決定システムおよび属性決定方法 |
JP6988975B2 (ja) * | 2018-12-11 | 2022-01-05 | 東京電力ホールディングス株式会社 | 情報処理方法、プログラム及び情報処理装置 |
JP6825613B2 (ja) * | 2018-12-11 | 2021-02-03 | 東京電力ホールディングス株式会社 | 情報処理方法、プログラム、情報処理装置及び学習済みモデルの生成方法 |
JP2020113876A (ja) * | 2019-01-10 | 2020-07-27 | ナブテスコ株式会社 | 監視装置、監視システムおよび自動ドア装置 |
JP7337354B2 (ja) * | 2019-05-08 | 2023-09-04 | 株式会社オレンジテクラボ | 情報処理装置及び情報処理プログラム |
WO2021064857A1 (ja) * | 2019-10-01 | 2021-04-08 | 富士通株式会社 | 属性判定装置、属性判定プログラム、及び属性判定方法 |
JP7390266B2 (ja) | 2020-08-17 | 2023-12-01 | 株式会社デンソーテン | 車載装置、乗客管理システム及び乗客管理方法 |
JP7380652B2 (ja) * | 2021-05-26 | 2023-11-15 | セイコーエプソン株式会社 | 報知方法、情報処理装置、表示システム |
-
2002
- 2002-07-17 JP JP2002207889A patent/JP4198951B2/ja not_active Expired - Fee Related
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10242271B2 (en) | 2014-12-25 | 2019-03-26 | Panasonic Intellectual Property Management Co., Ltd. | Facility use measuring device and facility use measuring system |
JP2019133437A (ja) * | 2018-01-31 | 2019-08-08 | キヤノン株式会社 | 情報処理装置、システム、情報処理装置の制御方法、及び、プログラム |
Also Published As
Publication number | Publication date |
---|---|
JP2004054376A (ja) | 2004-02-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4198951B2 (ja) | グループ属性推定方法及びグループ属性推定装置 | |
Kwolek et al. | Improving fall detection by the use of depth sensor and accelerometer | |
US6445810B2 (en) | Method and apparatus for personnel detection and tracking | |
US8254633B1 (en) | Method and system for finding correspondence between face camera views and behavior camera views | |
JP6013241B2 (ja) | 人物認識装置、及び方法 | |
US8036416B2 (en) | Method and apparatus for augmenting a mirror with information related to the mirrored contents and motion | |
Sohail et al. | Detection of facial feature points using anthropometric face model | |
KR20120019008A (ko) | 복수의 객체를 추적하는 객체 추적 방법 및 장치 | |
JP2008203916A (ja) | 画像処理装置、プログラム及び画像処理方法 | |
Nguyen et al. | Seeing human weight from a single rgb-d image | |
Debard et al. | Camera based fall detection using multiple features validated with real life video | |
SG188111A1 (en) | Condition detection methods and condition detection devices | |
Khan et al. | Multiple human detection in depth images | |
JP2003242486A (ja) | 人物属性推定装置 | |
Bhargavas et al. | Human identification using gait recognition | |
Choi et al. | The arm-swing is discriminative in video gait recognition for athlete re-identification | |
WO2020217812A1 (ja) | 被写体の状態を認識する画像処理装置及びその方法 | |
JP2005250692A (ja) | 物体の同定方法、移動体同定方法、物体同定プログラム、移動体同定プログラム、物体同定プログラム記録媒体、移動体同定プログラム記録媒体 | |
Ng et al. | Development of vision based multiview gait recognition system with MMUGait database | |
Bromiley et al. | Design of a visual system for detecting natural events by the use of an independent visual estimate: a human fall detector | |
An et al. | Support vector machine algorithm for human fall recognition kinect-based skeletal data | |
JP5688514B2 (ja) | 視線計測システム、方法およびプログラム | |
Mousse et al. | Video-based people fall detection via homography mapping of foreground polygons from overlapping cameras | |
Atienza-Vanacloig et al. | People and luggage recognition in airport surveillance under real-time constraints | |
Li et al. | The face localization and regional features extraction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20031031 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20040129 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20050315 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050712 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20050907 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080603 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080804 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080909 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20081002 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111010 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20141010 Year of fee payment: 6 |
|
LAPS | Cancellation because of no payment of annual fees |