JPWO2013102972A1 - 人物特徴量抽出システム、撮像端末、サーバおよび人物特徴量抽出方法 - Google Patents

人物特徴量抽出システム、撮像端末、サーバおよび人物特徴量抽出方法 Download PDF

Info

Publication number
JPWO2013102972A1
JPWO2013102972A1 JP2013552342A JP2013552342A JPWO2013102972A1 JP WO2013102972 A1 JPWO2013102972 A1 JP WO2013102972A1 JP 2013552342 A JP2013552342 A JP 2013552342A JP 2013552342 A JP2013552342 A JP 2013552342A JP WO2013102972 A1 JPWO2013102972 A1 JP WO2013102972A1
Authority
JP
Japan
Prior art keywords
person
feature amount
feature
image
imaging terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013552342A
Other languages
English (en)
Other versions
JP6187261B2 (ja
Inventor
祐介 ▲高▼橋
祐介 ▲高▼橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2013102972A1 publication Critical patent/JPWO2013102972A1/ja
Application granted granted Critical
Publication of JP6187261B2 publication Critical patent/JP6187261B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

撮像端末(10)は、人物の映った画像から第1の特徴量を抽出し、抽出した前記第1の特徴量を送信する。サーバ(20)は、撮像端末(10)から送信された前記第1の特徴量に基づき、画像内に存在する人物の位置を特定する。さらに、サーバ(20)は、前記第1の特徴量と前記人物の位置に基づき、人物ごとの第2の特徴量を抽出することで、画像内の人物を同定する。

Description

本発明は、画像から人物の特徴量を抽出するシステム、撮像端末、サーバおよび方法に関する。
人物の監視、追跡や検索などの用途のために、単一カメラおよび複数カメラの映像間で同一人物の特定(人物同定)を行うことが要望されている。人物を追跡や検索するためには、画像から人物の顔や服飾などの見た目に関する特徴量の抽出を行う。この人物の特徴量を抽出するためには、画像中に映っている人物を抽出し、抽出した人物ごとに特徴量を算出する必要がある。
例えば、監視カメラでは、一般的に広い範囲をカバーするため、高い位置から広角レンズなどを用いて撮影されることが多い。このため、画像中の人物のサイズは小さく、人物も斜め上から見下ろした画角で撮影されていることが多い。このような環境で撮影されたカメラ映像から人物の頭部や顔を抽出するためには、高い演算処理が必要になる。このため、カメラに設置される小型画像処理装置では、処理を行うことが困難となるため、通常は、カメラで撮影した画像を高演算処理することができるサーバに転送し、サーバ上で人物抽出および特徴量算出を行う。
しかし、カメラ映像を画像処理させるサーバへ転送する際には、画像そのものを送るとプライバシーの問題が生じる。このため、カメラ側で画像処理を施して元の画像が復元できない情報に変換した後にサーバ側へデータ(特徴量)を転送するなどの対策が必要である。
既存の技術において、特許文献1では、人物のプライバシーを侵害せずに、当該人物の行動を分析する方式が提案されている。
特許文献1の方式では、撮影した映像に写っている人物の特徴を表す数値を特徴量データとして抽出して暗号化する。そして、撮影装置は、暗号化された特徴量データと所定の関連情報と当該撮影装置に固有に付与された撮影装置識別子とを照合装置へ送信する。照合装置は、暗号化済み特徴量データと関連情報と撮影装置識別子とを特徴量データベースに格納し、任意の時点にて暗号化したまま特徴量データのマッチングを行い、該マッチングに基づいてユニークな人物ごとに人物識別子を払い出す。そして、照合装置は、人物識別子ごとの関連情報と撮影装置識別子との組を含む行動データベースを作成する。
また、特許文献2では、特徴データ抽出処理を2つの装置で分割する方式が提案されている。
この方式では、入力情報に対する特徴データ抽出処理の一部を第1の情報処理装置で実行し、残りの部分を第2の情報処理装置で実行する。つまり、特徴データの抽出処理を複数の情報処理装置にまたがって順次実行する。その際、第1の情報処理装置では、アルゴリズムが解読されても最終結果の特徴データが推測される可能性のない演算を行うことが特徴である。
特許文献3では、カメラで取得した画像を人物追跡装置に送信し、人物追跡装置において頭部領域を検出し、検出位置やサイズを用いて人物情報を特徴量として抽出する方法が提案されている。
非特許文献1では、映像中の勾配情報を基に人物顔領域を検出する方法が提案されている。
非特許文献2では、特徴データを表現するための標準規格であるMPEG−7についての説明がされている。
特開2011−014059号公報 特開2005−222352号公報 特開2010−273112号公報
細井 利憲、鈴木 哲明、佐藤 敦、「一般化学習ベクトル量子化による顔検出」、電子情報通信学会技術研究報告. PRMU、 パターン認識・メディア理解 102(651)、47-52、2003-02-13 Introduction to MPEG-7 Multimedia Content Description Interface, Edited by B. S. Manjunath, Philippe Salembier, Thomas Sikora, John Wiley & Sons, Ltd., Baffins Lane, Chichester, West Sussex PO19 1UD, England (ISBN 0 471 48678 7) pp.208〜pp.212
しかしながら、特許文献1のように送信情報を暗号化しただけでは、何らかの手段により送信情報を取得して復号化に成功した場合、元の画像が生成される可能性がある。この場合、プライバシーの問題が生じる恐れがある。
また、特許文献3のように、撮像装置の負担を減らすために、人物特徴量を抽出する装置へ撮影画像そのものを送信すると、人物の顔などがそのまま送信される。このため、プライバシーの問題が生じる恐れがある。
また、特許文献2に記載の技術では、第1の情報処理装置でアルゴリズムが解読されても最終結果の特徴データが推測される可能性のない演算を行うが、前記演算は計算量の大きい演算である。従って、前記演算を画像内の全ての人物に対して行うと、低い処理能力の撮像端末では処理しきれなくなる恐れがある。
本発明の目的は、上記問題に鑑みてなされたもので、撮像端末の処理能力が低い場合であっても、撮像端末がサーバにプライバシーを保護した情報を送信することができる人物特徴量抽出システム、撮像端末、サーバおよび人物特徴量抽出方法を提供することにある。
本発明によれば、
少なくとも1つの撮像端末と、少なくとも1つのサーバを備え、
前記撮像端末は、
人物の映った画像から第1の特徴量を抽出する第1特徴量抽出手段と、
抽出した前記第1の特徴量を送信する特徴量送信手段を有し、
前記サーバは、
送信された前記第1の特徴量を受信する特徴量受信手段と、
前記第1の特徴量に基づき、前記画像内に存在する人物の位置を特定する人物位置特定手段と、
前記第1の特徴量と前記人物の位置に基づき、人物ごとの第2の特徴量を抽出する第2特徴量抽出手段を有する人物特徴量抽出システムが提供される。
本発明によれば、
人物の映った画像から第1の特徴量を抽出する第1特徴量抽出手段と、
前記画像は送信せず、抽出した前記第1の特徴量を送信する特徴量送信手段を有する撮像端末が提供される。
本発明によれば、
撮像端末から送信された第1の特徴量を受信する特徴量受信手段と、
前記第1の特徴量に基づき、前記画像内に存在する人物の位置を特定する人物位置特定手段と、
前記第1の特徴量と前記人物の位置に基づき、人物ごとの第2の特徴量を抽出する第2特徴量抽出手段を有するサーバが提供される。
本発明によれば、
少なくとも1つの撮像端末と、少なくとも1つのサーバを使用し、
前記撮像端末で、
人物の映った画像から第1の特徴量を抽出する第1特徴量抽出手段と、
抽出した前記第1の特徴量を送信する特徴量送信手段を実行し、
前記サーバで、
送信された前記第1の特徴量を受信する特徴量受信手段と、
前記第1の特徴量に基づき、画像内に存在する人物の位置を特定する人物位置特定手段と、
前記第1の特徴量と前記人物の位置に基づき、人物ごとの第2の特徴量を抽出する第2特徴量抽出手段を実行する人物特徴量抽出方法が提供される。
本発明によれば、撮像端末の処理能力が低い場合であっても、撮像端末がサーバにプライバシーを保護した情報を送信することができる。
上述した目的、およびその他の目的、特徴および利点は、以下に述べる好適な実施の形態、およびそれに付随する以下の図面によってさらに明らかになる。
本発明の第1の実施形態に係るシステムの構成を示すブロック図である。 本発明の第1の実施形態に係るシステムの処理の流れを示すフローチャートである。 本発明の第1の実施形態において、第1の特徴量を抽出する際のグリッドサイズの例を示す図である。 人物領域の作成例を示す図である。 エッジヒストグラム特徴量を抽出する方法の例を示す図である。 輝度勾配方向の出現頻度のヒストグラムを示す図である。 輝度勾配方向の分類方法およびアルゴリズムの例を示す図である。 カラーレイアウト特徴量を抽出する方法の例を示す図である。 本発明の第2の実施形態において、第1の特徴量を抽出する際のグリッドサイズの例を示す図である。 本発明の第3の実施形態において、第1の特徴量を抽出する際のグリッドサイズの例を示す図である。
以下、本発明の実施の形態について、図面を用いて説明する。尚、すべての図面において、同様な構成要素には同様の符号を付し、適宜説明を省略する。
(第1の実施形態)
図1は、本発明の第1の実施形態に係るシステムの構成を示すブロック図である。本実施形態の人物特徴量抽出システムは、撮像端末10とサーバ20を備える。撮像端末10は、画像取得手段102、第1特徴量抽出手段104、特徴量送信手段106を有する。サーバ20は、特徴量受信手段202、人物位置特定手段204、第2特徴量抽出手段206を有する。
撮像端末10は、取得した画像から抽出した、第1の特徴量をサーバ20に送信する。サーバ20は、撮像端末10から受信した第1の特徴量に基づき、人物の位置を特定し、人物を同定する第2の特徴量を抽出する。
なお、図1に示した撮像端末10及びサーバ20の各構成要素は、ハードウエア単位の構成ではなく、機能単位のブロックを示している。撮像端末10及びサーバ20の各構成要素は、任意のコンピュータのCPU、メモリ、メモリにロードされた本図の構成要素を実現するプログラム、そのプログラムを格納するハードディスクなどの記憶メディア、ネットワーク接続用インタフェースを中心にハードウエアとソフトウエアの任意の組合せによって実現される。そして、その実現方法、装置には様々な変形例がある。
本実施形態における処理の流れを、図2を用いて説明する。
画像取得手段102は、例えば、監視カメラなどのCCDデジタルカメラやビデオカメラなどの映像入力機器で撮像した画像を取得し、メモリやストレージ等の記憶領域に格納する(S102)。ここで、映像入力機器から入力された情報が動画である場合、画像取得手段102は、その動画を任意のフレーム単位に切り出して画像とする。通常、画像はRGB値で取得されるため、画像取得手段102は、取得された画像のRGB値をYCbCr値へ変換する。画像取得手段102は、例えば以下に示す式1を用いて、RGB値をYCbCr値へ変換できる。
Figure 2013102972
第1特徴量抽出手段104は、取得された画像から第1の特徴量を算出する(S104)。本実施形態では、第1特徴量抽出手段104は、例として、色分布情報および輝度勾配情報を第1の特徴量として算出する。
以下に、第1特徴量抽出手段104が、色分布情報および輝度勾配情報を抽出する例を示す。
まず、第1特徴量抽出手段104が色分布情報を抽出する例について説明する。第1特徴量抽出手段104は、まず図3に示すように、取得された画像全体を均一なグリッドサイズ108(ここでは、横M×縦Nのサイズとする。)で分割する。このグリッドサイズ108は、例えば、第1特徴量抽出手段104に予め設定されている。そして、第1特徴量抽出手段104は、分割された各グリッドサイズ108内に存在する各画素(m,n)の、Y、Cb、Crの平均値により表現される色(以下、平均色とする。)を、以下に示す式2を用いてグリッドごとに算出する。式2を用いて、取得された画像の各グリッドにおける平均色を算出することにより、第1特徴量抽出手段は、取得された画像から色分布情報を抽出する。
Figure 2013102972
次に、第1特徴量抽出手段104が輝度勾配情報を抽出する例について説明する。まず、取得された画像がカラー画像である場合、第1特徴量抽出手段104は、その画像をグレースケールに変換する。そして、第1特徴量抽出手段104は、Sobelフィルタ等を用いて、グレースケール画像から水平方向および垂直方向のエッジ勾配の強度を算出する。最後に、第1特徴量抽出手段104は、輝度勾配方向を任意のK方向に量子化し、勾配強度とともに算出する。以下に示す式3は、グレースケール(Y成分)の画素(i,j)における勾配強度strength(i,j)を算出する式である。また、以下に示す式4は、グレースケール(Y成分)の画素(i,j)におけるエッジ方向dir(i,j)を算出する式である。第1特徴量抽出手段104は、以下の式3及び式4を用いて、画像上の各画素におけるエッジ方向と勾配強度を算出する。
Figure 2013102972
Figure 2013102972
上述のように、第1特徴量抽出手段104は、画素の数値を平均化する処理、もしくはフィルタを用いて輝度勾配情報を抽出する処理を行うのみである。そのため、離散的コサイン変換を用いた演算処理と比較し、その処理の計算量は少なくなる。
特徴量送信手段106は、第1特徴量抽出手段104で原画像から抽出した第1の特徴量を、LANなどの信号線、Wi−Fi(Wireless Fidelity)などの無線によりサーバ20に送信する(S106)。本実施形態では、特徴量送信手段106は、輝度勾配情報と色分布情報を送信する。送信するデータの量が多い場合、特徴量送信手段106は、例えばランレングス圧縮などを用いてデータを圧縮してもよい。第1特徴量抽出手段104で抽出した色分布情報は、分割したグリッド内で同じ色の情報が連続して出現するため、特徴量送信手段106は、ランレングス圧縮を行うことで、送信情報の効率的な圧縮が行える。同様に、第1特徴量抽出手段104で抽出した輝度勾配情報は、画像におけるエッジ以外の領域で方向別輝度勾配強度の値が0となることが多い。そのため、特徴量送信手段106は、方向別輝度勾配強度の値が0となる画素に対してランレングス圧縮を行うことで、送信情報の効率的な圧縮が行える。なお、特徴量送信手段106は、例えば各シンボルの出現頻度を考慮した算術符号化などの、ランレングス圧縮以外の圧縮方式を用いてもよい。
なお、特徴量送信手段106は、元の画像を送信せずに、第1の特徴量を送信する。これにより、第三者が特徴量送信手段106から送信される送信情報を傍受しても、その送信情報から元の画像を取得できなくなる。また、特徴量送信手段106は、第1の特徴量以外の情報を送信しないようにしてもよい。このようにすれば、プライバシーがより高い精度で保護される。
サーバ20では、特徴量送信手段106から送信された第1の特徴量に基づき、人物の特定部位を検出して人物の位置を推定し、該当人物を特定するための第2の特徴量を抽出する。人物の特定部位としては、例えば上半身、頭、顔、肩などを用いることができる。以下では、特定部位として、頭部または顔部を検出した場合の例を説明する。
特徴量受信手段202は、特徴量送信手段106から送信された第1の特徴量を受信し、メモリやストレージ等の記憶領域に確保する。ここで、受信した第1の特徴量がランレングス圧縮などで圧縮されている場合は、特徴量受信手段202は、圧縮されたデータを復元してメモリ等に確保する。
人物位置特定手段204は、メモリに確保した第1の特徴量から、人物が映っていると推測される領域(以下、人物領域とする)を検出する(S108)。本実施形態では、人物位置特定手段204が、色分布情報および輝度勾配情報を用いて、この人物領域を検出する例を説明する。
まず、人物位置特定手段204が、輝度勾配情報を用いて、人物領域を検出する方法を説明する。
人物位置特定手段204は、記憶部(不図示)に人物の頭部および顔領域の基準となる輝度勾配情報を予め記憶している。人物位置特定手段204は、この記憶している輝度勾配情報と、受信した第1の特徴量である輝度勾配情報を比較して、所定の閾値以上の類似度を示す領域を人物の頭部または顔領域として検出する。ここで、K方向に量子化された輝度勾配情報から顔領域を検出する方法については、非特許文献1に説明されている方法において実現できる。また、頭部を検出する場合に関しても、非特許文献1において、頭部画像を学習させるデータとして用いることにより実現できる。
そして、人物位置特定手段204は、頭部および顔領域が検出された位置およびサイズに基づき、人物の胴体領域を推定する。人物位置特定手段204は、人物領域のモデルを作成するモデル作成手段(不図示)をさらに備え、このモデル作成手段は、頭部または顔領域302の位置およびサイズに基づき、上半身領域304および下半身領域306を決定する。図4は、人物領域の作成例を示す図である。図4では、頭部または顔領域302の位置より下に、上半身領域304として、頭部または顔領域302の大きさを縦横2倍に拡張した領域を作成し、その上半身領域304の下に、下半身領域306として、頭部または顔領域302の大きさを縦横2倍に拡張した領域を作成した人物領域例が示されている。
次に、人物位置特定手段204が、色分布情報を用いて、人物領域を検出する方法を説明する。
人物位置特定手段204は、形状記憶手段(不図示)をさらに備える。この形状記憶手段は、人物領域を特定するための、人物の特徴を示す色(以下、人物色とする。)や服の特徴を示す色(以下、服領域色とする。)の集合の形を予め記憶している。そして、人物位置特定手段204は、受信した色分布情報から、形状記憶手段に記憶されている人物色や服領域色と類似する色で形成される集合領域を抽出する。そして、人物位置特定手段204は、抽出された集合領域と、形状記憶手段に記憶されている集合の形を比較する。人物位置特定手段204は、比較の結果として、一定の閾値以上の類似度を示す集合領域を人物領域として特定できる。例えば、人物位置特定手段204は、頭部であれば髪の毛の色を人物色とし、その人物色で円形に形成された集合領域を頭部または顔領域302とみなすことができる。また、人物位置特定手段204は、人物の顔領域であれば肌の色を人物色として、その人物色で円形に形成された集合領域を頭部または顔領域302とみなすことができる。また、人物位置特定手段204は、ユニフォームなどの特定の色を服領域色として、その服領域色で矩形に形成された集合領域を服領域とみなすことができる。人物位置特定手段204は、頭部または顔領域302を抽出した場合、輝度勾配情報と同様に、頭部または顔領域302を抽出した位置と大きさに基づき上半身領域304を特定できる。また、人物位置特定手段204は、服領域を抽出した場合、抽出した服領域を上半身領域304として特定してもよい。
第2特徴量抽出手段206は、人物位置特定手段で特定した上半身領域304内の模様または色分布などを表す、第2の特徴量を算出する(S110)。本実施形態では、第2特徴量抽出手段206が、第2の特徴量として、上半身領域304内の色分布を表すカラーレイアウト特徴量と、上半身領域304内の模様を表すエッジヒストグラム特徴量をそれぞれ抽出する例を説明する。
まず、第2特徴量抽出手段206が、輝度勾配情報に基づき、エッジヒストグラム特徴量を抽出する流れを説明する。
輝度勾配情報は、第1特徴量抽出手段104において、任意のK方向に量子化されている。そこで、第2特徴量抽出手段206は、図5に示すように、抽出した上半身領域304を任意のM×Nグリッドに分割し、各グリッド内の各画素の輝度勾配方向の出現頻度を算出する。輝度勾配方向の出現頻度は、グリッドにおける輝度勾配方向を角度で分類し、その角度ごとの出現数により算出される。このとき、輝度の強度が一定の閾値以下の画素は、エッジなしとして分類される。図6は、A、B、C、Dの四方向と、E(エッジなし)に輝度勾配方向を分類し、出現頻度を算出した場合の例を示している。また、輝度勾配方向の分類方法の例と各分類方法における出現頻度の算出アルゴリズムを、図7に示す。図7において、左右の図はどちらも8方向に分類した例を示しているが、左図は、360度方向を45度単位で分類したものであり、右図は、180度方向を22.5度単位で分類したものである。そして、第2特徴量抽出手段206は、算出された出現頻度を上半身領域304の総ピクセル数で割り、正規化を行ったものをエッジヒストグラム特徴量とする。
次に、第2特徴量抽出手段206が、色分布情報より、カラーレイアウト特徴量を抽出する流れを説明する。
カラーレイアウト特徴量を抽出する処理において、第2特徴量抽出手段206は、例えば図8に示すように、抽出された上半身領域304を8×8グリッドに分割し、各グリッドにおける平均色を算出する。なお、カラーレイアウト特徴量の抽出については、例えば、非特許文献2のpp.208〜212に記載されている方法を用いることができる。
上記第2の特徴量を抽出する処理は、人物位置特定手段204で特定された全ての人物に対して処理が完了するまで繰り返される(S112)。
以上、本実施形態によれば、撮像端末10側で、個人を特定できない送信情報を用い、かつ処理において計算量の大きい演算を行わない。そのため、撮像端末10の処理能力が低く、高度処理が可能なサーバ20を要するシステムであっても、プライバシーを保護した人物同定を行うことができる。
(第2の実施形態)
本実施形態は、以下の点を除き、第1の実施形態と同様である。
図9は、本発明の第2の実施形態において、第1の特徴量を抽出する際のグリッドサイズ108の例を示す図である。本実施形態では、画像上部から画像下部にかけてグリッドが大きくなるように、グリッドサイズ108が設定されている。
本構成によれば、画像上でより大きく映る、手前側の人物に対するグリッドサイズ108が大きくなるよう設定される。そのため、大きさが均一のグリッドサイズ108で平均色を算出した場合と比較し、大きく映る人物の画像が粗くなる。そのため、特徴量送信手段106がサーバに送信する情報を誰かが視認しても、大きく映る人物を特定することがより困難となる。さらに、グリッドサイズ108を大きくすることにより、同一の色情報が連続する領域が増えるため、均一のグリッドサイズ108で平均色を算出した場合と比較して、特徴量送信手段106がランレングス圧縮などを用いた場合に画像の圧縮効率を上げることができる。
以上、本実施形態においても、第1の実施形態と同様の効果を得ることができる。また、本実施形態では、画像上部から画像下部にかけてグリッドサイズ108が大きくなる構成により、均一のグリッドサイズ108で分割した場合と比較し、画像内で大きく映る人物であっても個人として特定することが困難となり、プライバシーをより強固に保護できるようになる。さらに、特徴量送信手段106がランレングス圧縮などを用いた際の画像圧縮効率が向上し、通信コストを低減させることができる。
(第3の実施形態)
本実施形態は、以下の点を除き、第2の実施形態と同様である。
図10は、本発明の第3の実施形態において、第1の特徴量を抽出する際のグリッドサイズ108の例を示す図である。本実施形態では、撮像端末10が、カメラのキャリブレーション情報に基づいて算出した画像内の3次元位置情報を保持している。第1特徴量抽出手段104は、保持している3次元位置情報に基づき、画像上の位置に応じた人物が映る大きさ(以下、想定人物サイズとする。)を推定する。第1特徴量抽出手段104は、推定された想定人物サイズに基づき、グリッドサイズ108を決定する。
ここで、想定人物サイズは、例えば、平均身長に基づいた平均人物モデルや、年齢および性別ごとに収集した情報に基づいた各平均モデルなどの基準(以下、基準人物サイズとする。)に基づき推定することができる。また、基準人物サイズには、これらのモデルを複数採用することも可能である。第1特徴量抽出手段104は、この基準人物サイズを、画像内の3次元位置情報と照らし合わせて伸縮することにより、画像上の任意の位置で人物がどのくらいの大きさで映るかを推定することができる。この際、基準人物サイズに対して、予めグリッドサイズ108の大きさを関連付けておけば、第1特徴量抽出手段104は、上記推定に基づきグリッドサイズ108を動的に伸縮させることができる。
以上、本実施形態においても、第1および第2の実施形態と同様の効果を得ることができる。本実施形態では、撮像端末10が3次元位置情報および想定人物サイズをさらに有するため、人物が映る大きさに応じてグリッドサイズ108を動的に変化させることができる。よって、最適なグリッドサイズ108を自動的に選択することが可能となる。
なお、上述した実施形態によれば以下の発明が開示されている。
(付記1)
少なくとも1つの撮像端末と、少なくとも1つのサーバを備え、
前記撮像端末は、
人物の映った画像から第1の特徴量を抽出する第1特徴量抽出手段と、
抽出した前記第1の特徴量を送信する特徴量送信手段を有し、
前記サーバは、
送信された前記第1の特徴量を受信する特徴量受信手段と、
前記第1の特徴量に基づき、前記画像内に存在する人物の位置を特定する人物位置特定手段と、
前記第1の特徴量と前記人物の位置に基づき、人物ごとの第2の特徴量を抽出する第2特徴量抽出手段を有する人物特徴量抽出システム。
(付記2)
付記1に記載の人物特徴量抽出システムにおいて、
前記撮像端末は、前記画像を送信しない人物特徴量抽出システム。
(付記3)
付記1または2に記載の人物特徴量抽出システムにおいて、
前記第1の特徴量は、色分布情報および輝度勾配情報の少なくとも1つを有する人物特徴量抽出システム。
(付記4)
付記1乃至3のいずれか一項に記載の人物特徴量抽出システムにおいて、
前記第1特徴量抽出手段は、縦横の大きさが前記画像上部から前記画像下部に向かって大きくなる可変のグリッドサイズを用いて前記画像を分割し、分割画像ごとの特徴量を用いることにより、前記第1の特徴量を抽出する人物特徴量抽出システム。
(付記5)
付記4に記載の人物特徴量抽出システムにおいて、
前記撮像端末は、
前記画像上における3次元の位置を示す、3次元位置情報を保持しており、
前記第1特徴量抽出手段は、
前記3次元位置情報に基づき、前記画像上で人物が映る想定の大きさである想定人物サイズを算出し、
前記想定人物サイズにより、前記グリッドサイズを決定する人物特徴量抽出システム。
(付記6)
付記5に記載の人物特徴量抽出システムにおいて、
前記想定人物サイズは、平均身長による平均人物モデル、もしくは性別および年齢ごとの平均的な人物モデルを含む基準人物サイズに基づいて算出される人物特徴量抽出システム。
(付記7)
付記4乃至6のいずれか一項に記載の人物特徴量抽出システムにおいて、
前記第1の特徴量は、色分布情報を有しており、
前記色分布情報による前記分割画像ごとの特徴量は、前記分割画像内に存在する色から算出した平均色である人物特徴量抽出システム。
(付記8)
人物の映った画像から第1の特徴量を抽出する第1特徴量抽出手段と、
前記画像は送信せず、抽出した前記第1の特徴量を送信する特徴量送信手段を有する撮像端末。
(付記9)
撮像端末から送信された第1の特徴量を受信する特徴量受信手段と、
前記第1の特徴量に基づき、画像内に存在する人物の位置を特定する人物位置特定手段と、
前記第1の特徴量と前記人物の位置に基づき、人物ごとの第2の特徴量を抽出する第2特徴量抽出手段を有するサーバ。
(付記10)
少なくとも1つの撮像端末と、少なくとも1つのサーバを使用し、
前記撮像端末で、
人物の映った画像から第1の特徴量を抽出する第1特徴量抽出処理と、
抽出した前記第1の特徴量を送信する特徴量送信処理を実行し、
前記サーバで、
送信された前記第1の特徴量を受信する特徴量受信処理と、
前記第1の特徴量に基づき、前記画像内に存在する人物の位置を特定する人物位置特定処理と、
前記第1の特徴量と前記人物の位置に基づき、人物ごとの第2の特徴量を抽出する第2特徴量抽出処理を実行する人物特徴量抽出方法。
(付記11)
付記8に記載の撮像端末において、
前記第1の特徴量は、色分布情報および輝度勾配情報の少なくとも1つを有する撮像端末。
(付記12)
付記8または11に記載の撮像端末において、
前記第1特徴量抽出手段は、縦横の大きさが前記画像上部から前記画像下部に向かって大きくなる可変のグリッドサイズを用いて前記画像を分割し、分割画像ごとの特徴量を用いることにより、前記第1の特徴量を抽出する撮像端末。
(付記13)
付記12に記載の撮像端末において、
前記撮像端末は、
前記画像上における3次元の位置を示す、3次元位置情報を保持しており、
前記第1特徴量抽出手段は、
前記3次元位置情報に基づき、前記画像上で人物が映る想定の大きさである想定人物サイズを算出し、
前記想定人物サイズにより、前記グリッドサイズを決定する撮像端末。
(付記14)
付記13に記載の撮像端末において、
前記想定人物サイズは、平均身長による平均人物モデル、もしくは性別および年齢ごとの平均的な人物モデルを含む基準人物サイズに基づいて算出される撮像端末。
(付記15)
付記12乃至14のいずれか一項に記載の撮像端末において、
前記第1の特徴量は、色分布情報を有しており、
前記色分布情報による前記分割画像ごとの特徴量は、前記分割画像内に存在する色から算出した平均色である撮像端末。
(付記16)
付記10に記載の人物特徴量抽出方法において、
前記撮像端末は、前記画像を送信しない人物特徴量抽出方法。
(付記17)
付記10または16に記載の人物特徴量抽出方法において、
前記第1の特徴量は、色分布情報および輝度勾配情報の少なくとも1つを有する人物特徴量抽出方法。
(付記18)
付記10または16または17のいずれか一項に記載の人物特徴量抽出方法において、
前記第1特徴量抽出処理は、縦横の大きさが前記画像上部から前記画像下部に向かって大きくなる可変のグリッドサイズを用いて前記画像を分割し、分割画像ごとの特徴量を用いることにより、前記第1の特徴量を抽出する人物特徴量抽出方法。
(付記19)
付記18に記載の人物特徴量抽出方法において、
前記撮像端末は、
前記画像上における3次元の位置を示す、3次元位置情報を保持しており、
前記第1特徴量抽出処理は、
前記3次元位置情報に基づき、前記画像上で人物が映る想定の大きさである想定人物サイズを算出し、
前記想定人物サイズにより、前記グリッドサイズを決定する人物特徴量抽出方法。
(付記20)
付記19に記載の人物特徴量抽出方法において、
前記想定人物サイズは、平均身長による平均人物モデル、もしくは性別および年齢ごとの平均的な人物モデルを含む基準人物サイズに基づいて算出される人物特徴量抽出方法。
(付記21)
付記18乃至20のいずれか一項に記載の人物特徴量抽出方法において、
前記第1の特徴量は、色分布情報を有しており、
前記色分布情報による前記分割画像ごとの特徴量は、前記分割画像内に存在する色から算出した平均色である人物特徴量抽出方法。
以上、図面を参照して本発明の実施形態について述べたが、これらは本発明の例示であり、上記以外の様々な構成を採用することもできる。各実施形態は、説明の便宜上、1つの撮像端末10と1つのサーバ20の構成としたが、撮像端末10またはサーバ20が複数存在する構成をとることも可能である。
この出願は、2012年1月5日に出願された日本出願特願2012−000388号を基礎とする優先権を主張し、その開示の全てをここに取り込む。

Claims (10)

  1. 少なくとも1つの撮像端末と、少なくとも1つのサーバを備え、
    前記撮像端末は、
    人物の映った画像から第1の特徴量を抽出する第1特徴量抽出手段と、
    抽出した前記第1の特徴量を送信する特徴量送信手段を有し、
    前記サーバは、
    送信された前記第1の特徴量を受信する特徴量受信手段と、
    前記第1の特徴量に基づき、前記画像内に存在する人物の位置を特定する人物位置特定手段と、
    前記第1の特徴量と前記人物の位置に基づき、人物ごとの第2の特徴量を抽出する第2特徴量抽出手段を有する人物特徴量抽出システム。
  2. 請求項1に記載の人物特徴量抽出システムにおいて、
    前記撮像端末は、前記画像を送信しない人物特徴量抽出システム。
  3. 請求項1または2に記載の人物特徴量抽出システムにおいて、
    前記第1の特徴量は、色分布情報および輝度勾配情報の少なくとも1つを有する人物特徴量抽出システム。
  4. 請求項1乃至3のいずれか一項に記載の人物特徴量抽出システムにおいて、
    前記第1特徴量抽出手段は、縦横の大きさが前記画像上部から前記画像下部に向かって大きくなる可変のグリッドサイズを用いて前記画像を分割し、分割画像ごとの特徴量を用いることにより、前記第1の特徴量を抽出する人物特徴量抽出システム。
  5. 請求項4に記載の人物特徴量抽出システムにおいて、
    前記撮像端末は、
    前記画像上における3次元の位置を示す、3次元位置情報を保持しており、
    前記第1特徴量抽出手段は、
    前記3次元位置情報に基づき、前記画像上で人物が映る想定の大きさである想定人物サイズを算出し、
    前記想定人物サイズにより、前記グリッドサイズを決定する人物特徴量抽出システム。
  6. 請求項5に記載の人物特徴量抽出システムにおいて、
    前記想定人物サイズは、平均身長による平均人物モデル、もしくは性別および年齢ごとの平均的な人物モデルを含む基準人物サイズに基づいて算出される人物特徴量抽出システム。
  7. 請求項4乃至6のいずれか一項に記載の人物特徴量抽出システムにおいて、
    前記第1の特徴量は、色分布情報を有しており、
    前記色分布情報による前記分割画像ごとの特徴量は、前記分割画像内に存在する色から算出した平均色である人物特徴量抽出システム。
  8. 人物の映った画像から第1の特徴量を抽出する第1特徴量抽出手段と、
    前記画像は送信せず、抽出した前記第1の特徴量を送信する特徴量送信手段を有する撮像端末。
  9. 撮像端末から送信された第1の特徴量を受信する特徴量受信手段と、
    前記第1の特徴量に基づき、画像内に存在する人物の位置を特定する人物位置特定手段と、
    前記第1の特徴量と前記人物の位置に基づき、人物ごとの第2の特徴量を抽出する第2特徴量抽出手段を有するサーバ。
  10. 少なくとも1つの撮像端末と、少なくとも1つのサーバを使用し、
    前記撮像端末で、
    人物の映った画像から第1の特徴量を抽出する第1特徴量抽出処理と、
    抽出した前記第1の特徴量を送信する特徴量送信処理を実行し、
    前記サーバで、
    送信された前記第1の特徴量を受信する特徴量受信処理と、
    前記第1の特徴量に基づき、前記画像内に存在する人物の位置を特定する人物位置特定処理と、
    前記第1の特徴量と前記人物の位置に基づき、人物ごとの第2の特徴量を抽出する第2特徴量抽出処理を実行する人物特徴量抽出方法。
JP2013552342A 2012-01-05 2012-12-11 人物特徴量抽出システム、サーバおよび人物特徴量抽出方法 Active JP6187261B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012000388 2012-01-05
JP2012000388 2012-01-05
PCT/JP2012/007913 WO2013102972A1 (ja) 2012-01-05 2012-12-11 人物特徴量抽出システム、撮像端末、サーバおよび人物特徴量抽出方法

Publications (2)

Publication Number Publication Date
JPWO2013102972A1 true JPWO2013102972A1 (ja) 2015-05-11
JP6187261B2 JP6187261B2 (ja) 2017-08-30

Family

ID=48745049

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013552342A Active JP6187261B2 (ja) 2012-01-05 2012-12-11 人物特徴量抽出システム、サーバおよび人物特徴量抽出方法

Country Status (2)

Country Link
JP (1) JP6187261B2 (ja)
WO (1) WO2013102972A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017068627A (ja) * 2015-09-30 2017-04-06 株式会社東芝 画像処理端末及び画像処理サーバ
JP6690090B2 (ja) * 2016-05-10 2020-04-28 富士通株式会社 特徴量比較プログラム、情報処理装置、および特徴量比較方法
JP6598748B2 (ja) 2016-08-26 2019-10-30 任天堂株式会社 情報処理システム、情報処理プログラム、情報処理装置、および情報処理方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007184839A (ja) * 2006-01-10 2007-07-19 Matsushita Electric Ind Co Ltd ドアホン及びドアホンの呼出音制御方法
JP2007264006A (ja) * 2006-03-27 2007-10-11 Seiko Epson Corp 画像観賞システム、画像表示装置、電子式写真立て、データハンドリング装置、画像表示方法、データハンドリング方法、画像表示プログラムおよびデータハンドリングプログラム
JP2007280043A (ja) * 2006-04-06 2007-10-25 Mitsubishi Electric Corp 映像監視検索システム
JP2010238187A (ja) * 2009-03-31 2010-10-21 Sogo Keibi Hosho Co Ltd 警備システムおよび警備方法
JP2011014059A (ja) * 2009-07-06 2011-01-20 Nippon Telegr & Teleph Corp <Ntt> 行動分析システムおよび行動分析方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007184839A (ja) * 2006-01-10 2007-07-19 Matsushita Electric Ind Co Ltd ドアホン及びドアホンの呼出音制御方法
JP2007264006A (ja) * 2006-03-27 2007-10-11 Seiko Epson Corp 画像観賞システム、画像表示装置、電子式写真立て、データハンドリング装置、画像表示方法、データハンドリング方法、画像表示プログラムおよびデータハンドリングプログラム
JP2007280043A (ja) * 2006-04-06 2007-10-25 Mitsubishi Electric Corp 映像監視検索システム
JP2010238187A (ja) * 2009-03-31 2010-10-21 Sogo Keibi Hosho Co Ltd 警備システムおよび警備方法
JP2011014059A (ja) * 2009-07-06 2011-01-20 Nippon Telegr & Teleph Corp <Ntt> 行動分析システムおよび行動分析方法

Also Published As

Publication number Publication date
WO2013102972A1 (ja) 2013-07-11
JP6187261B2 (ja) 2017-08-30

Similar Documents

Publication Publication Date Title
JP7317919B2 (ja) 外観検索のシステムおよび方法
TWI686774B (zh) 人臉活體檢測方法和裝置
US10846554B2 (en) Hash-based appearance search
US8675065B2 (en) Video monitoring system
US9646358B2 (en) Methods for scene based video watermarking and devices thereof
JP6184271B2 (ja) 撮像管理装置、撮像管理システムの制御方法およびプログラム
KR101446143B1 (ko) Cctv 환경에서의 얼굴 인식 기반 보안 관리 시스템 및 방법
US9025868B2 (en) Method and system for image processing to determine a region of interest
Singh et al. Detection and localization of copy-paste forgeries in digital videos
JP6187261B2 (ja) 人物特徴量抽出システム、サーバおよび人物特徴量抽出方法
JP6437217B2 (ja) 画像出力装置、画像管理システム、画像処理方法及びプログラム
KR20140082126A (ko) 색상 히스토그램을 이용한 이미지 분류 시스템 및 방법
CN107516074B (zh) 一种认证识别方法及系统
CA3011713A1 (en) Hash-based appearance search
JP7211373B2 (ja) 動画像解析装置、動画像解析システム、動画像解析方法、及びプログラム
US20190102888A1 (en) Image processing apparatus and method and monitoring system
Wang et al. Content-based image retrieval using H. 264 intra coding features
JP5777389B2 (ja) 画像処理装置、画像処理システム及び画像処理方法
US20190102887A1 (en) Image processing apparatus and method and monitoring system
Kim et al. Face transmission system for MPEG-4 mobile videophone via the wireless Internet
Rui et al. A Fast Detection and Recognition Algorithm for Pedestrian at Night Based on Entropy Weight Fast Support Vector Machine

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151105

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170704

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170717

R150 Certificate of patent or registration of utility model

Ref document number: 6187261

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150