JP5899472B2 - 人物属性推定システム、及び学習用データ生成装置 - Google Patents

人物属性推定システム、及び学習用データ生成装置 Download PDF

Info

Publication number
JP5899472B2
JP5899472B2 JP2012117129A JP2012117129A JP5899472B2 JP 5899472 B2 JP5899472 B2 JP 5899472B2 JP 2012117129 A JP2012117129 A JP 2012117129A JP 2012117129 A JP2012117129 A JP 2012117129A JP 5899472 B2 JP5899472 B2 JP 5899472B2
Authority
JP
Japan
Prior art keywords
image
attribute
person
data
pseudo
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012117129A
Other languages
English (en)
Other versions
JP2013242825A (ja
Inventor
純 西村
純 西村
宏明 由雄
宏明 由雄
伸 山田
伸 山田
隆行 松川
隆行 松川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2012117129A priority Critical patent/JP5899472B2/ja
Priority to CN201380018436.7A priority patent/CN104221054B/zh
Priority to EP13793699.3A priority patent/EP2854105A4/en
Priority to US14/388,857 priority patent/US20150086110A1/en
Priority to PCT/JP2013/003269 priority patent/WO2013175792A1/ja
Publication of JP2013242825A publication Critical patent/JP2013242825A/ja
Application granted granted Critical
Publication of JP5899472B2 publication Critical patent/JP5899472B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/169Holistic features and representations, i.e. based on the facial image taken as a whole
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2132Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on discrimination criteria, e.g. discriminant analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/7715Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/776Validation; Performance evaluation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/50Maintenance of biometric data or enrolment thereof

Description

本発明は、人物の画像から人物の属性(例えば、年齢や性別)を推定する人物属性推定システム、及び学習用データ生成装置に関し、特に、学習により生成される推定モデルを用いて人物の属性を推定する人物属性推定システム、及び学習用データ生成装置に関するものである。
従来、コンビニエンスストア等の店舗において、来店客の客層を分析するために、店舗の入口付近等において来店客を撮影し、その画像から来店客の属性を推定する人物属性推定システムが知られている。かかる人物属性推定システムは、撮影された映像の各フレーム画像から被写体の顔領域を検出して、検出された顔について、年齢、性別等の属性を推定するものであり、予め作成された属性推定のためのモデルが、製造・出荷の時点で記憶されている。
例えば、特許文献1には、オフライントレーニングシステムを構成するコンピュータで、属性が既知である人物の顔画像をそれぞれ含む複数枚のサンプル画像データと、個々の人物の属性とを対応付けた学習サンプルデータを用いて学習を行うことにより、属性識別辞書を作成するとともに、この属性識別辞書を予め格納するコンピュータにおいて、属性識別辞書を参照して、接続されたカメラにより撮影された人物の属性を識別する技術が開示されている。
特開2006−323507号公報
しかしながら、特許文献1のような従来技術においては、学習用のサンプル画像は、属性推定対象となる人物が撮影される環境、すなわち、実際のカメラの設置場所の環境とは異なる環境において撮影されたものであるため、かかるサンプル画像を用いて生成された推定モデルには実際の利用現場の撮影環境が反映されず、したがって、実際の利用に供された際に、精度よく人物の属性を推定することが困難であるという課題があった。
より具体的には、複数の学習用サンプル画像は、例えば、全て同じ照度の下、全て正面から人物の顔を撮影した画像であるのが一般的である。したがって、当該照度と同じ照度の下で、正面から来店客等を撮影するのであれば、これらのサンプル画像をもとに生成された推定モデルに基づいても、精度よく人物の属性を推定することができるのに対し、当該照度とは異なる照度の下、正面以外の方向から来店客等を撮影する場合には、属性推定の精度が低下することがある。
このような精度の低下を防ぐには、店舗等の現場に設置されたカメラにより実際に撮影された画像を学習用サンプル画像として持ち帰り、正解属性データと対応付けた上で改めて推定モデルを生成し直す手法も有効ではある。ところが、かかる手法では、実際の利用現場において、様々な属性の被写体を何人も撮影したり、数千ないし数万というオーダーの大量のサンプル画像の1つ1つに対して、推定モデルを生成するための正解属性データの付与を行うなどの煩雑な作業が必要となる。
本発明は、上記の問題に鑑みてなされたものであり、煩雑な作業を要することなく、属性推定の対象となる人物が撮影される環境に応じて、精度よく人物の属性を推定することができる人物属性推定システム、及び学習用データ生成装置を提供することを目的とする。
本発明の人物属性推定システムは、属性推定対象人物を撮影して画像を生成するカメラと、前記カメラが生成した画像に写っている人物の属性を、推定モデルを用いて推定する属性推定部と、前記カメラによる前記属性推定対象人物の撮影環境を示す、撮影環境データを取得する撮影環境データ取得部と、人物画像である標準画像を取得する標準画像取得部と、前記撮影環境データに応じて前記標準画像のデータを加工することにより、前記標準画像に前記撮影環境を反映させた疑似現場画像を生成する疑似現場画像生成部と、前記疑似現場画像を用いて前記推定モデルの学習を行なう学習部とを備えた構成を有している。
この構成によれば、どのような撮影環境の下で属性推定対象となる人物が撮影されるかを示す撮影環境データと、人物画像である標準画像とをもとに、実際に人物を現場にて撮影したかのような疑似現場画像が生成され、この疑似現場画像を用いて推定モデルの学習が行われるので、カメラの利用現場の状況やカメラの状態等の撮影環境を反映した、精度の良い属性推定のためのモデルを生成して利用することができる。
また、上記の人物属性推定システムにおいて、前記学習部は、前記カメラによる前記属性推定対象人物の撮影環境において、前記カメラで前記疑似現場画像が現出した被写体を撮影することにより得られた疑似現場画像撮影画像を学習用画像データとして用いて前記推定モデルの学習を行うものであってよい。
この構成によれば、標準画像をもとに生成された疑似現場画像が現出した被写体を、属性推定対象の人物の撮影を行う利用現場又はそれを想定した環境において撮影することで、この撮影画像が、属性推定モデル生成のための学習用サンプル画像として用いられるので、カメラノイズ等、実際の撮影環境をさらによく反映した、精度の良い属性推定のためのモデルを生成して利用することができる。
また、上記の人物属性推定システムにおいて、前記学習部は、前記疑似現場画像生成部にて生成された前記疑似現場画像を学習用画像データとして用いて前記推定モデルの学習を行なうものであってよい。
この構成によれば、標準画像をもとに生成された疑似現場画像が属性推定モデル生成のための学習用サンプル画像として用いられるので、実際の撮影環境を反映した、精度の良い属性推定のためのモデルを、簡易に生成して利用することができる。
また、上記の人物属性推定システムにおいて、前記学習部は、前記疑似現場画像の生成に用いられた前記標準画像に対応する属性データを、学習用正解属性データとして用いて前記推定モデルの学習を行うものであってよい。
この構成によれば、標準画像の属性データを、学習用画像データである疑似現場画像又は疑似現場画像撮影画像の正解属性データとして用いて、推定モデルの学習を行うので、学習用画像データと正解属性データとの対応付けを簡易な構成により実現することができ、属性推定モデルの学習を行うことができる。
また、上記の人物属性推定システムは、前記カメラで生成された画像に基づき、前記撮影環境データを算出する撮影環境推定部をさらに備え、前記撮影環境データ取得部は、前記撮影環境推定部で算出された前記撮影環境データを取得するものであってよい。
この構成によれば、実際の撮影画像に基づき算出された撮影環境データが、推定モデルの学習に用いられる疑似現場画像の生成に用いられるので、例えば、利用現場において撮影環境データ算出のための画像を撮影することで、撮影画像から把握される撮影環境を、疑似現場画像及び推定モデルに反映させることができる。
また、上記の人物属性推定システムにおいて、前記撮影環境データは、前記カメラにより前記属性推定対象人物が撮影される場所における照明状態を示すデータを含み、前記疑似現場画像生成部は、前記照明状態を示すデータに応じて、前記標準画像を変換することにより、前記疑似現場画像を生成してよい。
この構成によれば、実際の利用現場の照明状態に応じて標準画像を変換し、疑似現場画像が生成されるので、属性推定の精度に影響を与える要因である、利用現場の照明状態を反映した属性推定モデルを生成し、利用することができる。
また、上記の人物属性推定システムにおいて、前記属性推定部は、前記カメラが生成した画像に写っている人物の属性を、前記画像中の顔領域の部分画像に基づき推定するものであり、前記撮影環境データは、前記属性推定対象人物が、前記カメラにより撮影される場合の顔の向きに関するデータを含み、前記標準画像は、人物の顔を含む画像であって、前記疑似現場画像生成部は、前記顔の向きに関するデータに応じて、前記標準画像の顔の向きを変換することにより、前記疑似現場画像を生成してよい。
この構成によれば、属性推定対象となる人物の顔向きとして予想される、撮影環境データとしての顔の向きに関するデータに応じて標準画像を変換し、疑似現場画像が生成されるので、撮影画像の人物の顔領域に着目して行う属性推定に適した推定モデルを生成し、利用することができる。
また、上記の人物属性推定システムにおいて、前記撮影環境データは、前記カメラにより生成される画像内の1つ以上の代表的な人物検出領域ごとの撮影環境データであってよい。
この構成によれば、代表的な人物検出領域、すなわち、撮影画像内で属性推定対象人物の検出が予想される部分領域についての撮影環境データを用いて疑似現場画像が生成されるので、実際の属性推定に適した形で撮影環境データを反映させた推定モデルを生成し、利用することができる。
また、上記の人物属性推定システムにおいて、前記疑似現場画像生成部は、前記代表的な人物検出領域ごとの撮影環境データを用いて、前記代表的な人物検出領域ごとの疑似現場画像を生成し、前記学習部は、前記代表的な人物検出領域ごとに、前記推定モデルの学習を行い、前記属性推定部は、前記カメラが生成した画像に写っている人物の検出位置に応じて、前記推定モデルを選択して、前記人物の属性を推定するものであってよい。
この構成によれば、属性推定対象人物の検出が予想される代表的人な物検出領域が複数ある場合、各領域ごとに、撮影環境データの反映が異なりうるところ、代表的な人物検出領域ごとの撮影環境データを用いて、それぞれの疑似現場画像及び推定モデルを生成し、人物属性推定の際には、対象人物がどの代表的な人物検出領域(またはそれに近い位置)に写っているかに応じて、推定モデルを使い分け、より精度よく属性推定を行うことができる。
本発明の学習用データ生成装置は、属性推定対象人物を撮影して画像を生成するカメラと、前記カメラが生成した画像に写っている人物の属性を推定する属性推定部とを備えた人物属性推定システムにおいて使用される、人物の属性推定のための推定モデルの学習に用いる学習用データを生成する学習用データ生成装置であって、前記カメラによる前記属性推定対象人物の撮影環境を示す、撮影環境データを取得する撮影環境データ取得部と、人物画像である標準画像を取得する標準画像取得部と、前記撮影環境データに応じて前記標準画像のデータを加工することにより、前記標準画像に前記撮影環境を反映させた疑似現場画像を生成する疑似現場画像生成部とを備え、前記疑似現場画像、又は前記カメラにより前記属性推定対象の人物が撮影される環境において前記カメラで前記疑似現場画像が現出した被写体を撮影することにより得られた疑似現場画像撮影画像を用いて前記学習用データを生成する構成を有している。
この構成によれば、どのような撮影環境の下で属性推定対象となる人物が撮影されるかを示す撮影環境データと、標準画像とをもとに、実際に人物を現場にて撮影したかのような疑似現場画像が生成され、この疑似現場画像又は疑似現場画像を利用現場環境の下で撮影した疑似現場画像撮影画像を用いて、属性推定モデルの学習用の画像データが生成されるので、カメラの利用現場の状況やカメラの状態等を反映した、精度の良いモデルの生成のための学習用データを生成することができる。
また、上記の学習用データ生成装置において、前記学習用データは、学習用画像データである前記疑似現場画像又は前記疑似現場画像撮影画像と、学習用正解属性データであって、前記疑似現場画像の生成に用いられた前記標準画像に対応する属性データとを含むものであってよい。
この構成によれば、疑似現場画像又は疑似現場画像撮影画像を学習用画像データとして、疑似現場画像の生成に用いられた標準画像に対応する属性データが学習用正解データとなるので、簡易に学習用データを生成することができる。
本発明によれば、撮影環境データに応じて標準画像のデータを加工することにより疑似現場画像が生成され、この疑似現場画像を用いて、属性推定のための推定モデルの学習による生成が行われるので、実際の撮影環境に応じた、精度の良い属性推定が可能となる。
本発明の第1の実施の形態における人物属性推定システムの構成を示すブロック図 本発明の第1の実施の形態における人物属性システムの動作フロー図 (a)本発明の第1の実施の形態におけるカメラの設置状況の一例を示す図 (b)本発明の第1の実施の形態におけるカメラで撮影された画像の一例を示す図 (a)本発明の第1の実施の形態における撮影画像の顔向き角度のデータの分布の一例を示す図 (b)本発明の第1の実施の形態における撮影画像の輝度コントラストのデータの分布の一例を示す図 (a)本発明の第1の実施の形態における標準画像の一例を示す図 (b)本発明の第1の実施の形態における標準画像の一例を示す図 (c)本発明の第1の実施の形態における疑似現場画像の一例を示す図 (d)本発明の第1の実施の形態における疑似現場画像の一例を示す図 本発明の第1の実施の形態における属性推定部の構成を示すブロック図 本発明の第1の実施の形態における属性推定のための特徴量の変換を説明する図 本発明の第1の実施の形態における推定モデル再学習部の動作フロー図 本発明の第1の実施の形態における撮影環境推定部の構成を示すブロック図 本発明の第2の実施の形態における人物属性推定システムの構成を示すブロック図 本発明の第2の実施の形態における疑似現場画像撮影画像と正解属性データの関連付けの一例を説明する図 本発明の第2の実施の形態における撮影環境推定部の構成を示すブロック図
以下、本発明を実施するための形態について、図面を参照しながら説明する。本発明は、人物の属性を推定する人物属性推定システム、及び学習用データ生成装置に関するが、以下の実施の形態では、人物の属性として、人物の年齢(年代)及び性別を推定する場合について説明する。
[第1の実施の形態]
図1は、本発明の第1の実施の形態の人物属性推定システムの構成を示す図である。人物属性推定システム1は、カメラ10、再学習制御システム20、人物属性推定装置30を備えている。カメラ10、再学習制御システム20、人物属性推定装置30は、それぞれ、図示しない通信ユニットを備え、相互に接続される。なお、再学習制御システム20は、ネットワーク上のサーバないしサーバ群により実現され、人物属性推定装置30とともに、クラウド・コンピューティングシステムを形成する。
カメラ10は、属性推定の対象となる人物を撮影する。人物属性推定装置30は、カメラ10で撮影された人物の属性を、顔領域の画像に基づいて推定する。再学習制御システム20は、人物属性推定装置30が、カメラ10で撮影された人物の属性を推定する際に用いられる推定モデルを、再学習により更新して人物属性推定装置30に提供する。
カメラ10は、年代及び性別を推定したい不特定多数の人物(属性推定対象の人物)が通る場所を撮影するように設置される。例えば、店舗の入口から入ってくる客の顔を撮影するように店舗内の高所に設置される。したがって、属性推定対象となる人物の顔は、カメラ10により正面から撮影されるとは限らないし、撮影時の照明や自然光の状態(光源の方向、照度等)などの照明状態も、カメラ10が設置される場所や、撮影時刻等により変わりうる。すなわち、カメラ10が設置される利用現場が異なれば、属性推定の対象となる人物の画像が、どのような環境で撮影されるかも異なることになる。
カメラ10は、画像生成部11と、撮影環境推定部12とを備える。このうち、画像生成部11は、映像として、連続的なフレーム画像を生成する。あるいは、所定の時間間隔での撮影のたびに、静止画像を生成するものであってもよい。このように生成された画像は、実際に人物属性の推定を行う場合には、人物属性推定装置30に提供され、人物属性推定のためのモデルを生成する際には、撮影環境推定部12に出力される。
撮影環境推定部12は、カメラ10による人物の撮影環境を推定し、撮影環境を示すデータを算出する。ここで、撮影環境とは、撮影される人物の顔の向き、撮影された顔画像の輝度コントラスト等、生成される画像の内容に影響を与えうる、カメラの設置位置(カメラの設置高さ、レンズ方向等)や、撮影時のカメラ周辺の照明や自然光の状態(光源の方向、照度等)等の、カメラ10自体ないしカメラ10周辺の状態をいう。このような撮影環境は、撮影された画像に反映されうるので、本実施の形態では、撮影された画像をもとに、撮影環境を推定させるデータを算出する。撮影環境を推定させるデータとは、本実施の形態においては、具体的には、生成された画像における人物の顔向き角度(上下・左右)分布と、顔領域における輝度コントラスト分布についてのデータである。算出されたデータは、撮影環境データとして、再学習制御システム20に提供される。
再学習制御システム20は、撮影環境データ記憶部21、標準画像記憶部22、疑似現場画像生成部23、再学習用データ記憶部24、推定モデル再学習部25を備える。これらすべてを一つのサーバが備えてもよいし、ネットワーク上で接続される複数のサーバが分担して備えてもよい。
撮影環境データ記憶部21は、カメラ10の撮影環境推定部にて算出された、撮影環境を示すデータである、撮影環境データを記憶する。標準画像記憶部22には、複数の顔画像が、それぞれ、正解値としての属性値と対応付けて記憶されている。本実施の形態では、推定対象となる属性値は、年代と性別であるから、正解値として対応付けられる属性値も、年代(年齢)及び性別を含む。標準画像記憶部22に記憶される標準画像は、異なる利用現場に設置されるカメラ10に共通に提供され得る。したがって、標準画像として記憶される複数の顔画像は、カメラ10の設置場所以外の実験室等で、人物の正面から撮影されたものであってよい。
疑似現場画像生成部23は、撮影環境データ記憶部21及び標準画像記憶部22からデータを読み出し、撮影環境データを用いて、標準画像データから疑似現場画像を生成する。疑似現場画像とは、標準画像にカメラ10の撮影環境を反映させて生成される画像である。このようにして生成される画像は、利用現場、すなわち、カメラ10が実際に設置される場所において取得されるであろう仮想的な撮影画像とみることができる点で、「疑似現場画像」と呼ぶことができる。生成された疑似現場画像は、再学習用データ記憶部24に出力される。
再学習用データ記憶部24には、生成された疑似現場画像と、当該疑似現場画像の生成に用いられた標準画像データに対応付けられた正解値としての属性値とが対応付けられて、再学習用データとして格納されている。また、本実施の形態では、再学習により更新されることとなる、属性推定装置30が予め備える推定モデルに関するデータも格納されている。再学習用データ記憶部24に記憶されるこれらのデータは、推定モデル再学習部25に出力される。
推定モデル再学習部25は、再学習用データを用いて、推定モデルの再学習を行う。再学習により更新された推定モデルは、人物属性推定装置30に提供される。
人物属性推定装置30は、推定モデル記憶部31、属性推定部32を備える。推定モデル記憶部31には、人物属性推定装置30の製造・出荷の時点において、標準画像記憶部22に記憶されるような、汎用的な正解付き顔画像による学習により生成された初期推定モデルが格納されている。推定モデル記憶部31は、推定モデル再学習部25から取得した新たな推定モデルを、属性推定部32に出力する。
属性推定部32は、カメラ10により撮影された画像を取得し、推定モデルを用いて、当該画像に含まれる人物の年代、性別を推定する。
次に、人物属性推定システム1の動作を、図2から図6を用いて説明する。
まず、実際の利用現場、すなわち、属性推定対象となる人物の撮影場所において、カメラ10により撮影された人物の顔を含む画像を取得する(ステップS21)。ステップS21における人物撮影画像取得の目的は、カメラ10の撮影環境に関する情報を得ることである。したがって、カメラ10を実際の利用現場に設置し、あるいは、実際の利用現場を想定した場所において撮影が行われることが好ましい。
カメラ10が、映像として、連続的なフレーム画像を生成する場合、同一人物の顔の位置が徐々に変化する複数の連続的なフレーム画像が生成されるが、本実施の形態では、その中から、代表的な顔検出領域に顔が写っているフレーム画像が選択される。代表的な顔検出領域とは、撮影された画像において属性推定対象人物の顔領域の検出が予想される部分領域のことであり、具体的には、カメラ10により生成されたフレーム画像において、人物の顔領域が検出される回数が多かった1以上の部分領域のことをいう。画像中、どの位置に人物の顔が写るかによって、撮影環境の反映のされ方は異なりうるところ、実際の利用の際に最も多く顔が検出されると予想される部分領域における撮影環境を、後述のように推定モデルに反映することで、より精度よく属性推定を行うことが可能となる。
例えば、図3(a)に示すように、店舗の入口D付近にカメラ10を設置して、入口D付近を撮影すると、図3(b)のような画像が得られる。この位置において、Dから店舗に入って来る来店客を撮影する場合、図3(b)内の領域A1、A2で、最も多く来店客の顔が写ることが分かれば、これらの領域が代表的な顔検出領域となり、領域A1に来店客の顔が写っているフレーム画像と、領域A2に来店客の顔が写っているフレーム画像が選択されることになる。領域A1と領域A2における顔の向き、照明状況等は異なりうるが、これらの領域における顔の向き、照明状況等がほぼ同じであれば、いずれかの領域に顔を含むフレームのみが選択されてもよい。
次に、ステップS21で撮影された画像を用いて、カメラ10の撮影環境を推定させるデータとしての、画像における人物の顔向き角度(上下・左右)と、顔領域における輝度コントラストが算出される(ステップS22)。本実施の形態では、これらの撮影環境データが分布により表現されるため、ステップS22においては、多くの撮影画像を用いることが好ましい。なお、ステップS22における撮影環境データの算出処理については、後に詳述する。
図4(a)は、ステップS22で算出された、顔向き角度データの分布の一例を模式的にグラフ化したもの、図4(b)は、顔領域における輝度コントラストデータの分布の一例を模式的にグラフ化したものである。図4(a)の例では、図3(b)の領域A1における顔の向きは、下向き10度、右向き20度を中心として分布しているのに対し、図3(b)の領域A2における顔の向きは、下向き20度、左右0度を中心として分布していることが分かる。一方、図4(b)の例では、領域A1におけるコントラストは、60%が最も多いのに対し、領域A2におけるコントラストは、20%が最も多いことが分かる。
次に、ステップS22で求めた撮影環境データと、標準画像とを用いて、疑似現場画像が生成される(ステップS23)。疑似現場画像の生成は、言い換えれば、カメラ10の撮影環境を考慮した、標準画像の変換等の加工である。標準画像の加工に、カメラ10の撮影環境データが用いられるために、生成された疑似現場画像は、標準画像の被写体である人物を利用現場にて直接撮影して得た画像として利用することができるという意味で、疑似的な現場画像ということができる。疑似現場画像の生成は、ステップS22において、撮影環境データの分布を求めたことにあわせて、本実施の形態では、データの分布に割合に応じて行われる。
図5(a)は、標準画像記憶部22に記憶される、標準画像の例である。標準画像は、正面から撮影された顔画像である。各画像の被写体である人物の年齢、性別は既知であり、図5(a)、(b)に示すように、各画像に、それらの属性値が正解値として付与されている。この標準画像の顔の向きとコントラストを、ステップS22で算出した撮影環境データに基づき変換する。図4(a)の例では、領域A2における顔の向きは、下向き20度、右向き0度を中心として分布していた。そこで、標準画像の顔の向きを下向き20度、右向き0度及びその付近の角度に変換した画像が、図4(a)の分布割合にしたがって、領域A2における疑似現場画像として生成される。領域A1についても同様である。
標準画像の顔の向きの変換は、AAM(Active Appearance Model)や、3D Morphable Model等の種々の方法により行うことが可能である。これらの手法によるモデルを構築する際、上下方向及び左右方向の顔向き変化に対応するパラメータを設定することで、任意の角度に顔の向きを変換することができる。
このように、ステップS23では、標準画像の顔向きが3次元的に変換されて疑似現場画像が生成される。
さらに、図4(b)の例では、領域A2におけるコントラストは、20%を中心として分布していた。そこで、標準画像のコントラストが20%、及びその付近の値となるように、図4(b)の分布割合にしたがって、変換画像が生成される。領域A1についても同様である。このように標準画像を変換することにより生成された疑似現場画像の例を図5(c)、(d)に示す。図5(c)は、図5(a)の標準画像の変換により、領域A1における疑似現場画像として生成されたもの、図5(d)は、図5(b)の標準画像の変換により領域A2における疑似現場画像として生成されたものである。
続いて、属性推定のための推定モデルの再学習が行われる(ステップS24)。本実施の形態においては、属性推定装置30に、予め推定モデルが記憶されており、再学習により、初期推定モデルが更新され、新たな推定モデルが生成される。ステップS23で生成された疑似現場画像は、この推定モデルの再学習に用いられる。より具体的には、生成された疑似現場画像に、正解属性値が付与され、この正解付き疑似現場画像が学習のためのサンプルとして入力される。なお、推定モデルの再学習を行うための処理の流れについては、後に詳述する。
疑似現場画像は、各標準画像を変換して生成されるので、疑似現場画像に対応付けられる正解属性値も、元の標準画像に付されたものが用いられる。学習用の新たなサンプル画像の追加に伴い、通常は、その正解属性値を求めることと、それを新たなサンプル画像に対応付けることが必要となる。これに対し、本実施の形態では、新たなサンプル画像である疑似現場画像の被写体は、標準画像の被写体と同一であるため、標準画像の正解属性値をそのまま対応付ければ足り、煩雑な作業は必要ない。
図5の例では、図5(c)の疑似現場画像は、図5(a)の標準画像から、図5(d)の疑似現場画像は、図5(b)の標準画像からそれぞれ生成されたものである。したがって、図5(c)の疑似現場画像と、性別が女、かつ、年代が40代という属性値が、また、図5(d)の疑似現場画像と、性別が男、かつ、年代が30代という属性値がそれぞれ組み合わされ、再学習用データとして用いられる。この例では、撮影画像内の領域A1、A2について、それぞれ異なる疑似現場画像が生成されるため、推定モデルの再学習も、このような部分領域ごとに行い、部分領域ごとに異なる推定モデルが生成されてもよい。
そして、このような再学習により得られた推定モデルを用いて、属性推定対象人物の属性推定が行われる(ステップS25)。人物の属性の推定については、後に詳述するが、概略、以下の処理が行われる。すなわち、まず、カメラ10で撮影された来店客の画像から、顔検出を行い、その顔画像から、特徴量の抽出を行う。この特徴量から、ステップS24にて学習により更新した推定モデルを用いて、当該顔画像の人物の属性である、年代、性別を推定する。
図5の例において、撮影画像内の複数の部分領域において、異なる推定モデルが生成された場合、カメラ10により撮影された人物の属性推定も、当該人物の顔が撮影画像においてどこに位置するかに応じて、異なる推定モデルを使い分けて行われてもよい。例えば、カメラ10により撮影された画像中、属性推定対象人物の顔が図3(b)の部分領域A1に近い位置にて検出された場合、領域A1について生成された推定モデルを用いて属性推定が行われてよい。また、部分領域A1に近い位置、A2に近い位置の両方で連続的に人物の顔が検出された場合、より鮮明に人物の顔が写っている方の部分領域の推定モデルを用いて、属性推定が行われるようにしてもよい。
このように、本実施の形態においては、カメラ10の利用現場環境、すなわち、カメラ10が実際に設置される場所及びカメラ10の実際の設置状況を示すデータを用いて、汎用的な顔画像である標準画像が、あたかも、カメラ10の実際の設置場所にて撮影されたものであるかのように変換される。そして、この疑似現場画像を用いて推定モデルに再学習が施され、更新された推定モデルに基づき、属性推定が行われる。したがって、煩雑な作業なしに、利用現場の撮影環境を反映した、属性推定のための推定モデルを生成することができる。
(属性推定部の詳細な構成)
次に、本実施の形態における属性推定部32の詳細な構成について、図面を参照して説明する。図6は、属性推定部32の構成を示すブロック図である。図6に示すように、属性推定部32は、撮影画像取得部321、顔検出部322、顔特徴抽出部323、属性算出部324を備える。
撮影画像取得部321は、撮影により、カメラ10の画像生成部11にて生成された画像を取得し、顔検出部322に出力する。顔検出部322は、撮影画像中の顔領域を検出し、顔領域の部分画像を顔特徴抽出部323に出力する。顔領域の検出は、種々の手法を用いて行うことが可能であり、例えば、Haar−like特徴に基づくAdaBoost法によることができる。なお、前述のように、本実施の形態では、代表的な顔検出領域における撮影環境データが算出され、推定モデルの生成が行われる。したがって、顔検出部322は、代表的な顔検出領域ないしその付近の位置で顔が検出された画像の、顔領域部分画像を顔特徴抽出部323に出力してもよい。
顔特徴抽出部323は、顔領域の部分画像から、ガボール特徴等、既存の顔特徴量を抽出し、属性算出部324に出力する。本実施の形態では、顔特徴量の抽出の精度向上のため、取得した顔領域画像から、目、鼻、などの顔部品を検出し、これらの顔部品を基準として顔の大きさ等について正規化を行ったうえで、顔特徴量の抽出を行う。
属性算出部324は、顔特徴抽出部323から取得した顔特徴量から、推定モデル記憶部31に記憶される推定モデルを用いて、顔領域の部分画像の属性を求める。本実施の形態では、線形判別法に従い、取得した一般的な顔特徴量を、属性推定のための特徴量空間に射影した上で、属性推定関数を用いて、属性値を算出する。つまり、本実施の形態において、推定モデルとは、顔特徴抽出部323から取得した顔特徴量を、属性推定のための特徴量空間に射影する行列と、射影後の特徴量空間で属性推定を行うための属性推定関数のことを指す。
線形判別法では、属性推定のための特徴量空間への射影を、以下の式(1)によって行う。
Figure 0005899472
ここで、xは、射影前の顔特徴量ベクトル、yは射影後の特徴量ベクトルである。また、Wは、写像行列であり、以下では、特徴空間射影行列と呼ぶ。
図7は、特徴空間射影行列Wにより、既存の手法により抽出された顔特徴量xが、属性推定のための特徴量yに変換された例を示す図である。線形判別法により、変換後の顔特徴量の次元は、変換前よりも小さくなっているが、推定対象属性(年代、性別)をより適切に表現する特徴量となる。
一方、属性推定関数は、射影後の特徴量ベクトルyを入力値とする関数であり、以下の式(2)により求められる。
Figure 0005899472
ここで、
Figure 0005899472
であり、αは、重み係数、Iは単位行列である。tは、各正解属性値tiを要素とするベクトルあり、各tiは、例えば、年代であれば、20(代)、30(代)等、性別なら、−1(男性)、+1(女性)等の値をとる。ベクトルtは、サンプルがk個ある場合、以下のように記述することができる。
Figure 0005899472
また、
Figure 0005899472
であり、dは射影後の特徴量ベクトルyの次元数である。
式(2)に射影後の特徴量ベクトルを入力すると、その顔画像の人物の属性値を表すスカラー量が出力される。
(推定モデルの再学習の処理の流れ)
次に、本実施の形態における、推定モデル再学習部25における推定モデル再学習の処理の流れを、図8のフロー図を用いて処理の流れを説明する。
まず、再学習用データが取得される(ステップS81)。再学習用データは、上述のように、疑似現場画像とそれに対応する正解属性値データ、及び、再学習により更新されるべき初期推定モデルに関するデータである。次に、ステップS81で取得された各疑似現場画像の顔特徴量を抽出する(ステップS82)。ここでの顔特徴量は、ガボール特徴量等の既存の顔特徴量でよい。
そして、ステップS82で抽出された、疑似現場画像の顔特徴量と、ステップS81で取得された各疑似現場画像に対応する正解属性値及び初期推定モデルに関するデータとを用いて、特徴空間射影行列Wの再学習による更新が行われる(ステップS83)。
本実施の形態の属性推定において用いられる線形判別法では、特徴空間射影行列Wは、グループ間分散の、グループ内分散に対する比が最大となるような特徴空間を生成する行列として定義される。したがって、ステップS83における特徴空間射影行列Wの再学習も、グループ間分散の、グループ内分散に対する比がより大きくなるよう、以下の式(6)を解くことにより行われる。
Figure 0005899472
ここで、ΣBは、属性グループ間の共分散行列、ΣWは、属性グループ内の共分散行列である。属性グループ間共分散行列ΣBは、ある属性について、異なる属性値のグループ同士の相関傾向を示す指標として機能する。これに対して、属性グループ内共分散行列ΣWは、ある属性について、同じ属性値のグループ内において、個々のデータの相関傾向を示す指標として機能する。例えば、属性として性別に着目すると、属性グループ間共分散行列ΣBが、男性のグループと女性のグループとがどのくらい離れているかを示すのに対し、属性グループ内共分散行列ΣWは、男性/女性それぞれのグループ内で、個々の特徴量データのばらつきの程度がどのくらいであるかを示す。
式(6)における属性グループ間共分散行列ΣB´、属性グループ内共分散行列ΣW´は、ステップS81で取得した正解属性値とステップS82で抽出した疑似現場画像の顔特徴量データを用いて更新(再計算)された、属性グループ間共分散行列ΣB、属性グループ内共分散行列ΣWである。このように、ステップS83においては、2つの共分散行列がまず更新される。
属性グループ間共分散行列ΣB、属性グループ内共分散行列ΣWは、それぞれ、以下の式(7)、式(8)により、ΣB´、ΣW´に更新される。
Figure 0005899472
Figure 0005899472
ここで、ΣB_retrain及びΣW_retrainは、再学習用の疑似現場画像についての、属性グループ間共分散行列と、属性グループ内共分散行列であり、ステップS81で取得した正解属性値とステップS82で抽出した疑似現場画像の顔特徴量データを用いて算出される。
また、ΣB_ini及びΣW_iniは、初期共分散行列であり、疑似現場画像を用いた再学習前の属性グループ間共分散行列と、属性グループ内共分散行列である。ステップS81で取得した、初期推定モデルに関するデータとは、この初期共分散行列のことである。本実施の形態において、これらの初期共分散行列は、例えば、疑似現場画像を生成するのに用いられた正解属性値付きの標準画像を用いて、予め作成されていてよい。また、λは0から1の間の値をとる重み係数である。例えば、再学習用のデータが十分蓄積されていれば、λをより大きく設定して、共分散行列、ひいては、特徴空間射影行列Wに、疑似現場画像の特徴量をより反映させることができる。
属性グループ間共分散行列ΣB、属性グループ内共分散行列ΣWは、それぞれ、以下の式、式(9)、式(10)から求められる。
Figure 0005899472
Figure 0005899472
このうち、Cは、属性グループ数である。本実施の形態においては、性別についてはC=2、年代についてはC=10(0から10歳、10から20歳、…90から100歳)とする。また、njは属性グループ番号jのサンプル数、μjは属性グループjの平均顔特徴量、μは全サンプルの平均顔特徴量、xiは個々の画像の顔特徴量を、それぞれ示す。
以上のようにして、特徴空間射影行列Wを再学習により更新したのち、属性推定関数の更新が行われる(ステップS84)。属性推定関数は、上述のように、特徴空間射影後の特徴量yの関数f(y)として記述することができるが、射影前の特徴量ベクトルxと、特徴空間射影行列Wとを用いて、式(11)のように、xの関数f(x)としても記述することができる。
Figure 0005899472
したがって、特徴空間射影行列Wの更新に伴い、属性推定関数f(x)も更新されることとなる。
以上のように、本実施の形態では、属性推定のためのモデルである特徴空間射影行列W及び属性推定関数f(x)が、疑似現場画像の特徴量と、正解属性値を用いた再学習により更新される。
(撮影環境推定部の詳細な構成)
次に、本実施の形態における撮影環境推定部12の、詳細な構成について、図面を参照しながら説明する。図9は、撮影環境推定部12の構成を示すブロック図である。図9に示すように、撮影環境推定部12は、入力画像取得部121、顔検出部122、顔向き推定部123、照明状態推定部124、統計部125を備える。
入力画像取得部121は、撮影された画像、より具体的には、カメラ10の画像生成部11で生成されたフレーム画像を取得し、顔検出部122に出力する。顔検出部122は、取得された画像内の顔領域を検出し、取得された画像のうち、顔領域の部分画像を、画像内の位置情報とともに、顔向き推定部123、照明状態推定部124、統計部125に出力する。
顔向き推定部123は、顔検出部122から取得した部分画像に含まれる顔の向きを推定し、顔向きに関するデータを統計部125に出力する。顔向き角度の推定は、種々の手法により行うことが可能である。例えば、学習用サンプル顔画像の特徴量と、顔検出部122から取得した顔画像の特徴量との距離に基づき、k近傍法を用いて推定することができる。
照明状態変動部124は、取得した顔領域の部分画像における輝度コントラストを算出し、統計部125に出力する。輝度コントラストCは、以下の式(12)により算出される。
Figure 0005899472
式(12)において、Iminは、顔領域の最小輝度値、Imaxは、顔領域の最大輝度値である。
統計部125は、入力画像である各フレーム画像内の顔検出領域についてクラスタリングを行い、最も多く顔が検出される画像内の領域を、代表的な顔検出領域として特定する。また、統計部125は、顔向き推定部123から取得したデータを用いて、代表的な顔検出領域における顔の向きの分布を算出する。統計部125は、さらに、照明状態推定部124から取得したデータを用いて、代表的な顔検出領域における輝度コントラストの分布を算出する。統計部125は、顔向き分布データと、輝度コントラストデータを、撮影環境データ記憶部21に出力する。
このように、撮影環境推定部12は、撮影によりカメラ10内で生成された画像をもとに、カメラ10による撮影環境に関するデータを算出するための構成を備えている。
以上のように、本発明の第1の実施の形態の人物属性推定システムによれば、標準画像をカメラ10の撮影環境を示すデータを用いて変換した画像である疑似現場画像を再学習用のサンプル画像とし、標準画像に対応付けられた属性データを、疑似現場画像の正解属性データとして用いて、属性推定のためのモデルの再学習を行うので、煩雑な作業を要することなく、カメラ10の実際の利用現場の撮影環境を反映したモデルを再構築することができ、年代、性別といった人物の属性の推定の精度を向上できる。
なお、上記の実施形態では、撮影環境データとして、顔向きと照明状態に関するデータを用いたが、このほかに、イメージセンサノイズやJPEG圧縮等によるブロック歪み、ピントの合い方等、カメラ自体の性質又はカメラの設定に起因する、種々のカメラノイズに関するデータを用いてもよい。カメラノイズに関するデータは、画像生成部10から取得した、利用現場の撮影画像を用いて算出してもよいし、カメラノイズの関するデータが既知であれば、それを入力してもよい。
また、撮影環境データとして、カメラ10周辺の照度の時間的な変動を加味し、時間帯ごとに異なる疑似現場画像と推定モデルを生成し、属性推定の時刻に応じて推定モデルを選択し、人物属性推定を行ってもよい。
[第2の実施形態]
次に、本発明の第2の実施の形態の人物属性推定システムを説明する。第2の実施形態において、標準画像からカメラの利用現場の撮影環境を反映した疑似現場画像を生成する点は、第1の実施形態と同様である。第2の実施形態では、さらに推定精度を向上させるべく、生成された疑似現場画像に、カメラ10の実際の利用現場でのカメラノイズ等を反映させた新たな画像を生成し、これを再学習用の画像データとするための構成を備えている。
図10は、第2の実施の形態の人物属性システムの構成を示す図である。カメラ10と属性推定装置30の構成は、第1の実施の形態と同じである。また、再学習制御システム20において、撮影環境データ記憶部21、標準画像記憶部22、疑似現場画像生成部23、再学習用データ記憶部24、推定モデル再学習部25を備える点も、第1の実施形態と同じである。これに加え、本実施の形態では、再学習制御システム20は、さらに、疑似現場画像記憶部26、疑似現場画像出力部27、疑似現場画像撮影画像取得部28を備える。
疑似現場画像記憶部26は、疑似現場画像生成部22において生成された、疑似現場画像を記憶する。疑似現場画像出力部27は、疑似現場画像記憶部26に格納される疑似現場画像を出力する。疑似現場画像出力部27は、プリンタやタブレットPC等、図示しない所定のユニットに接続され、これらのユニットに対して、疑似現場画像データを出力する。出力された疑似現場画像は、例えば、紙等への印刷や、タブレットPCのディスプレイ上に表示されるなどして、可視化される。
カメラ10の画像生成部11は、疑似現場画像出力部27から出力され、疑似現場画像が現出された被写体(印刷物やディスプレイなど)がカメラ10で撮影された場合、その画像を生成し、再学習制御システム20に出力する。
疑似現場画像撮影画像取得部28は、画像生成部11で生成された、疑似現場画像の撮影画像としての画像を取得し、再学習用データ記憶部24に出力する。すなわち、疑似現場画像撮影画像とは、疑似現場画像が現出した被写体をカメラ10の利用現場において、カメラ10で撮影した画像である。このように、疑似現場画像を利用現場で実際に撮影することで、カメラのノイズや、照明状況を、よりリアルに再現した画像を得ることができる。
再学習用データ記憶部24は、第1の実施の形態と同様、更新対象となる推定モデルに関するデータとして、初期共分散行列データを記憶する。また、再学習用データ記憶部24は、再学習用画像データとして、疑似現場画像撮影画像を記憶し、再学習用正解属性データとして、標準画像に対応付けられた正解属性値を記憶する。
再学習用画像データである疑似現場画像撮影画像と、再学習用正解属性データである標準画像の属性値との関連付けは、種々の方法により実現される。例えば、図11に示すように、疑似現場画像出力部27が、標準画像の正解属性値を用いて、属性値(ここでは属性として性別に着目)ごとに疑似現場画像を並べて出力するとともに、属性が切り替わるところで、顔画像でないことが識別可能なマーカとなるデータを挿入して出力する構成としてもよい。出力された順序で撮影を行うことで、疑似現場画像撮影画像と正解属性値データとの対応付けを、属性値ごとにまとめて簡易に行うことができる。これに代えて、疑似現場画像出力部27が、各疑似現場画像に正解属性値や対応する標準画像のIDを示すバーコードとともに疑似現場画像を出力し、撮影されたバーコードに基づき、疑似現場画像撮影画像に属性値の関連付けを行ってもよい。
推定モデル再学習部25は、再学習用データ記憶部24に記憶されるデータを用いて、属性推定モデルの再学習を行う。つまり、本実施の形態においては、疑似現場画像の代わりに、疑似現場画像撮影画像を用いて、その特徴量を抽出した上、推定モデルの再学習を行う。
図12は、第2の実施の形態における撮影環境推定部12の構成を示す図である。本実施の形態のように、疑似現場画像を実際にカメラ10の利用現場にて撮影する場合、カメラのノイズと、当該利用現場における照明状態は、その疑似現場画像が現出した被写体を撮影した画像から知ることができる。したがって、本実施の形態においては、撮影環境推定部12は、第1の実施の形態における照明状態推定部124を備えていない。
本実施の形態においても、第1の実施の形態におけるのと同様、統計部125は、代表的な顔検出領域を特定する。カメラ10による疑似現場画像の撮影は、統計部125により特定された代表的な顔検出領域に、疑似現場画像の顔がくるような位置に、疑似現場画像の可視化物を提示して行うことが好ましい。
以上のように、第2の実施の形態の属性推定システム1によれば、カメラ10の撮影環境を反映した疑似現場画像を生成し、この疑似現場画像が現出した被写体をカメラ10で撮影した画像を用いて推定モデルの再学習を行うので、カメラ10の撮影環境をより正確に反映した推定モデルを生成することができる。
なお、疑似現場画像から3次元の人物モデルを生成して、これを被写体とし、疑似現場画像撮影画像を生成してもよい。
[その他の変形例]
上記の実施の形態では、カメラ10の生成画像から被写体の顔領域を検出し、被写体の属性を推定する場合について説明したが、顔領域以外の人物の部分領域画像を用いて、属性を推定してもよい。この場合、上記の実施形態における代表的な顔検出領域に替えて、代表的な人物検出領域における撮影環境データを取得して、疑似現場画像を生成し、推定モデルを生成してもよい。さらに、推定対象となる属性は、年齢(年代)又は性別のみであってもよいし、年齢、性別に限られず、人種や社会的地位ないし区分(高校生、社会人、老人等)であってもよい。
また、上記の実施の形態では、撮影環境データとして、顔の向きに関するデータ及び照明状態に関するデータ、カメラノイズを例に挙げて説明したが、撮影環境データは、撮影画像に影響を与えうる他の要因に関するものであってもよいし、上記の実施の形態において、いくつかの撮影環境データを任意に組み合わせて、又は、いずれか1つの撮影環境データのみを用いて、疑似現場画像を生成してもよい。
また、上記の実施の形態では、人物の画像である標準画像を加工することで疑似現場画像を生成する場合について説明したが、例えば、ステレオカメラにより人物を撮影し、人物の3次元画像を生成するためのポリゴンデータのような、人物モデルデータを加工して疑似現場画像を生成してもよい。
また、上記の実施の形態では、撮影環境推定部11をカメラ10が備え、推定モデル記憶部31を属性推定装置30が備える場合について説明したが、撮影環境推定部及び/または推定モデル記憶部とを再学習制御システム20が備えていてもよい。また、再学習制御サーバの構成を、カメラ10ないし属性推定装置30が備えていてもよいし、カメラ10が属性推定装置30の構成を備えていてもよい。さらに、カメラ10、再学習制御サーバ20、属性推定装置30の動作が全て、1つの装置により実現されてもよい。
また、上記の実施の形態では、属性推定装置30が、初期推定モデルを備え、初期推定モデルが、疑似現場画像を用いた再学習により更新される場合について説明したが、属性推定装置30は、初期推定モデルを備えていなくてもよく、疑似現場画像を用いた学習により生成された推定モデルを初めから属性推定に用いてもよい。また、推定モデルの再学習は、カメラの設置場所の変更や、標準画像の追加等に伴い、繰り返されてよい。
また、上記の実施の形態では、撮影環境データを、カメラ10により生成された撮影画像から算出する場合について説明したが、撮影環境データは、ユーザにより手動で入力されてもよいし、カメラ10の利用現場に設置されたセンサ等から取得されてもよい。例えば、カメラ10が、店舗に入って来る客の顔をその正面から左に30度、上に20度傾いた方向から撮影するように設置されている場合には、撮影画像において、来店客の顔は右に約30度、下に約20度向いた状態で撮影されることになる。撮影される顔向きは、人物の身長によって変わりうるので、各年代の平均身長をこれに加味してもよい。このように、撮影環境を直接的に示すデータを得ることができる場合、ステップS1における撮影画像の取得ないしその前提となるカメラ10による撮影はされなくてもよい。
また、上記の実施の形態では、線形判別法に従い、属性推定する場合について説明したが、カーネル回帰やガウス混合分布モデルなどを用いて属性を推定してもよい。上記の実施の形態においては、初期推定モデルに関するデータが、予め再学習用データ記憶部に記憶されていたが、推定モデルの再学習を行う際に、推定モデル記憶部から初期推定モデル又はそれに関するデータを取得して再学習が行われてもよい。
本発明の属性推定システムは、実際の撮影環境に応じて、精度の良い属性推定を行うことができるという効果を有し、学習により生成される推定モデルを用いて人物の属性を推定する人物属性推定システム等として有用である。
1 人物属性推定システム
10 カメラ
11 画像生成部
12 撮影環境推定部
121 入力画像取得部
122 顔検出部
123 顔向き推定部
124 照明状態推定部
125 統計部
20 再学習制御システム
21 撮影環境データ記憶部
22 標準画像記憶部
23 疑似現場画像生成部
24 再学習用データ記憶部
25 推定モデル再学習部
26 疑似現場画像記憶部
27 疑似現場画像出力部
28 疑似現場画像撮影画像取得部
30 人物属性推定装置
31 推定モデル記憶部
32 属性推定部
321 撮影画像取得部
322 顔検出部
323 顔特徴抽出部
324 属性算出部

Claims (11)

  1. 属性推定対象人物を撮影して画像を生成するカメラと、
    前記カメラが生成した画像に写っている人物の属性を、推定モデルを用いて推定する属性推定部と、
    前記カメラによる前記属性推定対象人物の撮影環境を示す、撮影環境データを取得する撮影環境データ取得部と、
    人物画像である標準画像を取得する標準画像取得部と、
    前記撮影環境データに応じて前記標準画像のデータを加工することにより、前記標準画像に前記撮影環境を反映させた疑似現場画像を生成する疑似現場画像生成部と、
    前記疑似現場画像を用いて前記推定モデルの学習を行なう学習部と、
    を備えたことを特徴とする人物属性推定システム。
  2. 前記学習部は、前記カメラによる前記属性推定対象人物の撮影環境において、前記カメラで前記疑似現場画像が現出した被写体を撮影することにより得られた疑似現場画像撮影画像を学習用画像データとして用いて前記推定モデルの学習を行う
    ことを特徴とする請求項1に記載の人物属性推定システム。
  3. 前記学習部は、前記疑似現場画像生成部にて生成された前記疑似現場画像を学習用画像データとして用いて前記推定モデルの学習を行なう
    ことを特徴とする請求項1に記載の人物属性推定システム。
  4. 前記標準画像には、被写体である人物の属性を示す属性データが対応付けられており、
    前記学習部は、前記疑似現場画像の生成に用いられた前記標準画像に対応する属性データを、学習用正解属性データとして用いて前記推定モデルの学習を行う
    ことを特徴とする請求項1から3のいずれかに記載の人物属性システム。
  5. 前記カメラで生成された画像に基づき、前記撮影環境データを算出する撮影環境推定部をさらに備え、
    前記撮影環境データ取得部は、前記撮影環境推定部で算出された前記撮影環境データを取得する
    ことを特徴とする請求項1から4のいずれかに記載の人物属性推定システム。
  6. 前記撮影環境データは、前記カメラにより前記属性推定対象人物が撮影される場所における照明状態を示すデータを含み、
    前記疑似現場画像生成部は、前記照明状態を示すデータに応じて、前記標準画像を変換することにより、前記疑似現場画像を生成する
    ことを特徴とする請求項1から5のいずれかに記載の人物属性推定システム。
  7. 前記属性推定部は、前記カメラが生成した画像に写っている人物の属性を、前記画像中の顔領域の部分画像に基づき推定するものであり、
    前記撮影環境データは、前記属性推定対象人物が、前記カメラにより撮影される場合の顔の向きに関するデータを含み、
    前記標準画像は、人物の顔を含む画像であって、
    前記疑似現場画像生成部は、前記顔の向きに関するデータに応じて、前記標準画像の顔の向きを変換することにより、前記疑似現場画像を生成する
    ことを特徴とする請求項1から6のいずれかに記載の人物属性推定システム。
  8. 前記撮影環境データは、前記カメラにより生成される画像内の1つ以上の代表的な人物検出領域ごとの撮影環境データである
    ことを特徴とする請求項1から7のいずれかに記載の人物属性推定システム。
  9. 前記疑似現場画像生成部は、前記代表的な人物検出領域ごとの撮影環境データを用いて、前記代表的な人物検出領域ごとの疑似現場画像を生成し、
    前記学習部は、前記代表的な人物検出領域ごとに、前記推定モデルの学習を行い、
    前記属性推定部は、前記カメラが生成した画像に写っている人物の検出位置に応じて、前記推定モデルを選択して、前記人物の属性を推定する
    ことを特徴とする請求項8に記載の人物属性推定システム。
  10. 属性推定対象人物を撮影して画像を生成するカメラと、前記カメラが生成した画像に写っている人物の属性を推定する属性推定部とを備えた人物属性推定システムにおいて使用される、人物の属性推定のための推定モデルの学習に用いる学習用データを生成する学習用データ生成装置であって、
    前記カメラによる前記属性推定対象人物の撮影環境を示す、撮影環境データを取得する撮影環境データ取得部と、
    人物画像である標準画像を取得する標準画像取得部と、
    前記撮影環境データに応じて前記標準画像のデータを加工することにより、前記標準画像に前記撮影環境を反映させた疑似現場画像を生成する疑似現場画像生成部とを備え、
    前記疑似現場画像、又は前記カメラにより前記属性推定対象の人物が撮影される環境において前記カメラで前記疑似現場画像が現出した被写体を撮影することにより得られた疑似現場画像撮影画像を用いて前記学習用データを生成する
    ことを特徴とする学習用データ生成装置。
  11. 前記学習用データは、学習用画像データである前記疑似現場画像又は前記疑似現場画像撮影画像と、学習用正解属性データであって、前記疑似現場画像の生成に用いられた前記標準画像に対応付けられた属性データと、を含むことを特徴とする請求項10に記載の学習用データ生成装置。
JP2012117129A 2012-05-23 2012-05-23 人物属性推定システム、及び学習用データ生成装置 Active JP5899472B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2012117129A JP5899472B2 (ja) 2012-05-23 2012-05-23 人物属性推定システム、及び学習用データ生成装置
CN201380018436.7A CN104221054B (zh) 2012-05-23 2013-05-22 人物属性推定系统及学习用数据生成装置
EP13793699.3A EP2854105A4 (en) 2012-05-23 2013-05-22 ESTATE ASSESSMENT SYSTEM AND LEARNING-USE DATA GENERATION DEVICE
US14/388,857 US20150086110A1 (en) 2012-05-23 2013-05-22 Person attribute estimation system and learning-use data generation device
PCT/JP2013/003269 WO2013175792A1 (ja) 2012-05-23 2013-05-22 人物属性推定システム、及び学習用データ生成装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012117129A JP5899472B2 (ja) 2012-05-23 2012-05-23 人物属性推定システム、及び学習用データ生成装置

Publications (2)

Publication Number Publication Date
JP2013242825A JP2013242825A (ja) 2013-12-05
JP5899472B2 true JP5899472B2 (ja) 2016-04-06

Family

ID=49623498

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012117129A Active JP5899472B2 (ja) 2012-05-23 2012-05-23 人物属性推定システム、及び学習用データ生成装置

Country Status (5)

Country Link
US (1) US20150086110A1 (ja)
EP (1) EP2854105A4 (ja)
JP (1) JP5899472B2 (ja)
CN (1) CN104221054B (ja)
WO (1) WO2013175792A1 (ja)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105359188B (zh) * 2013-07-01 2019-04-16 日本电气方案创新株式会社 属性估计系统
JP6118752B2 (ja) * 2014-03-28 2017-04-19 セコム株式会社 学習データ生成装置
JP6865351B2 (ja) * 2015-07-27 2021-04-28 パナソニックIpマネジメント株式会社 顔照合装置およびこれを備えた顔照合システムならびに顔照合方法
CN106803054B (zh) * 2015-11-26 2019-04-23 腾讯科技(深圳)有限公司 人脸模型矩阵训练方法和装置
JP7162412B2 (ja) 2016-11-29 2022-10-28 マクセル株式会社 検知認識システム
US10726244B2 (en) 2016-12-07 2020-07-28 Samsung Electronics Co., Ltd. Method and apparatus detecting a target
JP6724827B2 (ja) * 2017-03-14 2020-07-15 オムロン株式会社 人物動向記録装置
WO2019069629A1 (ja) * 2017-10-06 2019-04-11 富士フイルム株式会社 画像処理装置及び学習済みモデル
JP6853159B2 (ja) * 2017-10-31 2021-03-31 トヨタ自動車株式会社 状態推定装置
JP7069667B2 (ja) * 2017-11-30 2022-05-18 富士通株式会社 推定プログラム、推定システム、及び推定方法
US11210499B2 (en) * 2018-07-06 2021-12-28 Kepler Vision Technologies Bv Determining a social group to which customers belong from appearance and using artificial intelligence, machine learning, and computer vision, for estimating customer preferences and intent, and for improving customer services
JP2020067720A (ja) * 2018-10-22 2020-04-30 Gmoクラウド株式会社 人属性推定システム、それを利用する情報処理装置及び情報処理方法
JP7014129B2 (ja) * 2018-10-29 2022-02-01 オムロン株式会社 推定器生成装置、モニタリング装置、推定器生成方法及び推定器生成プログラム
EP3951704A4 (en) * 2019-04-04 2022-05-25 Panasonic Intellectual Property Management Co., Ltd. INFORMATION PROCESSING PROCEDURES AND INFORMATION PROCESSING SYSTEM
US11232327B2 (en) * 2019-06-19 2022-01-25 Western Digital Technologies, Inc. Smart video surveillance system using a neural network engine
WO2021064857A1 (ja) 2019-10-01 2021-04-08 富士通株式会社 属性判定装置、属性判定プログラム、及び属性判定方法
CN112906725A (zh) * 2019-11-19 2021-06-04 北京金山云网络技术有限公司 统计人流特征的方法、装置及服务器
CN110991380A (zh) * 2019-12-11 2020-04-10 腾讯科技(深圳)有限公司 人体属性识别方法、装置、电子设备以及存储介质
JP7351413B2 (ja) 2020-05-08 2023-09-27 富士通株式会社 識別方法、生成方法、識別プログラム及び識別装置
JP7481171B2 (ja) * 2020-06-11 2024-05-10 日本電信電話株式会社 画像処理装置、画像処理方法及び画像処理プログラム
WO2023008446A1 (ja) * 2021-07-26 2023-02-02 京セラ株式会社 学習済みモデル生成方法、ユーザ環境推定方法、学習済みモデル生成装置、ユーザ環境推定装置、及び学習済みモデル生成システム

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6188777B1 (en) * 1997-08-01 2001-02-13 Interval Research Corporation Method and apparatus for personnel detection and tracking
JP4177598B2 (ja) * 2001-05-25 2008-11-05 株式会社東芝 顔画像記録装置、情報管理システム、顔画像記録方法、及び情報管理方法
US7221809B2 (en) * 2001-12-17 2007-05-22 Genex Technologies, Inc. Face recognition system and method
CN1735924A (zh) * 2002-11-21 2006-02-15 松下电器产业株式会社 标准模型制作装置和标准模型制作方法
JP2005227794A (ja) * 2002-11-21 2005-08-25 Matsushita Electric Ind Co Ltd 標準モデル作成装置及び標準モデル作成方法
JP2006031103A (ja) * 2004-07-12 2006-02-02 Toshiba Corp 生体認証装置、生体認証方法および通行制御装置
JP4668680B2 (ja) 2005-05-17 2011-04-13 ヤマハ発動機株式会社 属性識別システムおよび属性識別辞書生成装置
US8090160B2 (en) * 2007-10-12 2012-01-03 The University Of Houston System Automated method for human face modeling and relighting with application to face recognition
US8180112B2 (en) * 2008-01-21 2012-05-15 Eastman Kodak Company Enabling persistent recognition of individuals in images
JP4720880B2 (ja) * 2008-09-04 2011-07-13 ソニー株式会社 画像処理装置、撮像装置、画像処理方法およびプログラム
JP5206517B2 (ja) * 2009-03-13 2013-06-12 日本電気株式会社 特徴点選択システム、特徴点選択方法および特徴点選択プログラム
JP2011070471A (ja) * 2009-09-28 2011-04-07 Nec Soft Ltd 目的変数算出装置、目的変数算出方法、プログラムおよび記録媒体
JP4844670B2 (ja) * 2009-11-13 2011-12-28 日本ビクター株式会社 映像処理装置および映像処理方法
JP5652694B2 (ja) * 2010-01-07 2015-01-14 Necソリューションイノベータ株式会社 目的変数算出装置、目的変数算出方法、プログラムおよび記録媒体
JP5642410B2 (ja) * 2010-03-30 2014-12-17 パナソニック株式会社 顔認識装置及び顔認識方法
US8705813B2 (en) * 2010-06-21 2014-04-22 Canon Kabushiki Kaisha Identification device, identification method, and storage medium
US8824749B2 (en) * 2011-04-05 2014-09-02 Microsoft Corporation Biometric recognition
JP5791364B2 (ja) * 2011-05-16 2015-10-07 キヤノン株式会社 顔認識装置、顔認識方法、顔認識プログラム、およびそのプログラムを記録した記録媒体
US8787666B2 (en) * 2011-11-21 2014-07-22 Tandent Vision Science, Inc. Color analytics for a digital image

Also Published As

Publication number Publication date
WO2013175792A1 (ja) 2013-11-28
CN104221054A (zh) 2014-12-17
EP2854105A1 (en) 2015-04-01
CN104221054B (zh) 2016-12-21
EP2854105A4 (en) 2016-04-20
JP2013242825A (ja) 2013-12-05
US20150086110A1 (en) 2015-03-26

Similar Documents

Publication Publication Date Title
JP5899472B2 (ja) 人物属性推定システム、及び学習用データ生成装置
CN110662484B (zh) 用于全身测量结果提取的系统和方法
KR102596897B1 (ko) 모션벡터 및 특징벡터 기반 위조 얼굴 검출 방법 및 장치
JP6411510B2 (ja) 無制約の媒体内の顔を識別するシステムおよび方法
Milborrow et al. The MUCT landmarked face database
US10002286B1 (en) System and method for face recognition robust to multiple degradations
JP5424819B2 (ja) 画像処理装置、画像処理方法
CN108549886A (zh) 一种人脸活体检测方法及装置
CN112040834A (zh) 眼球跟踪方法及系统
TWI394093B (zh) 一種影像合成方法
JP2000306095A (ja) 画像照合・検索システム
JP6822482B2 (ja) 視線推定装置、視線推定方法及びプログラム記録媒体
CN108229674A (zh) 聚类用神经网络的训练方法和装置、聚类方法和装置
JP2016170542A (ja) 画像処理装置、画像処理方法及びプログラム
JP2014211719A (ja) 情報処理装置およびその方法
Burgos-Artizzu et al. Distance estimation of an unknown person from a portrait
CN112926464A (zh) 一种人脸活体检测方法以及装置
CN112801038B (zh) 一种多视点的人脸活体检测方法及系统
KR20160046399A (ko) 텍스쳐 맵 생성 방법 및 장치와 데이터 베이스 생성 방법
CN114170690A (zh) 活体识别和构建活体识别模型的方法、装置
EP3074844B1 (en) Estimating gaze from un-calibrated eye measurement points
JP4141090B2 (ja) 画像認識装置、陰影除去装置、陰影除去方法及び記録媒体
Singh et al. Face liveness detection through face structure analysis
Demirkus et al. Spatial and probabilistic codebook template based head pose estimation from unconstrained environments
CN106202418B (zh) 一种用于智能机器人的图片数据收集方法及系统

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20141003

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20141008

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150130

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20150223

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20151029

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151214

R150 Certificate of patent or registration of utility model

Ref document number: 5899472

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150