JP2018041273A - 画像認識装置、画像認識装置の制御方法およびプログラム - Google Patents

画像認識装置、画像認識装置の制御方法およびプログラム Download PDF

Info

Publication number
JP2018041273A
JP2018041273A JP2016174961A JP2016174961A JP2018041273A JP 2018041273 A JP2018041273 A JP 2018041273A JP 2016174961 A JP2016174961 A JP 2016174961A JP 2016174961 A JP2016174961 A JP 2016174961A JP 2018041273 A JP2018041273 A JP 2018041273A
Authority
JP
Japan
Prior art keywords
feature extraction
extraction region
attribute
region
reliability
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016174961A
Other languages
English (en)
Inventor
雄司 金田
Yuji Kaneda
雄司 金田
伊藤 嘉則
Yoshinori Ito
嘉則 伊藤
佐藤 博
Hiroshi Sato
博 佐藤
俊亮 中野
Toshiaki Nakano
俊亮 中野
敦夫 野本
Atsuo Nomoto
敦夫 野本
山本 貴久
Takahisa Yamamoto
貴久 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016174961A priority Critical patent/JP2018041273A/ja
Publication of JP2018041273A publication Critical patent/JP2018041273A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

【課題】高精度な属性認識を実現する。
【解決手段】画像認識装置であって、画像中の物体に対して特徴抽出領域を設定する設定部と、設定部により設定された特徴抽出領域から物体の特徴を抽出する抽出部と、抽出部により抽出された特徴に基づいて物体の属性を認識する認識部と、認識部により認識された属性の信頼性を評価する評価部とを備え、設定部は、設定された第1の特徴抽出領域から抽出された特徴に基づいて認識された属性の信頼性に対する評価部による評価結果が所定の条件を満たさない場合、物体に対して第1の特徴抽出領域より拡張された第2の特徴抽出領域を設定する。
【選択図】 図4

Description

本発明は、画像認識装置、画像認識装置の制御方法およびプログラムに関するものである。
近年、画像中の顔に対して表情や個人を特定するだけでなく、人種、年代、性別、ヒゲなどの顔に関する属性、更には服装などの人体に関する様々な属性を認識する技術を開発し、マーケティングなど様々な応用ソリューションへ展開する動きが加速している。
非特許文献1では、顔に関する属性に関して、画像中から目、口、鼻の位置を検出して、これらの位置に基づいてRGBやHSVの色特徴、エッジやヒストグラム系の特徴などの多種多様な特徴量を抽出しておく。そして、これらの特徴量をSupport Vector Machine(以下、SVM)と呼ばれる識別器に入力することで、メガネ、性別、年代、ヒゲ、髪の毛など65種類もの顔に関する属性を認識している。
また、特許文献1では、顔に対して局所領域を設定し、領域毎に各年代に対するスコアを算出するとともに、顔の向きに基づいて精度を低下させる部分の影響が小さくなるように各年代のスコアを修正して年齢値を求めている。
一方、非特許文献2では、人体に関する属性に関して、上半身や下半身などの人体領域を特定した上でロングパンツ、ジーンズ、Tシャツなど、服装を認識している。
通常、人間は、顔の情報だけで年齢や人種などの属性を判断できない場合、顔だけでなく頭部や更には人体など、参照する領域を拡張して様々な情報を把握した上で属性を判断する。
特開2008−282089号公報
N. Kumer, "Attribute and Simile Classifier for Face Verification", IEEE ICCV, 2009 L. Bourdev, "Describing People: A Poselet-Based Approach to Attribute Classification", IEEE ICCV, 2011 P. Viola, M. Jones, "Rapid Object Detection using a Boosted Cascade of Simple Features", in Proc. Of CVPR, vol.1, pp.511-518, December, 2001 Xudong Cao, Yichen Wei, Fang Wen, Jian Sun, "Face Alignment by Explicit Shape Regression", CVPR, pp. 2887-2894, 2012 Jacky S. C. Yuk, "Real-time Head Shape Detection and Tracking System with Decentralized Trackers", IEEE Proceedings of the Sixth International Conference on Intelligent Systems Design and Applications, 2006 M. Bertozzi, A. Broggi, M. Del Rose, M. Felisa, A. Rakotomamonjy and F. Suard, "A Pedestrian Detector Using Histograms of Oriented Gradients and a Support Vector Machine Classifier", IEEE Intelligent Transportation Systems Conference, 2007 Daniel Weinland, "A Survey of Vision-Based Methods for Action Representation, Segmentation and Recognition", Computer Vision and Image Understanding, 2011
しかしながら、従来の属性認識技術では、参照する領域は顔などの特定の領域に固定されており、また、認識結果の信頼性についても考慮されていないことから、高精度な属性認識を行えないことがあるという課題がある。
本発明は、上記の課題に鑑みてなされたものであり、高精度な属性認識を実現する技術を提供することを目的とする。
上記の目的を達成する本発明に係る画像認識装置は、
画像中の物体に対して特徴抽出領域を設定する設定手段と、
前記設定手段により設定された特徴抽出領域から前記物体の特徴を抽出する抽出手段と、
前記抽出手段により抽出された特徴に基づいて前記物体の属性を認識する認識手段と、
前記認識手段により認識された属性の信頼性を評価する評価手段と、
を備え、
前記設定手段は、設定された第1の特徴抽出領域から抽出された特徴に基づいて認識された属性の信頼性に対する前記評価手段による評価結果が所定の条件を満たさない場合、前記物体に対して前記第1の特徴抽出領域より拡張された第2の特徴抽出領域を設定することを特徴とする。
本発明によれば、高精度な属性認識を実現することが可能となる。
第1の実施形態の概要を説明する図である。 第1の実施形態に係る画像認識装置の構成例を示す図である。 第1の実施形態に係る属性認識部の構成例を示す図である。 第1の実施形態に係る画像認識装置が実施する処理の手順を示すフローチャート。 第1の実施形態に係る画像認識装置が実施する特徴抽出領域の設定処理の詳細な手順を示すフローチャート。 第1の実施形態に係る顔領域を示す図である。 第1の実施形態に係る頭部領域を示す図である。 第1の実施形態に係る人体領域を示す図である。 第1の実施形態に係る年齢認識部の詳細な構成を示す図である。 第1の実施形態に係る年齢認識部からの出力値の例を示す図である。 第1の実施形態に係る年齢認識部からの出力値の分布の例を示す図である。 第2の実施形態の概要を説明する図である。 第2の実施形態に係る属性認識結果に応じて拡張領域を設定するためのテーブルの例を示す図である。
以下、図面を参照しながら実施形態を説明する。なお、以下の実施形態において示す構成は一例に過ぎず、本発明は図示された構成に限定されるものではない。
(第1の実施形態)
<概要>
本実施形態では、年齢や人種などの属性を認識した認識結果が信頼できる場合には当該認識結果を出力し、当該認識結果が信頼できない場合には参照領域を顔から頭部や人体など他の領域に拡張して属性認識を行う例を説明する。
図1は、第1の実施形態に係る、属性認識結果に対する信頼性に基づいて参照する領域を顔、頭部、人体へ順に拡大する際の説明図を示している。顔内部(w1×h1)による属性認識結果の信頼性が低い場合には参照領域を顔から拡張して頭部(w2×h2)による属性認識を実施する。更に頭部(w2×h2)による属性認識結果の信頼性も低い場合には参照領域を頭部から拡張して人体(w3×h3)による属性認識を実施する。もちろん、属性認識結果の信頼度が高いと判定された場合には参照領域を人体(w3×h3)まで拡張する前に打ち切りを実施する。このように段階的に実施することで高精度な属性認識を実現することができる。
<装置構成>
図2は、第1の実施形態に係る画像認識装置の構成例を示す。画像認識装置100は、画像取得部1100、物体検出部1200、領域設定部1300、属性認識部1400、信頼性判定部1500、および属性出力部1600を備えている。各処理部は不図示のCPUがメモリからプログラムを読み出して実行することにより制御される。なお、図3に示すように、属性認識部1400は、特徴抽出部1410を備えており、年齢認識部1420、性別認識部1430、人種認識部1440、体型認識部1450などの様々な属性を認識する認識部で構成されている。属性とは年齢、性別、人種、体型など人物の特徴を表すカテゴリであり、属性毎にその属性を有するかどうかを判定する識別器を持っている。更に、上述の通り、属性認識結果に対する信頼性に基づいて参照する領域を顔、頭部、人体へ順に拡大していくため、顔、頭部、人体に対する認識部も用意されている。一例として、性別認識部1430は、顔による性別認識部1431、頭部による性別認識部1432、人体による性別認識部1433を備えている。他の認識部についても同様である。
<処理>
続いて、図4のフローチャートを参照して、第1の実施形態に係る画像認識装置が実施する処理の手順を説明する。
ステップS1100では、画像取得部1100は、レンズなどの集光素子、光を電気信号に変換するCMOSやCCDなどの撮像素子、アナログ信号をデジタル信号に変換するAD変換器を通過することによって得られたデジタル画像を取得する。また、間引き処理等を行うことによって、例えば、VGA(640×480[pixel])やQVGA(320×240[pixel])に変換した画像を取得することも可能である。
ステップS1200では、物体検出部1200は、ステップS1100で取得した画像から特定物体を検出する処理を行う。特定物体の種類に限定はないが、本実施形態では特定物体は人物であるものとする。具体的には、図1に示すように人物の顔、頭部、人体領域を検出する。
なお、人物の顔を検出する技術(以下、顔検出)としては非特許文献3の技術などがあり、主に顔領域とその中心などを検出することができるが、非特許文献4の技術を利用することで目尻や目頭など顔の特徴点を検出することもできる。人物の頭部を検出する技術(以下、頭部検出)としては、非特許文献5の技術などがあり、頭部から肩の領域とその中心を検出することができる。人物の人体を検出する技術(以下、人体検出)は、非特許文献6の技術などがあり、近年では人体領域とその中心だけでなく、非特許文献7の技術のように上半身や下半身の領域とその中心も検出することができるようになってきている。
ステップS1210では、物体検出部1200は、ステップS1100で取得された画像の中に特定物体(人物)が含まれるか否かを判定する。特定物体が検出された場合、S1220へ進む。一方、特定物体が検出されなかった場合、S1100に戻る。
ステップS1220では、物体検出部1200は、ステップS1200で検出された特定物体が複数存在する場合、当該複数の特定物体から1つの特定物体を選択する。例えば、複数の中から1名の人物を選択する。選択は自動的に行ってもよいし、ユーザの指定により行ってもよい。
ステップS1300では、領域設定部1300は、ステップS1220で選択された特定物体(人物)に対して特徴抽出領域を設定する。
ここで、図5は、ステップS1300の特徴抽出領域設定処理の詳細を示すフローチャートである。
ステップS1310では、領域設定部1300は、顔領域に対して属性認識を実施したか否かを判定する。顔領域に対して属性認識を実施したか否かは、領域設定部1300自身が既に設定した領域の情報を記憶しておくことにより判定可能である。顔領域に対して属性認識を実施していない場合、ステップS1311へ進む。一方、顔領域に対して属性認識を既に実施している場合、ステップS1312へ進む。なお、ステップS1220で選択された特定物体(人物)に対して属性認識を1度も実施していない場合には、ステップS1311へ進む。
ステップS1311では、図6に示すようにステップS1200での顔検出結果(顔領域の中心1301など)に基づいて、顔全体あるいは局所的な領域を特徴抽出領域として設定する。
ステップS1312では、領域設定部1300は、頭部領域に対して属性認識を実施したか否かを判定する。頭部領域に対して属性認識を実施したか否かは、領域設定部1300自身が既に設定した領域の情報を記憶しておくことにより判定可能である。頭部領域に対して属性認識を実施していない場合、ステップS1313へ進む。一方、頭部領域に対して属性認識を既に実施している場合、ステップS1314へ進む。
ステップS1313では、図7に示すようにステップS1200での頭部検出結果(頭部領域の中心1302など)に基づいて、頭部全体あるいは局所的な領域を特徴抽出領域として設定する。
ステップS1314では、図8に示すようにステップS1200での人体検出結果(頭部領域の中心1303など)に基づいて、人体全体、あるいは局所的な領域を特徴抽出領域として設定する。
以上説明したように、ステップS1300では、ステップS1200での顔検出結果、頭部検出結果、人体検出結果に基づいて顔の特徴抽出領域、頭部の特徴抽出領域、または人体の特徴抽出領域が設定される。以上で図5の一連の処理が終了する。
続いて図4のステップS1400では、まず始めに、特徴抽出部1410は、ステップS1300で設定された特徴抽出領域から特徴抽出を行う。i番目人物の顔の特徴抽出領域から抽出した特徴を
Figure 2018041273
、頭部の特徴抽出領域から抽出した特徴を
Figure 2018041273
、人体の特徴抽出領域から抽出した特徴を
Figure 2018041273
とする。なお、特徴Fは、非特許文献1に記載のようにRGB画素値f、ヒストグラムfなどLow−level Featuresと呼ばれる様々な特徴を抽出し、連結して1つの特徴ベクトルF=(f,f,...,f)にすることにより生成する。
次に、属性認識部1400は、生成した特徴ベクトルFを各属性認識を行う識別器へ投入することで属性を認識する。属性は、年齢、性別、人種の顔に関する属性と、服装、体型の人体に関する属性である。ステップS1300では、顔、頭部、人体のいずれかの領域が設定されるため、識別器も図3に示したように、顔特徴
Figure 2018041273
、頭部特徴
Figure 2018041273
、人体特徴
Figure 2018041273
に対応したものをそれぞれ用意しておき、設定された領域に応じて識別器を選択する。
識別器には、例えば非特許文献1と同様にSupport Vector Machine(以下、SVM)を利用し、カーネルが線形であれば、計算は重み係数Wと特徴ベクトルFとの内積
Figure 2018041273
のみである。学習では、予め学習サンプルから抽出した特徴ベクトルFと正解の出力ラベルYを利用して重み係数Wを学習する。
以下では、特徴抽出領域を顔に設定した場合の各識別器の学習方法例を簡単に説明する。他の種類の特徴抽出領域についても同様の学習方法を用いることができる。
[顔による性別認識部]
ステップS1310で特徴抽出領域として顔が設定され、かつ、属性が性別の場合について説明する。学習は、男性サンプルの顔の特徴抽出領域から抽出した特徴
Figure 2018041273
に対しては出力ラベル
Figure 2018041273
を1、女性サンプルの顔の特徴抽出領域から抽出した特徴
Figure 2018041273
に対しては出力ラベル
Figure 2018041273
を0として大量のサンプルを集めてSVMを学習する。
従って、顔による性別認識部1431からは1つの出力値
Figure 2018041273
を取得することができる。
[顔による年齢認識部]
ステップS1310で特徴抽出領域として顔が設定され、かつ、属性が年齢の場合について説明する。年齢認識部1420は、図9に示すように更に0−9代認識部1421、10代認識部1422、20代認識部1423、30代認識部1424、40代認識部1425、50代認識部1426、60代認識部1427の複数の認識部で構成されている。
1つの年代認識部、例えば、0−9代認識部1421は、性別同様に0−9代サンプルの特徴抽出領域から抽出した特徴
Figure 2018041273
に対しては出力ラベル
Figure 2018041273
を1、それ以外の年代サンプルの特徴抽出領域から抽出した特徴
Figure 2018041273
に対しては出力ラベル
Figure 2018041273
を0として、大量のサンプルを集めて学習する。
従って、年齢認識部1420のように、1つの属性認識部が更に複数の認識部から構成されている属性については、複数の出力値
Figure 2018041273
を取得することができる。図10の例では、0−9代認識部1421および60代認識部1427は出力値0.1を出力し、10代認識部1422および50代認識部1426は出力値0.2を出力している。また、20代認識部1423および40代認識部1425は出力値0.4を出力し、30代認識部1424は出力値0.7を出力している。
次に、ステップS1500では、信頼性判定部1500は、ステップS1400での各属性認識部からの各出力(
Figure 2018041273
)が信頼できる値であるかどうかを評価する。具体的には、各属性の出力に対する信頼度
Figure 2018041273
を出力する。以下では、評価方法について幾つか説明する。
[顔による性別認識結果の評価]
例えば、各属性認識部からの出力
Figure 2018041273
の中で性別認識の出力
Figure 2018041273
に対して信頼できる値であるかどうかを評価する方法について説明する。
顔による性別認識部1431は上述のような学習をしているため、出力値
Figure 2018041273
が0.5付近の値である場合、性別認識部1430が男性とも女性とも判定できていないことを示している。
従って、以下のようなルールベースの判定に従って信頼できるかどうかの評価結果を得る。
Figure 2018041273
[顔による年齢認識結果の評価]
例えば、各属性認識部からの出力
Figure 2018041273
の中の年齢認識の出力
Figure 2018041273
に対して信頼できる値であるかどうかを判定する方法について説明する。
年齢認識部1420の各年代認識部からの出力
Figure 2018041273
について、横軸を年代、縦軸を出力値とした分布を考える。各年代認識部からの出力値
Figure 2018041273
が信頼できる値であるならば、その分布は図11(a)に示すように最も高い値を出力した年代認識部を中心とした正規分布1501の形状になる。一方で、各年代認識部からの出力値
Figure 2018041273
が信頼できない値であるならば、その分布は図11(b)に示すように複数の極大値を持つ分布1502のようになる。つまり、30代の人物に対して、各年代認識部が正しく識別できているならば、20代認識部1423や40代認識部1425からも高い値が出力され、10代認識部1422や50代認識部1426からは低い値が出力される。
ここでは、各年代認識部と同様にSVMを利用する。各年代認識部からの出力値
Figure 2018041273
を1つの特徴ベクトルとして考え、各年代認識部からの出力値
Figure 2018041273
が正規分布の場合には出力ラベル
Figure 2018041273
を1、そうでない場合には出力ラベル
Figure 2018041273
を0として学習する。そして、学習された識別器からの出力値
Figure 2018041273
を閾値処理することで信頼できるかどうかの評価結果を取得する。
なお、正規分布かどうかの判断は人間が判断してもよいし、統計的に求めても構わない。
他には、各年代認識部からの出力値
Figure 2018041273
と各年代の中央値CenterValueとの重み付き平均から年齢値AgeValueを計算する。
Figure 2018041273
計算した年齢値AgeValueと実際の年齢との差が所定閾値以下であるならば出力ラベル
Figure 2018041273
を1、そうでないならば出力ラベル
Figure 2018041273
を0として学習する。そして、学習された識別器からの出力値
Figure 2018041273
を閾値処理することで信頼できるかどうかの評価結果を取得する。
以上、属性認識部1400を構成する各属性認識部からの各出力結果について信頼できるかどうかを評価する方法について説明した。
続いて図4に戻り、ステップS1510では、信頼性判定部1500は、ステップS1500における結果が所定の条件を満たすか否か、つまり、ステップS1400から出力される属性認識結果が信頼できるか否かを判定する。
ステップS1400から出力される属性認識結果が信頼できると判定される場合には、ステップS1600へ進む。一方で、ステップS1400から出力される属性認識結果が信頼できないと判定されている場合にはステップS1300に戻り、再び特徴抽出領域の設定を行う。つまり、参照領域を拡張する。
ステップS1600では、属性出力部1600は、ステップS1400で認識した属性を、ステップS1220で選択した人物の属性として出力する。
ステップS1610では、属性出力部1600は、ステップS1200で検出した全ての人物に対して処理をしたか否かを判定する。全ての人物に対して処理した場合にはステップS1100で取得した画像に対する処理を終了する。一方で、全ての人物に対して処理をしていない場合にはステップS1220に戻り、処理をしていない人物に対する処理を実施する。
以上説明したように、本実施形態では、はじめに顔領域に対して属性認識を行い、その結果に対する信頼性が高い場合には顔領域を用いることにより判定した属性認識結果をその人物の属性として決定する。一方で、その結果に対する信頼性が低い場合には参照領域を拡大して再び属性認識を行う。このように、参照領域を徐々に拡大することによって高速で高精度な属性認識を実現することができる。
(第2の実施形態)
第1の実施形態では、年齢や人種などの属性を認識した認識結果が信頼できる場合には当該認識結果を出力し、当該認識結果が信頼できない場合には参照領域を顔から頭部や人体など他の領域に順に拡張して属性認識を行う例を説明した。これに対して、本実施形態では、当該認識結果が著しく信頼できない場合には、参照領域を順に拡大するのではなく、例えば顔から人体へ一気に拡大する例を説明する。
図12は、第2の実施形態に係る、属性認識結果に対する信頼性に基づいて参照する領域を顔から頭部や人体へ順に拡大するのではなく、顔から人体へ一気に拡大する際の説明図を示している。参照領域を顔内部として属性認識した結果が著しく信頼できないものである場合には参照領域を頭部に拡張したとしても属性認識した結果は信頼できないと想定されるため、参照領域を一気に人体へ拡張する。
装置の全体構成や処理の手順は第1の実施形態と同様であるので説明を省略する。
第1の実施形態では、信頼度
Figure 2018041273
が各属性認識部からの出力
Figure 2018041273
が信頼できるかどうかを示していたが、本実施形態では、拡張領域を設定する場合にも信頼度
Figure 2018041273
を利用する。
例えば、図13に示すように、属性と条件と拡張領域との関係を示すテーブルを予め用意しておき、認識対象の属性や各属性認識結果の信頼度
Figure 2018041273
に基づいて拡張領域を設定する方法などがある。
図13の例では、例えば
Figure 2018041273
の信頼度
Figure 2018041273
が0.0以上であり0.3未満である場合、すなわち、信頼度が閾値未満であり信頼性が著しく低い場合、拡張領域は頭部ではなく人体とする。一方、
Figure 2018041273
が0.3以上であり0.6未満である場合、すなわち、信頼度が閾値以上であり信頼性が著しく低くはない場合、拡張領域は頭部とする。
同様に、
Figure 2018041273
の信頼度
Figure 2018041273
が0.0以上であり0.4未満である場合、すなわち、信頼性が著しく低い場合、拡張領域は頭部ではなく人体とする。一方、
Figure 2018041273
が0.4以上であり0.7未満である場合、すなわち、信頼性が著しく低くはない場合、拡張領域は頭部とする。
なお、閾値として用いる値は図示の例に限定されるものではなく、適宜設定可能であってもよい。
以上説明したように、本実施形態では、認識結果が著しく信頼できない場合には、参照領域を順に拡大するのではなく、例えば顔から人体へ一気に拡大する例を説明した。これにより、信頼度に応じて参照領域の拡大を調整することによって、更に高速かつ高精度な属性認識を実現することができる。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
100:画像認識装置、1100:画像取得部、1200:物体検出部、1300:領域設定部、1400:属性認識部、1500:信頼性判定部、1600:属性出力部

Claims (11)

  1. 画像中の物体に対して特徴抽出領域を設定する設定手段と、
    前記設定手段により設定された特徴抽出領域から前記物体の特徴を抽出する抽出手段と、
    前記抽出手段により抽出された特徴に基づいて前記物体の属性を認識する認識手段と、
    前記認識手段により認識された属性の信頼性を評価する評価手段と、
    を備え、
    前記設定手段は、設定された第1の特徴抽出領域から抽出された特徴に基づいて認識された属性の信頼性に対する前記評価手段による評価結果が所定の条件を満たさない場合、前記物体に対して前記第1の特徴抽出領域より拡張された第2の特徴抽出領域を設定することを特徴とする画像認識装置。
  2. 前記評価結果が前記所定の条件を満たす場合、前記認識手段により認識された前記属性を出力する出力手段をさらに備えることを特徴とする請求項1に記載の画像認識装置。
  3. 前記物体は人物であって、前記第1の特徴抽出領域は顔領域であり、前記第2の特徴抽出領域は頭部領域であることを特徴とする請求項1又は2に記載の画像認識装置。
  4. 前記設定手段は、前記第2の特徴抽出領域から抽出された特徴に基づいて認識された属性の信頼性に対する前記評価手段による評価結果が所定の条件を満たさない場合、前記物体に対して前記第2の特徴抽出領域より拡張された第3の特徴抽出領域を設定することを特徴とする請求項1乃至3の何れか1項に記載の画像認識装置。
  5. 前記物体は人物であって、前記第1の特徴抽出領域は顔領域であり、前記第2の特徴抽出領域は頭部領域であり、前記第3の特徴抽出領域は人体領域であることを特徴とする請求項4に記載の画像認識装置。
  6. 前記物体は人物であって、前記属性は、年齢、性別、人種および体型の少なくとも何れかを含むことを特徴とする請求項1乃至5の何れか1項に記載の画像認識装置。
  7. 前記認識手段は、特徴抽出領域の種類ごとに、各種類に対応する認識手段を備えることを特徴とする請求項1乃至6の何れか1項に記載の画像認識装置。
  8. 前記設定手段は、前記第1の特徴抽出領域から抽出された特徴に基づいて認識された属性の信頼性に対する前記評価手段による評価結果としての信頼度が閾値よりも小さい場合、前記物体に対して、前記第2の特徴抽出領域ではなく当該第2の特徴抽出領域より拡張された第3の特徴抽出領域を設定することを特徴とする請求項1に記載の画像認識装置。
  9. 前記設定手段は、前記第1の特徴抽出領域から抽出された特徴に基づいて認識された属性の信頼性に対する前記評価手段による評価結果としての信頼度が閾値以上である場合、前記物体に対して前記第2の特徴抽出領域を設定することを特徴とする請求項8に記載の画像認識装置。
  10. 画像認識装置の制御方法であって、
    画像中の物体に対して特徴抽出領域を設定する設定工程と、
    前記設定工程により設定された特徴抽出領域から前記物体の特徴を抽出する抽出工程と、
    前記抽出工程により抽出された特徴に基づいて前記物体の属性を認識する認識工程と、
    前記認識工程により認識された属性の信頼性を評価する評価工程と、
    を有し、
    前記設定工程では、設定された第1の特徴抽出領域から抽出された特徴に基づいて認識された属性の信頼性に対する前記評価工程による評価結果が所定の条件を満たさない場合、前記物体に対して前記第1の特徴抽出領域より拡張された第2の特徴抽出領域が設定されることを特徴とする画像認識装置の制御方法。
  11. コンピュータを、請求項1乃至9の何れか1項に記載の画像認識装置の各手段として実行させるためのプログラム。
JP2016174961A 2016-09-07 2016-09-07 画像認識装置、画像認識装置の制御方法およびプログラム Pending JP2018041273A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016174961A JP2018041273A (ja) 2016-09-07 2016-09-07 画像認識装置、画像認識装置の制御方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016174961A JP2018041273A (ja) 2016-09-07 2016-09-07 画像認識装置、画像認識装置の制御方法およびプログラム

Publications (1)

Publication Number Publication Date
JP2018041273A true JP2018041273A (ja) 2018-03-15

Family

ID=61626008

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016174961A Pending JP2018041273A (ja) 2016-09-07 2016-09-07 画像認識装置、画像認識装置の制御方法およびプログラム

Country Status (1)

Country Link
JP (1) JP2018041273A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111598164A (zh) * 2020-05-15 2020-08-28 北京百度网讯科技有限公司 识别目标对象的属性的方法、装置、电子设备和存储介质
JP2021009645A (ja) * 2019-07-03 2021-01-28 Awl株式会社 属性認識システム、学習サーバ、及び属性認識プログラム
WO2021176945A1 (ja) * 2020-03-05 2021-09-10 Necソリューションイノベータ株式会社 認証装置
WO2021241260A1 (ja) * 2020-05-27 2021-12-02 ソニーグループ株式会社 情報処理装置、および情報処理方法、情報処理システム、並びにプログラム
JP7166509B1 (ja) * 2021-05-11 2022-11-07 三菱電機株式会社 画像解析装置、画像解析方法及び、画像解析プログラム

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021009645A (ja) * 2019-07-03 2021-01-28 Awl株式会社 属性認識システム、学習サーバ、及び属性認識プログラム
WO2021176945A1 (ja) * 2020-03-05 2021-09-10 Necソリューションイノベータ株式会社 認証装置
JPWO2021176945A1 (ja) * 2020-03-05 2021-09-10
CN111598164A (zh) * 2020-05-15 2020-08-28 北京百度网讯科技有限公司 识别目标对象的属性的方法、装置、电子设备和存储介质
WO2021241260A1 (ja) * 2020-05-27 2021-12-02 ソニーグループ株式会社 情報処理装置、および情報処理方法、情報処理システム、並びにプログラム
JP7166509B1 (ja) * 2021-05-11 2022-11-07 三菱電機株式会社 画像解析装置、画像解析方法及び、画像解析プログラム
WO2022239096A1 (ja) * 2021-05-11 2022-11-17 三菱電機株式会社 画像解析装置、画像解析方法及び、画像解析プログラム

Similar Documents

Publication Publication Date Title
JP7132387B2 (ja) 画像処理装置、画像処理方法およびプログラム
TWI505200B (zh) 用於判定視訊中之一物件之部位及屬性的方法、系統、電腦程式產品及程序
WO2019232866A1 (zh) 人眼模型训练方法、人眼识别方法、装置、设备及介质
WO2019232862A1 (zh) 嘴巴模型训练方法、嘴巴识别方法、装置、设备及介质
US8818034B2 (en) Face recognition apparatus and methods
JP2018041273A (ja) 画像認識装置、画像認識装置の制御方法およびプログラム
JP5153434B2 (ja) 情報処理装置及び情報処理方法
Gupta et al. Face detection using modified Viola jones algorithm
CN101339609A (zh) 图像处理装置和图像处理方法
US20100111375A1 (en) Method for Determining Atributes of Faces in Images
Kheirkhah et al. A hybrid face detection approach in color images with complex background
CN107392105B (zh) 一种基于反向协同显著区域特征的表情识别方法
Mayer et al. Adjusted pixel features for robust facial component classification
Ahmed et al. Eye detection and localization in a facial image based on partial geometric shape of iris and eyelid under practical scenarios
Galiyawala et al. Person retrieval in surveillance videos using deep soft biometrics
Andiani et al. Face recognition for work attendance using multitask convolutional neural network (MTCNN) and pre-trained facenet
Das et al. Human face detection in color images using HSV color histogram and WLD
Gürel Development of a face recognition system
Boruah et al. Different face regions detection based facial expression recognition
Jindal et al. Sign Language Detection using Convolutional Neural Network (CNN)
JP2006285959A (ja) 顔判別装置の学習方法、顔判別方法および装置並びにプログラム
Curran et al. The use of neural networks in real-time face detection
Bagherian et al. Extract of facial feature point
Sithara et al. A survey on face recognition technique
JP2006244385A (ja) 顔判別装置およびプログラム並びに顔判別装置の学習方法