JP5569990B2 - 属性判定方法、属性判定装置、プログラム、記録媒体および属性判定システム - Google Patents

属性判定方法、属性判定装置、プログラム、記録媒体および属性判定システム Download PDF

Info

Publication number
JP5569990B2
JP5569990B2 JP2012539649A JP2012539649A JP5569990B2 JP 5569990 B2 JP5569990 B2 JP 5569990B2 JP 2012539649 A JP2012539649 A JP 2012539649A JP 2012539649 A JP2012539649 A JP 2012539649A JP 5569990 B2 JP5569990 B2 JP 5569990B2
Authority
JP
Japan
Prior art keywords
attribute determination
attribute
area
region
determination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012539649A
Other languages
English (en)
Other versions
JPWO2012053311A1 (ja
Inventor
一也 植木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Solutions Innovators Ltd
Original Assignee
NEC Solutions Innovators Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Solutions Innovators Ltd filed Critical NEC Solutions Innovators Ltd
Priority to JP2012539649A priority Critical patent/JP5569990B2/ja
Publication of JPWO2012053311A1 publication Critical patent/JPWO2012053311A1/ja
Application granted granted Critical
Publication of JP5569990B2 publication Critical patent/JP5569990B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、属性判定方法、属性判定装置、プログラム、記録媒体および属性判定システムに関する。
画像から人物を検出し、年齢や性別等の属性を判定するシステムは、テレビ会議やテレビ電話等の各種の画像通信、データベース検索、ビル監視等のセキュリティシステム、顔による照合システム等、多方面に亘り利用されている。例えば、人物の顔面中で特徴的な部分である、目、眉、鼻孔、口などの顔部分でのパターン認識をすることで、この画像に人物の顔面が写っていると判定して、画像中の人物を検出し、さらにその人物の属性を判定するという方法がある(例えば、特許文献1参照)。顔の一部を検出する方法は、まず、人物の頭部を検出して、次に顔部分を抽出するという手順で行われる。
特開平10−307923号公報
しかしながら、顔を用いた属性の判定方法では、顔の特徴的な部分の一部分が隠れていると人物の検出および属性の判定が困難であり、正面に近い向きの顔でしか、人物の検出および人物の属性の判定ができないという問題がある。したがって、このような方法を人物の検出および人物の属性の判定に適用する場合、正面向きの顔を撮影しやすい場所にカメラを設置する必要があるが、一般的に、このような場所にカメラを設置することは困難である場合が多い。また、人の動きは一般的に不規則であるため、必ずしも正面向きの顔を検出できるとは限らない。
そこで、本発明は、例えば、顔の特徴的な部分が隠れている場合でも、人物の検出精度が高く、人物の属性判定が可能である属性判定方法、属性判定装置、プログラム、記録媒体および属性判定システムを提供することを目的とする。
前記目的を達成するために、本発明の属性判定方法は、
判定対象人物画像を取得する画像取得工程と、
前記判定対象人物画像から、頭部領域、顔領域、およびその他の領域からなる群から選択される少なくとも2つの属性判定領域を検出する属性判定領域検出工程と、
前記少なくとも2つの属性判定領域の画像から属性を判定する属性判定工程と
を含むことを特徴とする。
また、本発明の属性判定装置は、
判定対象人物画像を取得する画像取得手段と、
前記判定対象人物画像から、頭部領域、顔領域、およびその他の領域からなる群から選択される少なくとも2つの属性判定領域を検出する属性判定領域検出手段と、
前記少なくとも2つの属性判定領域の画像から属性を判定する属性判定手段と
を含むことを特徴とする。
本発明のプログラムは、前記本発明の属性判定方法をコンピュータに実行させることを特徴とする。
本発明の記録媒体は、前記本発明のプログラムを記録していることを特徴とする。
本発明の属性判定システムは、
判定対象人物画像を取得する画像取得手段と、
前記判定対象人物画像から、頭部領域、顔領域、およびその他の領域からなる群から選択される少なくとも2つの属性判定領域を検出する属性判定領域検出手段と、
前記少なくとも2つの属性判定領域の画像から属性を判定する属性判定手段と、
属性判定結果を出力する出力手段と
を含み、
前記画像取得手段および前記出力手段が、システム外の通信回線網を介して、前記属性判定領域検出手段および前記属性判定手段と接続されていることを特徴とする。
本発明によれば、例えば、顔の特徴的な部分が隠れている場合でも、人物の検出精度が高く、人物の属性判定が可能である属性判定方法、属性判定装置、プログラム、記録媒体および属性判定システムを提供できる。
図1Aは、本発明の属性判定方法の一例(実施形態1)を示すフローチャートである。 図1Bは、本発明の属性判定装置の一例(実施形態1)の構成を示すブロック図である。 図1Cは、前記実施形態1の属性判定装置におけるその他の例の構成を示すブロック図である。 図2A(a)および(b)は、本発明において、学習画像中に頭部領域(正例)を付与する、一例を説明する図である。 図2Bは、本発明において、学習画像中に顔領域(正例)を付与する、一例を説明する図である。 図2Cは、本発明において、学習画像中に全身領域(正例)を付与する、一例を説明する図である。 図2Dは、頭部領域と顔領域との重なり度を算出する、一例を説明する図である。 図2Eは、頭部領域と全身領域との重なり度を算出する、一例を説明する図である。 図3A(a)〜(c)は、本発明における属性判定領域検出工程および属性判定工程の一例を説明する図である。 図3B(a)〜(c)は、本発明における属性判定領域検出工程および属性判定工程のその他の例を説明する図である。 図4は、本発明の属性判定装置を用いた属性判定システムの一例(実施形態3)の構成を示すブロック図である。
本発明において、前記その他の領域は、頭部領域または顔領域を含む領域でもよく、例えば、全身または全身の一部(上半身等)等があげられる。
つぎに、本発明の実施形態について説明する。なお、本発明は、下記の実施形態によってなんら限定および制限されない。なお、以下の図1から図4において、同一部分には、同一符号を付している。
[実施形態1]
本実施形態は、前記その他の領域が、全身である場合の一例である。図1Aに、本実施形態における属性判定方法のフローチャートを示す。また、図1Bに、本実施形態における属性判定装置のブロック図を示す。図1Bに示すように、本実施形態の属性判定装置は、画像取得手段111、演算手段120、出力手段131およびデータ記憶手段140を主要な構成要素として含む。画像取得手段111は、演算手段120に接続されている。演算手段120は、出力手段131とデータ記憶手段140とに接続されている。演算手段120は、属性判定領域検出手段121および属性判定手段122を含む。データ記憶手段140には、予め取得した属性判定領域検出モデル141および属性判定モデル142が格納されている。属性判定領域検出手段121は、属性判定領域検出モデル141に接続されている。属性判定手段122は、属性判定モデル142に接続されている。属性判定領域検出モデル141は、頭部領域検出モデル141a、顔領域検出モデル141bおよび全身領域検出モデル141cを含む。属性判定モデル142は、頭部領域属性判定モデル142a、顔領域属性判定モデル142bおよび全身領域属性判定モデル142cを含む。
画像取得手段111は、例えば、CCD(Charge Coupled Device)カメラ、CMOS(Complementary Metal Oxide Semiconductor)カメラ、イメージスキャナ等があげられる。演算手段120は、例えば、中央処理装置(CPU)等があげられる。出力手段131は、例えば、映像により出力するモニター(例えば、液晶ディスプレイ(LCD)、ブラウン管(CRT)ディスプレイ等の各種画像表示装置等)、印刷により出力するプリンター、音声により出力するスピーカー等があげられる。出力手段131は、任意の構成要素であり、本発明の属性判定装置に含まれていなくてもよいが、含まれていることが好ましい。データ記憶手段140は、例えば、ランダムアクセスメモリ(RAM)、読み出し専用メモリ(ROM)、ハードディスク(HD)、光ディスク、フロッピー(登録商標)ディスク(FD)等があげられる。データ記憶手段140は、例えば、装置内蔵型でもよいし、外部記憶装置のような外付け型でもよい。前記画像取得手段、前記演算手段、前記出力手段および前記データ記憶手段については、後述の実施形態においても同様である。
本発明において、属性は、人物に関する属性であり、例えば、性別、年齢、人種、頭部の角度、髪の毛の長さ、帽子の有無、髪の毛の色、ヘアスタイル、顔の向き、表情、眼鏡やサングラスの有無、マスクの有無、髭の有無等があげられる。
本実施形態の属性判定方法は、例えば、図1Bの属性判定装置を用いて、つぎのようにして実施する。
まず、前記属性判定方法の実施に先立ち、機械学習(パターン認識)の技術を用いて学習することで、頭部領域検出モデル141aおよび頭部領域属性判定モデル142a、顔領域検出モデル141bおよび顔領域属性判定モデル142b、ならびに、全身領域検出モデル141cおよび全身領域属性判定モデル142cを作成する。
<頭部領域検出モデルおよび頭部領域属性判定モデル>
頭部領域検出モデル141aは、学習用画像の頭部領域を正例とし、非頭部領域を負例として、機械学習(パターン認識)で学習することにより作成される。具体的には、例えば、図2A(a)および(b)に示すように、まず、学習用画像10a(正面向きの男性)および10b(後ろ向きの女性)の頭部に、ラベリング11aおよび11bを付すことで、前記頭部領域を付与する。前記頭部領域の教師データは、例えば、キーボード、マウス等の従来公知の入力手段を用いて、人が入力することで付与される。検出精度を考慮すると、前記学習用画像の数は多いほど好ましく、多数用意した学習用画像(例えば、横向きの画像等)から、頭部領域検出モデルを作成することが好ましい。
つぎに、前記頭部領域に属性判定用教師データを付与し、前記属性判定用教師データが付与された頭部領域を多数用いて、機械学習(パターン認識)により、頭部領域属性判定モデル142aを作成する。本実施形態の属性判定方法において、前記属性判定用教師データは、例えば、性別、年齢等があげられる。具体的には、図2A(a)に示す学習用画像の前記頭部領域には、例えば、「性別:男性」、「年齢:30歳」等の判定用教師データを付与し、図2A(b)に示す学習用画像には、例えば、「性別:女性」、「年齢:20歳」等の属性判定用教師データを付与する。前記性別または前記年齢等の属性判定用教師データは、例えば、キーボード、マウス等の従来公知の入力手段を用いて、人が入力することで付与される。また、属性判定に頭部領域の向きの項目を用いる場合、例えば、1度単位での向きデータ(例えば、左向き60°)、8方向に準じた向きデータ(例えば、0°、45°、90°・・・)等の前記頭部領域の向きの属性判定用教師データも付与できる。なお、属性の判定は、学習を用いずに、例えば、人間がルールを決めて属性を判定するという方法(頭部領域属性判定ルール)でも行える。
<顔領域検出モデルおよび顔領域属性判定モデル>
顔領域検出モデル141bは、学習用画像の顔領域(人物の顔面中で特徴的な部分である、目、眉、鼻孔、口等の顔部分を含む領域)を、機械学習(パターン認識)で学習することにより作成する。図2Bに示すように、まず、学習用画像10c(正面向きの男性)の顔に、ラベリング11cを付すことで、前記顔領域を付与する。前記顔領域の教師データは、例えば、キーボード、マウス等の従来公知の入力手段を用いて、人が入力することで付与される。検出精度を考慮すると、前記学習用画像の数は多いほど好ましく、多数用意した学習用画像から、顔領域検出モデルを作成することが好ましい。前記顔領域検出モデルは、例えば、前記顔部分の相対位置または大きさ等の情報を含んでもよい。
つぎに、前記顔領域に属性判定用教師データを付与し、前記属性判定用教師データが付与された頭部領域を多数用いて、機械学習(パターン認識)により、顔領域属性判定モデル142bを作成する。本実施形態の属性判定方法において、前記属性判定用教師データは、例えば、性別、年齢等があげられる。具体的には、図2Bに示す学習用画像の前記顔領域には、例えば、「性別:男性」、「年齢:30歳」等の属性判定用教師データを付与する。前記性別および前記年齢等の属性判定用教師データは、例えば、キーボード、マウス等の従来公知の入力手段を用いて、人が入力することで付与される。また、属性の判定は、学習を用いずに、例えば、人間がルールを決めて属性を判定するという方法(顔領域属性判定ルール)でも行える。
<全身領域検出モデルおよび全身領域属性判定モデル>
全身領域検出モデル141cは、学習用画像の全身領域を正例とし、非全身領域を負例として、機械学習(パターン認識)で学習すること作成される。具体的には、例えば、図2Cに示すように、まず、学習用画像10d(正面向きの男性)の全身に、ラベリング11dを付すことで、前記全身領域を付与する。前記全身領域の教師データは、例えば、キーボード、マウス等の従来公知の入力手段を用いて、人が入力することで付与される。検出精度を考慮すると、前記学習用画像の数は多いほど好ましく、多数用意した学習用画像から、全身領域検出モデルを作成することが好ましい。
つぎに、前記全身領域に属性判定用教師データを付与し、前記属性判定用教師データが付与された全身領域を多数用いて、機械学習(パターン認識)により、全身領域属性判定モデル142cを作成する。本実施形態の属性判定方法において、前記属性判定用教師データは、例えば、性別、年齢等があげられる。具体的には、図2Cに示す学習用画像の前記全身領域には、例えば、「性別:男性」、「年齢:30歳」等の属性判定用教師データを付与する。前記性別および前記年齢等の属性判定用教師データは、例えば、キーボード、マウス等の従来公知の入力手段を用いて、人が入力することで付与される。また、学習を用いずに、例えば、人間がルールを決めて属性を判定するという方法(全身領域属性判定ルール)でも行える。また、属性判定に体の向きの項目を用いる場合、例えば、1度単位での向きデータ(例えば、左向き60°)、8方向に準じた向きデータ(例えば、0°、45°、90°・・・)等の体の向きの属性判定用教師データも付与できる。
つぎに、図1Aのフローチャートに示すように、以下のステップを実施する。まず、画像取得手段111により、判定対象人物画像を取得する(ステップS11)。
つぎに、属性判定領域検出手段121により、属性判定領域の教師データが付与された学習用画像を多数用いて学習することで予め作成した属性判定領域検出モデル141を参照して、前記判定対象人物画像から、頭部領域、顔領域および全身領域からなる群から選択される少なくとも2つの属性判定領域データを検出する(ステップS21)。
<頭部領域データの検出>
頭部領域データは、具体的には、例えば、検出したい頭部領域サイズ(例えば、正方形)を指定し、予め作成した頭部領域検出モデル141aを参照して、判定対象人物画像の端部から水平方向に、画像パッチを順に下の行に向かって移動させて探索する、いわゆるラスタスキャンで検出される。これと共に、例えば、前記判定対象人物画像の取得サイズも変更して頭部領域を探索することで、前記頭部領域データを検出する。このようにして、前記頭部領域データを検出すれば、頭部領域の位置あわせ(アライメント)も同時に行えて好ましい。なお、頭部領域データの検出は、この例には限定されず、例えば、前記判定対象人物画像中の円形の物体を頭部領域として検出し、検出された頭部領域を位置合わせ(アライメント)して行ってもよい。前記アラインメントは、例えば、前記演算手段に含まれるアライメント手段(図示せず)により行ってもよい。
<顔領域データの検出>
顔領域データは、具体的には、例えば、予め作成した顔領域検出モデル141bを参照して、判定対象人物画像から、顔領域検出モデル141bに合致する部分として検出される。
<全身領域データの検出>
全身領域データは、具体的には、例えば、検出したい全身領域サイズ(例えば、長方形)を指定し、予め作成した全身領域検出モデル141cを参照して、前記頭部領域の検出と同様の方法で検出される。
つぎに、属性判定手段122により、属性判定用教師データが付与された属性判定領域を多数用いて学習することで予め作成した属性判定モデル142を参照して、前記少なくとも2つの属性判定領域の画像から属性を判定する(ステップS22)。具体的には、例えば、各属性判定領域画像の属性を判定し、各属性判定領域画像が同一人物に属するか否かを判定し、同一人物に属する各属性判定領域画像を統合して属性を判定する。前記属性の判定を、例えば、前述の機械学習により行う場合は、年齢のように連続した値を推定する方法(回帰(Regression))と、男性/女性のようにカテゴリを推定する方法(識別(Classification))との両方を使用できる。
<頭部領域画像からの属性判定>
頭部領域画像からの属性判定の判定項目は、例えば、性別、年齢、人種、頭部の角度、髪の毛の長さ、帽子の有無、髪の毛の色、ヘアスタイル、顔の向き、表情、眼鏡やサングラスの有無、マスクの有無、髭の有無等があげられる。判定項目が性別である場合、例えば、性別度(例えば、0〜1)に基づいて判定できる。前記性別度は、頭部領域データを基に算出できる。具体的には、例えば、前記性別度が「0〜0.5未満」であれば、「女性」と判定し、前記性別度が「0.5〜1」であれば、「男性」と判定する、という基準を設定しておき、算出された性別度の値から性別を判定する。なお、性別度から性別を判定する基準は、この例に限定されず、例えば、前記性別度が「0〜0.3」であれば、「女性」と判定し、前記性別度が「0.7〜1」であれば、「男性」と判定し、前記性別度が「0.3より大きく0.7未満」であれば、「判定不能」とする、という基準等でもよい。前記年齢等についても、例えば、所定の基準を設定して、前記頭部領域データを基に算出された値から判定する。
<顔領域画像からの属性判定>
顔領域画像からの属性判定の判定項目は、例えば、前記頭部領域画像からの属性判定の判定項目と同様であり、顔領域画像からの属性は、例えば、前記頭部領域画像からの属性判定と同様にして判定できる。
<全身領域画像からの属性判定>
全身領域画像からの属性判定の判定項目は、例えば、前記頭部領域画像からの属性判定の判定項目と同様であり、全身領域画像からの属性は、例えば、前記頭部領域画像からの属性判定と同様にして判定できる。
<各属性判定領域画像が同一人物に属するか否かの判定>
つぎに、前記各頭部領域、顔領域および全身領域が、同一人物に属するか否かを判定する。この判定には、例えば、下記式(3)で表される重なり度を用いる。なお、前記同一人物に属するか否かの判定は、例えば、前記各属性判定領域画像の属性判定の前に行ってもよい。すなわち、例えば、予め前記各頭部領域、顔領域および全身領域が同一人物に属するか否かを判定した後に、同一人物に属する各頭部領域、顔領域および全身領域の属性判定を行ってもよい。

重なり度=(2×X×Y)/(X+Y) (3)

X:いずれかの属性判定領域の面積に対する、前記いずれかの属性判定領域と前記いずれかの属性判定領域以外の属性判定領域を所定の比率で変形した領域とが重なった領域の面積の割合
Y:前記所定の比率で変形した領域の面積に対する、前記重なった領域の面積の割合
<重なり度算出の具体例>
前記式(3)で表される重なり度について、以下に、具体例をあげて説明する。ただし、重なり度は、以下の例に限定されない。
<顔領域と頭部領域との重なり度>
まず、顔領域と頭部領域との重なり度について説明する。すなわち、まず、取得した判定対象人物画像から、図2D(a)に示すように、頭部領域(A)21および顔領域22を検出する。つぎに、図2D(b)に示すように、検出した顔領域22を所定の比率で変形する。この領域を頭部領域(B)21aとする。具体的には、例えば、顔領域22の横サイズがx、縦サイズがyである場合、顔領域22の左右方向にそれぞれ、xの0.5倍、上方向にyの0.8倍、下方向にyの0.2倍伸ばした領域を、頭部領域(B)21aとする。つぎに、図2D(c)に示すように、頭部領域(A)21と頭部領域(B)21aとが重なった領域(C、斜線部)24の面積を算出する。そして、下記式(1)に示すように、前記頭部領域(A)の面積に対する、前記重なった領域(C)の面積の割合(X)を算出する。

X=C/A (1)
また、下記式(2)に示すように、前記頭部領域(B)の面積に対する、前記重なった領域(C)の面積の割合(Y)を算出する。

Y=C/B (2)
前記割合(X)および(Y)から、下記式(3)に示すようにして、前記頭部領域と前記顔領域の重なり度を算出する。

重なり度=(2×X×Y)/(X+Y) (3)
<頭部領域と全身領域との重なり度>
つぎに、頭部領域と全身領域との重なり度について説明する。すなわち、まず、取得した判定対象人物画像から、頭部領域(A)および全身領域を検出する。つぎに、図2Eに示すように、検出した全身領域23を所定の比率で変形する。この領域を頭部領域(D)21bとする。具体的には、例えば、全身領域23の横サイズがx、縦サイズがyである場合に、全身領域23の左右方向をそれぞれ、xの0.3倍、下方向をyの0.8倍縮めた領域を、頭部領域(D)21bとする。図2Eにおいて、21eは、頭部領域(A)である。つぎに、前述と同様にして、頭部領域(A)と頭部領域(D)とが重なった領域(C)の面積を算出する。つぎに、前記式(1)と同様にして、前記頭部領域(A)の面積に対する、前記重なった領域(C)の面積の割合(X)を算出する。また、前記式(2)と同様にして、前記頭部領域(D)の面積に対する、前記重なった領域(C)の面積の割合(Y)を算出する。そして、前記割合(X)および(Y)から、下記式(3)に示すようにして、前記頭部領域と前記全身領域の重なり度を算出する。

重なり度=(2×X×Y)/(X+Y) (3)
重なり度は、上記2つの具体例の他にも、顔領域と全身領域との重なり度を算出する場合、例えば、全身領域を所定の比率で縮小(変形)した領域を顔領域とし、前述と同様にして算出してもよい。また、頭部領域と顔領域との重なり度は、例えば、頭部領域を所定の比率で縮めた(変形した)領域を顔領域とし、前述と同様に算出してもよい。また、頭部領域と全身領域との重なり度は、例えば、頭部領域を所定の比率で伸ばした(変形した)領域を全身領域とし、前述と同様に算出してもよい。
重なり度は、1(最大値)〜0(最小値)の数値で表される。本実施形態の属性判定方法では、例えば、重なり度が、予め設定された閾値以上の値(例えば、重なり度≧0.7)である場合に、前記各頭部領域、顔領域および全身領域が同一人物に属すると判定してもよい。
<属性判定領域画像の統合による属性の判定>
つぎに、前記同一人物に属すると判定された前記各頭部領域、顔領域および全身領域の画像を統合して、属性を判定する。判定項目(判定結果)の統合は、例えば、下記式(4)により行える。下記式(4)において、「n」は、判定対象画像(フレーム)数を示し、「i」は、対象画像の番号を示す。
Figure 0005569990
つぎに、出力手段131により、属性の判定結果を出力する(ステップS31)。判定項目は、前述のとおりである。なお、出力工程S31は、任意の工程であり、本発明の属性判定方法に含まれていなくてもよいが、含まれていることが好ましい。
以下に、画像取得手段111により取得される判定対象人物画像の具体例をあげて、前記属性判定領域検出工程および前記属性判定工程を説明する。ただし、発明は、以下の例に限定されない。
図3A(a)は、判定対象人物画像の一例であり、複数の人物が写った画像である。この画像において、左側の人物は、正面向きで胸から上が写っている。右側の人物は、正面向きで全身が写っている。
まず、属性判定領域検出手段121により、予め取得した属性判定領域検出モデル141を参照して、属性判定領域を検出する。この結果、図3A(a)に示すように、例えば、頭部領域31aおよび31b、顔領域32aおよび32b、ならびに、全身領域33bが検出される。
つぎに、属性判定手段122により、予め取得した属性判定モデル142を参照して、頭部領域31aおよび31b、顔領域32aおよび32b、ならびに、全身領域33bの属性を判定する。
つぎに、重なり度を用いて、頭部領域31aおよび31b、顔領域32aおよび32b、ならびに、全身領域33bが、同一人物に属するか否かを判定する。これにより、例えば、頭部領域31aおよび顔領域32aは、図3A(a)における左側の人物に属すると判定され、頭部領域31b、顔領域32bおよび全身領域33bは、図3A(a)における右側の人物に属すると判定される。
つぎに、図3A(b)に示すように、頭部領域31aおよび顔領域32aを統合して属性を判定する。また、図3A(c)に示すように、頭部領域31b、顔領域32bおよび全身領域33bを統合して属性を判定する。
図3A(b)に示す前記統合は、前記判定対象項目が性別である場合、例えば、下記式(5)により行える。
Figure 0005569990
前記式(5)において、「頭部の性別度」は、属性判定工程S22において算出された頭部領域の性別度である。「顔の性別度」は、属性判定工程S22において算出された顔領域の性別度である。「頭部の性別における信頼度」は、例えば、0より大きく1以下で表すことができ、属性判定工程S22において算出された頭部領域の性別度の信頼性の高低を示す。また、「顔の性別における信頼度」は、例えば、0より大きく1以下で表すことができ、属性判定工程S22において算出された顔領域の性別度の信頼性の高低を示す。頭部領域の信頼度および顔領域の信頼度は、例えば、使用するモデルの性能に応じて決定してもよい。例えば、頭部領域の画像から性別を判定すると70%の精度であるが、顔領域の画像から性別を判定すると80%の精度が得られるという場合、後者の信頼度を高くすることで、高精度での判定が可能となる。
また、例えば、判定対象人物画像全体が暗いことにより頭部領域全体が濃く(暗く)なるため、女性であるにも関わらず性別度が男性寄りに算出されるような場合がある。そのような場合、判定対象人物画像全体が暗いという条件では、頭部領域での性別の判定の信頼性が低いため、前記頭部領域の性別における信頼度を低く設定する(0に近い数値)。
前記顔の性別における信頼度に影響を与える条件としては、例えば、顔の角度(向き)があげられる。正面向きの顔の画像から性別を判定すると精度が高くなり、斜め向きの顔の画像から性別を判定すると精度が若干低くなることが分かっている場合、前者の信頼度を高く設定し(1に近い数値)、後者の信頼度を低く設定する(0に近い数値)。前記信頼度に影響を与える条件としては、前記顔の角度(向き)の他に、例えば、顔の隠れ、判定対象人物画像の画質、判定対象人物画像中の顔領域の大きさ、光の当たり方、コントラストの強さ等があげられる。具体的には、前記顔の隠れについては、例えば、隠れている部分が大きい場合、信頼度を低く設定する。前記判定対象人物画像の画質については、例えば、ぶれが大きい、またはノイズが多い場合、信頼度を低く設定する。前記判定対象人物画像中の顔領域の大きさについては、例えば、前記顔領域が小さい場合、信頼度を低く設定する。前記光の当たり方については、例えば、光の当たり方に偏りがある場合、信頼度を低く設定する。前記コントラストの強さについては、例えば、コントラストが弱く情報量が少ない場合、信頼度を低く設定する。
図3A(c)に示す前記統合は、前記判定対象項目が性別である場合、例えば、下記式(6)により行える。
Figure 0005569990
前記式(6)において、「全身の性別度」は、属性判定工程S22において算出された全身領域の性別度である。「頭部の性別度」および「顔の性別度」は、前記式(5)と同様である。「全身の性別における信頼度」は、例えば、0より大きく1以下で表すことができ、属性判定工程S22において算出された全身領域の性別度の信頼性の高低を示す。「頭部の性別における信頼度」および「顔の性別における信頼度」は、前記式(5)と同様である。
前記全身の性別における信頼度に影響を与える条件としては、例えば、全身の角度(向き)があげられる。正面向きの全身の画像から性別を判定すると精度が高くなり、斜め向きの全身の画像から性別を判定すると精度が若干低くなることが分かっている場合、前者の信頼度を高く設定し(1に近い数値)、後者の信頼度を低く設定する(0に近い数値)。前記信頼度に影響を与える条件としては、前記全身の角度(向き)の他に、例えば、全身の隠れ、判定対象人物画像の画質、判定対象人物画像中の全身領域の大きさ、光の当たり方、コントラストの強さ等があげられる。具体的には、前記全身の隠れについては、例えば、隠れている部分が大きい場合、信頼度を低く設定する。前記判定対象人物画像の画質については、例えば、ぶれが大きい、またはノイズが多い場合、信頼度を低く設定する。前記判定対象人物画像中の全身領域の大きさについては、例えば、前記全身領域が小さい場合、信頼度を低く設定する。前記光の当たり方については、例えば、光の当たり方に偏りがある場合には、信頼度を低く設定する。前記コントラストの強さについては、例えば、コントラストが弱く情報量が少ない場合、信頼度を低く設定する。
図3B(a)に、判定対象人物画像の別の一例を示す。図3B(a)は、複数の人物が写った画像である。この画像において、左側の人物は、後ろ向きで全身が写っている。右側の人物は、帽子を被っており、正面向きで全身が写っている。
まず、属性判定領域検出手段121により、予め取得した属性判定領域検出モデル141を参照して、属性判定領域を検出する。この結果、図3B(a)に示すように、例えば、頭部領域31c、顔領域32d、ならびに、全身領域33cおよび33dが検出される。
つぎに、前述の図3A(a)の場合と同様に、属性判定手段122により、予め取得した属性判定モデル142を参照して、頭部領域31c、顔領域32d、ならびに、全身領域33cおよび33dの属性を判定する。
つぎに、前述の図3A(a)の場合と同様に重なり度を用いて、頭部領域31c、顔領域32d、ならびに、全身領域33cおよび33dが、同一人物に属するか否かを判定する。これにより、例えば、頭部領域31cおよび全身領域33cは、図3B(a)における左側の人物に属すると判定され、顔領域32dおよび全身領域33dは、図3B(a)における右側の人物に属すると判定される。
つぎに、図3B(b)に示すように、頭部領域31cおよび全身領域33cを統合して属性を判定する。また、図3B(c)に示すように、顔領域32dおよび全身領域33dを統合して属性を判定する。
図3B(b)に示す前記統合は、前記判定対象項目が性別である場合、例えば、下記式(7)により行える。
Figure 0005569990
前記式(7)において、「頭部の性別度」および「頭部の性別における信頼度」は、前記式(5)と同様であり、「全身の性別度」および「全身の性別における信頼度」は、前記式(6)と同様である。
図3B(c)に示す前記統合は、前記判定対象項目が性別である場合、例えば、下記式(8)により行える。
Figure 0005569990
前記式(8)において、「顔の性別度」および「顔の性別における信頼度」は、前記式(5)と同様であり、「全身の性別度」および「全身の性別における信頼度」は、前記式(6)と同様である。
前述のように、本実施形態の属性判定方法では、前記頭部領域、前記顔領域および前記全身領域の少なくとも2つの属性判定領域の画像から属性を判定する。すなわち、前記少なくとも2つ属性判定領域をハイブリッドさせて属性を判定する。このため、本実施形態の属性判定方法は、検出できない領域がある場合においても、人物の検出精度が高く、人物の属性を判定できる。すなわち、例えば、図3B(b)に示すように、顔の特徴的な部分が隠れている場合でも、前記頭部領域および前記全身領域の2つの画像から人物の属性を判定できる。この結果、例えば、画像取得手段(例えば、監視カメラ等)の設置場所の選択の幅を広げることができ、例えば、既存の監視カメラ等も利用できる。また、属性の判定に顔のみではなく頭部および全身を用いているため、正面に近い画像でなければ属性の判定が困難である顔のみの場合とは異なり、例えば、後方から撮影した画像等、あらゆる方向から撮影した画像(フレーム)から属性を判定できる。このため、例えば、多くのフレームを撮影しなくともよくなる。また、あらゆる方向から撮影した画像を属性の判定に用いることができるため、例えば、得られる情報の種類が豊富であり、総合的に、より高精度に属性を判定できる。また、例えば、図3B(c)に示すように、人物が帽子を被っているために、頭部が隠れている場合でも、前記顔領域および前記全身領域の2つの画像から人物の属性を判定できる。本実施形態の属性判定方法では、図3A(c)に示すように、前記頭部領域、前記顔領域および前記全身領域の3つの属性判定領域から属性を判定することで、例えば、より正確に人物の属性を判定できる。
なお、図3A(a)および図3B(a)に示した判定対象人物画像は、画像が1枚(フレームが1つ)の場合の例であるが、本発明は、この例に限定されない。フレーム数が複数の場合には、例えば、前記頭部領域および前記顔領域の2つの画像の統合は、例えば、下記式(9)により行える。フレーム数を増やすことで、例えば、さらに正確に人物の属性を判定できる。下記式(9)において、「n」は、フレーム数を示す。前記頭部領域、前記顔領域および前記全身領域における他の組み合わせにおいても、複数フレームの場合の統合は、例えば、前記式(9)と同様の概念の統合式により行える。
Figure 0005569990
なお、前記属性判定領域検出工程(図1AのS21)では、前記属性判定領域検出モデルを参照して、前記判定対象人物画像から頭部領域、顔領域および全身領域からなる群から選択される少なくとも2つの属性判定領域を検出しているが、本発明は、この例に限定されない。前記属性判定領域の検出は、例えば、属性判定領域判定ルールを参照して行ってもよい。前記属性判定領域判定ルールは、例えば、頭部領域判定ルール、顔領域判定ルール、全身領域判定ルール等があげられる。前記頭部領域判定ルールは、例えば、「判定対象人物画像中の円形の物体は頭部領域である」等のルールがあげられる。前記顔領域判定ルールは、例えば、「判定対象人物画像中で、周辺と比較して輝度が暗い2箇所を目の候補とし、その2箇所を結んだ直線の中点付近から垂線を下ろした箇所に、周辺と比較して輝度が暗い部分があった場合には、その箇所を口と判定し、これらの箇所を囲む領域は顔領域である」等のルールがあげられる。前記全身領域判定ルールは、例えば、「判定対象人物画像中の円形の物体を頭部領域と仮定し、その頭部領域の下の部分を見た場合、動きのある部分の高さが頭部領域の高さの4倍から9倍(4等身〜9等身)である場合には、その動きのある部分を囲む領域は全身領域である」等のルールがあげられる。前記「動きのある部分」は、例えば、多フレーム間で差分がある部分をいう。具体的には、例えば、背景差分またはフレーム間差分等を取得して、検出された動きのある物体の領域をいう。また、例えば、前記属性判定領域の検出は、前記属性判定領域検出モデルおよび前記属性判定領域判定ルールの両方を参照して行ってもよい。この場合、例えば、図1Cに示すように、データ記憶手段140に、属性判定領域判定ルール241が格納され、頭部領域検出手段121が属性判定領域判定ルール241に接続されていてもよい。属性判定領域判定ルール241は、頭部領域判定ルール241aと、顔領域判定ルール241bと、全身領域判定ルール241cとを含む。
また、前記属性判定工程(図1AのS22)では、前記属性判定モデルを参照して、前記頭部領域、前記顔領域および前記全身領域の画像の少なくとも2つから属性を判定しているが、本発明は、この例に限定されない。前記属性判定は、例えば、属性判定ルールを参照して行ってもよい。前記属性判定ルールは、例えば、頭部領域属性判定ルール、顔領域属性判定ルール、全身領域属性判定ルール等があげられる。前記頭部領域属性判定ルールは、例えば、「髪が長ければ女性であり、髪が短ければ男性である」等のルールがあげられる。前記顔領域属性判定ルールは、例えば、「目が大きく、眉毛が細ければ女性である」、「顔領域の画像から多くのエッジ成分(しわ)が抽出されれば、高齢者である」、「目・鼻・口等の顔部品の位置が顔領域の下の方にあれば、子供である」等のルールがあげられる。前記全身領域属性判定ルールは、例えば、「服の領域に赤・ピンク等の色が多ければ女性であり、服の領域に青等の色が多ければ男性である」、「ズボンを履いていれば男性であり、スカートを履いていれば女性である」等のルールがあげられる。また、例えば、前記属性の判定は、前記属性判定モデルおよび前記属性判定ルールの両方を参照して行ってもよい。この場合、例えば、図1Cに示すように、データ記憶手段140に、属性判定ルール242が格納され、属性判定手段122が属性判定ルール242に接続されていてもよい。属性判定ルール242は、頭部領域属性判定ルール242aと、顔領域属性判定ルール242bと、全身領域属性判定ルール242cとを含む。
本実施形態の属性判定方法では、前述のとおり、前記その他の領域として、人物の全身を検出しているが、本発明は、この例に限定されない。前記その他の領域は、例えば、上半身、下半身、髪型等の髪領域、目・鼻・口等の顔部品、バッグ等の持ち物、服装(帽子・靴・靴下等)、ネックレス等のアクセサリー等の人物の全身の一部でもよい。なお、前記全身の一部が上半身の場合、前記上半身は、例えば、頭部領域または顔領域を含む上半身でもよい。前記全身の一部を用いる場合、全身の一部を検出するための検出モデルおよび全身の一部の属性を判定するための属性判定モデルを参照することが好ましい。
[実施形態2]
本実施形態のプログラムは、前述の属性判定方法を、コンピュータ上で実行可能なプログラムである。本実施形態のプログラムは、例えば、記録媒体に記録されてもよい。前記記録媒体は、特に限定されず、例えば、ランダムアクセスメモリ(RAM)、読み出し専用メモリ(ROM)、ハードディスク(HD)、光ディスク、フロッピー(登録商標)ディスク(FD)等があげられる。
[実施形態3]
図4に、本発明の属性判定装置を用いた属性判定システムの一例の構成を示す。図4に示すとおり、この属性判定システムは、画像取得手段111a、111b、111cと、出力手段131a、131b、131cと、通信インターフェイス150a、150b、150cと、サーバ170とを備える。画像取得手段111aおよび出力手段131aは、通信インターフェイス150aに接続されている。画像取得手段111a、出力手段131aおよび通信インターフェイス150aは、場所Xに設置されている。画像取得手段111bおよび出力手段131bは、通信インターフェイス150bに接続されている。画像取得手段111b、出力手段131bおよび通信インターフェイス150bは、場所Yに設置されている。画像取得手段111cおよび出力手段131cは、通信インターフェイス150cに接続されている。画像取得手段111c、出力手段131cおよび通信インターフェイス150cは、場所Zに設置されている。そして、通信インターフェイス150a、150b、150cと、サーバ170とが、回線網160を介して接続されている。
この属性判定システムでは、サーバ170側に、属性判定領域検出手段および属性判定手段を有し、サーバ170に属性判定領域検出モデルおよび属性判定モデルが格納される。例えば、場所Xで画像取得手段111aを用いて取得された判定対象人物画像を、サーバ170に送信し、サーバ170側で、頭部領域、顔領域、および、その他の領域からなる群から選択される少なくとも2つの属性判定領域を検出し、前記少なくとも2つの属性判定領域の画像から属性を判定する。また、検出された属性判定領域および判定された属性のうち、少なくとも前記属性を、出力手段131aにより出力する。また、前記サーバには、例えば、前記属性判定領域判定ルールおよび前記属性判定ルールが格納されていてもよい。
本実施形態の属性判定システムによれば、画像取得手段および出力手段を現場に設置し、サーバ等は他の場所に設置して、オンラインによる属性判定領域の検出および属性の判定が可能である。そのため、例えば、装置の設置に場所を取ることがなく、メンテナンスも容易である。また、例えば、各設置場所が離れている場合でも、一箇所での集中管理や遠隔操作が可能となる。本実施形態の属性判定システムは、例えば、クラウドコンピューティングに対応したものでもよい。
以上、実施形態を参照して本願発明を説明したが、本願発明は、上記実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解しうる様々な変更をすることができる。
この出願は、2010年10月22日に出願された日本出願特願2010−237945を基礎とする優先権を主張し、その開示の全てをここに取り込む。
本発明によれば、例えば、顔の特徴的な部分が隠れている場合でも、人物の検出精度が高く、人物の属性判定が可能である属性判定方法、属性判定装置、プログラム、記録媒体および属性判定システムを提供できる。その結果、例えば、既存の監視カメラ等を利用して人物の属性判定ができ、本発明は、幅広い用途に適用できる。
10a、10b、10c、10d 学習用画像
11a、11b、11c、11d ラベリング
21、21e、31a、31b、31c 頭部領域
21a 頭部領域(B)(顔領域22を所定の比率で変形した領域)
21b 頭部領域(D)(全身領域23を所定の比率で変形した領域)
22、32a、32b、32d 顔領域
23、33b、33c、33d 全身領域(その他の領域)
24 頭部領域(A)と頭部領域(B)とが重なった領域(C)
111、111a、111b、111c 画像取得手段
120 演算手段
121 属性判定領域検出手段
122 属性判定手段
131、131a、131b、131c 出力手段
140 データ記憶手段
141 属性判定領域検出モデル
141a 頭部領域検出モデル
141b 顔領域検出モデル
141c 全身領域検出モデル
142 属性判定モデル
142a 頭部領域属性判定モデル
142b 顔領域属性判定モデル
142c 全身領域属性判定モデル
150a、150b、150c 通信インターフェイス
160 回線網
170 サーバ
241 属性判定領域判定ルール
241a 頭部領域判定ルール
241b 顔領域判定ルール
241c 全身領域判定ルール
242 属性判定ルール
242a 頭部領域属性判定ルール
242b 顔領域属性判定ルール
242c 全身領域属性判定ルール

Claims (9)

  1. 判定対象人物画像を取得する画像取得工程と、
    前記判定対象人物画像から、頭部領域、顔領域、および全身領域からなる群から選択される少なくとも2つの属性判定領域を検出する属性判定領域検出工程と、
    前記少なくとも2つの属性判定領域の画像から属性を判定する属性判定工程と
    を含み、
    前記属性判定工程において、前記少なくとも二つの属性判定領域の画像の属性を統合して属性を判定し、
    前記画像の属性の統合において、前記少なくとも二つの属性判定領域が同一人物に属するか否かを、いずれかの属性判定領域と、前記いずれかの属性判定領域以外の属性判定領域との重なり度を用いて判定することを特徴とする属性判定方法。
  2. 前記画像の属性の統合において、前記少なくとも二つの属性判定領域が同一人物に属するか否かを、下記式(3)で表される重なり度を用いて判定することを特徴とする、請求項記載の属性判定方法。

    重なり度=(2×X×Y)/(X+Y) (3)

    X:いずれかの属性判定領域の面積に対する、前記いずれかの属性判定領域と前記いずれかの属性判定領域以外の属性判定領域を所定の比率で変形した領域とが重なった領域の面積の割合
    Y:前記所定の比率で変形した領域の面積に対する、前記重なった領域の面積の割合
  3. 前記重なり度が予め設定された閾値以上の値である場合に、前記少なくとも二つの属性判定領域が、同一人物に属すると判定することを特徴とする、請求項記載の属性判定方法。
  4. 判定対象人物画像を取得する画像取得手段と、
    前記判定対象人物画像から、頭部領域、顔領域、および全身領域からなる群から選択される少なくとも2つの属性判定領域を検出する属性判定領域検出手段と、
    前記少なくとも2つの属性判定領域の画像から属性を判定する属性判定手段と
    を含み、
    前記属性判定手段が、前記少なくとも二つの属性判定領域の画像の属性を統合して属性を判定し、
    前記画像の属性の統合において、前記少なくとも二つの属性判定領域が同一人物に属するか否かを、いずれかの属性判定領域と、前記いずれかの属性判定領域以外の属性判定領域との重なり度を用いて判定することを特徴とする属性判定装置。
  5. 前記画像の属性の統合において、前記少なくとも二つの属性判定領域が同一人物に属するか否かを、下記式(3)で表される重なり度を用いて判定することを特徴とする、請求項記載の属性判定装置。

    重なり度=(2×X×Y)/(X+Y) (3)

    X:いずれかの属性判定領域の面積に対する、前記いずれかの属性判定領域と前記いずれかの属性判定領域以外の属性判定領域を所定の比率で変形した領域とが重なった領域の面積の割合
    Y:前記所定の比率で変形した領域の面積に対する、前記重なった領域の面積の割合
  6. 前記重なり度が予め設定された閾値以上の値である場合に、前記少なくとも二つの属性判定領域が、同一人物に属すると判定することを特徴とする、請求項記載の属性判定装置。
  7. 請求項1からのいずれか一項に記載の属性判定方法をコンピュータに実行させることを特徴とする、プログラム。
  8. 請求項記載のプログラムを記録していることを特徴とするコンピュータ読み取り可能な記録媒体。
  9. 判定対象人物画像を取得する画像取得手段と、
    前記判定対象人物画像から、頭部領域、顔領域、および全身領域からなる群から選択される少なくとも2つの属性判定領域を検出する属性判定領域検出手段と、
    前記少なくとも2つの属性判定領域の画像から属性を判定する属性判定手段と、
    属性判定結果を出力する出力手段と
    を含み、
    前記画像取得手段および前記出力手段が、システム外の通信回線網を介して、前記属性判定領域検出手段および前記属性判定手段と接続されており、
    前記属性判定手段が、前記少なくとも二つの属性判定領域の画像の属性を統合して属性を判定し、
    前記画像の属性の統合において、前記少なくとも二つの属性判定領域が同一人物に属するか否かを、いずれかの属性判定領域と、前記いずれかの属性判定領域以外の属性判定領域との重なり度を用いて判定することを特徴とする属性判定システム。
JP2012539649A 2010-10-22 2011-09-22 属性判定方法、属性判定装置、プログラム、記録媒体および属性判定システム Active JP5569990B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012539649A JP5569990B2 (ja) 2010-10-22 2011-09-22 属性判定方法、属性判定装置、プログラム、記録媒体および属性判定システム

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2010237945 2010-10-22
JP2010237945 2010-10-22
PCT/JP2011/071562 WO2012053311A1 (ja) 2010-10-22 2011-09-22 属性判定方法、属性判定装置、プログラム、記録媒体および属性判定システム
JP2012539649A JP5569990B2 (ja) 2010-10-22 2011-09-22 属性判定方法、属性判定装置、プログラム、記録媒体および属性判定システム

Publications (2)

Publication Number Publication Date
JPWO2012053311A1 JPWO2012053311A1 (ja) 2014-02-24
JP5569990B2 true JP5569990B2 (ja) 2014-08-13

Family

ID=45975032

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012539649A Active JP5569990B2 (ja) 2010-10-22 2011-09-22 属性判定方法、属性判定装置、プログラム、記録媒体および属性判定システム

Country Status (4)

Country Link
US (1) US9053356B2 (ja)
JP (1) JP5569990B2 (ja)
CN (1) CN103201763B (ja)
WO (1) WO2012053311A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021075772A1 (ko) * 2019-10-18 2021-04-22 주식회사 메이아이 복수 영역 검출을 이용한 객체 탐지 방법 및 그 장치

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6032921B2 (ja) * 2012-03-30 2016-11-30 キヤノン株式会社 物体検出装置及びその方法、プログラム
JP2015001871A (ja) * 2013-06-17 2015-01-05 Necソリューションイノベータ株式会社 人物判定装置、人物判定方法、プログラム及び記録媒体
JP5989251B2 (ja) 2013-09-12 2016-09-07 三菱電機株式会社 操作入力装置及び方法、並びにプログラム及び記録媒体
JP6417664B2 (ja) * 2013-12-27 2018-11-07 沖電気工業株式会社 人物属性推定装置、人物属性推定方法及びプログラム
JP6669453B2 (ja) * 2015-09-08 2020-03-18 株式会社Screenホールディングス 画像分類装置および画像分類方法
JP6809262B2 (ja) * 2017-02-08 2021-01-06 トヨタ自動車株式会社 ドライバ状態検出装置
JP6969878B2 (ja) * 2017-03-13 2021-11-24 パナソニック株式会社 識別器学習装置および識別器学習方法
JP6683889B2 (ja) * 2017-03-22 2020-04-22 株式会社日立国際電気 画像検索装置
JP7336835B2 (ja) * 2018-05-09 2023-09-01 コニカミノルタ株式会社 属性決定装置、属性決定システムおよび属性決定方法
CN109241934A (zh) * 2018-09-21 2019-01-18 北京字节跳动网络技术有限公司 用于生成信息的方法和装置
JP2020091662A (ja) * 2018-12-05 2020-06-11 富士ゼロックス株式会社 情報処理装置及びプログラム
JP6651085B1 (ja) * 2019-07-03 2020-02-19 Awl株式会社 属性認識システム、学習サーバ、及び属性認識プログラム
CN110472611A (zh) * 2019-08-21 2019-11-19 图谱未来(南京)人工智能研究院有限公司 人物属性识别的方法、装置、电子设备及可读存储介质
CN110826469B (zh) * 2019-11-01 2022-12-09 Oppo广东移动通信有限公司 一种人物检测方法、装置及计算机可读存储介质
CN110991380B (zh) * 2019-12-11 2024-08-02 腾讯科技(深圳)有限公司 人体属性识别方法、装置、电子设备以及存储介质
CN111428671A (zh) * 2020-03-31 2020-07-17 杭州博雅鸿图视频技术有限公司 人脸结构化信息识别方法、系统、装置及存储介质
CN112906651B (zh) * 2021-03-25 2023-07-11 中国联合网络通信集团有限公司 目标检测方法及装置
WO2023177222A1 (ko) * 2022-03-16 2023-09-21 에스케이텔레콤 주식회사 이미지 내 사람의 속성 추정 방법 및 장치

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005250712A (ja) * 2004-03-03 2005-09-15 Univ Waseda 人物属性識別方法およびそのシステム
JP2009199322A (ja) * 2008-02-21 2009-09-03 Hitachi Kokusai Electric Inc 監視システム、人物検索方法
JP2010231254A (ja) * 2009-03-25 2010-10-14 Fujifilm Corp 画像解析装置、画像解析方法およびプログラム
JP2010244090A (ja) * 2009-03-31 2010-10-28 Sogo Keibi Hosho Co Ltd 人物情報抽出装置、人物情報抽出方法、及び人物情報抽出プログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10307923A (ja) 1997-05-01 1998-11-17 Mitsubishi Electric Corp 顔部品抽出装置および顔の向き検出装置
JP4286860B2 (ja) * 2004-05-21 2009-07-01 旭化成株式会社 動作内容判定装置
JP4898475B2 (ja) * 2007-02-05 2012-03-14 富士フイルム株式会社 撮影制御装置、撮影装置、及び撮影制御方法
JP2011090466A (ja) * 2009-10-21 2011-05-06 Sony Corp 情報処理装置及び方法、並びにプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005250712A (ja) * 2004-03-03 2005-09-15 Univ Waseda 人物属性識別方法およびそのシステム
JP2009199322A (ja) * 2008-02-21 2009-09-03 Hitachi Kokusai Electric Inc 監視システム、人物検索方法
JP2010231254A (ja) * 2009-03-25 2010-10-14 Fujifilm Corp 画像解析装置、画像解析方法およびプログラム
JP2010244090A (ja) * 2009-03-31 2010-10-28 Sogo Keibi Hosho Co Ltd 人物情報抽出装置、人物情報抽出方法、及び人物情報抽出プログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CSNG200500226003; 今泉 聡 Satoshi IMAIZUMI: '複数情報の統合による人物の性別・年齢層の推定法 Method of Gender and Age-Group Estimation by Integra' 電子情報通信学会技術研究報告 Vol.103 No.452 IEICE Technical Report 第103巻, 20031216, 社団法人電子情報通信学会 The Institute of Electro *
JPN6011055262; 今泉 聡 Satoshi IMAIZUMI: '複数情報の統合による人物の性別・年齢層の推定法 Method of Gender and Age-Group Estimation by Integra' 電子情報通信学会技術研究報告 Vol.103 No.452 IEICE Technical Report 第103巻, 20031216, 社団法人電子情報通信学会 The Institute of Electro *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021075772A1 (ko) * 2019-10-18 2021-04-22 주식회사 메이아이 복수 영역 검출을 이용한 객체 탐지 방법 및 그 장치
KR20210046217A (ko) * 2019-10-18 2021-04-28 주식회사 메이아이 복수 영역 검출을 이용한 객체 탐지 방법 및 그 장치
KR102303779B1 (ko) * 2019-10-18 2021-09-23 주식회사 메이아이 복수 영역 검출을 이용한 객체 탐지 방법 및 그 장치

Also Published As

Publication number Publication date
WO2012053311A1 (ja) 2012-04-26
CN103201763B (zh) 2016-05-25
CN103201763A (zh) 2013-07-10
JPWO2012053311A1 (ja) 2014-02-24
US9053356B2 (en) 2015-06-09
US20130230217A1 (en) 2013-09-05

Similar Documents

Publication Publication Date Title
JP5569990B2 (ja) 属性判定方法、属性判定装置、プログラム、記録媒体および属性判定システム
JP5594791B2 (ja) 属性判定方法、属性判定装置、プログラム、記録媒体および属性判定システム
US8819015B2 (en) Object identification apparatus and method for identifying object
JP5476955B2 (ja) 画像処理装置および画像処理方法、並びにプログラム
WO2020140723A1 (zh) 人脸动态表情的检测方法、装置、设备及存储介质
US11232586B2 (en) Line-of-sight estimation device, line-of-sight estimation method, and program recording medium
JP6157165B2 (ja) 視線検出装置及び撮像装置
JP5431830B2 (ja) 部品検出装置、部品検出方法、プログラムおよび記録媒体
US20220156959A1 (en) Image processing device, image processing method, and recording medium in which program is stored
WO2022213540A1 (zh) 目标检测、属性识别与跟踪方法及系统
US20200184671A1 (en) Image processing system and image processing method
WO2022193516A1 (zh) 一种基于深度相机的人流分析方法及装置
CN112257491B (zh) 自适应调度人脸识别和属性分析方法及装置
JP5451883B2 (ja) 頭部検出方法、頭部検出装置、属性判定方法、属性判定装置、プログラム、記録媒体および属性判定システム
WO2012153868A1 (ja) 情報処理装置、情報処理方法および情報処理プログラム
JP7331910B2 (ja) 情報処理装置、情報処理方法、及びプログラム
WO2016136214A1 (ja) 識別器学習装置、滞留物体検出システム、識別器学習方法、滞留物体検出方法およびプログラム記録媒体
CN112149598A (zh) 一种侧脸评估方法、装置、电子设备及存储介质
CN112395922A (zh) 面部动作检测方法、装置及系统
JP2016162103A (ja) 画像処理プログラム、画像処理装置、及び画像処理方法
JP2011070471A (ja) 目的変数算出装置、目的変数算出方法、プログラムおよび記録媒体
CN115578777B (zh) 一种基于空间映射获得目标的识图方法及装置
EP4407569A1 (en) Systems and methods for tracking objects
CN115457644A (zh) 一种基于扩展空间映射获得目标的识图方法及装置
CN117315785A (zh) 跌倒行为检测方法、装置、设备及计算机可读存储介质

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140203

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140304

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140304

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140422

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140529

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140619

R150 Certificate of patent or registration of utility model

Ref document number: 5569990

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150