JP5594791B2 - 属性判定方法、属性判定装置、プログラム、記録媒体および属性判定システム - Google Patents

属性判定方法、属性判定装置、プログラム、記録媒体および属性判定システム Download PDF

Info

Publication number
JP5594791B2
JP5594791B2 JP2012522505A JP2012522505A JP5594791B2 JP 5594791 B2 JP5594791 B2 JP 5594791B2 JP 2012522505 A JP2012522505 A JP 2012522505A JP 2012522505 A JP2012522505 A JP 2012522505A JP 5594791 B2 JP5594791 B2 JP 5594791B2
Authority
JP
Japan
Prior art keywords
attribute
determination
attribute determination
angle
head
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012522505A
Other languages
English (en)
Other versions
JPWO2012002047A1 (ja
Inventor
一也 植木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Solutions Innovators Ltd
Original Assignee
NEC Solutions Innovators Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Solutions Innovators Ltd filed Critical NEC Solutions Innovators Ltd
Priority to JP2012522505A priority Critical patent/JP5594791B2/ja
Publication of JPWO2012002047A1 publication Critical patent/JPWO2012002047A1/ja
Application granted granted Critical
Publication of JP5594791B2 publication Critical patent/JP5594791B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/178Human faces, e.g. facial parts, sketches or expressions estimating age from face image; using age information for improving recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Description

本発明は、属性判定方法、属性判定装置、プログラム、記録媒体および属性判定システムに関する。
画像から人物を検出し、年齢や性別等の属性を判定するシステムは、テレビ会議やテレビ電話等の各種の画像通信、データベース検索、ビル監視等のセキュリティシステム、顔による照合システム等、多方面に亘り利用されている。例えば、人物の顔面中で特徴的な部分である、目、眉、鼻孔、口などの顔部分でのパターン認識をすることで、この画像に人物の顔面が写っていると判定して、画像中の人物を検出し、さらに属性を判定するという方法がある(例えば、特許文献1参照)。顔の一部を検出する方法は、まず、人物の頭部を検出して、次に顔部分を抽出するという手順で行われる。
特開平10−307923号公報
しかしながら、顔を用いた属性の判定方法では、顔の特徴的な部分の一部分が隠れていると検出および属性の判定が困難であり、正面に近い向きの顔でしか検出および属性の判定ができないという問題がある。したがって、このような方法を適用する場合には、正面向きの顔が撮影しやすい場所にカメラを設置する必要があるが、一般的に、このような場所にカメラを設置することは困難である場合が多い。
そこで、本発明は、顔が正面付近を向いていない場合でも、人物の属性判定が可能であり、かつ、検出精度の高い属性判定方法、属性判定装置、プログラム、記録媒体および属性判定システムを提供することを目的とする。
前記目的を達成するために、本発明の属性判定方法は、
判定対象画像を取得する画像取得工程と、
前記判定対象画像から頭部領域を検出する頭部領域検出工程と、
前記頭部の画像から属性を判定する属性判定工程と
を含むことを特徴とする。
また、本発明の属性判定装置は、
判定対象画像を取得する画像取得手段と、
前記判定対象画像から頭部領域を検出する頭部領域検出手段と、
前記頭部の画像から属性を判定する属性判定手段と
を含むことを特徴とする。
本発明のプログラムは、前記本発明の属性判定方法をコンピュータに実行させることを特徴とする。
本発明の記録媒体は、前記本発明のプログラムを記録していることを特徴とする。
本発明の属性判定システムは、
判定対象画像を取得する画像取得手段と、
前記判定対象画像から頭部領域を検出する頭部領域検出手段と、
前記頭部の画像から属性を判定する属性判定手段と、
予め取得した頭部検出モデルおよび頭部判定ルールの少なくとも一方と、
前記頭部の画像から属性を判定するための属性判定モデルおよび属性判定ルールの少なくとも一方と、
属性判定結果を出力する出力手段と
を含み、
前記画像取得手段および前記出力手段が、システム外の通信回線網を介して、前記頭部領域検出手段、前記属性判定手段、前記頭部検出モデルおよび前記頭部判定ルールの少なくとも一方、ならびに、前記属性判定モデルおよび前記属性判定ルールの少なくとも一方と接続されていることを特徴とする。
本発明によれば、顔が正面付近を向いていない場合でも、人物の属性判定が可能であり、かつ、検出精度の高い属性判定方法、属性判定装置、プログラム、記録媒体および属性判定システムを提供できる。
図1Aは、本発明の属性判定方法の一例(実施形態1)を示すフローチャートである。 図1Bは、本発明の属性判定装置の一例(実施形態1)の構成を示すブロック図である。 図1Cは、前記実施形態1の属性判定装置におけるその他の例を示すブロック図である。 図2(a)〜(d)は、本発明において、学習画像中に頭部領域(正例)を付与する、一例を説明する図である。 図3(a)および(b)は、本発明における頭部領域検出工程の一例を説明する図である。 図4Aは、本発明の属性判定方法のその他の例(実施形態2)を示すフローチャートである。 図4Bは、本発明の属性判定装置のその他の例(実施形態2)の構成を示すブロック図である。 図5Aは、本発明の属性判定方法のさらにその他の例(実施形態3)を示すフローチャートである。 図5Bは、本発明の属性判定装置のさらにその他の例(実施形態3)の構成を示すブロック図である。 図6(a)および(b)は、本発明において、頭部領域に角度の教師データを付与する、一例を説明する図である。 図7は、本発明の属性判定装置を用いた属性判定システムの一例(実施形態5)の構成を示すブロック図である。
つぎに、本発明の実施形態について説明する。なお、本発明は、下記の実施形態によってなんら限定および制限されない。なお、以下の図1から図7において、同一部分には、同一符号を付している。
[実施形態1]
図1Aに、本実施形態における属性判定方法のフローチャートを示す。また、図1Bに、本実施形態における属性判定装置のブロック図を示す。図1Bに示すように、本実施形態の属性判定装置は、画像取得手段111、演算手段120、出力手段131およびデータ記憶手段140を主要な構成要素として含む。画像取得手段111は、演算手段120に電気的に接続されている。演算手段120は、出力手段131とデータ記憶手段140とに電気的に接続されている。演算手段120は、頭部領域検出手段121および属性判定手段122を含む。データ記憶手段140には、予め取得した頭部検出モデル141および属性判定モデル142が格納されている。頭部領域検出手段121は、頭部検出モデル141に接続されている。属性判定手段122は、属性判定モデル142に接続されている。
画像取得手段111としては、例えば、CCD(Charge Coupled Device)カメラ、CMOS(Complementary Metal Oxide Semiconductor)カメラ、イメージスキャナ等があげられる。演算手段120としては、例えば、中央処理装置(CPU)等があげられる。出力手段131としては、例えば、映像により出力するモニター(例えば、液晶ディスプレイ(LCD)、ブラウン管(CRT)ディスプレイ等の各種画像表示装置等)、印刷により出力するプリンター、音声により出力するスピーカー等があげられる。出力手段131は、任意の構成要素であり、本発明の属性判定装置に含まれていなくてもよいが、含まれていることが好ましい。データ記憶手段140としては、例えば、ランダムアクセスメモリ(RAM)、読み出し専用メモリ(ROM)、ハードディスク(HD)、光ディスク、フロッピー(登録商標)ディスク(FD)等があげられる。データ記憶手段140は、例えば、装置内蔵型であってもよいし、外部記憶装置のような外付け型であってもよい。前記画像取得手段、前記演算手段、前記出力手段および前記データ記憶手段については、後述の実施形態においても同様である。
本発明において、属性は、特に限定されず、例えば、性別、年齢、人種、頭部の角度、髪の毛の長さ、帽子の有無、髪の毛の色、ヘアスタイル、顔の向き、表情、眼鏡やサングラスの有無、マスクの有無、髭の有無等があげられる。
本実施形態の属性判定方法は、例えば、図1Bの属性判定装置を用いて、つぎのようにして実施する。
まず、前記属性判定方法の実施に先立ち、機械学習(パターン認識)の技術を用いて学習を行う。具体的には、まず、学習用画像の頭部領域を正例とし、非頭部領域を負例として、機械学習(パターン認識)で学習することで頭部検出モデル141を作成する。具体的には、例えば、図2(a)、(b)、(c)および(d)に示すように、まず、学習用画像10a(正面向きの男性)、10b(正面向きの女性)、10c(横向きの男性)および10d(後ろ向きの女性)の頭部に、ラベリング11a、11b、11cおよび11dを付すことで、前記頭部領域を付与する。前記頭部領域の教師データは、例えば、キーボード、マウス等の従来公知の入力手段を用いて、人が入力することで付与される。検出精度を考慮すると、前記学習用画像の数は多いほど好ましく、多数用意した学習用画像から、頭部検出モデルを作成することが好ましい。
つぎに、前記頭部領域に属性判定用教師データを付与し、前記属性判定用教師データが付与された頭部領域を多数用いて、機械学習(パターン認識)により、属性判定モデル142を作成する。本実施形態の属性判定方法において、前記属性判定用教師データとしては、例えば、性別、年齢等の教師データがあげられる。具体的には、例えば、図2(a)に示す学習用画像の前記頭部領域には、「性別:男性」の属性判定用教師データを付与する。また、例えば、図2(b)に示す学習用画像の前記頭部領域には、「性別:女性」の属性判定用教師データを付与する。さらに、例えば、図2(a)に示す学習用画像には「年齢:30歳」、図2(b)に示す学習用画像には「年齢:20歳」等の年齢の属性判定用教師データを付与する。また、属性判定に向きの項目を用いる場合、例えば、1度単位での向きデータ(例えば、左向き60°)、8方向に準じた向きデータ(例えば、0°、45°、90°・・・)等の前記頭部の向きの属性判定用教師データを付与することもできる。属性の判定を、機械学習により学習で行う場合には、年齢のように連続した値を推定する方法(回帰(Regression))と、男性/女性のようにカテゴリを推定する方法(識別(Classification))の両方を使用できる。前記性別および前記年齢等の属性判定用教師データは、例えば、キーボード、マウス等の従来公知の入力手段を用いて、人が入力することで付与される。また、学習を用いずに、人間がルールを決めて属性を決めるという方法(属性判定ルール)で行うこともできる。
つぎに、図1Aのフローチャートに示すように、以下のステップを実施する。まず、画像取得手段111により、判定対象画像を取得する(ステップS11)。
つぎに、頭部領域検出手段121により、頭部領域の教師データが付与された学習用画像を多数用いて学習することで予め作成した頭部検出モデル141を参照して、前記判定対象画像から頭部領域データを検出する(ステップS21)。具体的には、例えば、図3(a)に示すように、検出したい頭部領域のサイズを指定し、予め作成した頭部検出モデル141を参照して、判定対象画像20の左上端から水平方向に、画像パッチを順に下の行に向かって移動させて探索する、いわゆるラスタスキャンで頭部領域を探索する。これと共に、例えば、図3(b)に示すように、判定対象画像20の取得サイズも変更して頭部領域を探索することで、前記頭部領域のデータを検出する。このようにして、前記頭部領域のデータを検出すれば、頭部領域の位置あわせ(アライメント)も同時に行うことができて好ましい。なお、頭部の検出は、この例には限定されず、例えば、前記判定対象画像中の円形の物体を、頭部領域として検出し、検出された頭部領域を位置合わせ(アライメント)して行ってもよい。前記アラインメントは、例えば、前記演算手段に含まれるアライメント手段(図示せず)により行ってもよい。
つぎに、属性判定手段122により、属性判定用教師データが付与された頭部領域を多数用いて学習することで予め作成した属性判定モデル142を参照して、前記頭部の画像から属性を判定する(ステップS22)。判定項目としては、例えば、性別、年齢、人種、頭部の角度、髪の毛の長さ、帽子の有無、髪の毛の色、ヘアスタイル、顔の向き、表情、眼鏡やサングラスの有無、マスクの有無、髭の有無等があげられる。判定項目が性別である場合は、例えば、性別度(例えば、0〜1)に基づいて判定できる。前記性別度は、頭部領域データを基に算出できる。具体的には、例えば、前記性別度が「0〜0.5未満」であれば、「女性」と判定し、前記性別度が「0.5〜1」であれば、「男性」と判定する、という基準を設定しておき、算出された性別度の値から性別を判定する。なお、性別度から性別を判定する基準は、この例に限定されず、例えば、前記性別度が「0〜0.3」であれば、「女性」と判定し、前記性別度が「0.7〜1」であれば、「男性」と判定し、前記性別度が「0.3より大きく0.7未満」であれば、「判定不能」とする、という基準等であってもよい。前記年齢等についても、例えば、所定の基準を設定して、前記頭部領域データを基に算出された値から年齢等を判定する。
つぎに、出力手段131により、属性の判定結果を出力する(ステップS31)。判定項目は、前述のとおりである。なお、出力工程S31は、任意の工程であり、本発明の属性判定方法に含まれていなくてもよいが、含まれていることが好ましい。
前述のように、本実施形態の属性判定方法では、頭部そのものから属性を判定するため、顔が正面付近を向いていない場合でも、人物の検出や属性判定が可能である。また、本実施形態の属性判定方法では、前述のとおり、頭部そのものから属性を判定するため、例えば、顔が見えていない場合であっても、属性を判定できる。この結果、例えば、画像取得手段(例えば、監視カメラ等)の設置場所の選択の幅を広げることができ、例えば、既存の監視カメラ等の利用も可能である。また、属性の判定に顔ではなく頭部そのものを用いているため、正面に近い画像でなければ属性の判定が困難である顔の場合とは異なり、例えば、後方から撮影した画像等、あらゆる方向から撮影した画像(フレーム)から属性の判定が可能である。このため、例えば、多くのフレームを撮影しなくともよくなる。また、あらゆる方向から撮影した画像を属性の判定に用いることができるため、例えば、得られる情報の種類が豊富であり、総合的に、より高精度に属性の判定が可能である。これらの効果については、後述の実施形態においても同様である。
なお、本実施形態の属性判定方法における前記頭部領域検出工程(図1AのS21)では、前記頭部検出モデルを参照して、前記判定対象画像から頭部領域を検出しているが、本発明は、この例に限定されない。前記頭部領域の検出は、例えば、頭部判定ルールを参照して行ってもよい。前記頭部判定ルールとしては、例えば、「判定対象画像中の円形の物体は頭部領域である」等のルールがあげられる。また、例えば、前記頭部領域の検出は、前記頭部検出モデルおよび前記頭部判定ルールの両方を参照して行ってもよい。この場合には、例えば、図1Cに示すように、データ記憶手段140に、頭部判定ルール241が格納され、頭部領域検出手段121が頭部判定ルール241に接続されていてもよい。
また、本実施形態の属性判定方法における前記属性判定工程(図1AのS22)では、前記属性判定モデルを参照して、前記頭部の画像から属性を判定しているが、本発明は、この例に限定されない。前記属性の判定は、例えば、属性判定ルールを参照して行ってもよい。前記属性判定ルールとしては、例えば、「髪が長ければ女性であり、髪が短ければ男性である」等のルールがあげられる。また、例えば、前記属性の判定は、前記属性判定モデルおよび前記属性判定ルールの両方を参照して行ってもよい。この場合には、例えば、図1Cに示すように、データ記憶手段140に、属性判定ルール242が格納され、属性判定手段122が属性判定ルール242に接続されていてもよい。
[実施形態2]
図4Aに、本実施形態における属性判定方法のフローチャートを示す。また、図4Bに、本実施形態における属性判定装置のブロック図を示す。図4Bに示すように、本実施形態の属性判定装置は、演算手段120が、全体属性判定手段122−1、部分検出手段123、部分属性判定手段124および統合手段125を含み、データ記憶手段140には、全体属性判定モデル142−1および部分属性判定モデル144が格納されている。全体属性判定手段122−1は、全体属性判定モデル142−1に接続されている。部分属性判定手段124は、部分属性判定モデル144に接続されている。これら以外の構成は、図1Bに示す前記実施形態1の属性判定装置と同様である。
本発明において、部分とは、頭部領域に含まれる部分であり、例えば、髪の毛(髪の領域、長さ等)、目、鼻、口、眉、耳、被り物(帽子、フード等)、眼鏡、サングラス、マスク等があげられる。前記目、前記眉、前記耳については、例えば、左右それぞれを別々の部分としてもよいし、左右両方合わせて一つの部分としてもよい。
本実施形態の属性判定方法は、例えば、図4Bの属性判定装置を用いて、つぎのようにして実施する。本実施形態の属性判定方法では、前記部分が髪の毛である場合を例にとり、説明する。ただし、本発明の属性判定方法は、この例に限定されない。
まず、前記属性判定方法の実施に先立ち、機械学習(パターン認識)の技術を用いて学習を行う。具体的には、まず、前記実施形態1と同様にして、学習用画像を機械学習(パターン認識)で学習することで、頭部検出モデル141を作成する。つぎに、前記実施形態1における属性判定モデル142の作成と同様にして、全体属性判定モデル142−1を作成する。
一方、前記学習用画像の頭部領域から、髪の毛についての部分属性判定モデル144を作成する。具体的には、例えば、まず、図2(a)に示す学習用画像の髪の毛の領域を切り抜いた画像には、「性別:男性」の教師データを付与し、図2(b)に示す学習用画像の髪の毛の領域を切り抜いた画像には、「性別:女性」の教師データを付与する。前記教師データは、例えば、キーボード、マウス等の従来公知の入力手段を用いて、人が入力することで作成される。つぎに、これらの前記教師データが付与された髪の毛の領域を切り抜いた画像を多数用いて、前記髪の毛についての部分属性判定モデル144を作成する。
つぎに、図4Aのフローチャートに示すように、以下のステップを実施する。まず、画像取得手段111により、判定対象画像を取得する(ステップS11)。
つぎに、前記実施形態1と同様にして、頭部領域検出手段121により、予め作成した頭部検出モデル141を参照して、前記判定対象画像から頭部領域データを検出する(ステップS21)。前記頭部領域データを検出した後に、部分検出手段123により、前記検出した頭部領域データに含まれる髪の毛の領域を検出する(ステップS23)。
つぎに、全体属性判定手段122−1により、予め取得した全体属性判定モデル142−1を参照して、前記実施形態1における属性判定工程S22と同様にして、前記頭部の画像から属性を判定する(ステップS22−1)。判定項目が性別である場合は、例えば、前記実施形態1と同様に、性別度(例えば、0〜1)に基づいて判定できる。
前記頭部の画像からの属性判定と同時または逐次に、部分属性判定手段124により、予め取得した部分属性判定モデル144を参照して、前記髪の毛の領域における属性を判定する(ステップS24)。判定項目が性別である場合は、例えば、当該部分(髪の毛の領域)における性別度(例えば、0〜1)に基づいて判定できる。
つぎに、統合手段125により、全体属性判定工程S22−1から得られる判定結果と、部分属性判定工程S24から得られる判定結果とを統合する(ステップS25)。統合工程S25において、判定項目(判定結果)の統合は、例えば、下記式(1)により行うことができる。下記式(1)において、「n」は、判定対象画像(フレーム)数を示す。
Figure 0005594791
前記判定項目が性別である場合には、判定結果の統合は、例えば、下記式(2)により行うことができる。
Figure 0005594791
前記式(2)において、「全体の性別度」とは、全体属性判定工程S22−1において算出された性別度である。「部分の性別度」とは、部分属性判定工程S24において算出された性別度である。「全体の性別における信頼度」は、例えば、0より大きく1以下で表すことができ、全体属性判定工程S22−1において算出された性別度の信頼性の高低を示す。また、「部分の性別における信頼度」は、例えば、0より大きく1以下で表すことができ、部分属性判定工程S24において算出された性別度の信頼性の高低を示す。全体の信頼度および部分の信頼度は、使用するモデルの性能に応じて決定してもよい。例えば、全体の画像から性別を判定すると70%の精度であるが、髪の毛を抽出した画像から性別を判定すると80%の精度が得られるという場合には、後者の信頼度を高くすることで、高精度での判定が可能となる。
また、例えば、判定対象画像全体が暗い条件では頭部領域全体が濃く(暗く)なるため、女性であるにも関わらず性別度が男性寄りに算出されるような場合がある。このように、対象画像全体が暗いという条件の場合、頭部領域全体での性別の判定の信頼性が低いため、前記全体の性別における信頼度を低く設定する(0に近い数値)。あるいは、例えば、判定対象の人物として、例えば、黄色人種(髪の毛が黒色の人種)等が多い地域において、頭部領域付近の背景が黒である条件では、短髪であるにも拘らず長髪であるように写るため性別度が女性寄りに算出されるような場合がある。このように、頭部領域付近の背景が黒であるという条件の場合、髪の長さ(部分)による性別の判定の信頼性が低いため、前記信頼度を低く設定する(0に近い数値)。
つぎに、出力手段131により、前記統合された属性の判定結果を出力する(ステップS31)。前記性別の判定は、統合により算出された性別度の値から、例えば、前記実施形態1で示した判定基準に基づいて行う。
本実施形態の属性判定方法では、頭部領域全体から属性を判定し、さらに、前記頭部領域における部分から属性を判定し、これらの判定結果を統合して属性を判定するため、例えば、より高精度に属性の判定が可能である。
なお、前記式(2)は、フレームが1つである場合に用いる式であり、フレーム数が複数の場合には、判定結果の統合は、例えば、下記式(3)により行うことができる。フレーム数を増やすことで、例えば、さらに高精度に画像からの属性の判定が可能である。下記式(3)において、「n」は、フレーム数を示す。
Figure 0005594791
また、本実施形態の属性判定方法における前記部分属性判定工程(図4AのS24)では、前記部分属性判定モデルを参照して、前記部分における画像からの属性を判定しているが、本発明は、この例に限定されない。前記部分における属性の判定は、例えば、部分属性判定ルールを参照して行ってもよい。前記部分属性判定ルールとしては、例えば、「髪が長ければ女性であり、髪が短ければ男性である」等のルールがあげられる。前記部分属性判定ルールは、次のようにして準備できる。例えば、図2(a)に示す学習用画像の前記頭部領域には、「髪の長さ:短い」の教師データを、また、図2(b)に示す学習用画像の前記頭部領域には、「髪の長さ:長い」の教師データを付与し、髪の長さ推定モデルを作成し、髪の長さ推定モデルに基づき、髪の長さを推定した後、髪の長さから、例えば、「短い:男性」「長い:女性」というように、性別を判定するルールを作成できる。また、例えば、前記部分における属性の判定は、前記部分属性判定モデルおよび前記部分属性判定ルールの両方を参照して行ってもよい。この場合には、例えば、前記データ記憶手段に、前記部分属性判定ルールが格納され、前記部分属性判定手段が前記部分属性判定ルールに接続されていてもよい。
[実施形態3]
図5Aに、本実施形態における属性判定方法のフローチャートを示す。また、図5Bに、本実施形態における属性判定装置のブロック図を示す。図5Bに示すように、本実施形態の属性判定装置は、演算手段120が、角度に基づかない属性判定手段122−2、角度判定手段126、角度に基づく属性判定手段127および統合手段128を含み、データ記憶手段140には、角度に基づかない属性判定モデル142−2、角度判定モデル146および角度に基づく属性判定モデル147が格納されている。角度に基づかない属性判定手段122−2は、角度に基づかない属性判定モデル142−2に接続されている。角度判定手段126は、角度判定モデル146に接続されている。角度に基づく属性判定手段127は、角度に基づく属性判定モデル147に接続されている。これら以外の構成は、図1Bに示す前記実施形態1の属性判定装置と同様である。
本実施形態の属性判定方法は、例えば、図5Bの属性判定装置を用いて、つぎのようにして実施する。
まず、前記属性判定方法の実施に先立ち、機械学習(パターン認識)の技術を用いて学習を行う。具体的には、まず、前記実施形態1と同様にして、学習用画像を機械学習(パターン認識)で学習することで、頭部検出モデル141を作成する。つぎに、前記実施形態1における属性判定モデル142の作成と同様にして、頭部の角度と無関係に頭部画像から属性を判定する、角度に基づかない属性判定モデル142−2を作成する。
一方、前記学習用画像の頭部領域から、その頭部領域の角度についての角度判定モデル146を作成する。具体的には、例えば、図6(a)に示すように、正面方向(鼻の方向)を0°として反時計回りに角度が大きくなるように設定する場合、少し左を向いた人物を写した学習用画像の前記頭部領域に、「角度:10°」の教師データを付与する。前記角度の教師データが付与された頭部領域を多数用いて、角度判定モデル146を作成する。さらに、前記角度の教師データが付与された頭部領域に、例えば、「性別:男性」等の教師データを付与する。したがって、例えば、前記頭部領域には、「角度:10°、性別:男性」等の教師データが付与される。前記性別等の教師データが付与された頭部画像を多数用いて、角度に基づく属性判定モデル147を作成する。前記角度および前記性別等の教師データは、例えば、キーボード、マウス等の従来公知の入力手段を用いて、人が入力することで作成される。複数の角度の学習用画像の頭部領域について、それぞれ、角度判定モデルおよび角度に基づく属性判定モデルを作成しておくことが好ましい。前記角度は、首を上下に振る方向での角度で規定してもよいし、首を左右に振る方向での角度で規定してもよい。
つぎに、図5Aのフローチャートに示すように、以下のステップを実施する。まず、画像取得手段111により、判定対象画像を取得する(ステップS11)。
つぎに、前記実施形態1と同様にして、頭部領域検出手段121により、予め作成した頭部検出モデル141を参照して、前記判定対象画像から頭部領域データを検出する(ステップS21)。
つぎに、頭部の角度と無関係に頭部画像から属性を判定する、角度に基づかない属性判定手段122−2により、予め取得した角度に基づかない属性判定モデル142−2を参照して、前記実施形態1における属性判定工程S22と同様にして、前記頭部の画像から属性を判定する(ステップS22−2)。判定項目が性別である場合は、前記実施形態1と同様に、例えば、性別度(例えば、0〜1)に基づいて判定できる。
前記角度と無関係の頭部画像からの属性の判定と同時または逐次に、角度判定手段126により、予め取得した角度判定モデル146を参照して、前記検出した頭部領域データから、予め規定した特定の角度の頭部画像を抽出する(ステップS26)。例えば、頭部が正面向きに近い画像のみで判定を行う場合には、特定の角度領域として、0°±10°等に規定すればよい。ついで、角度に基づく属性判定手段127により、予め取得した角度に基づく属性判定モデル147を参照して、前記抽出された予め規定した特定の角度の頭部画像の属性を判定する(ステップS27)。判定項目が性別である場合は、例えば、前記と同様に性別度(例えば、0〜1)に基づいて判定できる。
つぎに、統合手段128により、角度に基づかない属性判定工程S22−2から得られる判定結果と、角度に基づく属性判定工程S27から得られる判定結果とを統合する(ステップS28)。統合工程S28において、判定項目(判定結果)の統合は、例えば、前記式(1)により行うことができる。判定項目が性別である場合には、判定結果の統合は、例えば、下記式(4)により行うことができる。
Figure 0005594791
前記式(4)において、「全体の性別度」とは、角度に基づかない属性判定工程S22−2において算出された性別度である。「全体の性別における信頼度」は、例えば、0より大きく1以下で表すことができ、角度に基づかない属性判定工程S22−2において算出された性別度の信頼性の高低を示す。「角度の性別度」とは、角度に基づく属性判定工程S27において算出された性別度である。「角度の性別における信頼度」は、例えば、0より大きく1以下で表すことができ、角度に基づく属性判定工程S27において算出された性別度の信頼性の高低を示す。全体の信頼度および角度の信頼度は、使用するモデルの性能に応じて決定してもよい。例えば、全体の画像から性別を判定すると70%の精度であるが、特定の角度の画像から性別を判定すると80%の精度が得られるという場合には、後者の信頼度を高くすることで、高精度での判定をすることが可能となる。
つぎに、出力手段131により、前記統合された属性の判定結果を出力する(ステップS31)。前記性別の判定は、統合により算出された性別度の値から、例えば、前記実施形態1で示した判定基準に基づいて行う。
本実施形態の属性判定方法では、頭部の角度と無関係に頭部画像から属性を判定し、さらに、前記特定の角度における属性を判定し、これらの判定結果を統合して属性を判定するため、例えば、より高精度に属性の判定が可能である。
なお、前記式(4)は、判定対象画像(フレーム)が1つである場合に用いる式であり、フレーム数が複数の場合には、判定結果の統合は、例えば、下記式(5)により行うことができる。フレーム数を増やすことで、例えば、さらに高精度に画像からの属性の判定が可能である。下記式(5)において、「n」は、フレーム数を示す。
Figure 0005594791
また、本実施形態の属性判定方法における前記角度に基づく属性判定工程(図5AのS27)では、前記角度に基づく属性判定モデルを参照して、前記角度における画像からの属性を判定しているが、本発明は、この例に限定されない。前記角度における属性の判定は、例えば、角度に基づく属性判定ルールを参照して行ってもよい。前記角度に基づく属性判定ルールとしては、例えば、「側面からの頭部領域において、のど仏があれば男性であり、無ければ女性である」等のルールがあげられる。また、例えば、前記角度における属性の判定は、前記角度に基づく属性判定モデルおよび前記角度に基づく属性判定ルールの両方を参照して行ってもよい。この場合には、例えば、前記データ記憶手段に、前記角度に基づく属性判定ルールが格納され、前記角度に基づく属性判定手段が前記角度に基づく属性判定ルールに接続されていてもよい。
なお、本実施形態の属性判定方法では、前述のように、前記頭部領域の角度を、角度の数値(0°〜360°)で表して、角度の教師データを付与して角度判定モデルを作成し、角度判定工程において前記頭部領域の角度を判定している。このような角度の表示方法では、例えば、正面方向(角度:0°)から見て、左に1°向いている(角度:1°)場合と、右に1°向いている(角度:359°)場合とでは、正面方向(角度:0°)に対する角度差が2°である(例えば、誤差範囲である)にも関わらず、大きな差(角度差:358°)があるとの誤認識が生じる場合がある。
このような誤認識を回避するために、本発明の属性判定方法では、前記頭部領域の角度を、(x,y)座標で表すことが好ましい。具体的には、例えば、図6(b)に示すように、前記頭部領域の角度を、体軸方向であるz軸に垂直であり、かつ、互いに垂直に交わるx軸とy軸を含むxy平面において、x軸とy軸との交点を中心とする半径1の円の円周上の座標で表わす。人物の正面方向(鼻の方向)の角度の数値を0°として、座標a1(1,0)と表す場合、例えば、角度が10°のときは、(cos10°、sin10°)と表わすことができる。前記8方向に準じた向きは、例えば、45°:a2(1/√2,1/√2)、90°:a3(0,1)、135°:a4(−1/√2,1/√2)、180°:a5(−1,0)、225°:a6(−1/√2,−1/√2)、270°:a7(0,−1)、315°:a8(1/√2,−1/√2)のように表すことができる。また、前記角度を座標で表すことにより、例えば、前記した角度の間の角度等の任意の角度も認識できる。このようにして、前記頭部領域の角度を座標で表して、前記学習用画像の頭部領域に角度の教師データを付与し、前記角度の教師データが付与された頭部領域を多数用いて、前記角度判定モデルを作成する。この角度判定モデルを参照して、前記角度判定工程において前記頭部領域の角度を判定する。
本発明の属性判定方法では、例えば、前記部分属性判定工程および前記角度に基づく属性判定工程の両方を組み合わせて実施してもよい。その場合、例えば、前記部分属性判定工程から得られる判定結果および前記角度に基づく属性判定工程から得られる判定結果を統合して、属性を判定できる。また、本実施形態の属性判定方法では、属性として性別の判定を行っているが、例えば、属性として角度自体の判定を行うこともできる。
[実施形態4]
本実施形態のプログラムは、前述の属性判定方法を、コンピュータ上で実行可能なプログラムである。本実施形態のプログラムは、例えば、記録媒体に記録されてもよい。前記記録媒体としては、特に限定されず、例えば、ランダムアクセスメモリ(RAM)、読み出し専用メモリ(ROM)、ハードディスク(HD)、光ディスク、フロッピー(登録商標)ディスク(FD)等があげられる。
[実施形態5]
図7に、本発明の属性判定装置を用いた属性判定システムの一例の構成を示す。図7に示すとおり、この属性判定システムは、画像取得手段111a、111b、111cと、出力手段131a、131b、131cと、通信インターフェイス150a、150b、150cと、サーバ170とを備える。画像取得手段111aおよび出力手段131aは、通信インターフェイス150aに接続されている。画像取得手段111a、出力手段131aおよび通信インターフェイス150aは、場所Xに設置されている。画像取得手段111bおよび出力手段131bは、通信インターフェイス150bに接続されている。画像取得手段111b、出力手段131bおよび通信インターフェイス150bは、場所Yに設置されている。画像取得手段111cおよび出力手段131cは、通信インターフェイス150cに接続されている。画像取得手段111c、出力手段131cおよび通信インターフェイス150cは、場所Zに設置されている。そして、通信インターフェイス150a、150b、150cと、サーバ170とが、回線網160を介して接続されている。
この属性判定システムでは、サーバ170側に、頭部領域検出手段および属性判定手段を有し、サーバ170に頭部検出モデルおよび属性判定モデルが格納される。例えば、場所Xで画像取得手段111aを用いて取得された判定対象画像を、サーバ170に送信し、サーバ170側で、頭部領域を検出し、前記頭部の画像から属性を判定する。また、検出された頭部領域および判定された属性のうち、少なくとも前記属性を、出力手段131aにより出力する。また、前記サーバには、例えば、前記頭部判定ルールおよび前記属性判定ルールが格納されていてもよい。
本実施形態の属性判定システムによれば、画像取得手段および出力手段を現場に設置し、サーバ等は他の場所に設置して、オンラインによる頭部領域の検出および属性の判定が可能である。そのため、例えば、装置の設置に場所を取ることがなく、メンテナンスも容易である。また、例えば、各設置場所が離れている場合であっても、一箇所での集中管理や遠隔操作が可能となる。本実施形態の属性判定システムは、前述の実施形態2の部分属性判定および実施形態3の角度に基づく属性判定に対応したものであってもよい。また、本本実施形態の属性判定システムは、例えば、クラウドコンピューティングに対応したものであってもよい。
以上、実施形態を参照して本願発明を説明したが、本願発明は、上記実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解しうる様々な変更をすることができる。
この出願は、2010年6月30日に出願された日本出願特願2010−149935を基礎とする優先権を主張し、その開示の全てをここに取り込む。
本発明によれば、顔が正面付近を向いていない場合でも、人物の属性判定が可能であり、かつ、検出精度の高い属性判定方法、属性判定装置、プログラム、記録媒体および属性判定システムを提供できる。その結果、例えば、既存の監視カメラ等を利用して人物の属性判定ができ、本発明は、幅広い用途に適用できる。
10a、10b、10c、10d 学習用画像
11a、11b、11c、11d ラベリング
20 判定対象画像
111、111a、111b、111c 画像取得手段
120 演算手段
121 頭部領域検出手段
122 属性判定手段
122−1 全体属性判定手段
122−2 角度に基づかない属性判定手段
123 部分検出手段
124 部分属性判定手段
125、128 統合手段
126 角度判定手段
127 角度に基づく属性判定手段
131、131a、131b、131c 出力手段
140 データ記憶手段
141 頭部検出モデル
142 属性判定モデル
142−1 全体属性判定モデル
142−2 角度に基づかない属性判定モデル
144 部分属性判定モデル
146 角度判定モデル
147 角度に基づく属性判定モデル
150a、150b、150c 通信インターフェイス
160 回線網
170 サーバ
241 頭部判定ルール
242 属性判定ルール

Claims (19)

  1. 判定対象画像を取得する画像取得工程と、
    前記判定対象画像から頭部領域を検出する頭部領域検出工程と、
    前記頭部の画像から属性を判定する属性判定工程と
    を含み、
    前記属性判定工程が、前記頭部領域全体から属性を判定する全体属性判定工程と、
    前記頭部領域に含まれる部分を検出する部分検出工程と、
    前記部分から属性を判定する部分属性判定工程と、
    前記全体属性判定工程と前記部分属性判定工程とから得られる判定結果を統合する統合工程とを含み、
    前記統合工程において、判定項目の統合を前記判定項目の信頼性の高低を用いて行うことを特徴とする属性判定方法。
  2. さらに、
    前記頭部領域検出工程において検出された頭部領域を位置合わせする、アライメント工程を含むことを特徴とする、請求項1記載の属性判定方法。
  3. 前記頭部領域検出工程において、予め取得した頭部検出モデルおよび頭部判定ルールの少なくとも一方を参照して、前記判定対象画像から頭部領域を検出し、
    前記属性判定工程において、予め取得した属性判定モデルおよび属性判定ルールの少なくとも一方を参照して、前記頭部の画像から属性を判定することを特徴とする、
    請求項1または2記載の属性判定方法。
  4. 前記部分属性判定工程において、予め取得した部分属性判定モデルおよび部分属性判定ルールの少なくとも一方を参照して、前記部分の属性を判定することを特徴とする、請求項1から3のいずれか一項に記載の属性判定方法。
  5. 前記属性判定工程が、前記頭部の角度と無関係に頭部画像から属性を判定する、角度に基づかない属性判定工程と、
    前記頭部領域検出工程において検出された頭部領域の角度を判定する角度判定工程と、
    予め規定した特定の角度における画像から属性を判定する、角度に基づく属性判定工程と、
    前記角度に基づかない属性判定工程と前記角度に基づく属性判定工程とから得られる判定結果を統合する統合工程とを含むことを特徴とする、請求項1からのいずれか一項に記載の属性判定方法。
  6. 前記角度に基づく属性判定工程において、予め取得した角度に基づく属性判定モデルおよび角度に基づく属性判定ルールの少なくとも一方を参照して、前記角度に基づく属性を判定することを特徴とする、請求項記載の属性判定方法。
  7. 前記角度判定工程において、頭部領域の角度を、体軸方向であるz軸に垂直であり、かつ、互いに垂直に交わるx軸とy軸を含むxy平面において、x軸とy軸との交点を中心とする半径1の円の円周上の座標で表わすことを特徴とする、請求項5または6記載の属性判定方法。
  8. 前記統合工程において、判定項目の統合を下記式(1)によって行うことを特徴とする、請求項1から7のいずれか一項に記載の属性判定方法。
    Figure 0005594791
  9. 判定対象画像を取得する画像取得手段と、
    前記判定対象画像から頭部領域を検出する頭部領域検出手段と、
    前記頭部の画像から属性を判定する属性判定手段と
    を含み、
    前記属性判定手段が、前記頭部領域全体から属性を判定する全体属性判定手段と、
    前記頭部領域に含まれる部分を検出する部分検出手段と、
    前記部分から属性を判定する部分属性判定手段と、
    前記全体属性判定手段と前記部分属性判定手段とにより得られる判定結果を統合する統合手段とを含み、
    前記統合手段が、判定項目の統合を前記判定項目の信頼性の高低を用いて行うことを特徴とする属性判定装置。
  10. さらに、
    前記頭部領域検出手段により検出された頭部領域を位置合わせする、アライメント手段を含むことを特徴とする、請求項記載の属性判定装置。
  11. さらに、予め取得した頭部検出モデルおよび頭部判定ルールの少なくとも一方、ならびに、予め取得した属性判定モデルおよび属性判定ルールの少なくとも一方を含み、
    前記頭部領域検出手段が、前記頭部検出モデルおよび前記頭部判定ルールの少なくとも一方を参照して、前記判定対象画像から頭部領域を検出し、
    前記属性判定手段が、前記属性判定モデルおよび前記属性判定ルールの少なくとも一方を参照して、前記頭部の画像から属性を判定することを特徴とする、
    請求項9または10記載の属性判定装置。
  12. さらに、予め取得した部分属性判定モデルおよび部分属性判定ルールの少なくとも一方を含み、
    前記部分属性判定手段が、前記部分属性判定モデルおよび前記部分属性判定ルールの少なくとも一方を参照して、前記部分の属性を判定することを特徴とする、請求項9から11のいずれか一項に記載の属性判定装置。
  13. 前記属性判定手段が、前記頭部の角度と無関係に頭部画像から属性を判定する、角度に基づかない属性判定手段と、
    前記頭部領域検出手段により検出された頭部領域の角度を判定する角度判定手段と、
    予め規定した特定の角度における画像から属性を判定する、角度に基づく属性判定手段と、
    前記角度に基づかない属性判定手段と前記角度に基づく属性判定手段とにより得られる判定結果を統合する統合手段とを含むことを特徴とする、請求項9から12のいずれか一項に記載の属性判定装置。
  14. さらに、予め取得した角度に基づく属性判定モデルおよび角度に基づく属性判定ルールの少なくとも一方を含み、
    前記角度に基づく属性判定手段が、前記角度に基づく属性判定モデルおよび前記角度に基づく属性判定ルールの少なくとも一方を参照して、前記角度に基づく属性を判定することを特徴とする、請求項13記載の属性判定装置。
  15. 前記角度判定手段が、頭部領域の角度を、体軸方向であるz軸に垂直であり、かつ、互いに垂直に交わるx軸とy軸を含むxy平面において、x軸とy軸との交点を中心とする半径1の円の円周上の座標で表わすことを特徴とする、請求項13または14記載の属性判定装置。
  16. 前記統合手段が、判定項目の統合を下記式(1)によって行うことを特徴とする、
    請求項9から15のいずれか一項に記載の属性判定装置。
    Figure 0005594791
  17. 請求項1からのいずれか一項に記載の属性判定方法をコンピュータに実行させることを特徴とする、プログラム。
  18. 請求項17記載のプログラムを記録していることを特徴とするコンピュータ読み取り可能な記録媒体。
  19. 判定対象画像を取得する画像取得手段と、
    前記判定対象画像から頭部領域を検出する頭部領域検出手段と、
    前記頭部の画像から属性を判定する属性判定手段と、
    予め取得した頭部検出モデルおよび頭部判定ルールの少なくとも一方と、
    前記頭部の画像から属性を判定するための属性判定モデルおよび属性判定ルールの少なくとも一方と、
    属性判定結果を出力する出力手段と
    を含み、
    前記画像取得手段および前記出力手段が、システム外の通信回線網を介して、前記頭部領域検出手段、前記属性判定手段、前記頭部検出モデルおよび前記頭部判定ルールの少なくとも一方、ならびに、前記属性判定モデルおよび前記属性判定ルールの少なくとも一方と接続されており、
    前記属性判定手段が、前記頭部領域全体から属性を判定する全体属性判定手段と、
    前記頭部領域に含まれる部分を検出する部分検出手段と、
    前記部分から属性を判定する部分属性判定手段と、
    前記全体属性判定手段と前記部分属性判定手段とにより得られる判定結果を統合する統合手段とを含み、
    前記統合手段が、判定項目の統合を前記判定項目の信頼性の高低を用いて行うことを特徴とする属性判定システム。
JP2012522505A 2010-06-30 2011-05-12 属性判定方法、属性判定装置、プログラム、記録媒体および属性判定システム Active JP5594791B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012522505A JP5594791B2 (ja) 2010-06-30 2011-05-12 属性判定方法、属性判定装置、プログラム、記録媒体および属性判定システム

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2010149935 2010-06-30
JP2010149935 2010-06-30
JP2012522505A JP5594791B2 (ja) 2010-06-30 2011-05-12 属性判定方法、属性判定装置、プログラム、記録媒体および属性判定システム
PCT/JP2011/060980 WO2012002047A1 (ja) 2010-06-30 2011-05-12 属性判定方法、属性判定装置、プログラム、記録媒体および属性判定システム

Publications (2)

Publication Number Publication Date
JPWO2012002047A1 JPWO2012002047A1 (ja) 2013-08-22
JP5594791B2 true JP5594791B2 (ja) 2014-09-24

Family

ID=45401782

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012522505A Active JP5594791B2 (ja) 2010-06-30 2011-05-12 属性判定方法、属性判定装置、プログラム、記録媒体および属性判定システム

Country Status (4)

Country Link
US (1) US8989456B2 (ja)
JP (1) JP5594791B2 (ja)
CN (1) CN102959585B (ja)
WO (1) WO2012002047A1 (ja)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6369909B2 (ja) 2013-04-02 2018-08-08 Necソリューションイノベータ株式会社 顔表情採点装置、ダンス採点装置、カラオケ装置、およびゲーム装置
CN103530651A (zh) * 2013-10-22 2014-01-22 东南大学 一种基于标记分布的头部姿态估计方法
MY196308A (en) 2016-03-01 2023-03-24 Ascendis Pharma Bone Diseases As PTH Prodrugs
DK3518961T3 (da) 2016-09-29 2023-04-24 Ascendis Pharma Bone Diseases As PTH-forbindelser med lave forhold mellem top og bund
MA46428A (fr) 2016-09-29 2019-08-07 Ascendis Pharma Bone Diseases As Schéma posologique incrémentiel dans des composés de pth à libération contrôlée
HRP20231079T1 (hr) 2016-09-29 2023-12-22 Ascendis Pharma Bone Diseases A/S Režim za doziranje pth spoja s kontroliranim oslobađanjem
BR112019005351A2 (pt) 2016-09-29 2019-06-11 Ascendis Pharma Growth Disorders As terapia combinada com agonistas de cnp de liberação controlada
JP6809262B2 (ja) * 2017-02-08 2021-01-06 トヨタ自動車株式会社 ドライバ状態検出装置
CN107862263A (zh) * 2017-10-27 2018-03-30 苏州三星电子电脑有限公司 智能设备的性别识别方法与性别识别装置
AU2019246389A1 (en) 2018-03-28 2020-08-27 Ascendis Pharma Oncology Division A/S IL-2 conjugates
CA3093083A1 (en) 2018-03-28 2019-10-03 Ascendis Pharma A/S Conjugates
WO2019219896A1 (en) 2018-05-18 2019-11-21 Ascendis Pharma Bone Diseases A/S Starting dose of pth conjugates
CN109447021B (zh) * 2018-11-08 2020-11-27 北京灵汐科技有限公司 一种属性检测方法及属性检测装置
CN113423383A (zh) 2019-02-11 2021-09-21 阿森迪斯药物骨疾病股份有限公司 Pth缀合物的液体药物制剂
CN110796013A (zh) * 2019-09-29 2020-02-14 浙江新再灵科技股份有限公司 一种常驻人口信息收集方法及系统
AU2021208398A1 (en) 2020-01-13 2022-06-09 Ascendis Pharma Bone Diseases A/S Hypoparathyroidism treatment
CN111428671A (zh) * 2020-03-31 2020-07-17 杭州博雅鸿图视频技术有限公司 人脸结构化信息识别方法、系统、装置及存储介质
CN111598867B (zh) * 2020-05-14 2021-03-09 国家卫生健康委科学技术研究所 用于检测特定面部综合征的方法、装置及计算机可读存储介质
JP6785481B1 (ja) * 2020-05-22 2020-11-18 パナソニックIpマネジメント株式会社 画像追尾装置
KR20230019889A (ko) 2020-06-03 2023-02-09 아센디스 파마 온콜로지 디비전 에이/에스 Il-2 서열 및 이의 용도
US20230340055A1 (en) 2020-08-28 2023-10-26 Ascendis Pharma Oncology Division A/S Glycosylated il-2 proteins and uses thereof
CA3192772A1 (en) 2020-09-28 2022-03-31 Ascendis Pharma Bone Diseases A/S Improvement of physical and mental well-being of patients with hypoparathyroidism
CN112906651B (zh) * 2021-03-25 2023-07-11 中国联合网络通信集团有限公司 目标检测方法及装置
KR20240082355A (ko) 2021-09-22 2024-06-10 아센디스 파마 본 디지즈 에이/에스 장시간 작용형 pth 화합물 치료
WO2024094673A1 (en) 2022-11-02 2024-05-10 Ascendis Pharma Bone Diseases A/S Pth treatment regimen comprising two pth compounds

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008090814A (ja) * 2006-09-08 2008-04-17 Seiko Epson Corp 印刷装置、画像検索方法、および、画像検索プログラム
JP2008282089A (ja) * 2007-05-08 2008-11-20 Omron Corp 人物属性推定装置
JP2009087209A (ja) * 2007-10-02 2009-04-23 Sony Corp 画像処理装置、撮像装置、これらにおける処理方法およびプログラム
JP2010092199A (ja) * 2008-10-07 2010-04-22 Sony Corp 情報処理装置および方法、プログラム、並びに記録媒体

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10307923A (ja) 1997-05-01 1998-11-17 Mitsubishi Electric Corp 顔部品抽出装置および顔の向き検出装置
CA2312315A1 (en) * 1997-12-01 1999-06-10 Arsev H. Eraslan Three-dimensional face identification system
GB2395264A (en) * 2002-11-29 2004-05-19 Sony Uk Ltd Face detection in images
JP5206095B2 (ja) * 2008-04-25 2013-06-12 ソニー株式会社 構図判定装置、構図判定方法、プログラム
JP5251547B2 (ja) * 2008-06-06 2013-07-31 ソニー株式会社 画像撮影装置及び画像撮影方法、並びにコンピュータ・プログラム
JP4720880B2 (ja) * 2008-09-04 2011-07-13 ソニー株式会社 画像処理装置、撮像装置、画像処理方法およびプログラム
JP5091078B2 (ja) 2008-10-03 2012-12-05 日本特殊陶業株式会社 可燃性ガス検出装置
US20100111375A1 (en) * 2008-10-31 2010-05-06 Michael Jeffrey Jones Method for Determining Atributes of Faces in Images

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008090814A (ja) * 2006-09-08 2008-04-17 Seiko Epson Corp 印刷装置、画像検索方法、および、画像検索プログラム
JP2008282089A (ja) * 2007-05-08 2008-11-20 Omron Corp 人物属性推定装置
JP2009087209A (ja) * 2007-10-02 2009-04-23 Sony Corp 画像処理装置、撮像装置、これらにおける処理方法およびプログラム
JP2010092199A (ja) * 2008-10-07 2010-04-22 Sony Corp 情報処理装置および方法、プログラム、並びに記録媒体

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
CSNG200200080002; 江島 俊朗: '頭部検出システムHeadFinderを用いた人物追跡' 電子情報通信学会技術研究報告 第100巻, 第442号, 20001109, p.15〜22, 社団法人電子情報通信学会 *
CSNG200600881007; 立木 翔一: '人間共存型ロボットにおけるユーザやオブジェクトとの相対的位置関係の把握とインタラクションへの応用' 電子情報通信学会技術研究報告 第105巻, 第683号, 20060315, p.43〜48, 社団法人電子情報通信学会 *
CSNG200900403029; 万波 秀年: '歩容における性別・年齢の分類と特徴解析' 電子情報通信学会論文誌 第J92-D巻, 第8号, 20090801, p.1373〜1382, 社団法人電子情報通信学会 *
JPN6014008605; 江島 俊朗: '頭部検出システムHeadFinderを用いた人物追跡' 電子情報通信学会技術研究報告 第100巻, 第442号, 20001109, p.15〜22, 社団法人電子情報通信学会 *
JPN6014008606; 立木 翔一: '人間共存型ロボットにおけるユーザやオブジェクトとの相対的位置関係の把握とインタラクションへの応用' 電子情報通信学会技術研究報告 第105巻, 第683号, 20060315, p.43〜48, 社団法人電子情報通信学会 *
JPN6014008608; 万波 秀年: '歩容における性別・年齢の分類と特徴解析' 電子情報通信学会論文誌 第J92-D巻, 第8号, 20090801, p.1373〜1382, 社団法人電子情報通信学会 *

Also Published As

Publication number Publication date
CN102959585A (zh) 2013-03-06
WO2012002047A1 (ja) 2012-01-05
CN102959585B (zh) 2016-03-30
JPWO2012002047A1 (ja) 2013-08-22
US20130101224A1 (en) 2013-04-25
US8989456B2 (en) 2015-03-24

Similar Documents

Publication Publication Date Title
JP5594791B2 (ja) 属性判定方法、属性判定装置、プログラム、記録媒体および属性判定システム
JP5569990B2 (ja) 属性判定方法、属性判定装置、プログラム、記録媒体および属性判定システム
WO2019128508A1 (zh) 图像处理方法、装置、存储介质及电子设备
CN105740778B (zh) 一种改进的三维人脸活体检测方法及其装置
TWI394093B (zh) 一種影像合成方法
JP2007317062A (ja) 人物認識装置及びその方法
JP5431830B2 (ja) 部品検出装置、部品検出方法、プログラムおよび記録媒体
US11908157B2 (en) Image processing device, image processing method, and recording medium in which program is stored
WO2018078857A1 (ja) 視線推定装置、視線推定方法及びプログラム記録媒体
US11023714B2 (en) Suspiciousness degree estimation model generation device
CN112507772A (zh) 一种人脸识别安防系统及可疑人员检测与预警方法
CN111353336A (zh) 图像处理方法、装置及设备
CN114894337B (zh) 一种用于室外人脸识别测温方法及装置
JP2007013480A (ja) 監視システム、監視方法、及び監視プログラム
CN111104917A (zh) 基于人脸的活体检测方法、装置、电子设备及介质
US20240104769A1 (en) Information processing apparatus, control method, and non-transitory storage medium
JP6683889B2 (ja) 画像検索装置
US11527090B2 (en) Information processing apparatus, control method, and non-transitory storage medium
JP2014093006A (ja) 頭部姿勢の推定装置、頭部姿勢の推定方法およびコンピュータに頭部姿勢の推定方法を実行させるためのプログラム
JP2010244090A (ja) 人物情報抽出装置、人物情報抽出方法、及び人物情報抽出プログラム
Krause et al. Anonymization of Persons in Videos of Authentic Social Interaction: Machine Learning Model Selection and Parameter Optimization.
JP2012227830A (ja) 情報処理装置、その処理方法、プログラム及び撮像装置
CN118013454A (zh) 一种跨模态融合的民航飞机驾驶舱异常行为检测方法
CN117765609A (zh) 一种检测工厂人-物交互违规行为的系统
JP5748548B2 (ja) オブジェクト識別装置、オブジェクト識別方法及びプログラム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140417

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140709

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140731

R150 Certificate of patent or registration of utility model

Ref document number: 5594791

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150