JP4513898B2 - 画像識別装置 - Google Patents

画像識別装置 Download PDF

Info

Publication number
JP4513898B2
JP4513898B2 JP2008150679A JP2008150679A JP4513898B2 JP 4513898 B2 JP4513898 B2 JP 4513898B2 JP 2008150679 A JP2008150679 A JP 2008150679A JP 2008150679 A JP2008150679 A JP 2008150679A JP 4513898 B2 JP4513898 B2 JP 4513898B2
Authority
JP
Japan
Prior art keywords
image
value
likelihood
class
target image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008150679A
Other languages
English (en)
Other versions
JP2009295100A (ja
Inventor
直樹 深谷
誉司 坂東
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2008150679A priority Critical patent/JP4513898B2/ja
Priority to CN2009101406238A priority patent/CN101604386B/zh
Priority to US12/455,854 priority patent/US8165408B2/en
Priority to EP09007570.6A priority patent/EP2133823B1/en
Publication of JP2009295100A publication Critical patent/JP2009295100A/ja
Application granted granted Critical
Publication of JP4513898B2 publication Critical patent/JP4513898B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明は、複数の弱識別器を用いて入力画像中に存在する抽出対象画像を識別する画像識別装置に関する。
従来より、車内に設置されたカメラの画像を用いて、運転中のドライバの視線をモニタし、脇見や見落とし状態を検知/警報する運転支援システムが知られている。
このような運転支援システムにおいて、ドライバの視線をモニタする場合、カメラから取得した画像中から顔画像(両眼、鼻、口を含んだ領域)を抽出して、その顔画像の位置(以下、顔位置という)を高速かつ正確に検出することが重要となる。
このような顔位置の検出を行う装置の一例として、Haar like 特徴量を用いて識別を行う複数の弱識別器を、ブースティング理論(アダブースト)によって学習させると共に、一列にカスケード接続して用いるもの(以下、従来装置という)が知られている(例えば、特許文献1参照)。なお、Haar like 特徴量とは、矩形型のフィルターによって、隣接する画像中の矩形領域間の明度差を求め、それを特徴量として用いる周知のものである。
そして、この従来装置では、入力画像から切り出した部分画像に対して、カスケード接続された接続順に弱識別器を順次適用し、個々の弱識別器での識別結果から、顔画像であることの尤度値を求め、その尤度値が小さい部分画像を、その時点で早期に(後段の弱識別器での処理を行うことなく)破棄することによって処理を高速化し、最終的に尤度値の大きい部分画像の位置を顔位置として検出すること(Viola & Jones のアルゴリズム)が行われている。
米国特許US7099510B2
しかし、従来装置では、被験者(ドライバ)の個人差(眼,鼻,口の大きさや配置間隔)・個人内差(スカーフやサングラス等の装飾品の装着の有無等)が大きい場合に、顔位置を正確に検出することが困難であるという問題があった。
即ち、アダブーストでは、先に学習が行われた弱識別器にて識別不能となった被験者についての学習を、後の弱識別器にて強化することが行われている。これは、個々の弱識別器は、上述の個人差や個人内差に対して、識別の得意,不得意が存在し、互いに補い合うことで高い識別性を実現していることを示唆している。従って、先に学習した弱識別器では、識別不能であった被験者の顔画像を、それより後に学習した弱識別器では的確に識別できる場合もある。
ところが、従来装置では、カスケード処理の途中で破棄された部分画像については、破棄された地点より下流の弱識別器の情報が全く利用されないため、標準的な顔画像との差(個人差,個人内差)が大きい場合に、これを顔画像として識別することができず、ひいては顔位置を正確に検出できない可能性がある。
換言すれば、個人差,個人内差に対応する弱識別器が有効に使用されないため、汎化性能(学習に用いていない未知のデータに対して識別を行った際の性能)が低下してしまうのである。
また、識別不能な被験者(識別不能被験者という)が存在する場合、汎化性を向上させるために、その識別不法被験者の顔画像を学習データに取り込んで弱識別器を再学習することも考えられる。しかし、アダブーストによる学習では、上述したように、一つの弱識別器での学習結果が、他の弱識別器での学習に影響を与えるため、全ての弱識別器をはじめから学習し直す必要があり、非常に手間を要するという問題があった。
しかも、そのような再学習を行ったとしても、その識別不能被験者の顔画像についての学習が特別に重視されるわけではないため、必ずしもその識別不能被験者の顔画像を識別できるようになるとは限らず、また、あえて識別不能被験者の顔画像の学習を重視すると、これまで識別できていた他の被験者の顔画像が識別できなくなり、却って汎化性が低下する危険性があった。
本発明は、上記問題点を解決するために、抽出対象画像の特徴にばらつきがある場合でも、その抽出対象画像を高速かつ正確に識別可能な画像識別装置を提供することを目的とする。
上記目的を達成するためになされた本発明の画像識別装置では、画像切出手段が、予め設定された規定サイズを有する切出用ウインドにより、入力画像から複数の部分画像を、該入力画像の全体が網羅されるように順次切り出す。すると判定値算出手段が、画像切出手段にて切り出された部分画像のそれぞれについて、その部分画像が予め設定された特徴である主特徴を有した抽出対象画像であることの尤度を表す判定値を算出し、その判定値が最大となる部分画像を抽出対象画像として識別する。
特に本発明において判定値算出手段は、それぞれが互いに異なった特定のパターンを有した画像に反応するように設定され、入力された画像が抽出対象画像であると識別した場合には1、抽出対象画像ではないと識別した場合には0を出力する複数の弱識別器からなる識別手段を備えている。
そして、識別器選択手段が、画像切出手段にて切り出された部分画像を対象画像として、識別手段を構成する弱識別器の中から対象画像に適用する弱識別器を適宜選択し、その識別器選択手段にて弱識別器が選択される毎に、尤度値算出手段が、弱識別器を対象画像に適用することで得られた識別結果に、弱識別器について予め設定された重みを乗じることで尤度値を算出する。なお、各弱識別器の重みは、全ての重みを合計した値が1となるように設定される。
また、尤度値算出手段にて尤度値が算出される毎に、累積尤度値算出手段が、対象画像について尤度値算出手段にて算出された尤度値を累積してなる累積尤度値を算出し、更に、尤度期待値算出手段が、累積尤度値算出手段にて算出された累積尤度値に、対象画像に未適用の弱識別器の全てが対象画像を抽出対象画像であると識別(以下、ポジティブ判定という)したものと仮定した場合に未適用の弱識別器のそれぞれについて算出される尤度値を合計してなるポジティブ判定期待値を加算することで尤度期待値を算出する。
そして、継続制御手段が、尤度期待値算出手段にて算出された尤度期待値が予め設定された継続閾値以上である場合は、識別器選択手段に次の識別器を選択させると共に、次に選択すべき識別器が存在しない場合、又は尤度期待値が継続閾値より小さい場合は、前記対象画像についての処理を終了して、累積尤度値算出手段にて算出された累積尤度値を判定値として出力する。
なお、全ての弱識別器が対象画像(部分画像)に対してポジティブ判定した場合にのみ、累積尤度値(即ち判定値)は1となるが、通常は、判定値が1になることはあり得ず、判定値が最大となった部分画像が、抽出対象画像として識別されることになる。
このように構成された本発明の画像識別装置では、対象画像に次の弱識別器を適用するか否か、即ち、現在の対象画像に対する処理を打ち切るか否かを判定する際に、適用済みの弱識別器による識別結果に基づく累積尤度値だけでなく、未適用の弱識別器の情報に基づくポジティブ判定期待値を考慮した尤度期待値によって判断している。
つまり、尤度期待値が継続閾値より小さいということは、未適用の弱識別器の全てにてポジティブ判定されたとしても、現在の対象画像が抽出対象画像であると判定される可能性はないということであり、逆に、尤度規定値が継続閾値以上であるということは、未適用の弱識別器を適用することによって、現在の対象画像が抽出対象画像であると判定される可能性があるということである。
このように、本発明の画像識別装置によれば、対象画像に対する処理を中止するか否かの判定に用いる尤度期待値に、適用済み弱識別器の情報だけでなく、未適用の弱識別器の情報も反映されているため、単に識別に要する時間を短縮できるだけでなく、判定の信頼性を高めることができ、ひいては抽出対象画像の識別における汎化性,頑健性を高めることができる。
また、請求項2に記載の画像形成装置は、尤度期待値算出手段におけるポジティブ判定期待値の算出法が異なる以外は、請求項1に記載の画像形成装置と同様に構成されている。
即ち、請求項2に記載の画像形成装置において、尤度期待値算出手段は、弱識別器が入力された画像を抽出対象画像であると識別して1を出力する確率であるポジティブ判定確率に、該弱識別器に対して予め設定された重みを乗じた値を、対象画像に未適用である全ての弱識別器について合計したものをポジティブ判定期待値とし、このポジティブ判定期待値を、累積尤度値算出手段にて算出された累積尤度値に加算することで尤度期待値を算出する。
このように構成された本発明の画像識別装置では、ポジティブ判定期待値(ひいては尤度期待値)を、未適用の弱識別器の重みだけでなく、ポジティブ判定確率も考慮して算出しているため、対象画像に対する処理を打ち切るか否かを、より的確に判定することができる。
また、請求項3に記載の画像形成装置は、抽出対象画像を含んだ画像を主特徴とは異なる特徴である補助特徴によって分類したクラス毎に、該クラスに分類されるべき画像を弱識別器のそれぞれに入力した時に得られる出力のモデルパターンを記憶する出力傾向モデル記憶手段と、識別器選択手段にて選択された弱識別器と該弱識別器での識別結果とを対応づけて記憶する出力傾向記憶手段とを備えている。
そして、クラス選択手段が、出力傾向モデル記憶手段の記憶内容の中で、出力傾向記憶手段の記憶内容と最も近似するモデルパターンを特定し、その特定されたモデルパターンに対応するクラスを、対象画像のクラスとして選択する。
これと共に、識別手段は、クラス毎に該クラスに適用可能な複数の弱識別器からなるクラス別識別器群を有しており、識別器選択手段は、クラス選択手段にて選択されたクラスに対応するクラス別識別器群の中から、対象画像に適用する弱識別器を選択する。
このように構成された本発明の画像形成装置によれば、対象画像のクラスを特定し、そのクラスに適した弱識別器のみを用いて識別を行うため、抽出対象画像の識別精度を向上させることができる。
また、本発明の画像形成装置によれば、クラス毎に使用する弱識別器群を変更することによって、弱識別器を再学習することなく汎化性を向上させているため、識別器のメンテナンス性を向上させることができる。
なお、クラス別識別器群は、請求項3に記載のように、識別手段を構成する弱識別器の全体から、主特徴のみを有した画像より当該クラスの補助特徴を有した画像の方がポジティブ判定確率が大きくなる弱識別器の少なくとも一部を除去することで構成すればよい。なお、ポジティブ判定確率とは、ある画像が入力された時に、その画像を抽出対象画像であると識別して1を出力(ポジティブ判定)する確率のことである。
即ち、個々の弱識別器は、画像が入力された時に、それを抽出対象画像であると識別する固有の確率(ポジティブ判定確率)を持っている。但し、同じ弱識別器であっても、対象画像のクラスによってポジティブ判定確率は異なったものとなる。
そして、あるクラスの対象画像(即ち、ある補助特徴を有する対象画像)について高いポジティブ判定確率を有するが、主特徴のみを有する対象画像について、相対的に低いポジティブ判定確率を有する弱識別器は、補助特徴により強く反応しているものと考えられる。従って、このような弱識別器を使用すると、その弱識別器での識別結果の影響を受けて、補助特徴が示された部位を抽出対象画像(主特徴が示された部位)であると誤識別したり、抽出対象画像であると識別される部分画像の位置にずれが生じたりする可能性がある。
そこで、入力画像のクラスが判明した場合は、その他のクラスの補助特徴に強く反応する弱識別器を除去すれば、補助特徴を有する部分画像の判定値が抑制され、主特徴を有する部分画像の判定値が相対的に大きくなり、抽出対象画像が正確に識別されることになるのである。
また、本発明の画像識別装置は、請求項4に記載のように、クラス選択手段により現設定とは異なるクラスが選択された場合、クラス変更制御手段が、処理中の入力画像について算出された処理結果を破棄して、最初から処理をやり直させるように構成されていることが望ましい。
上述したように、クラスによって使用する弱識別器が異なり、同じ部分画像であってもクラスによって異なった判定値が得られることになるため、部分画像毎に算出される判定値を正しく比較するには、処理を最初からやり直す必要があるためである。但し、抽出対象画像でないことが明らかな部分画像、例えば、累積尤度値が0であった部分画像については、処理を省略するようにしてもよい。
更に、画像切出手段は、請求項5に記載のように、同一の入力画像からの部分画像の切り出しを、規定サイズを変化させて繰り返すように構成されていることが望ましい。
この場合、入力画像から最適な位置,最適な大きさで抽出対象画像を切り出すことができる。
ところで、識別手段を構成する弱識別器は、請求項7に記載のように、ブースティング理論に従って学習されていることが望ましい。
以下に本発明の実施形態を図面と共に説明する。
[第1実施形態]
<全体構成>
図1は、本発明が適用された車載用の運転支援システム1の概略構成を示すブロック図である。
図1に示すように、運転支援システム1は、ドライバの顔周辺を撮影した画像を取得する画像取得部3と、画像取得部3にて取得した画像(以下、入力画像という)に基づいて、入力画像中のドライバの顔位置を検出する顔位置検出部5と、画像取得部3からの入力画像、及び顔位置検出部5にて検出された顔位置に基づき、ドライバの視線を検出する視線検出部7と、視線検出部7での検出結果に従って、視線の異常(脇見等)を判定して、警報などを発生させる運転支援制御部9とを備えている。
このうち、画像取得部3は、ドライバの顔画像を取得するCCDカメラと、夜間でも画像を取得できるようにするために近赤外の照明光をドライバの顔に向けて照射するLEDとからなり、ダッシュボード上に設置されている。但し、設置位置は、これに限らず、メータ内,ハンドルカラム内,ルームミラー付近等であってもよい。また、LEDは省略されていてもよい。
また、視線検出部7や運転支援制御部9での処理は周知のものであり、本発明の要旨とも関係が薄いため、ここでは説明を省略する。
<顔位置検出部>
図2は、顔位置検出部5の詳細を示すブロック図である。なお、この顔位置検出部5が本発明の画像識別装置に相当する。
なお、顔位置とは、眼,鼻,口を含むように設定された必要最小限の矩形状の画像領域(以下、顔画像という,図9の四角で示された領域を参照)が、入力画像内において占める位置のことである。
図2に示すように、顔位置検出部5は、入力画像から識別の対象となる部分画像(以下、対象画像ともいう)の切り出しを行う画像切出部10と、画像切出部10で切り出された部分画像毎に、その部分画像が顔画像であることの尤度を表す判定値を算出する判定値生成部20と、判定値生成部20にて算出された判定値を部分画像に対応付けて記憶する判定値記憶部30と、判定値記憶部30の記憶内容に基づき、判定値が最大である部分画像の位置を顔位置として出力する顔位置判定部40と、判定値生成部20から出力される弱識別器(後述する)での識別結果に基づいて、入力画像のクラスを判定するクラス判定部50と、クラス判定部50での判定結果に従って、当該顔位置検出部5内の各部の処理を制御するクラス修正制御部60とを備えている。
なお、入力画像のクラスとは、入力画像に示されるドライバの頭部に装着されている可能性のある装飾品(例えば、スカーフやターバン,サングラス等)の有無による分類であり、本実施形態では、装飾品が装着されていないものを一般クラス、スカーフやターバンが装着されているものを第1装飾クラス、サングラスが装着されているものを第2装飾クラスという。
<画像切出部>
画像切出部10は、入力画像の左上から右方向を主走査方向、下方向を副走査方向として、予め設定された規定サイズの切出用ウインドを用いて部分画像を切り出す。なお、部分画像は、入力画像を分割するように切り出してもよいし、隣接するもの同士でその一部の領域が互いに重なり合うように切り出してもよい。
また、規定サイズには、複数種類(本実施形態では80×80画素、100×100画素、120×120画素、140×140画素、160×160画素、180×180画素の6種類)があり、画像切出部10は、その全てのサイズについて上述の切り出しを繰り返すように構成されている。
<判定値生成部>
判定値生成部20は、画像切出部10にて切り出された対象画像が、顔画像であるか否かを識別する複数の弱識別器に関する情報を記憶する弱識別器データベース21を備えている。
なお、個々の弱識別器の実体は評価関数であり、本実施形態では、1又は複数種類のHaar Like 特徴量を用いて識別を行うように構成され、アダブーストによる学習を行った周知(例えば、特許文献1参照)ものである。また、弱識別器の出力yは、対象画像が顔画像であると識別した場合にy=1、顔画像ではないと識別した場合にy=0となるように設定されている。但し、弱識別器が扱う特徴量は、Haar Like 特徴量に限るものではなく、弱識別器に用いるものとして知られている特徴量であれば、何を用いてもよい。
また、各弱識別器は、画像が入力された場合に、ポジティブに判定(顔画像であると判定)して出力y=1を返す固有の確率であるポジティブ判定確率を有している。但し、そのポジティブ判定確率は、同じ弱識別器であっても、入力される画像のクラス毎に異なったものとなる。
そして、クラス毎に、使用する弱識別器群が設定されており、一般クラス用の弱識別器群は全ての弱識別器によって構成されている。
一方、一般クラス以外の特定クラス(第1装飾クラス,第2装飾クラス等)に用いる特定クラス用の弱識別器群は、全ての弱識別器の中から、一般クラスでのポジティブ判定確率より特定クラスでのポジティブ判定確率が予め設定された許容値以上大きい弱識別器の少なくとも一部を除くことによって構成されている(後述する図6についての説明を参照)。
そして、弱識別器データベース21において、各弱識別器には、一般クラスの顔画像に対するポジティブ判定確率のスコアの大きい順にインデックスが付与されていると共に、クラス毎の重みwが対応付けられている。
なお、重みwはアダブースト理論による学習を行った際に設定され、そのクラスで用いる弱識別器群に属する全ての弱識別器についての合計が1となるようにポジティブ判定確率を規格化したものである。
また、判定値生成部20は、弱識別器データベース21から現在設定されているクラス(以下、対象クラスという)に使用する弱識別器群の中から、ここでは便宜的にインデックスに従って弱識別器(以下、対象識別器という)を順次選択し、その選択した対象識別器を対象画像に適用することで識別結果y(t)(tは現在の対象画像に対してt番目に選択された識別対象画像についてのものであることを意味する。以下同様。)を出力する識別器選択適用部22と、識別器選択適用部22での識別結果y(t)に、対象クラスにおける対象識別器の重みw(t)を乗じることで尤度値L(t)を算出する尤度値算出部23と、対象画像について今までに算出された尤度値L(1)〜L(t)を累積した累積尤度値AL(t)を算出する尤度値累積部24とを備えている。
つまり、尤度値L(t)は(1)式で、累積尤度値AL(t)は(2)式で表される。
なお、入力画像のクラスは、入力画像が更新される毎に、最初は一般クラスに設定されるものとする。
更に、判定値生成部20は、対象クラス用の弱識別器群のうち、対象識別器に未だ適用されていない弱識別器(以下、未適用識別器という)の重みwを合計した値であるポジティブ判定期待値EP(t)を算出するポジティブ判定期待値算出部25と、尤度値累積部24で算出された累積尤度値AL(t)にポジティブ判定期待値算出部25にて算出されたポジティブ判定期待値EP(t)を加算することで尤度期待値EL(t)を算出する尤度期待値算出部26と、尤度期待値算出部26にて算出された尤度期待値EL(t)に基づいて、画像切出部10や当該判定値生成部20,判定値記憶部30の動作を制御する継続制御部27とを備えている。
つまり、ポジティブ判定期待値EP(t)は(3)式で、尤度期待値EL(t)は(4)式で表される。
但し、(3)式において、jは、未適用識別器のインデックスを表す識別子である。また、ポジティブ判定期待値EP(t)は、便宜的には(3a)式によって求めることができる。
そして、継続制御部27では、現在設定されているクラスに対応した弱識別器群に属する全ての弱識別器を、対象画像に適用し終わると、累積尤度値AL(t)を判定値として判定値記憶部30に記憶させ、また、処理中の入力画像について、画像切出部10が新たに切り出す部分画像が存在しない場合、即ち、全ての部分画像について判定値を求める処理が終了している場合には、顔位置判定部40に顔位置の判定を行わせるように、判定値記憶部30及び顔位置判定部40を制御する。
更に、継続制御部27では、上記以外の場合、尤度期待値EL(t)が、予め設定された継続閾値Cth(例えば、0.5)より小さければ、現在の対象画像が顔画像であると判定される可能性はないものとして、その対象画像に対する処理を打ち切り、その時点での累積尤度値AL(t)或いは0を判定値として判定値記憶部30に記憶させると共に、画像切出部10に新たな対象画像(部分画像)を切り出させて、その対象画像についての判定値を求める処理を繰り返すように各部を制御する。
一方、尤度期待値EL(t)が、継続閾値Cth以上であれば、現在の対象画像が顔画像であると判定される可能性があるものとして、その対象画像に対する処理を継続する(次の弱識別器を選択して同様の処理を繰り返す)ように各部を制御する。
なお、ここでは継続閾値Cthが固定値であるものとして説明しているが、途中で打ち切られることなく対象クラス用の弱識別器の全てが適用された判定値が算出された後は、判定値記憶部30に記憶されている判定値の中で最大のものを、継続閾値Cthに設定するように構成してもよい。
<クラス判定部>
クラス判定部50は、識別器選択適用部22での識別結果yを、対象識別器と対応付けて記憶する出力傾向記録部51と、クラス毎に、そのクラスに分類されるべき画像を各弱識別器に入力した時に得られる出力のモデルパターンを記憶するモデルパターン記憶部53と、モデルパターン記憶部53に記憶されたモデルパターンの中で、出力傾向記録部51に記録された出力パターンと最も類似するものを特定し、その特定されたモデルパターンに対応するクラスを、入力画像のクラスであると判定するクラス判定部55とを備えている。
なお、モデルパターンは、各弱識別器が有するクラス毎のポジティブ判定確率に基づき、ポジティブ判定確率が0.5以上であれば1、0.5未満であれば0をモデル値として、クラス毎に、そのクラス用の弱識別器群に属する全ての弱識別器のモデル値を、インデックス順に並べることで構成されている。
また、出力傾向記録部51の記録内容は、入力画像が更新される毎に消去される。そして、クラス判定部55は、出力パターンの傾向を判断できる程度に識別結果の履歴が蓄積されてから判断するように設定されている。
<クラス修正制御部>
クラス修正制御部60は、クラス判定部50での判定結果が、既に設定されているクラスと一致している場合には何も行わず、不一致である場合には、処理中の入力画像について行った全ての処理結果を破棄(尤度値累積部24で算出された累積尤度値AL,判定値記憶部30に記憶された判定値をリセット)すると共に、変更されたクラス用の弱識別器群の中から弱識別器が選択されるようにして、入力画像についての処理を最初からやり直すように、各部(画像切出部10,識別器選択適用部22)を制御する。
[動作]
ここで顔位置検出部5での全体的な処理の流れを、図3に示すフローチャートに沿って説明する。
顔位置検出部5に入力画像が供給されると、まず、入力画像のクラス(対象クラス)を一般クラスに設定し、識別器選択適用部22にて、一般クラス用の弱選択器群が選択されるように設定する(S110)。
次に、画像切出部10にて、切出用ウインドのサイズや位置を、予め設定された選択順に従って、その選択順の一番最初から選択されるように初期化する(S120)。そして、切出用ウインドのサイズを選択し(S130)、切出用ウインドの位置を選択して、先に選択された切出用ウインドサイズでの対象画像(部分画像)の切り出し(S140)を行う。
なお、S130では、最初に最小サイズの切出用ウインドを選択し、以後、S130が実行される毎に、順次大きいサイズの切出用ウインドを選択する。
また、S140では、切出用ウインドのサイズが新たに選択される毎に、最初に入力画像の左上隅の位置を選択し、以後、S140が実行される毎に、右方向を主走査方向、下方向を副走査方向として順次シフトした位置を選択して切り出しを行う。
次に、識別器選択適用部22が、対象クラス用の弱選択器群の中からインデックスの値が小さい順に弱識別器を一つ選択し、選択した弱識別器を対象画像に適用することで識別結果y(t)を求め(S150)、その識別結果y(t)に基づいてクラス判定処理を実行する(S160)。
このクラス判定処理では、図4に示すように、まず、識別結果yを出力傾向記録部51に記録し(S310)、出力傾向記録部51に記録された識別結果yの数が予め設定された判定可能記録数に達したか否かを判断し(S320)、達していなければクラス判定を行うことなく、本処理を終了する。
一方、記録数が判定可能記録数に達していれば、記録された出力パターンと、クラス毎に用意されたモデルパターンとの類似度を算出し(S330)、その類似度が最大となるモデルパターンを抽出して、抽出したモデルパターンに対応するクラスを、入力画像のクラスであると判定する(S340)。
図3に戻り、クラス判定処理の結果に基づき、クラス変更が必要であるか否かを判断し(S170)、クラス変更の必要があれば、S120に戻り、クラスを変更した状態、即ち、識別器選択適用部22で使用する弱識別器群の指定を変更して、現在の入力画像に対する処理を最初に遡ってやり直す。
一方、クラス変更の必要がなければ、尤度値算出部23にて、尤度値L(t)を算出し(S180)、更に、尤度値累積部24にて累積尤度値AL(t)を算出する(S190)。
また、ポジティブ判定期待値算出部25にて、ポジティブ判定期待値EP(t)を算出し(S200)、尤度期待値算出部26にて尤度期待値EL(t)を算出する。
そして、算出した尤度期待値EL(t)が継続閾値Cthより小さいか否かにより、対象画像に対する処理を打ち切るか否かを判断し(S220)、尤度期待値EL(t)が継続閾値Cthより小さければ、対象画像に対する処理を打ち切るものとして、判定値記憶部30に対象画像の判定値として0(又は打切時点の累積尤度値AL(t))を記憶させる(S230)。
一方、尤度期待値EL(t)が継続閾値Cth以上であれば、対象画像に対する処理は打ち切らないものとして、識別器選択適用部22にて、指定されたクラスの弱識別器群に属する全ての弱識別器が対象画像に対して適用済みであるか否かを判断し(S240)、未適用の弱識別器があれば、S150に戻って、S150〜S220の処理を繰り返す。
また、全て適用済みであれば、現在の対象画像に対する処理は終了したものとして、判定値記憶部30に対象画像の判定値として累積尤度値AL(t)を記憶させる(S250)。
このように、対象画像に対する処理が正常に終了するか、又は打ち切られると、画像切出部10にて、切出用ウインドの位置は選択順の最後(右下隅)まで到達しているか否かを判断し(S260)、最後まで到達していなければ、現サイズでの処理は終了していないものとして、S140に戻って、S140〜S250の処理を繰り返す。
一方、切出用ウインドの位置が最後まで到達していれば、現サイズでの処理は終了したものとして、画像切出部10にて、全てのサイズについて処理が終了しているか否かを判断し(S270)、まだ、選択されていないサイズがある場合には、S130に戻って、S130〜S260の処理を繰り返す。
全てのサイズが選択されている場合には、現入力画像についての処理は全て終了したものとして、顔位置判定部40に顔位置を判定させ、即ち、判定値が最大となる部分画像の位置を顔位置と判定して(S280)、本処理を終了する。
<効果>
以上説明したように、運転支援システム1によれば、入力画像から切り出した対象画像に対して複数の弱識別器を順次適用して判定値を求める過程において、対象画像に対する処理を継続するか打ち切るかを判定する際に、適用済みの弱識別器による識別結果に基づく累積尤度値AL(t)だけでなく、未適用の弱識別器の情報に基づくポジティブ判定期待値EP(t)を考慮した尤度期待値EL(t)によって判断している。
つまり、ポジティブ判定期待値EP(t)を考慮することによって、未適用の弱識別器が有する情報(即ち、個人差や個人内差に対応するための情報)が無視されることなく有効に利用されることになる。
従って、運転支援システム1によれば、顔位置の特定に要する時間を単に短縮できるだけでなく、判定の信頼性を高めることができ、ひいては信頼性の高い運転支援制御を実現することができる。
また、運転支援システム1では、弱識別器での識別結果から入力画像のクラスを判断し、判断したクラスに対応付けた弱識別器群を用いて判定値を求めるようにされている。
従って、識別不能な被験者が現れたとしても、弱識別器の再学習を行うのではなく、新たなクラスを設けることによって、これに対処することができるため、メンテナンス性を向上させることができる。
<実験例>
図5は、一般クラス,第1修飾クラス,非顔画像からなる実験用のネガティブ画像クラスの3クラスを設け、以下に示す手順に従って、100個の弱識別器を生成し、その生成した各弱識別器について、クラス毎にポジティブ判定確率を求めた結果を示した表である。
即ち、まず、装飾品を装着していない一般クラスの画像2400枚、スカーフ(及びターバン)を頭部に被った第1装飾クラスの画像90枚、顔を含まないという基準で適当に選択した実験用クラスの画像2400枚を用意する。
次に、各クラスの画像を半分に分け、一方の画像を教師画像として、一般的なアダブースト理論に基づき学習させ(学習の仕方の詳細については、例えば特許文献1参照)、100個の弱識別器を生成する。
次に、これら100個の弱識別器に、残る1200枚の一般クラスの画像から、正しく顔画像を含む部分を切り出して入力し、各弱識別器の出力(弱識別器がポジティブな反応を示せば1、ネガティブな反応を示せば0)について、ポジティブな反応を示した割合をポジティブ判定確率として求め、ポジティブ判定確率の高い順に識別器にインデックスを付与する。
次に、インデックスを与えられた弱識別器に対し、残る45枚の第1装飾クラスの画像から、正しく顔画像を含む部分を切り出して入力し、ポジティブ判定確率を求め、インデックスと対応させて蓄積する。
残る1200枚のネガティブ画像クラスについても、ポジティブ判定確率を求め、インデックスと対応させて蓄積する。
このようにして得られた100個の弱識別器について、インデックス順に各クラスに対するポジティブ判定確率を並べ直して示した表が図5であり、更に、これをグラフ化したものが図6である。
また、一般クラス用の弱識別器群は、生成した全て(100個)の弱識別器で構成し、また、第1修飾クラス用の弱識別器群は、図6において、一点鎖線で囲われた領域にプロットされている15個の弱識別器を除去することで得られる85個の弱識別器で構成した。
また、各弱識別器の重みはアダブースト理論による学習の際に設定された重みを、そのクラスの弱識別器群に属する全ての弱識別器の合計値が1となるように規格化することで算出する。
この場合、例えば、インデックスが1の弱識別器の一般クラスでの重みは0.016である。つまり、部分画像(対象画像)について、最初に選択された弱識別器での識別結果がy=0の場合はL(1)=AL(1)=0となり、識別結果がy=1の場合はL(1)=AL(1)=0.016となる。また、ポジティブ判定期待値はいずれの場合もEL(1)=0.984となり、尤度期待値は、識別結果がy=0の場合はEP(1)=0.984、識別結果がy=1の場合はEP(1)=1となる。
また、図7は、図5に示されたポジティブ判定確率に基づき、クラス毎のモデルパターンを示した表であり、ここでは、インデックスが1〜30の弱識別器について、0.5を閾値としてポジティブ判定確率を2値化したものを、インデックスに対応させたものである。
但し、図7中の最下段は、第1装飾クラスのある画像を、上記30個の弱識別器に識別させた結果を示す。この場合、一般クラスのモデルパターンとの一致率は0.7、第1装飾クラスとの一致率は0.93であり、入力画像は第1装飾クラスの画像であると判定されることになる。
また、図8は、第1装飾クラスの画像に基づき、従来装置の手法で顔位置を判定(本実施形態において、入力画像が一般クラスであるものとして顔位置を判定した場合に相当)した結果を示す説明図であり、図9は、本実施形態における顔位置検出部5での検出結果(入力画像が第1装飾クラスであるものとして顔位置を判定)を示す説明図である。
図8では、顔位置が誤検出されているが、図9では、スカーフの存在に関わらず、顔位置が正しく検出されていることがわかる。
[第2実施形態]
次に、第2実施形態について説明する。
なお、第1実施形態と第2実施形態は、ポジティブ判定期待値EP(t)の算出法、即ち、はポジティブ判定期待値算出部25での処理内容、及び継続制御部27で用いる継続閾値Cthの値のみが異なる。従って、以下は関係する部位についてのみ説明する。
<判定値生成部>
ポジティブ判定期待値算出部25では、対象クラス用の弱識別器群のうち、対象識別器に未だ適用されていない弱識別器を未適用識別器とし、未適用識別器のそれぞれについてポジティブ判定確率pに重みwを乗じた値を算出し、その算出値を全ての未適用識別器について合計した値を、ポジティブ判定期待値EP(t)として算出する。
つまり、ポジティブ判定期待値EP(t)は(5)式で表される。
<継続制御部>
このように、ポジティブ判定期待値EP(t)の算出にポジティブ判定確率pを反映させることによって、ポジティブ判定期待値EP(t)、ひいては尤度期待値EL(t)は、第1実施形態の場合より小さな値となる。従って、継続制御部27において対象画像に対する処理を打ち切るか否かに用いる継続閾値Cthも、第1実施形態の場合より小さな値に設定する(例えば、0.3)。
<効果>
このような構成を有する本実施形態では、第1実施形態の場合と同様の効果が得られるだけでなく、ポジティブ判定期待値EP(t)(ひいては尤度期待値EL(t))を、未適用の弱識別器の重みwだけでなく、ポジティブ判定確率pも考慮して算出しているため、対象画像に対する処理を打ち切るか否かを、より的確に判定することができる。
<実験例>
本発明の第1実施形態と第2実施形態は,ポジティブ判定確率の算出方と,それぞれに合せた継続閾値Cthの値が異なるだけで,図9における検出結果は全く同じ結果が得られる。
[他の実施形態]
以上、本発明の一実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において、様々な態様にて実施することが可能である。
例えば、上記実施形態では、弱識別器の選択を、予め設定されたインデックス順に行っているが、これに縛れるものではなく、例えば、乱数等を用いてランダムに順番を決めてもよい。即ち各弱識別器にその識別器を特定するインデックスを付与する事で,特許文献1に示されるような,事前に決定された弱識別器の適用順番に縛られることなく,識別器選択適用部で最適の識別器を適宜選択する事が可能になる.
上記実施形態では、一般クラスの他に、装飾物を装着した第1装飾クラス,第2装飾クラスを設定したが、マスクや表情や口の形状等を考慮したクラスを設定してもよい。
上記実施形態では、対象画像に対する処理を継続するか否かを、尤度期待値EL(t)が継続閾値Cthより小さくなったか否かで判断しているが、弱識別器の出力の傾向から判断するように構成してもよい。
上記実施形態では、抽出対象画像として顔画像を用いているが、抽出対象画像はこれに限るものではなく、共通した特徴を有し且つ個体差,個体内差を有する画像であれば何でもよい。
運転支援システムの概略構成を示すブロック図。 顔位置検出部の詳細構成を示すブロック図。 顔位置検出部における処理の流れを示すフローチャート。 クラス判定処理の詳細を示すフローチャート。 実験時に作成した弱識別器のポジティブ判定確率をクラス別に示した表。 図5の表に基づいて作成したグラフ。 クラス判定に用いるモデルパターンの例を示す説明図。 第1装飾クラスの画像について従来装置での検出結果を示す図。 第1装飾クラスの画像について本実施形態の装置での検出結果を示す図。
符号の説明
1…運転支援システム 3…画像取得部 5…顔位置検出部 7…視線検出部 9…運転支援制御部 10…画像切出部 20…判定値生成部 21…弱識別器データベース 22…識別器選択適用部 23…尤度値算出部 24…尤度値累積部 25…ポジティブ判定期待値算出部 26…尤度期待値算出部 27…継続制御部 30…判定値記憶部 40…顔位置判定部 50…クラス判定部 51…出力傾向記録部 53…モデルパターン記憶部 55…クラス判定部 60…クラス修正制御部

Claims (7)

  1. 予め設定された規定サイズを有する切出用ウインドにより、入力画像から複数の部分画像を、該入力画像の全体が網羅されるように順次切り出す画像切出手段と、
    前記画像切出手段にて切り出された部分画像のそれぞれについて、該部分画像が予め設定された特徴である主特徴を有した抽出対象画像であることの尤度を表す判定値を算出する判定値算出手段と、
    を備え、前記判定値算出手段にて算出された判定値が最大となる部分画像を前記抽出対象画像として識別する画像識別装置において、
    前記判定値算出手段は、
    それぞれが互いに異なった特定のパターンを有した画像に反応するように設定され、入力された画像が前記抽出対象画像であると識別した場合には1、前記抽出対象画像ではないと識別した場合には0を出力する複数の弱識別器からなる識別手段と、
    前記画像切出手段にて切り出された部分画像を対象画像として、前記識別手段を構成する弱識別器の中から前記対象画像に適用する弱識別器を適宜選択する識別器選択手段と、
    前記識別器選択手段にて弱識別器が選択される毎に、該弱識別器を前記対象画像に適用することで得られた識別結果に、該弱識別器について予め設定された重みを乗じることで尤度値を算出する尤度値算出手段と、
    前記尤度値算出手段にて尤度値が算出される毎に、前記対象画像について前記尤度値算出手段にて算出された尤度値を累積してなる累積尤度値を算出する累積尤度値算出手段と、
    前記対象画像に未適用の弱識別器の全てが前記対象画像を抽出対象画像であると識別したものと仮定した場合に前記未適用の弱識別器のそれぞれについて算出される前記尤度値を合計してなるポジティブ判定期待値を、前記累積尤度値算出手段にて算出された累積尤度値に加算することで尤度期待値を算出する尤度期待値算出手段と、
    前記尤度期待値算出手段にて算出された尤度期待値が予め設定された継続閾値以上である場合は、前記識別器選択手段に次の識別器を選択させると共に、次に選択すべき識別器が存在しない場合、又は前記尤度期待値が前記継続閾値より小さい場合は、前記対象画像についての処理を終了して、前記累積尤度値算出手段にて算出された累積尤度値を前記判定値として出力する継続制御手段と、
    を備えることを特徴とする画像識別装置。
  2. 予め設定された規定サイズを有する切出用ウインドにより、入力画像から複数の部分画像を、該入力画像の全体が網羅されるように順次切り出す画像切出手段と、
    前記画像切出手段にて切り出された部分画像のそれぞれについて、該部分画像が予め設定された特徴である主特徴を有した抽出対象画像であることの尤度を表す判定値を算出する判定値算出手段と、
    を備え、前記判定値算出手段にて算出された判定値が最大となる部分画像を前記抽出対象画像として識別する画像識別装置において、
    前記判定値算出手段は、
    それぞれが互いに異なった特定のパターンを有した画像に反応するように設定され、入力された画像が前記抽出対象画像であると識別した場合には1、前記抽出対象画像ではないと識別した場合には0を出力する複数の弱識別器からなる識別手段と、
    前記画像切出手段にて切り出された部分画像を対象画像として、前記識別手段を構成する弱識別器の中から前記対象画像に適用する弱識別器を適宜選択する識別器選択手段と、
    前記識別器選択手段にて弱識別器が選択される毎に、該弱識別器を前記対象画像に適用することで得られた識別結果に、該弱識別器について予め設定された重みを乗じることで尤度値を算出する尤度値算出手段と、
    前記尤度値算出手段にて尤度値が算出される毎に、前記対象画像について前記尤度値算出手段にて算出された尤度値を累積してなる累積尤度値を算出する累積尤度値算出手段と、
    前記弱識別器が入力された画像を前記抽出対象画像であると識別して1を出力する確率であるポジティブ判定確率に、該弱識別器に対して予め設定された重みを乗じた値を、前記対象画像に未適用である全ての弱識別器について合計してなるポジティブ判定期待値を、前記累積尤度値算出手段にて算出された累積尤度値に加算することで尤度期待値を算出する尤度期待値算出手段と、
    前記尤度期待値算出手段にて算出された尤度期待値が予め設定された継続閾値以上である場合は、前記識別器選択手段に次の識別器を選択させると共に、次に選択すべき識別器が存在しない場合、又は前記尤度期待値が前記継続閾値より小さい場合は、前記対象画像についての処理を終了して、前記累積尤度値算出手段にて算出された累積尤度値を前記判定値として出力する継続制御手段と、
    を備えることを特徴とする画像識別装置。
  3. 前記抽出対象画像を含んだ画像を、前記主特徴とは異なる特徴である補助特徴によって分類したクラス毎に、該クラスに分類されるべき画像を前記弱識別器のそれぞれに入力した時に得られる出力のモデルパターンを記憶する出力傾向モデル記憶手段と、
    前記識別器選択手段にて選択された弱識別器と該弱識別器での識別結果とを対応づけて記憶する出力傾向記憶手段と、
    前記出力傾向モデル記憶手段の記憶内容の中で、前記出力傾向記憶手段の記憶内容と最も近似するモデルパターンを特定し、該特定されたモデルパターンに対応する前記クラスを、前記対象画像のクラスとして選択するクラス選択手段と、
    を備え、
    前記識別手段は、前記クラス毎に該クラスに適用可能な複数の弱識別器からなるクラス別識別器群を有し、
    前記識別器選択手段は、前記クラス選択手段にて選択されたクラスに対応するクラス別識別器群の中から、前記対象画像に適用する弱識別器を選択することを特徴とする請求項1または請求項2に記載の画像識別装置。
  4. 前記抽出対象画像であると識別されるべき画像が入力された時に、その画像を前記抽出対象画像であると識別して1を出力する確率をポジティブ判定確率として、
    前記クラス別識別器群は、前記識別手段を構成する弱識別器の全体から、前記主特徴のみを有した画像より当該クラスの補助特徴を有した画像の方が前記ポジティブ判定確率が大きくなる弱識別器の少なくとも一部を除去することで構成されていることを特徴とする請求項3に記載の画像識別装置。
  5. 前記クラス選択手段により現設定とは異なるクラスが選択された場合、処理中の前記入力画像について算出された処理結果を破棄して、最初から処理をやり直させるクラス変更制御手段を備えることを特徴とする請求項3または請求項4に記載の画像識別装置。
  6. 前記画像切出手段は、同一の入力画像からの前記部分画像の切り出しを、前記規定サイズを変化させて繰り返すことを特徴とする請求項1乃至請求項5のいずれかに記載の画像識別装置。
  7. 前記識別手段を構成する弱識別器は、ブースティング理論に従って学習されていることを特徴とする請求項1乃至請求項6のいずれかに記載の画像識別装置。
JP2008150679A 2008-06-09 2008-06-09 画像識別装置 Expired - Fee Related JP4513898B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2008150679A JP4513898B2 (ja) 2008-06-09 2008-06-09 画像識別装置
CN2009101406238A CN101604386B (zh) 2008-06-09 2009-06-08 图像识别设备及方法
US12/455,854 US8165408B2 (en) 2008-06-09 2009-06-08 Image recognition apparatus utilizing plurality of weak classifiers for evaluating successive sub-images extracted from an input image
EP09007570.6A EP2133823B1 (en) 2008-06-09 2009-06-08 image recognition apparatus utilizing plurality of weak classifiers for evaluating successive sub-images extracted from an input image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008150679A JP4513898B2 (ja) 2008-06-09 2008-06-09 画像識別装置

Publications (2)

Publication Number Publication Date
JP2009295100A JP2009295100A (ja) 2009-12-17
JP4513898B2 true JP4513898B2 (ja) 2010-07-28

Family

ID=41087351

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008150679A Expired - Fee Related JP4513898B2 (ja) 2008-06-09 2008-06-09 画像識別装置

Country Status (4)

Country Link
US (1) US8165408B2 (ja)
EP (1) EP2133823B1 (ja)
JP (1) JP4513898B2 (ja)
CN (1) CN101604386B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109460704A (zh) * 2018-09-18 2019-03-12 厦门瑞为信息技术有限公司 一种基于深度学习的疲劳检测方法、系统和计算机设备

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8107735B2 (en) * 2007-04-10 2012-01-31 Denso Corporation Three dimensional shape reconstitution device and estimation device
JP4743312B2 (ja) 2009-07-29 2011-08-10 株式会社デンソー 画像識別装置
CN102044064A (zh) * 2009-10-23 2011-05-04 鸿富锦精密工业(深圳)有限公司 影像处理系统及方法
US9836482B2 (en) 2009-12-29 2017-12-05 Google Inc. Query categorization based on image results
CN102147851B (zh) * 2010-02-08 2014-06-04 株式会社理光 多角度特定物体判断设备及多角度特定物体判断方法
JP5574816B2 (ja) * 2010-05-14 2014-08-20 キヤノン株式会社 データ処理装置及びデータ処理方法
KR20120057692A (ko) * 2010-08-12 2012-06-07 삼성전자주식회사 디스플레이장치 및 영상표시방법
JP2012113621A (ja) * 2010-11-26 2012-06-14 Sony Corp 情報処理装置、情報処理方法、及び、プログラム
JP5285748B2 (ja) 2011-07-08 2013-09-11 富士フイルム株式会社 オブジェクト検出装置、方法およびプログラム
KR101175597B1 (ko) * 2011-09-27 2012-08-21 (주)올라웍스 아다부스트 학습 알고리즘을 이용하여 얼굴 특징점 위치를 검출하기 위한 방법, 장치, 및 컴퓨터 판독 가능한 기록 매체
JP6071002B2 (ja) * 2012-02-16 2017-02-01 日本電気株式会社 信頼度取得装置、信頼度取得方法および信頼度取得プログラム
JP5895624B2 (ja) * 2012-03-14 2016-03-30 オムロン株式会社 画像処理装置、画像処理方法、制御プログラムおよび記録媒体
JP6003124B2 (ja) * 2012-03-15 2016-10-05 オムロン株式会社 認証装置、認証装置の制御方法、制御プログラム、および記録媒体
US9213888B2 (en) * 2012-06-27 2015-12-15 Disney Enterprises, Inc. Electronic devices in local interactions between users
CN102819753A (zh) * 2012-07-17 2012-12-12 华中科技大学 一种运用最大子图的基于局部模型的物体检测方法
JP5880454B2 (ja) * 2013-01-11 2016-03-09 富士ゼロックス株式会社 画像識別装置及びプログラム
US20140286527A1 (en) * 2013-03-20 2014-09-25 Qualcomm Incorporated Systems and methods for accelerated face detection
KR102315574B1 (ko) * 2014-12-03 2021-10-20 삼성전자주식회사 데이터 분류 방법 및 장치와 관심영역 세그멘테이션 방법 및 장치
JP6603477B2 (ja) 2015-04-30 2019-11-06 キヤノン株式会社 情報処理装置、情報処理方法
CN106339658A (zh) * 2015-07-09 2017-01-18 阿里巴巴集团控股有限公司 数据的处理方法和装置
US10180782B2 (en) * 2015-08-20 2019-01-15 Intel Corporation Fast image object detector
JP6528608B2 (ja) * 2015-08-28 2019-06-12 カシオ計算機株式会社 診断装置、及び診断装置における学習処理方法、並びにプログラム
US10268881B2 (en) * 2015-09-30 2019-04-23 Canon Kabushiki Kaisha Pattern classifying apparatus, information processing apparatus, pattern classifying method, and non-transitory computer readable storage medium
US10853737B2 (en) * 2016-02-22 2020-12-01 The Trustees Of Princeton University Machine-learning classifier based on comparators for direct inference on analog sensor data
JP6815743B2 (ja) * 2016-04-15 2021-01-20 キヤノン株式会社 画像処理装置及びその方法、プログラム
US10657364B2 (en) 2016-09-23 2020-05-19 Samsung Electronics Co., Ltd System and method for deep network fusion for fast and robust object detection
GB2554435B (en) * 2016-09-27 2019-10-23 Univ Leicester Image processing
CN110325998B (zh) * 2017-02-24 2024-03-12 瑞典爱立信有限公司 使用机器学习对实例进行分类
US11151235B2 (en) 2017-08-01 2021-10-19 Apple Inc. Biometric authentication techniques
WO2019027503A1 (en) * 2017-08-01 2019-02-07 Apple Inc. BIOMETRIC AUTHENTICATION TECHNIQUES
CN108764348B (zh) * 2018-05-30 2020-07-10 口口相传(北京)网络技术有限公司 基于多个数据源的数据采集方法及系统
CN111814571B (zh) * 2020-06-12 2024-07-12 深圳禾思众成科技有限公司 一种基于背景过滤的口罩人脸识别方法及系统
CN117435981B (zh) * 2023-12-22 2024-03-01 四川泓宝润业工程技术有限公司 机泵设备运行故障诊断方法、装置、存储介质及电子设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005284487A (ja) * 2004-03-29 2005-10-13 Sony Corp 情報処理装置および方法、記録媒体、並びにプログラム
JP2008009893A (ja) * 2006-06-30 2008-01-17 Canon Inc パラメータ学習方法及びその装置、パターン識別方法及びその装置、プログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6647139B1 (en) * 1999-02-18 2003-11-11 Matsushita Electric Industrial Co., Ltd. Method of object recognition, apparatus of the same and recording medium therefor
US7099510B2 (en) * 2000-11-29 2006-08-29 Hewlett-Packard Development Company, L.P. Method and system for object detection in digital images
US7020337B2 (en) * 2002-07-22 2006-03-28 Mitsubishi Electric Research Laboratories, Inc. System and method for detecting objects in images
US7031499B2 (en) * 2002-07-22 2006-04-18 Mitsubishi Electric Research Laboratories, Inc. Object recognition system
KR20050025927A (ko) * 2003-09-08 2005-03-14 유웅덕 홍채인식을 위한 동공 검출 방법 및 형상기술자 추출방법과 그를 이용한 홍채 특징 추출 장치 및 그 방법과홍채인식 시스템 및 그 방법
CN101089874B (zh) * 2006-06-12 2010-08-18 华为技术有限公司 一种远程人脸图像的身份识别方法
JP2008150679A (ja) 2006-12-19 2008-07-03 Dialight Japan Co Ltd 基板表面への炭素膜成膜方法およびこれを実施する装置
CN100560025C (zh) * 2007-07-26 2009-11-18 上海交通大学 带有弱分类器的组合系数的人脸检测方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005284487A (ja) * 2004-03-29 2005-10-13 Sony Corp 情報処理装置および方法、記録媒体、並びにプログラム
JP2008009893A (ja) * 2006-06-30 2008-01-17 Canon Inc パラメータ学習方法及びその装置、パターン識別方法及びその装置、プログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109460704A (zh) * 2018-09-18 2019-03-12 厦门瑞为信息技术有限公司 一种基于深度学习的疲劳检测方法、系统和计算机设备
CN109460704B (zh) * 2018-09-18 2020-09-15 厦门瑞为信息技术有限公司 一种基于深度学习的疲劳检测方法、系统和计算机设备

Also Published As

Publication number Publication date
CN101604386B (zh) 2013-06-12
EP2133823A2 (en) 2009-12-16
JP2009295100A (ja) 2009-12-17
US8165408B2 (en) 2012-04-24
CN101604386A (zh) 2009-12-16
EP2133823B1 (en) 2013-07-24
EP2133823A3 (en) 2012-08-08
US20090304290A1 (en) 2009-12-10

Similar Documents

Publication Publication Date Title
JP4513898B2 (ja) 画像識別装置
US12106602B2 (en) Fake-finger determination device, fake-finger determination method and fake-finger determination program
JP4743312B2 (ja) 画像識別装置
CN110414333B (zh) 一种图像边界的检测方法及装置
JP4863423B2 (ja) 虹彩を用いた身元確認システム及び方法並びにその方法を実行するための身元確認プログラムを格納したコンピュータ読取り可能な記録媒体
TWI497422B (zh) 車牌影像辨識系統及方法
US12056954B2 (en) System and method for selecting images for facial recognition processing
CN109460704B (zh) 一种基于深度学习的疲劳检测方法、系统和计算机设备
Boehnen et al. A fast multi-modal approach to facial feature detection
US20220358791A1 (en) Identity information processing method and device based on fundus image
JP5792985B2 (ja) 情報処理装置、情報処理装置の制御方法、およびプログラム
KR20080104943A (ko) 얼굴 인식 방법 및 시스템
JP2013535038A (ja) 画像テンプレートマスキング
TW201917636A (zh) 一種基於線上學習的人臉辨識方法與系統
JP2017053699A (ja) 物質判別に用いる近赤外画像撮像用の波長決定方法および近赤外画像を用いた物質判別方法
WO2018185574A1 (en) Apparatus and method for documents and/or personal identities recognition and validation
KR20110103223A (ko) 얼굴 인식을 위한 sift 알고리즘을 이용한 키포인트 매칭 시스템 및 방법
US12056955B2 (en) Information providing device, information providing method, and storage medium
Bakshi et al. Optimized periocular template selection for human recognition
US11580766B2 (en) Method for detecting at least one biometric trait visible in an input image by means of a convolutional neural network
JP7548293B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP2005084979A (ja) 顔認証システムおよび方法並びにプログラム
CN1313962C (zh) 基于选择性多本征空间集成的数字人脸图像识别方法
Carls et al. Biometric enhancements: Template aging error score analysis
JP3422896B2 (ja) 画像認識方法及びその装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091209

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100405

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100420

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100503

R151 Written notification of patent or utility model registration

Ref document number: 4513898

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130521

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140521

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees