JP2012118927A - 画像処理プログラムおよび画像処理装置 - Google Patents

画像処理プログラムおよび画像処理装置 Download PDF

Info

Publication number
JP2012118927A
JP2012118927A JP2010270538A JP2010270538A JP2012118927A JP 2012118927 A JP2012118927 A JP 2012118927A JP 2010270538 A JP2010270538 A JP 2010270538A JP 2010270538 A JP2010270538 A JP 2010270538A JP 2012118927 A JP2012118927 A JP 2012118927A
Authority
JP
Japan
Prior art keywords
feature point
combination
point candidates
image processing
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010270538A
Other languages
English (en)
Other versions
JP5648452B2 (ja
Inventor
Shanshan Yu
珊珊 于
Satoru Nakajima
哲 中島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2010270538A priority Critical patent/JP5648452B2/ja
Priority to US13/309,619 priority patent/US8660361B2/en
Publication of JP2012118927A publication Critical patent/JP2012118927A/ja
Application granted granted Critical
Publication of JP5648452B2 publication Critical patent/JP5648452B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Geometry (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

【課題】特徴点の検出精度を高めることを課題とする。
【解決手段】画像処理装置200の制御部240は、顔検出部241、抽出部242、作成部243、棄却部244および決定部245を有する。棄却部244は、作成部243により作成された複数の組合せの中から組合せを一つ取得する。続いて、棄却部244は、モデル記憶部232から辞書情報を取得し、辞書情報における特徴点間の距離と、作成された組合せにおける特徴点候補間の距離の誤差を算出する。そして、棄却部244は、辞書情報との誤差が最大となるリンクを特定し、誤差が最大となるリンクに関連する特徴点候補、言い換えればリンクに接続されている特徴点候補のうち、より誤差を発生させる特徴点候補を検出する。
【選択図】図1

Description

本願の開示する技術は、画像処理プログラムおよび画像処理装置に関連する。
従来、情報処理装置における処理などに利用することを目的として、入力画像から複数の特徴点候補を抽出し、抽出された複数の特徴点候補の中から特徴点を検出する技術がある。この技術では、人間の顔を撮影した入力画像から瞳孔を特徴点として検出する場合、瞳孔と、瞳孔以外の口角や鼻孔などの他の特徴点との位置関係が利用される。例えば、この技術を用いた処理は、まず、人の顔を撮影した入力画像から、瞳孔や口角、鼻孔などの特徴点となり得る複数の特徴点候補を抽出する。続いて、この処理は、瞳孔、口角および鼻孔などの特徴点候補の組合せを複数生成し、瞳孔、口角および鼻孔などの特徴点の位置関係が定義されたモデルと比較する。そして、この処理は、比較の結果、モデルと最もマッチする組合せに含まれる特徴点候補を、瞳孔、口角および鼻孔などの特徴点に決定する。
なお、入力画像から特徴点として検出された瞳孔の位置は、次のような処理に利用されている。例えば、携帯電話やパーソナルコンピュータなどの情報処理装置では、ユーザの瞳孔の動きを追跡してユーザの視線を捉え、視線の動きに対応させてディスプレイなどに表示されている画面をスクロールさせる処理に利用される。また、車両に搭載される電子機器では、ドライバの瞳孔の動きを追跡してドライバの視線を捉え、ドライバの余所見を検知してアラームを上げる処理などにも利用される。
特開2007−233997号公報
ところで、上述した従来の技術を用いた処理では、特徴点候補の組合せとモデルとを比較し、最もモデルにマッチする組合せを構成する各特徴点候補を特徴点として決定する。このため、特徴点候補の組合せの中に、真正の特徴点に対応する特徴点候補が含まれていても、他の特徴点候補が真正のものから大きく外れている場合には、モデルと最もマッチする組合せとはならない可能性がある。
例えば、顔の右半分に強い光が照射する環境で撮影された入力画像では、いわゆる画像の白とびにより、顔の右半分に位置する右目、右鼻孔、右口角の特徴点に対応する特徴点候補を上手く抽出できない場合がある。また、顔が撮影されたときの顔の向きによっては、右目、右鼻孔、右口角の特徴点が入力画像の中に最初から含まれない場合もある。このような状況で抽出された右目、右鼻孔、右口角の特徴点候補を含む組合せでは、同一の組合せに含まれる左目や左鼻孔などの他の特徴点候補が仮に真正なものであったとしても、モデルとの照合度が低くなってしまう可能性がある。つまり、入力画像の状況によっては、真正な特徴点が埋もれてしまい、最終的に検出されないという事態も起こり得る。結果として、上述した従来の技術を用いた処理は、特徴点の検出精度が低くなってしまう恐れがある。
開示の技術は、上記に鑑みてなされたものであって、特徴点の検出精度を高めることが可能な画像処理プログラムおよび画像処理装置を提供することを目的とする。
本願の開示する画像処理プログラムは、一つの態様において、コンピュータに、次の各処理を実行させる。すなわち、コンピュータに、入力画像から特徴点の候補である特徴点候補を複数抽出し、前記特徴点候補を複数含む組合せを複数作成する処理を実行させる。また、コンピュータに、複数の真正な特徴点の組合せに関する辞書情報と前記入力画像の解析情報との少なくとも一方に基づいて、次の処理を実行させる。つまり、コンピュータに、前記特徴点候補の組合せごとに、該組合せに含まれる複数の前記特徴点候補の中から特徴点候補を1または複数棄却する処理を実行させる。また、コンピュータに、前記特徴点候補の組合せごとに、該組合せに含まれる特徴点候補から1または複数の特徴点候補が棄却された組合せと前記辞書情報との照合結果をそれぞれ取得する処理を実行させる。また、コンピュータに、前記照合結果に応じて前記特徴点候補の組合せを選択し、選択した組合せに含まれる複数の前記特徴点候補を前記特徴点にそれぞれ決定する処理を実行させる。
本願の開示する技術の一つの態様によれば、特徴点の検出精度を高めることができる。
図1は、実施例1に係る画像処理装置の構成を示す機能ブロック図である。 図2は、実施例1に係るモデル記憶部の説明に用いる図である。 図3は、実施例1に係る棄却部の説明に用いる図である。 図4は、実施例1に係る棄却部の説明に用いる図である。 図5は、実施例1に係る棄却部の説明に用いる図である。 図6は、実施例1に係る棄却部の説明に用いる図である。 図7は、実施例1に係る棄却部の説明に用いる図である。 図8は、実施例1に係る画像処理装置による処理の全体的な流れを示す図である。 図9は、実施例2に係る画像処理装置による処理の流れを示す図である。 図10は、実施例2に係る画像処理装置による処理の流れを示す図である。 図11は、実施例3に係る画像処理装置の説明に用いる図である。 図12は、実施例3に係る画像処理装置の構成を示す機能ブロック図である。 図13は、実施例3に係る画像処理装置による処理の流れを示す図である。 図14は、実施例3に係る画像処理装置による処理の流れを示す図である。 図15は、実施例4に係る画像処理装置による処理の流れを示す図である。 図16は、実施例4に係る画像処理装置による処理の流れを示す図である。 図17は、実施例5に係る画像処理装置の説明に用いる図である。 図18は、画像処理プログラムを実行する電子機器の一例を示す図である。
以下に、図面を参照しつつ、本願の開示する画像処理プログラムおよび画像処理装置の一実施形態について詳細に説明する。なお、後述する実施例は一実施形態にすぎず、本願の開示する画像処理プログラムおよび画像処理装置を限定するものではない。
[画像処理装置の構成(実施例1)]
図1は、実施例1に係る画像処理装置の構成を示す機能ブロック図である。図1に示すように、実施例1に係る画像処理装置200は撮影装置100と接続する。撮影装置100は、例えば、特徴点の抽出対象となる物体、例えば、人の顔や車両などを被写体とする。なお、以下の実施例の説明では、一例として、撮影装置100が人の顔を被写体として撮影を実行するものとする。
また、図1に示すように、画像処理装置200は、入力部210と、出力部220と、記憶部230と、制御部240とを有する。
入力部210は、撮影装置100により撮影された画像を取り込む。入力部210により取り込まれた画像は、記憶部230の画像記憶部231に格納される。出力部220は、制御部240による処理結果を外部へ出力する。例えば、出力部220は、制御部240による処理結果を、視線検出や表情認識などを行う外部のデバイスへ出力する。
記憶部230は、図1に示すように、画像記憶部231およびモデル記憶部232を有する。なお、記憶部230は、例えば、RAM(Random Access Memory)やフラッシュメモリ(flash memory)などの半導体メモリ素子である。画像記憶部231は、入力部210により取り込まれた画像を記憶する。
モデル記憶部232は、人の顔に含まれる複数の真正な特徴点の組合せに関する辞書情報を記憶する。以下、図2を用いて、モデル記憶部232に記憶される辞書情報の一例を説明する。図2は、実施例1に係るモデル記憶部の説明に用いる図である。
モデル記憶部232は、人の顔を撮影した画像(以下、顔画像と表記する)から、検出対象とする特徴点、例えば、瞳孔、鼻頭、鼻孔、口角などの各特徴点間の距離情報(リンク長)を記憶する。例えば、モデル記憶部232は、瞳孔間の距離を基準として、その他の特徴間の距離を正規化した値で記憶する。例えば、図2に示すように、モデル記憶部232は、右瞳孔と左瞳孔との距離の値を「1.0」とした場合には、右瞳孔または左瞳孔と鼻頭との距離の値として「0.6」を記憶する。
また、モデル記憶部232は、検出対象とする特徴点間の位置関係により、辞書情報として用意する特徴点の対の種類や数を適宜組合せて用いることができる。また、上述した特徴点間の距離は、顔画像における特徴点間の画素数を採用することができる。例えば、学習用の複数の顔画像について特徴点間の画素数をそれぞれ算出し、算出した各画素数の平均を特徴点間の距離とすることができる。なお、モデル記憶部232は、例えば、瞳孔間の距離を基準として、その他の特徴点間の距離を正規化した形で記憶する場合に限られるものではなく、正規化せずに、画素数をそのまま記憶してもよい。
図1に戻り、制御部240は、顔検出部241、抽出部242、作成部243、棄却部244および決定部245を有する。なお、制御部240は、例えば、電子回路や集積回路に該当する。電子回路としては、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)がある。また、集積回路としては、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)などがある。
顔検出部241は、画像記憶部231から画像を取得し、取得した画像内から顔を検出する。例えば、顔検出部241は、エッジ抽出やパターンマッチング、フレーム間差分やニューラルネットワークなどの既存技術を用いて、画像から顔の検出を試みる。
抽出部242は、顔検出部241により画像内から顔が検出された場合には、瞳孔、鼻頭、鼻孔、口角などの各特徴点について、特徴点に該当する可能性がある複数の特徴点候補を画像から抽出する。例えば、分離度フィルタを用いた処理や、パターンマッチングを用いた処理により特徴点候補を抽出する。
作成部243は、抽出部242により抽出された特徴点候補の組合せを複数作成する。例えば、作成部243は、右瞳孔の特徴点候補、左瞳孔の特徴点候補、鼻頭の特徴点候補、右鼻孔の特徴点候補、左鼻孔の特徴点候補、右口角の特徴点候補、左口角の特徴点候補を一つずつ含む排他的な組合せを複数作成する。
棄却部244は、作成部243により作成された各組合せについて、辞書情報との誤差を最も発生させる特徴点候補を削除する。以下、図3〜図12を用いて、棄却部244について説明する。図3〜図7は、実施例1に係る棄却部の説明に用いる図である。
図3に示す10は、辞書情報に基づいて各特徴点の位置関係を表現した概念モデルである。図3に示すEおよびEは辞書情報における瞳孔のモデルである。図3に示すNは辞書情報における鼻頭のモデルであり、NおよびNは辞書情報における鼻孔のモデルである。図3に示すMおよびMは辞書情報における口角のモデルである。図3〜図12に示す20は、作成部243により作成された組合せ、つまり各特徴点候補の位置関係を表現した概念モデルである。図3に示すE´およびE´は組合せにおける瞳孔候補のモデルである。図3に示すN´は組合せにおける鼻頭候補のモデルであり、N´およびN´は組合せにおける鼻孔候補のモデルである。図3に示すM´およびM´は組合せにおける口角候補のモデルである。
まず、棄却部244は、作成部243により作成された複数の組合せの中から組合せを一つ取得する。続いて、棄却部244は、モデル記憶部232から辞書情報を取得し、辞書情報における特徴点間の距離(リンク長)と、作成部243により作成された組合せにおける特徴点候補間の距離(リンク長)との誤差を算出する。概念的にいえば、棄却部244は、図3に示すように、辞書情報に基づいた概念モデル10と、作成部243により作成された組合せの概念モデル20とを比較し、概念モデル10に対する概念モデル20の誤差を算出する。
次に、棄却部244は、作成部243により作成された組合せにおける特徴点候補間の距離(リンク長)のうち、辞書情報における特徴点間の距離(リンク長)に対する誤差が最大となるリンクを特定する。続いて、棄却部244は、特定したリンク、つまり辞書情報に対する誤差が最大となるリンクに接続されている複数の特徴点候補のうち、より誤差を発生させる特徴点候補を検出する。棄却部244は、検出された特徴点候補を、特徴点候補の組合せの中から削除する。
例えば、棄却部244は、鼻頭候補のモデルN´と右鼻孔候補のモデルN´を接続するリンクを、リンク長の誤差が最大となるものとして特定したとする。この場合には、棄却部244は、鼻頭候補のモデルN´と右鼻孔候補のモデルN´のうち、より誤差を発生させる特徴点候補を検出する。まず、棄却部244は、図4において点線で示すように、鼻頭候補のモデルN´に接続される各リンクのリンク長の誤差の合計値を計算する。同様に、棄却部244は、図5において点線で示すように、右鼻孔候補のモデルN´に接続される各リンクのリンク長の誤差の合計値を計算する。続いて、棄却部244は、鼻頭候補のモデルN´について算出した誤差の合計値と、右鼻孔候補のモデルN´について算出した誤差の合計値とを比較し、合計値が大きい方を、より誤差を発生させる特徴点候補として検出する。
上述した処理を実行した結果、棄却部244は、例えば、図5に示す右鼻孔候補のモデルN´をより誤差を発生させる特徴点候補として検出したとすると、選択した組合せの中から右鼻孔候補のモデルN´を削除する。概念的には、例えば、図7に示すように、棄却部244は、作成部243により作成された組合せの中から選択した概念モデル20から、右鼻孔候補のモデルN´が削除された状態となる。
続いて、棄却部244は、辞書情報における特徴点間の距離(リンク長)と、右鼻孔候補のモデルN´が削除された後に残った特徴点候補間の距離(リンク長)との誤差を再計算する。概念的には、棄却部244は、辞書情報に基づいた概念モデル10と、右鼻孔候補のモデルN´が削除された後に残った特徴点候補で構築される概念モデル20とを比較し、概念モデル10に対する誤差を算出することとなる。
そして、棄却部244は、辞書情報における特徴点間の距離に対する、鼻孔候補のモデルN´が削除された後に残った特徴点候補間の距離の誤差の最大値を取得し、鼻孔候補のモデルN´が削除された後に残った特徴点候補の組合せと対応付けて保存する。例えば、棄却部244は、図7に示す特徴点候補の組合せにおいて、図8に示す特徴点候補間を接続するリンクαのリンク長の誤差が最大となる場合には、その最大値に対応付けて図7に示す特徴点候補の組合せを保存する。つまり、リンク長の誤差の値と、図7に示す特徴点候補の画像上の位置とを対応付けて保存する。
そして、棄却部244は、作成部243により作成された全ての組合せについて、上述してきた処理を完了しているか否かを判定し、完了していなければ、次の組合せを選択して上述してきた処理を実行する。一方、棄却部244は、作成部243により作成された全ての組合せについて処理を完了している場合には、後述する決定部245の処理を起動する。
決定部245は、棄却部244による処理が完了すると、棄却部244により誤差の最大値の中から最小の値を検索する。そして、決定部245は、最小の値に対応付けられている組合せを取得し、取得した組合せに含まれる特徴点候補を最終的な特徴点として決定する。
[画像処理装置による処理(実施例1)]
図8を用いて、実施例1に係る画像処理装置200による処理の流れを説明する。図8は、実施例1に係る画像処理装置による処理の全体的な流れを示す図である。図8に示す処理は、画像処理装置200が予めて設定されたタイミング、あるいは撮影装置100により撮影された画像を取り込んだタイミングで起動される。なお、以下の説明中、「モデル」と表記するものは、上述したモデル記憶部232に辞書情報として記憶されている各特徴間の距離(リンク長)を指す。
図8に示すように、顔検出部241は、画像記憶部231から画像を取得し(ステップS101)、画像から顔を検出すると、抽出部242の処理を起動する。抽出部242は、瞳孔、鼻頭、鼻孔、口角などの各特徴点について、特徴点に該当する可能性がある複数の特徴点候補を画像から抽出する(ステップS102)。続いて、作成部243は、抽出部242により抽出された特徴点候補の組合せを複数作成する(ステップS103)。
次に、棄却部244は、ステップS103で作成された組合せを一つ選択し(ステップS104)、選択した組合せとモデルとを比較する(ステップS105)。続いて、棄却部244は、モデルに対する組合せのリンク長の誤差、すなわちステップS104で選択した組合せの含まれる特徴点候補間のリンク長とモデルとの誤差を算出する(ステップS106)。
次に、棄却部244は、ステップS106の処理結果から、誤差が最大となるリンクを特定する(ステップS107)。続いて、棄却部244は、ステップS107で特定したリンクに関連する特徴点候補のうち、より誤差を発生させる特徴点候補を検出する(ステップS108)。そして、棄却部244は、ステップS108で検出した特徴点候補をステップS104で選択した組合せから削除する(ステップS109)。
次に、棄却部244は、上述したステップS105と同様にして、ステップS109の処理後の組合せとモデルとを比較する(ステップS110)。続いて、棄却部244は、上述したステップS106と同様にして、モデルに対するリンク長の誤差を再算出する(ステップS111)。そして、棄却部244は、ステップS111で算出された誤差の最大値と、現在処理中である該当組合せとを対応付けて保存し(ステップS112)、ステップS103で作成された全ての組合せの処理を完了したか否かを判定する(ステップS113)。
判定の結果、全ての組合せの処理を完了していない場合には(ステップS113,No)、棄却部244は、上述したステップS104の処理に戻り、次の組合せを取得する。一方、棄却部244は、全ての組合せの処理を完了している場合には(ステップS113,Yes)、決定部245の処理を起動する。決定部245は、ステップS112で保存された誤差の最大値の中から最小の値を検索する(ステップS114)。そして、決定部245は、S114で検索された最小の値に対応付けられている組合せを取得し、取得した組合せに含まれる特徴点候補を最終的な特徴点として決定し(ステップS115)、処理を終了する。
[実施例1による効果]
上述してきたように、画像処理装置200は、誤りの可能性がある特徴点候補が削除された組合せについてモデルとの照合を行い、照合結果に応じて選択した組合せに含まれる複数の特徴点候補を最終的な特徴点に決定する。よって、実施例1によれば、特徴点の検出精度を高めることができる。
また、画像処理装置200は、誤りの可能性がある特徴点候補を削除した上でモデルとの比較を行うので、モデルとの比較を行う場合に、誤りの可能性がある特徴点候補の影響を予め除去することができる。よって、実施例1によれば、特徴点の検出精度を高めることができる。
上述した実施例1では、モデル記憶部232に記憶されている辞書情報のモデルと、特徴点候補の組合せとの誤差を算出し、算出した誤差に基づいて誤りの可能性のある特徴点候補を削除する場合を説明したが、これに限定されるものではない。例えば、特徴点候補の特徴点としての尤もらしさを示す尤度値に基づいて、誤りの可能性がある特徴点候補を削除することもできる。
[画像処理装置による処理(実施例2)]
以下、図9および図10を用いて、実施例2に係る画像処理装置の処理の流れを説明する。図9および図10は、実施例2に係る画像処理装置による処理の流れを示す図である。
実施例2に係る画像処理装置の処理は、実施例1に係る画像処理装置の処理と以下に説明する点が異なる。すなわち、図9に示すように、棄却部244は、ステップS203で作成された組合せを一つ選択し(ステップS204)、選択した組合せの中から尤度値が閾値を下回る特徴点候補を削除する(ステップS205)。
次に、棄却部244は、ステップS205の処理後の組合せとモデルとを比較する(ステップS206)。続いて、棄却部244は、モデルに対する組合せのリンク長の誤差、すなわちステップS205の処理後の組合せの含まれる特徴点候補間のリンク長とモデルとの誤差を算出する(ステップS207)。そして、棄却部244は、ステップS207で算出された誤差の最大値と現在処理中である該当組合せとを対応付けて保存する(ステップS208)。以後の処理は、実施例1と同様である。
つまり、棄却部244は、ステップS203で作成された全ての組合せの処理を完了したか否かを判定する(ステップS209)。判定の結果、全ての組合せの処理を完了していない場合には(ステップS209,No)、棄却部244は、上述したステップS204の処理に戻り、次の組合せを取得する。一方、棄却部244は、全ての組合せの処理を完了している場合には(ステップS209,Yes)、決定部245の処理を起動する。決定部245は、ステップS208で保存された誤差の最大値の中から最小の値を検索する(ステップS210)。そして、決定部245は、ステップS210で検索された最小の値に対応付けられている組合せを取得し、取得した組合せに含まれる特徴点候補を最終的な特徴点として決定し(ステップS211)、処理を終了する。
なお、抽出部242により、画像から瞳孔や鼻孔などの特徴点候補を抽出する際に得られる分離度フィルタの応答値を、上述したステップS205の処理で用いられる尤度値はとして利用する。
さらに、図10に示すように、実施例1で説明したモデルと組合せとの誤差による特徴点候補の削除と、尤度値による特徴点候補の削除とを双方実行することもできる。
すなわち、棄却部244は、ステップS303で作成された組合せを一つ選択し(ステップS304)、選択した組合せの中から尤度値が閾値を下回る特徴点候補を削除する(ステップS305)。
次に、棄却部244は、ステップS305の処理後の組合せとモデルとを比較する(ステップS306)。続いて、棄却部244は、モデルに対する組合せのリンク長の誤差、すなわちステップS305の処理後の組合せの含まれる特徴点候補間のリンク長とモデルとの誤差を算出する(ステップS307)。
次に、棄却部244は、ステップS307の処理結果から、誤差が最大となるリンクを特定する(ステップS308)。続いて、棄却部244は、ステップS308で特定したリンクに関連する特徴点候補のうち、より誤差を発生させる特徴点候補を検出する(ステップS309)。そして、棄却部244は、ステップS309で検出した特徴点候補をステップS305の処理後の組合せから削除する(ステップS310)。
次に、棄却部244は、上述したステップS306と同様にして、ステップS310の処理後の組合せとモデルとを比較する(ステップS311)。続いて、棄却部244は、上述したステップS307と同様にして、モデルに対するリンク長の誤差を再算出する(ステップS312)。そして、棄却部244は、ステップS312で算出された誤差の最大値と現在処理中である該当組合せとを対応付けて保存する(ステップS313)。以後の処理は、実施例1の図8および上述した図9と同様である。
つまり、棄却部244は、ステップS303で作成された全ての組合せの処理を完了したか否かを判定する(ステップS314)。判定の結果、全ての組合せの処理を完了していない場合には(ステップS314,No)、棄却部244は、上述したステップS304の処理に戻り、次の組合せを取得する。一方、棄却部244は、全ての組合せの処理を完了している場合には(ステップS314,Yes)、決定部245の処理を起動する。決定部245は、ステップS313で保存された誤差の最大値の中から最小の値を検索する(ステップS315)。そして、決定部245は、ステップS315で検索された最小の値に対応付けられている組合せを取得し、取得した組合せに含まれる特徴点候補を最終的な特徴点として決定し(ステップS316)、処理を終了する。
[実施例2による効果]
上述してきたように、実施例2では、特徴点候補の特徴点としての尤もらしさを示す尤度値に基づいて、誤りの可能性がある特徴点候補を削除する。このため、実施例2によれば、誤りの可能性がある特徴点候補の影響を簡易な処理で予め除去することができ、特徴点の検出精度を向上できる。
また、実施例2では、特徴点候補の組合せの中から、モデルとの誤差による特徴点候補の削除と尤度値による削除とを双方実行する。このため、実施例2によれば、誤りの可能性がある特徴点候補の影響を様々な指標に応じて予め除去することができ、特徴点の検出精度をさらに向上できる。
なお、上述した実施例2では、特徴点候補の特徴点としての尤もらしさを示す尤度値に基づいて、誤りの可能性がある特徴点候補を削除する場合を説明したが、これに限定されるものではない。
例えば、棄却部244は、画像解析部246から従前の処理で削除された特徴点候補の位置を取得する。そして、棄却部244は、取得した位置に基づいて、特徴点候補の組合せの中から、従前の処理で削除された特徴点候補を削除する。このように、実施例2において、特徴点候補の組合せの中から、誤りの可能性があるとして従前の処理で削除された特徴点候補を削除するようにしてもよい。さらには、実施例2において、特徴点候補の組合せの中から、モデルとの誤差による特徴点候補の削除と従前の処理結果による特徴点候補の削除とを双方実行するようにしてもよい。
このようにすれば、従前の処理結果を有効に活用して、誤りの可能性がある特徴点候補の影響を予め除去することができる。
また、上述した実施例2では、特徴点候補の尤度値に応じて特徴点候補を削除する場合を説明したが、次のような処理を実行してもよい。例えば、特徴点候補間を接続するリンク長とモデルとの誤差を、リンクを構築する特徴点候補の各尤度値に応じて補正する。例えば、リンクを構築する各特徴点の尤度値が大きいほど、モデルとの誤差が小さくなるように補正する。そして、以下、例えば実施例1と同様に、モデルとの誤差が最大となるリンクを特定し、特定したリンクに関連する特徴点候補のうち、より誤差を発生される特徴点候補を、特徴点候補の組合せの中から削除する。このような処理でも、誤りの可能性がある特徴点候補の影響を予め除去することができ、特徴点の検出精度をさらに向上できる。
上述した実施例2において、画像の解析情報から得られる顔の向きに応じて、特徴点の尤度値を調整したうえで、調整した尤度値に基づいて特徴点候補を削除するようにしてもよい。
図11は、実施例3に係る画像処理装置の説明に用いる図である。実施例3に係る画像処理装置は、図11の1に示すように、画像を入力する。次に、実施例3に係る画像処理装置は、図11の2に示すように、入力した画像から特徴点候補を複数抽出する。続いて、実施例3に係る画像処理装置は、図11の3に示すように、特徴点候補の組合せを作成する。ここで、実施例3に係る画像処理装置は、入力した画像を解析して顔の向きを取得し、顔の向きに応じて特徴点候補の尤度値を調整する。そして、実施例3に係る画像処理装置は、図11の4に示すように、調整後の尤度値に基づいて特徴点候補を削除する。
[画像処理装置の構成(実施例3)]
図12は、実施例3に係る画像処理装置の構成を示す機能ブロック図である。実施例3に係る画像処理装置は、実施例1に係る画像処理装置と基本的には同様の構成を有するが、以下に説明する点が異なる。
画像解析部246は、顔検出部241により画像から顔が検出されると、画像記憶部231から画像の現入力フレームと以前の入力フレームを複数取得して、取得したフレームを解析することにより顔の向きの情報を取得する。例えば、画像解析部246は、以前のフレームから目の輪郭を抽出取得し、目尻間の水平距離を算出する。そして、画像解析部246は、以前の入力フレームから現入力フレームに至るまでの目尻間の水平距離の時間変化を追跡することにより顔の向きを取得する。
棄却部244は、画像解析部246により取得された顔の向きの情報に応じて、作成部243により作成された各組合せについて、組合せに含まれる特徴点候補の尤度値を調整する。例えば、棄却部244は、上述した図11に示すように、顔の向きが右向きである旨の情報を画像解析部246から取得した場合には、特徴点候補のうち、顔の右側に位置する右瞳孔、右鼻孔、右口角の尤度値を予め設定した割合で低く調整する。尤度値の調整後、棄却部244は、組合せに含まれる特徴点候補の中から尤度値が閾値を下回る特徴点候補を削除する。
また、画像解析部246は、以前の入力フレームに対する従前の処理で尤度値に従って削除された特徴点候補の情報を棄却部244から取得する。そして、画像解析部246は、現入力フレームと以前の入力フレームとを照らし合わせて、以前の入力フレームに対する従前の処理で削除された特徴点候補の位置を取得する。
棄却部244は、画像解析部246から、従前の処理で削除された特徴点候補の位置を取得する。そして、棄却部244は、従前の処理で削除された特徴点候補の位置に基づいて、組合せに含まれる特徴点候補の中から、従前の処理で削除された特徴点候補を削除する。
[画像処理装置による処理(実施例3)]
以下、図13および図14を用いて、実施例3に係る画像処理装置の処理の流れを説明する。図13および図14は、実施例3に係る画像処理装置による処理の流れを示す図である。
まず、図13を用いて、尤度値の調整を行い、調整後の尤度値に基づいて特徴点候補を削除する場合の処理の流れを説明する。実施例3に係る画像処理装置の処理は、実施例2に係る画像処理装置の処理と以下に説明する点が異なる。すなわち、図13に示すように、棄却部244は、ステップS403で作成された組合せを一つ選択し(ステップS404)、選択した組合せに含まれる特徴点候補の尤度値を顔の向きに応じて調整する(ステップS405)。そして、棄却部244は、ステップS405の処理後、ステップS404で選択した組合せの中から尤度値が閾値を下回る特徴点候補を削除する(ステップS406)。以後の処理は、実施例2と同様である。
つまり、棄却部244は、ステップS406の処理後の組合せとモデルとを比較する(ステップS407)。次に、棄却部244は、モデルに対する組合せのリンク長の誤差、すなわちステップS406の処理後の組合せの含まれる特徴点候補間のリンク長とモデルとの誤差を算出する(ステップS408)。続いて、棄却部244は、ステップS408で算出された誤差の最大値と現在処理中である該当組合せとを対応付けて保存する(ステップS409)。そして、棄却部244は、ステップS403で作成された全ての組合せの処理を完了したか否かを判定する(ステップS410)。判定の結果、全ての組合せの処理を完了していない場合には(ステップS410,No)、棄却部244は、上述したステップS404の処理に戻り、次の組合せを取得する。一方、棄却部244は、全ての組合せの処理を完了している場合には(ステップS410,Yes)、決定部245の処理を起動する。決定部245は、ステップS409で保存された誤差の最大値の中から最小の値を検索する(ステップS411)。そして、決定部245は、ステップS411で検索された最小の値に対応付けられている組合せを取得し、取得した組合せに含まれる特徴点候補を最終的な特徴点として決定し(ステップS412)、処理を終了する。
続いて、図14を用いて、上述した図13の処理に加えて、従前の処理で削除された候補特徴点に対応するものを削除する場合の処理の流れを説明する。図14に示すように、棄却部244は、ステップS503で作成された組合せを一つ選択し(ステップS504)、選択した組合せに含まれる特徴点候補の尤度値を顔の向きに応じて調整する(ステップS505)。そして、棄却部244は、ステップS505の処理後、ステップS504で選択した組合せの中から尤度値が閾値を下回る特徴点候補を削除する(ステップS506)。さらに、棄却部244は、ステップS504で選択した組合せの中から、従前の処理で削除された特徴点候補を削除する(ステップS507)。以後の処理は、上述した図13と同様である。
つまり、棄却部244は、ステップS507の処理後の組合せとモデルとを比較する(ステップS508)。次に、棄却部244は、モデルに対する組合せのリンク長の誤差、すなわちステップS406の処理後の組合せの含まれる特徴点候補間のリンク長とモデルとの誤差を算出する(ステップS509)。続いて、棄却部244は、ステップS509で算出された誤差の最大値と現在処理中である該当組合せとを対応付けて保存する(ステップS510)。そして、棄却部244は、ステップS503で作成された全ての組合せの処理を完了したか否かを判定する(ステップS511)。判定の結果、全ての組合せの処理を完了していない場合には(ステップS511,No)、棄却部244は、上述したステップS504の処理に戻り、次の組合せを取得する。一方、棄却部244は、全ての組合せの処理を完了している場合には(ステップS511,Yes)、決定部245の処理を起動する。決定部245は、ステップS510で保存された誤差の最大値の中から最小の値を検索する(ステップS512)。そして、決定部245は、ステップS512で検索された最小の値に対応付けられている組合せを取得し、取得した組合せに含まれる特徴点候補を最終的な特徴点として決定し(ステップS513)、処理を終了する。
なお、上記説明では、画像解析部246は、顔の向きの情報を取得するとして説明したが、本実施例はこれに限られない。例えば、画像解析部246は、顔に対して強い光が照射される環境において、尤度値が閾値を下回る特徴点候補を組合せから棄却する。つまり、画像解析部246は、顔検出部241が顔を検出すると、顔部分を複数の領域に分割する。そして、画像解析部246は、複数の領域の各々について、明るさを算出する。例えば、各領域に含まれる複数の画素の輝度値の平均値を、各領域の明るさとする。そして、棄却部244は、明るさが閾値以上の領域については、該領域に含まれる特徴点候補の尤度値を低く調整する。顔に対して強い光が照射する環境においては、撮影された画像から最終的に求めたい特徴点が欠落する可能性がある。そこで、明るさが閾値以上の領域については、該領域に含まれる特徴点候補の尤度値を低く調整することにより、誤りの可能性がある特徴点候補の影響を予め除去することができる。
[実施例3による効果]
上述してきたように、実施例3では、特徴点候補の尤度値を顔の向きに応じて調整した後に、組合せに含まれる特徴点候補を削除する。このため、実施例3によれば、被写体の撮影状況に応じた特徴点候補の信頼度に従って特徴点候補を削除することができ、誤りの可能性がある特徴点候補の影響を予め除去する場合に、その除去精度を上げることが可能となる。
実施例1で説明した特徴点候補の削除方法と実施例3で説明した特徴点候補の削除方法を組合せることもできる。
[画像処理装置の構成(実施例4)]
実施例4に係る画像処理装置は、実施例3に係る画像処理装置、すなわち図12に示す画像処理装置200と同様の構成ブロックを有する。そして、実施例4に係る画像処理装置は、以下に説明するように、図12に示す機能ブロックの処理機能が一部異なる。
すなわち、棄却部244は、実施例1で説明した特徴点候補の削除方法と実施例3で説明した特徴点候補の削除方法を組合せた処理を実行する。例えば、棄却部244は、図8に示す処理と図13に示す処理とを組み合わせて、以下のような処理を実行する。まず、棄却部244は、作成部243により作成された各組合せについて、組合せに含まれる特徴点候補の尤度値を調整する。尤度値の調整後、棄却部244は、組合せに含まれる特徴点候補の中から尤度値が閾値を下回る特徴点候補を削除する。
次に、棄却部244は、尤度値が閾値を下回る特徴点候補が削除された組合せとモデルとを比較し、組合せの含まれる特徴点候補間のリンク長とモデルとの誤差を算出する。続いて、棄却部244は、誤差が最大となるリンクを特定し、特定したリンクに関連する特徴点候補のうち、より誤差を発生させる特徴点候補を検出する。そして、棄却部244は、検出した特徴点候補を組合せから削除し、削除処理後の組合せとモデルとを比較する。次に、棄却部244は、モデルに対するリンク長の誤差を再算出し、算出された誤差の最大値と、現在処理中である該当組合せとを対応付けて保存する。棄却部244は、作成部243により作成された全ての組合せについて、上述してきた処理を実行する。
また、棄却部244は、例えば、図8に示す処理と図14に示す処理とを組み合わせて以下のような処理を実行することもできる。棄却部244は、組合せに含まれる特徴点候補の中から尤度値が閾値を下回る特徴点候補を削除した後、さらに、従前の処理で削除された特徴点候補を削除する。そして、上述したように、棄却部244は、尤度値が閾値を下回る特徴点候補および従前の処理で削除された特徴点候補が削除された組合せとモデルとを比較し、組合せの含まれる特徴点候補間のリンク長とモデルとの誤差を算出する。続いて、棄却部244は、誤差が最大となるリンクを特定し、特定したリンクに関連する特徴点候補のうち、より誤差を発生させる特徴点候補を検出する。そして、棄却部244は、検出した特徴点候補を組合せから削除し、削除処理後の組合せとモデルとを比較する。次に、棄却部244は、モデルに対するリンク長の誤差を再算出し、算出された誤差の最大値と、現在処理中である該当組合せとを対応付けて保存する。棄却部244は、作成部243により作成された全ての組合せについて、上述してきた処理を実行する。
[画像処理装置による処理(実施例4)]
以下、図15および図16を用いて、実施例4に係る画像処理装置の処理の流れを説明する。図15および図16は、実施例4に係る画像処理装置による処理の流れを示す図である。
図15に示すように、実施例4に係る画像処理装置の処理は、上述した実施例に係る画像処理装置の処理と以下に説明する点が異なる。すなわち、棄却部244は、ステップS603で作成された組合せを一つ選択し(ステップS604)、選択した組合せに含まれる特徴点候補の尤度値を顔の向きに応じて調整する(ステップS605)。そして、棄却部244は、ステップS605の処理後、ステップS604で選択した組合せの中から尤度値が閾値を下回る特徴点候補を削除する(ステップS606)。
次に、棄却部244は、ステップS606の処理後の組合せとモデルとを比較する(ステップS607)。続いて、棄却部244は、モデルに対する組合せのリンク長の誤差、すなわちステップS606の処理後の組合せの含まれる特徴点候補間のリンク長とモデルとの誤差を算出する(ステップS608)。次に、棄却部244は、ステップS608の処理結果から、誤差が最大となるリンクを特定する(ステップS609)。続いて、棄却部244は、ステップS609で特定したリンクに関連する特徴点候補のうち、より誤差を発生させる特徴点候補を検出する(ステップS610)。そして、棄却部244は、ステップS610で検出した特徴点候補をステップS606の処理後の組合せから削除する(ステップS611)。
次に、棄却部244は、上述したステップS607と同様にして、ステップS611の処理後の組合せとモデルとを比較する(ステップS612)。続いて、棄却部244は、上述したステップS608と同様にして、モデルに対するリンク長の誤差を再算出する(ステップS613)。そして、棄却部244は、ステップS613で算出された誤差の最大値と現在処理中である該当組合せとを対応付けて保存する(ステップS614)。以後の処理は、上述した実施例と同様である。
つまり、棄却部244は、ステップS603で作成された全ての組合せの処理を完了したか否かを判定する(ステップS615)。判定の結果、全ての組合せの処理を完了していない場合には(ステップS615,No)、棄却部244は、上述したステップS604の処理に戻り、次の組合せを取得する。一方、棄却部244は、全ての組合せの処理を完了している場合には(ステップS615,Yes)、決定部245の処理を起動する。決定部245は、ステップS614で保存された誤差の最大値の中から最小の値を検索する(ステップS616)。そして、決定部245は、ステップS616で検索された最小の値に対応付けられている組合せを取得し、取得した組合せに含まれる特徴点候補を最終的な特徴点として決定し(ステップS617)、処理を終了する。
また、図16に示すように、実施例4に係る画像処理装置の処理は、上述した実施例に係る画像処理装置の処理と以下に説明する点が異なる。すなわち、棄却部244は、ステップS703で作成された組合せを一つ選択し(ステップS704)、選択した組合せに含まれる特徴点候補の尤度値を顔の向きに応じて調整する(ステップS705)。そして、棄却部244は、ステップS705の処理後、ステップS704で選択した組合せの中から尤度値が閾値を下回る特徴点候補を削除する(ステップS706)。
次に、棄却部244は、ステップS706の処理後の組合せの中から、従前の処理で削除された特徴点候補を削除する(ステップS707)。続いて、棄却部244は、ステップS707の処理後の組合せとモデルとを比較する(ステップS708)。そして、棄却部244は、モデルに対する組合せのリンク長の誤差、すなわちステップS707の処理後の組合せの含まれる特徴点候補間のリンク長とモデルとの誤差を算出する(ステップS709)。
次に、棄却部244は、ステップS709の処理結果から、誤差が最大となるリンクを特定する(ステップS710)。続いて、棄却部244は、ステップS710で特定したリンクに関連する特徴点候補のうち、より誤差を発生させる特徴点候補を検出する(ステップS711)。そして、棄却部244は、ステップS711で検出した特徴点候補をステップS707の処理後の組合せから削除する(ステップS712)。
次に、棄却部244は、上述したステップS708と同様にして、ステップS712の処理後の組合せとモデルとを比較する(ステップS713)。続いて、棄却部244は、上述したステップS709と同様にして、モデルに対するリンク長の誤差を再算出する(ステップS714)。そして、棄却部244は、ステップS714で算出された誤差の最大値と現在処理中である該当組合せとを対応付けて保存する(ステップS715)。以後の処理は、上述した実施例と同様である。
つまり、棄却部244は、ステップS703で作成された全ての組合せの処理を完了したか否かを判定する(ステップS716)。判定の結果、全ての組合せの処理を完了していない場合には(ステップS716,No)、棄却部244は、上述したステップS704の処理に戻り、次の組合せを取得する。一方、棄却部244は、全ての組合せの処理を完了している場合には(ステップS716,Yes)、決定部245の処理を起動する。決定部245は、ステップS715で保存された誤差の最大値の中から最小の値を検索する(ステップS717)。そして、決定部245は、ステップS717で検索された最小の値に対応付けられている組合せを取得し、取得した組合せに含まれる特徴点候補を最終的な特徴点として決定し(ステップS718)、処理を終了する。
[実施例4による効果]
上述してきたように、実施例4では、顔の向きに応じて調整された尤度値、従前の処理結果またはモデルとの誤差のうち、複数のパラメータを用いて、組合せに含まれる特徴点候補を削除する。このため、実施例3によれば、誤りの可能性がある特徴点候補の影響を予め除去する場合に、その除去精度を上述した実施例よりも上げることが可能となる。
以下、本願の開示する画像処理プログラムおよび画像処理装置の他の実施形態を説明する。
(1)車両の特徴点検出
上述してきた画像処理装置200の処理機能は、被写体が車両である場合にも同様に適用することができる。図17は、実施例5に係る画像処理装置の説明に用いる図である。図17に示すように、画像処理装置200は、車両に含まれる複数の真正な特徴点の組合せに関する辞書情報のモデル30を予め記憶する。そして、画像処理装置200は、上述した実施例と同様にして、車両を撮影した画像から特徴点を取得する。
例えば、画像処理装置200は、パターンマッチングなどの既存技術を用いた処理により被写体として車両を撮影した画像から特徴点候補、例えば図17に示すP、P、Pを抽出する。次に、画像処理装置200は、図17に示すCおよびCのように、特徴点候補の組合せを複数作成し、作成した組合せの一つとモデル30とを比較する。続いて、画像処理装置200は、特徴点候補間を接続するリンクから、モデルとの誤差が最大となるリンクを特定する。次に、画像処理装置200は、特定されたリンクに関連する特徴点候補のうち、より誤差を発生させる特徴点候補、例えば、図17に示すPを検出する。続いて、画像処理装置200は、特徴点候補Pを削除した組合せとモデル30とを再び比較し、モデル30との誤差を計算する。そして、特徴点候補間を接続するリンクとモデル30との誤差の最大値と、特徴点候補の組合せとを対応付けて保存する。画像処理装置200は、作成した全ての組合せについて上述した処理を実行し、最終的に、モデルとの誤差の最大値が最も小さい組合せに含まれる特徴点候補を特徴点として最終的に決定する。
(2)装置構成等
例えば、図1に示した画像処理装置200の機能ブロックの構成は概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。例えば、図1に示した抽出部242と作成部243とを機能的または物理的に統合してもよい。また、例えば、図1に示した棄却部244と決定部245とを機能的または物理的に統合してもよい。このように、例えば、図1に示した画像処理装置200の機能ブロックの全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散または統合して構成することができる。
(3)画像処理プログラム
また、上述の実施例にて説明した画像処理装置200により実行される各種の処理は、例えば、情報処理装置に搭載される電子回路や集積回路などの電子機器で所定のプログラムを実行することによって実現することもできる。
そこで、以下では、図18を用いて、上述の実施例にて説明した画像処理装置200により実行される処理と同様の機能を実現する画像処理プログラムを実行するコンピュータの一例を説明する。図18は、画像処理プログラムを実行する電子機器の一例を示す図である。
図18に示すように、画像処理装置200により実行される各種処理を実現する電子機器300は、各種演算処理を実行するCPU(Central Processing Unit)310を有する。また、図18に示すように、電子機器300は、カメラ画像を取得するためのカメラインターフェース320、ディスプレイとの間で各種データのやり取りを行うためのディスプレイインタフェース330を有する。また、図18に示すように、電子機器300は、ハードウェアアクセラレータとして機能するグラフィックエンジン340を有する。
また、図18に示すように、電子機器300は、CPU310により各種処理を実現するためのプログラムやデータ等を記憶するハードディスク装置350と、各種情報を一時記憶するRAM(Random Access Memory)などのメモリ360とを有する。そして、各装置310〜360は、バス370に接続される。
なお、CPU310の代わりに、例えば、MPU(Micro Processing Unit)などの電子回路、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)などの集積回路を用いることもできる。また、メモリ360の代わりに、フラッシュメモリ(flash memory)などの半導体メモリ素子を用いることもできる。
ハードディスク装置350には、画像処理装置200の機能と同様の機能を発揮する画像処理プログラム351および画像処理用データ352が記憶されている。なお、この画像処理プログラム351を適宜分散させて、ネットワークを介して通信可能に接続された他のコンピュータの記憶部に記憶させておくこともできる。
そして、CPU310が、画像処理プログラム351をハードディスク装置350から読み出してメモリ360に展開することにより、図18に示すように、画像処理プログラム351は画像処理プロセス361として機能する。画像処理プロセス361は、ハードディスク装置350から読み出した画像処理用データ352等の各種データを適宜メモリ360上の自身に割当てられた領域に展開し、この展開した各種データに基づいて各種処理を実行する。
なお、画像処理プロセス361は、例えば、上述した画像処理装置200の制御部240にて実行される処理、例えば、図8、図9、図10、図13、図14、図15、図16を用いて説明した処理を含む。
なお、画像処理プログラム351については、必ずしも最初からハードディスク装置350に記憶させておく必要はない。例えば、電子機器300が実装されたECUへ対応ドライブを接続可能なフレキシブルディスク(FD)、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に各プログラムを記憶させておく。そして、電子機器300がこれらから各プログラムを読み出して実行するようにしてもよい。
さらには、公衆回線、インターネット、LAN、WANなどを介して、電子機器300が実装されたECUに接続される「他のコンピュータ(またはサーバ)」などに各プログラムを記憶させておく。そして、電子機器300がこれらから各プログラムを読み出して実行するようにしてもよい。
以上の実施例を含む実施形態に関し、さらに以下の付記を開示する。
(付記1)コンピュータに、
入力画像から特徴点の候補である特徴点候補を複数抽出し、前記特徴点候補を複数含む組合せを複数作成し、
複数の真正な特徴点の組合せに関する辞書情報と前記入力画像の解析情報との少なくとも一方に基づいて、前記特徴点候補の組合せごとに、該組合せに含まれる複数の前記特徴点候補の中から1または複数の特徴点候補を棄却し、
前記特徴点候補の組合せごとに、該組合せに含まれる特徴点候補から1または複数の特徴点候補が棄却された組合せと前記辞書情報との照合結果をそれぞれ取得し、
前記照合結果に応じて前記特徴点候補の組合せを選択し、選択した組合せに含まれる複数の前記特徴点候補を前記特徴点にそれぞれ決定する
処理を実行させることを特徴とする画像処理プログラム。
(付記2)前記特徴点候補を棄却する処理において、前記複数の真正な特徴点の組合せと複数の前記特徴点候補の組合せとを照合し、他の前記特徴点候補よりも、前記真正な特徴点間の距離に対する前記特徴点候補間の距離の誤差が大きくなる特徴点候補を棄却することを特徴とする付記1に記載の画像処理プログラム。
(付記3)前記特徴点候補を棄却する処理は、前記入力画像である現フレームを解析して得られる前記特徴点である尤もらしさを示す尤度値、および/または従前の処理により棄却された特徴点候補の情報に基づいて、前記組合せごとに、1または複数の特徴点候補を棄却することを特徴とする付記1に記載の画像処理プログラム。
(付記4)前記特徴点候補を棄却する処理は、前記現フレームおよび該現フレーム以前のフレームを解析して得られる被写体の向きの情報に応じて前記尤度値を調整することを特徴とする付記3に記載の画像処理プログラム。
(付記5)複数の真正な特徴点の組合せに関する辞書情報を記憶する記憶部と、
入力画像から特徴点の候補である特徴点候補を複数抽出し、前記特徴点候補を複数含む組合せを複数作成する作成部と、
前記記憶部に記憶されている辞書情報と前記入力画像の解析情報との少なくとも一方に基づいて、前記特徴点候補の組合せごとに、該組合せに含まれる複数の前記特徴点候補の中から1または複数の特徴点候補を棄却する棄却部と、
前記特徴点候補の組合せごとに、該組合せに含まれる特徴点候補から前記棄却部により1または複数の特徴点候補が棄却された組合せと前記辞書情報との照合結果をそれぞれ取得し、取得された照合結果に応じて前記特徴点候補の組合せを選択して、選択した組合せに含まれる複数の前記特徴点候補を前記特徴点にそれぞれ決定する決定部と
を有することを特徴とする画像処理装置。
(付記6)前記棄却部は、前記複数の真正な特徴点の組合せと複数の前記特徴点候補の組合せとを照合し、他の前記特徴点候補よりも、前記真正な特徴点間の距離に対する前記特徴点候補間の距離の誤差が大きくなる特徴点候補を棄却することを特徴とする付記5に記載の画像処理装置。
(付記7)前記棄却部は、前記入力画像である現フレームを解析して得られる前記特徴点である尤もらしさを示す尤度値、および/または従前の処理により棄却された特徴点候補の情報に基づいて、前記組合せごとに、1または複数の特徴点候補を棄却することを特徴とする付記5に記載の画像処理装置。
(付記8)前記棄却部は、前記現フレームおよび該現フレーム以前のフレームを解析して得られる被写体の向きの情報に応じて前記尤度値を調整することを特徴とする付記7に記載の画像処理装置。
100 撮像装置
200 画像処理装置
210 入力部
220 出力部
230 記憶部
231 画像記憶部
232 モデル記憶部
240 制御部
241 顔検出部
242 抽出部
243 作成部
244 棄却部
245 決定部
246 画像解析部
300 電子機器
310 CPU
320 カメラインターフェース
330 ディスプレイインタフェース
340 グラフィックエンジン
350 ハードディスク装置
351 画像処理プログラム
352 画像処理用データ
360 メモリ
361 画像処理プロセス
370 バス

Claims (5)

  1. コンピュータに、
    入力画像から特徴点の候補である特徴点候補を複数抽出し、前記特徴点候補を複数含む組合せを複数作成し、
    複数の真正な特徴点の組合せに関する辞書情報と前記入力画像の解析情報との少なくとも一方に基づいて、前記特徴点候補の組合せごとに、該組合せに含まれる複数の前記特徴点候補の中から1または複数の特徴点候補を棄却し、
    前記特徴点候補の組合せごとに、該組合せに含まれる特徴点候補から1または複数の特徴点候補が棄却された組合せと前記辞書情報との照合結果をそれぞれ取得し、
    前記照合結果に応じて前記特徴点候補の組合せを選択し、選択した組合せに含まれる複数の前記特徴点候補を前記特徴点にそれぞれ決定する
    処理を実行させることを特徴とする画像処理プログラム。
  2. 前記特徴点候補を棄却する処理において、前記複数の真正な特徴点の組合せと複数の前記特徴点候補の組合せとを照合し、他の前記特徴点候補よりも、前記真正な特徴点間の距離に対する前記特徴点候補間の距離の誤差が大きくなる特徴点候補を棄却することを特徴とする請求項1に記載の画像処理プログラム。
  3. 前記特徴点候補を棄却する処理は、前記入力画像である現フレームを解析して得られる前記特徴点である尤もらしさを示す尤度値、および/または従前の処理により棄却された特徴点候補の情報に基づいて、前記組合せごとに、1または複数の特徴点候補を棄却することを特徴とする請求項1に記載の画像処理プログラム。
  4. 前記特徴点候補を棄却する処理は、前記現フレームおよび該現フレーム以前のフレームを解析して得られる被写体の向きの情報に応じて前記尤度値を調整することを特徴とする請求項3に記載の画像処理プログラム。
  5. 複数の真正な特徴点の組合せに関する辞書情報を記憶する記憶部と、
    入力画像から特徴点の候補である特徴点候補を複数抽出し、前記特徴点候補を複数含む組合せを複数作成する作成部と、
    前記記憶部に記憶されている辞書情報と前記入力画像の解析情報との少なくとも一方に基づいて、前記特徴点候補の組合せごとに、該組合せに含まれる複数の前記特徴点候補の中から1または複数の特徴点候補を棄却する棄却部と、
    前記特徴点候補の組合せごとに、該組合せに含まれる特徴点候補から前記棄却部により1または複数の特徴点候補が棄却された組合せと前記辞書情報との照合結果をそれぞれ取得し、取得された照合結果に応じて前記特徴点候補の組合せを選択して、選択した組合せに含まれる複数の前記特徴点候補を前記特徴点にそれぞれ決定する決定部と
    を有することを特徴とする画像処理装置。
JP2010270538A 2010-12-03 2010-12-03 画像処理プログラムおよび画像処理装置 Expired - Fee Related JP5648452B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2010270538A JP5648452B2 (ja) 2010-12-03 2010-12-03 画像処理プログラムおよび画像処理装置
US13/309,619 US8660361B2 (en) 2010-12-03 2011-12-02 Image processing device and recording medium storing image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010270538A JP5648452B2 (ja) 2010-12-03 2010-12-03 画像処理プログラムおよび画像処理装置

Publications (2)

Publication Number Publication Date
JP2012118927A true JP2012118927A (ja) 2012-06-21
JP5648452B2 JP5648452B2 (ja) 2015-01-07

Family

ID=46162299

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010270538A Expired - Fee Related JP5648452B2 (ja) 2010-12-03 2010-12-03 画像処理プログラムおよび画像処理装置

Country Status (2)

Country Link
US (1) US8660361B2 (ja)
JP (1) JP5648452B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018163404A1 (ja) * 2017-03-10 2018-09-13 三菱電機株式会社 顔向き推定装置および顔向き推定方法
JP2023508704A (ja) * 2020-05-15 2023-03-03 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド 顔キーポイントの検出方法、装置及び電子機器

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012036669A1 (en) * 2010-09-13 2012-03-22 Hewlett-Packard Development Company, L.P. Smile detection systems and methods
JP2012234258A (ja) * 2011-04-28 2012-11-29 Sony Corp 画像処理装置と画像処理方法およびプログラム
CN109785225B (zh) * 2017-11-13 2023-06-16 虹软科技股份有限公司 一种用于图像矫正的方法和装置
CN109785390B (zh) * 2017-11-13 2022-04-01 虹软科技股份有限公司 一种用于图像矫正的方法和装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6130617A (en) * 1999-06-09 2000-10-10 Hyundai Motor Company Driver's eye detection method of drowsy driving warning system
US20050074148A1 (en) * 2003-07-18 2005-04-07 Rodyushkin Konstantin V. Face tracking
JP2007094906A (ja) * 2005-09-29 2007-04-12 Toshiba Corp 特徴点検出装置および方法
US20070183665A1 (en) * 2006-02-06 2007-08-09 Mayumi Yuasa Face feature point detecting device and method
JP2007233997A (ja) * 2006-02-06 2007-09-13 Toshiba Corp 顔特徴点検出装置及びその方法
JP2010092180A (ja) * 2008-10-06 2010-04-22 Toyota Central R&D Labs Inc 瞼尤度演算装置、及びプログラム
JP2010218051A (ja) * 2009-03-13 2010-09-30 Nec Corp 特徴点選択システム、特徴点選択方法および特徴点選択プログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6496594B1 (en) * 1998-10-22 2002-12-17 Francine J. Prokoski Method and apparatus for aligning and comparing images of the face and body from different imagers
JP4999570B2 (ja) * 2007-06-18 2012-08-15 キヤノン株式会社 表情認識装置及び方法、並びに撮像装置
JP4720810B2 (ja) * 2007-09-28 2011-07-13 富士フイルム株式会社 画像処理装置、撮像装置、画像処理方法及び画像処理プログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6130617A (en) * 1999-06-09 2000-10-10 Hyundai Motor Company Driver's eye detection method of drowsy driving warning system
US20050074148A1 (en) * 2003-07-18 2005-04-07 Rodyushkin Konstantin V. Face tracking
JP2007094906A (ja) * 2005-09-29 2007-04-12 Toshiba Corp 特徴点検出装置および方法
US20070183665A1 (en) * 2006-02-06 2007-08-09 Mayumi Yuasa Face feature point detecting device and method
JP2007233997A (ja) * 2006-02-06 2007-09-13 Toshiba Corp 顔特徴点検出装置及びその方法
JP2010092180A (ja) * 2008-10-06 2010-04-22 Toyota Central R&D Labs Inc 瞼尤度演算装置、及びプログラム
JP2010218051A (ja) * 2009-03-13 2010-09-30 Nec Corp 特徴点選択システム、特徴点選択方法および特徴点選択プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
宋 欣光、外3名: ""部分特徴テンプレートとグローバル制約による顔器官特徴の抽出"", 電子情報通信学会論文誌, vol. 77, no. 8, JPN6014021945, 25 August 1994 (1994-08-25), JP, pages 1601 - 1609, ISSN: 0002917594 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018163404A1 (ja) * 2017-03-10 2018-09-13 三菱電機株式会社 顔向き推定装置および顔向き推定方法
JPWO2018163404A1 (ja) * 2017-03-10 2019-08-08 三菱電機株式会社 顔向き推定装置および顔向き推定方法
US11216968B2 (en) 2017-03-10 2022-01-04 Mitsubishi Electric Corporation Face direction estimation device and face direction estimation method
JP2023508704A (ja) * 2020-05-15 2023-03-03 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド 顔キーポイントの検出方法、装置及び電子機器
JP7270114B2 (ja) 2020-05-15 2023-05-09 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド 顔キーポイントの検出方法、装置及び電子機器

Also Published As

Publication number Publication date
US20120141033A1 (en) 2012-06-07
JP5648452B2 (ja) 2015-01-07
US8660361B2 (en) 2014-02-25

Similar Documents

Publication Publication Date Title
JP5554984B2 (ja) パターン認識方法およびパターン認識装置
JP5567853B2 (ja) 画像認識装置および方法
CN106557726B (zh) 一种带静默式活体检测的人脸身份认证系统及其方法
JP5010905B2 (ja) 顔認証装置
JP4241763B2 (ja) 人物認識装置及びその方法
US8929595B2 (en) Dictionary creation using image similarity
US9633044B2 (en) Apparatus and method for recognizing image, and method for generating morphable face images from original image
JP5675145B2 (ja) パターン認識装置及びパターン認識方法
JP5648452B2 (ja) 画像処理プログラムおよび画像処理装置
JP6544900B2 (ja) オブジェクト識別装置、オブジェクト識別方法及びプログラム
TW201835805A (zh) 遠距離的身份辨識方法及其系統與電腦可讀取記錄媒體
JP5087037B2 (ja) 画像処理装置、方法及びプログラム
JP6351243B2 (ja) 画像処理装置、画像処理方法
JP2014093023A (ja) 物体検出装置、物体検出方法及びプログラム
JP2013504114A (ja) 目状態検出装置及び方法
JP7107598B2 (ja) 認証用顔画像候補判定装置、認証用顔画像候補判定方法、プログラム、および記録媒体
US10997398B2 (en) Information processing apparatus, authentication system, method of controlling same, and medium
WO2020195732A1 (ja) 画像処理装置、画像処理方法、およびプログラムが格納された記録媒体
JPWO2018078857A1 (ja) 視線推定装置、視線推定方法及びプログラム記録媒体
CN108875549B (zh) 图像识别方法、装置、系统及计算机存储介质
JP2010271861A (ja) オブジェクト識別装置及びオブジェクト識別方法
JP2005149370A (ja) 画像撮影装置、個人認証装置及び画像撮影方法
JPWO2013145496A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2012185769A (ja) 認証装置、認証方法、および認証プログラム、並びに記録媒体
EP3699865B1 (en) Three-dimensional face shape derivation device, three-dimensional face shape deriving method, and non-transitory computer readable medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130904

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140523

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140603

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140717

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141014

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141027

R150 Certificate of patent or registration of utility model

Ref document number: 5648452

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees