JP2021043914A - 画像処理装置、画像処理方法、及び画像処理プログラム - Google Patents

画像処理装置、画像処理方法、及び画像処理プログラム Download PDF

Info

Publication number
JP2021043914A
JP2021043914A JP2019167688A JP2019167688A JP2021043914A JP 2021043914 A JP2021043914 A JP 2021043914A JP 2019167688 A JP2019167688 A JP 2019167688A JP 2019167688 A JP2019167688 A JP 2019167688A JP 2021043914 A JP2021043914 A JP 2021043914A
Authority
JP
Japan
Prior art keywords
image
images
pixel value
face
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019167688A
Other languages
English (en)
Inventor
智明 松濤
Tomoaki Matsunami
智明 松濤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2019167688A priority Critical patent/JP2021043914A/ja
Priority to US16/996,962 priority patent/US11380132B2/en
Priority to DE102020211007.7A priority patent/DE102020211007A1/de
Publication of JP2021043914A publication Critical patent/JP2021043914A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/169Holistic features and representations, i.e. based on the facial image taken as a whole

Abstract

【課題】人物の顔を撮影した複数の画像の中から情報処理に用いられる適切な画像を選択する。【解決手段】記憶部は、人物の顔を撮影した複数の画像を記憶する。パターン生成部は、複数の画像それぞれの顔の部位が写っている領域において、所定方向における位置と画素値との関係を示す画素値パターンを求める。選択部は、複数の画像それぞれの画素値パターンに基づいて、それらの画像の中から処理対象画像を選択する。【選択図】図9

Description

本発明は、画像処理装置、画像処理方法、及び画像処理プログラムに関する。
生体認証技術は、認証対象者の生体情報を利用して、本人認証を行う技術である。生体認証技術には、顔認証技術、指紋認証技術、静脈認証技術、声紋認証技術等が含まれる。
顔認証技術では、本人認証を行う際に、認証対象者の顔画像から得られる生体情報が用いられる。この場合、登録対象者の生体情報を登録する登録処理と、認証対象者を認証する認証処理とでは、顔画像を撮影する撮影環境が変化することが多い。
例えば、登録処理では、登録対象者が静止して正面を向いた状態で顔画像が撮影されるのに対して、認証処理は、認証対象者が歩いている状態で行われることがある。このような認証処理では、様々な顔の向き及び表情の顔画像が撮影される可能性があるため、同一人物の登録生体情報と認証時に取得された生体情報とが一致せず、本人認証が成功しない場合が増加する。
顔認証技術に関連して、新規人物のデータベース登録作業を自動化する顔画像データベース新規登録装置、及び顔画像による歩行者認証用の辞書データを登録するための登録装置が知られている(例えば、特許文献1及び特許文献2を参照)。
特開2002−133423号公報 特開2008−243093号公報
従来の顔認証技術では、歩いている認証対象者を撮影した複数の顔画像の中から認証処理に適した顔画像を選択することは困難である。
なお、かかる問題は、認証処理に適した顔画像を選択する場合に限らず、登録処理に適した顔画像を選択する場合においても生ずるものである。また、かかる問題は、顔画像を用いた本人認証に限らず、顔画像を用いた様々な情報処理において生ずるものである。
1つの側面において、本発明は、人物の顔を撮影した複数の画像の中から情報処理に用いられる適切な画像を選択することを目的とする。
1つの案では、画像処理装置は、記憶部、パターン生成部、及び選択部を含む。記憶部は、人物の顔を撮影した複数の画像を記憶する。パターン生成部は、複数の画像それぞれの顔の部位が写っている領域において、所定方向における位置と画素値との関係を示す画素値パターンを求める。選択部は、複数の画像それぞれの画素値パターンに基づいて、それらの画像の中から処理対象画像を選択する。
1つの側面によれば、人物の顔を撮影した複数の画像の中から情報処理に用いられる適切な画像を選択することができる。
画像処理装置の機能的構成図である。 画像処理のフローチャートである。 画像処理装置の具体例を示す機能的構成図である。 画像及び特徴点を示す図である。 顔の一部分を含む部分領域を示す図である。 垂直方向における明暗パターンを示す図である。 目が写っている部分領域を示す図である。 水平方向における明暗パターンを示す図である。 画像処理の具体例を示すフローチャートである。 画像取得処理のフローチャートである。 2種類の画素値パターンを用いた画像処理の具体例を示すフローチャートである。 情報処理装置のハードウェア構成図である。
以下、図面を参照しながら、実施形態を詳細に説明する。
例えば、特許文献1の技術によれば、人物顔画像検出・追跡・認識システムにより、顔画像から検出された複数の顔特徴点を用いて、フレーム選択に用いるための顔の向きが推定される。
また、特許文献2の技術によれば、登録時に、通路を歩行する登録者の姿勢変動データ及び歩行データが辞書データとして記録される。姿勢変動データは、通路内の複数の地点において種々の姿勢(顔の向き)で撮影された登録者の顔画像から得られる顔の特徴量等のデータであり、歩行データは、登録者が通路を歩行した際における姿勢変動等のデータである。そして、認証時に、歩行者の顔画像から抽出された目、鼻孔等の顔の特徴点を用いて姿勢が判定され、歩行者の顔の特徴量と、辞書データに記録されている姿勢が近い顔の特徴量とが照合される。
このような顔認証技術を用いれば、歩いている認証対象者を動画で撮影することで複数の顔画像を取得し、それらの顔画像の中から認証処理に適した顔画像を選択することで、本人認証の安定性を高めることが可能になる。
しかしながら、目、鼻、及び口のような顔の部位を示す顔特徴点の位置関係を用いて顔の向きを推定し、登録時に近い顔の向きの顔画像を選択する方法では、必ずしも安定した本人認証が実現されるとは限らない。例えば、顔特徴点を誤検出した結果、登録時とは異なる顔の向きの顔画像が選択される場合や、登録時と同じ顔の向きの顔画像であっても、まばたき及び口の開きのような表情が異なる顔画像が選択される場合があり得る。
図1は、実施形態の画像処理装置の機能的構成例を示している。図1の画像処理装置101は、記憶部111、パターン生成部112、及び選択部113を含む。記憶部111は、人物の顔を撮影した複数の画像を記憶する。パターン生成部112及び選択部113は、記憶部111が記憶する画像を用いて、画像処理を行う。
図2は、図1の画像処理装置101が行う画像処理の例を示すフローチャートである。まず、パターン生成部112は、複数の画像それぞれの顔の部位が写っている領域において、所定方向における位置と画素値との関係を示す画素値パターンを求める(ステップ201)。次に、選択部113は、複数の画像それぞれの画素値パターンに基づいて、それらの画像の中から処理対象画像を選択する(ステップ202)。
図1の画像処理装置101によれば、人物の顔を撮影した複数の画像の中から情報処理に用いられる適切な画像を選択することができる。
図3は、図1の画像処理装置101の具体例を示している。図3の画像処理装置301は、記憶部311、画像取得部312、特徴点抽出部313、正面度計算部314、パターン生成部315、選択部316、特徴抽出部317、登録部318、及び認証部319を含む。記憶部311、パターン生成部315、及び選択部316は、図1の記憶部111、パターン生成部112、及び選択部113にそれぞれ対応する。
撮像装置302は、例えば、CCD(Charge-Coupled Device)、CMOS(Complementary Metal-Oxide-Semiconductor)等の撮像素子を有するカメラであり、被写体の映像又は画像を撮影する。撮像装置302によって撮影された映像には、時系列の複数の画像が含まれている。各時刻の画像は、フレームと呼ばれることもある。
画像処理装置301は、例えば、生体認証装置であり、登録対象者又は認証対象者の画像に基づく生体情報処理を行う。生体情報処理が、登録対象者の生体情報を登録する登録処理である場合、被写体は登録対象者であり、生体情報処理が、認証対象者を認証する認証処理である場合、被写体は認証対象者である。
撮像装置302は、被写体である人物の顔を撮影し、撮影した映像に含まれる画像又は撮影した画像を、画像処理装置301へ出力する。人物の顔が判別可能であれば、人物の姿勢又は動きに制限はない。人物が撮像装置302に対して静止しており、顔が撮像装置302の方向(正面)を向いている場合もあれば、人物が撮像装置302に向かって近づくように動いている場合もあり、周囲を見回すように顔の向きが変化している場合もある。
以下では、人物が撮像装置302に対して移動しており、人物の顔が様々な方向を向いており、表情の変化としてまばたき等が発生している場合の画像処理について説明する。
画像取得部312は、撮像装置302が出力するN枚(Nは2以上の整数)の画像331を取得して、記憶部311に格納する。人物の動き方、人物と撮像装置302との間の位置関係等によって、撮影可能な画像の枚数が変化するが、所定数であるM枚(Mは1以上N未満の整数)の処理対象画像を選択する場合、Nは3M以上の整数であることが望ましい。
特徴点抽出部313は、各画像331から、顔の部位の位置を示す特徴点を抽出し、各特徴点の位置を示す特徴点情報332を記憶部311に格納する。顔の部位としては目、鼻、口等が用いられ、特徴点としては、瞳、目頭、目尻、鼻の頂点、鼻孔、口の上下左右の端等が用いられる。
図4は、人物の顔を撮影した画像331及び特徴点の例を示している。図4(a)は、画像331の例を示しており、図4(b)は、図4(a)の画像331から抽出された特徴点の例を示している。特徴点401は右目の瞳を示し、特徴点402は左目の瞳を示し、特徴点403は鼻の頂点を示し、特徴点404は口の右端を示し、特徴点405は口の左端を示している。例えば、特徴点抽出部313は、物体認識又は機械学習の方法により、これらの特徴点を抽出することができる。
しかしながら、撮影時に顔が上下左右のいずれかの方向を大きく向いていたり、人物の手、メガネのフレーム、マスク等によって顔の一部分が隠れたりすることで、本来の顔の特徴点が画像に写らないことがある。この場合、メガネのフレーム、眉毛、顔の窪みで影になっている個所等が、特徴点として誤検出される可能性がある。特徴点が誤検出された場合、個人を識別する特徴情報を正しく抽出することが困難になるため、誤検出は本人認証が失敗する要因となり得る。したがって、このような画像を登録処理又は認証処理に用いることは好ましくない。
正面度計算部314は、各画像331に写っている顔が、撮像装置302に向かって正面を向いている度合いを示す正面度333を計算し、記憶部311に格納する。正面度333は、顔品質値とも呼ばれ、顔が正面に近い方向を向いているほど大きくなり、正面から離れた方向を向いているほど小さくなる。
パターン生成部315は、各画像331の顔の部位が写っている領域において、所定方向における位置と画素値との関係を示す画素値パターン334を求め、記憶部311に格納する。所定方向としては、顔の上下の方向、顔の左右の方向等が用いられる。
例えば、パターン生成部315は、所定方向における各画素の位置において、所定方向に対して垂直な方向に並んでいる複数の画素の画素値から、画素値の統計値を計算する。画素値の統計値としては、総和、平均値等が用いられる。次に、パターン生成部315は、所定方向における各画素の位置と統計値との関係を示すパターンを、画素値パターン334として求める。そして、パターン生成部315は、画素値パターン334を用いて、画素値パターン334の特徴を示す特性値335を計算し、記憶部311に格納する。
所定方向における各画素の画素値ではなく、所定方向に対して垂直な方向に並んでいる複数の画素の画素値の統計値を用いることで、顔の部位が写っている領域全体の画素値を反映した画素値パターン334を求めることができる。そして、画素値パターン334の特徴を示す特性値335を計算することで、計算された特性値335に基づいて、画像331が登録処理及び認証処理に適しているか否かを判定することが可能になる。
選択部316は、N枚の画像331それぞれの正面度333及び特性値335に基づいて、M枚の処理対象画像を選択する。登録処理における処理対象画像は、登録対象の画像であり、認証処理における処理対象画像は、認証対象の画像である。
特徴抽出部317は、選択された処理対象画像に写っている顔の特徴情報を抽出する。例えば、顔の特徴情報としては、顔の各部位の位置を示す位置情報を用いることができる。特徴抽出部317は、特徴点情報332に基づいて顔の特徴情報を抽出してもよい。登録処理において、登録部318は、抽出された特徴情報を、登録対象者の登録生体情報336として記憶部311に格納する。認証処理において、認証部319は、抽出された特徴情報を登録生体情報336と照合することで、認証対象者に対する認証を行う。
正面度333に基づいて処理対象画像を選択することで、顔が正面に近い方向を向いている画像331を、処理対象画像として選択することが可能になる。顔が正面を向いている画像331を処理対象画像として用いることで、登録処理及び認証処理に適した顔の特徴情報を抽出することができる。
また、画素値パターン334の特徴を示す特性値335に基づいて処理対象画像を選択することで、正しい顔の特徴点を含む画像331を、処理対象画像として選択することが可能になる。正しい顔の特徴点を含む画像331を処理対象画像として用いることで、登録処理及び認証処理に適した顔の特徴情報を抽出することができる。
したがって、画像処理装置301によれば、人物が移動しており、顔が様々な方向を向いており、表情の変化が発生している場合であっても、特徴点の誤検出、表情の変化等の認証精度を低下させる要因を排除して、適切な処理対象画像を選択することができる。これにより、安定した本人認証が実現される。
次に、図4(b)を参照しながら、正面度333の計算例について説明する。まず、正面度計算部314は、特徴点401と特徴点402とが同じ高さになり、特徴点404と特徴点405とが同じ高さになるように、画像331をアフィン変換して、正規化画像を生成する。
次に、正面度計算部314は、正規化画像において、顔の左右の方向の正面度QSと、顔の上下の方向の正面度QHとを計算し、QS及びQHを用いて、正面度333に対応する正面度Qを計算する。例えば、正面度Qとしては、QSとQHの平均値(算術平均、幾何平均、又は調和平均)が用いられる。
正規化画像にはx軸及びy軸が座標軸として設定され、x軸は、正規化画像の水平方向を表し、y軸は、正規化画像の垂直方向を表す。水平方向は顔の左右の方向であり、垂直方向は顔の上下の方向である。このとき、正面度計算部314は、例えば、次式によりQSを計算する。
Figure 2021043914
Figure 2021043914
Wは、正規化画像の幅を表し、Hは、正規化画像の高さを表す。式(1)のI(x,y)は、正規化画像の座標(x,y)における輝度値を表し、I(W−x+1,y)は、正規化画像を左右に2等分する2等分線に関して、座標(x,y)と対称な位置における輝度値を表す。
この場合、式(1)のDiffは、正規化画像の2等分線に関して対称な位置に存在する2つの画素の輝度値の差分に関する情報を、正規化画像全体について加算した総和を表す。式(2)のQSは、正規化画像の左右対称性を表し、Diffが小さいほど大きくなり、正規化画像が完全に左右対称である場合に最大となる。QSの最大値は1であり、最小値は0である。正面度計算部314は、各画素の輝度値の代わりに、各画素のRGB、色差信号等を用いて、Diffを計算してもよい。
一方、QHは、例えば、正規化画像に写っている目、鼻、及び口の位置関係から計算される。特徴点抽出部313は、事前に、不特定の複数の人物の正面顔を撮影した画像から、特徴点P1〜特徴点P5を抽出する。特徴点P1は右目の瞳を示し、特徴点P2は左目の瞳を示し、特徴点P3は鼻の頂点を示し、特徴点P4は口の右端を示し、特徴点P5は口の左端を示す。そして、正面度計算部314は、特徴点Pk(k=1〜5)のy座標の平均Myk及び標準偏差σykを計算する。
また、正面度計算部314は、正規化画像における特徴点401〜特徴点405それぞれのy座標としてy1〜y5を求め、例えば、次式によりQHを計算する。
Figure 2021043914
式(3)のQHは、上下の方向において顔が正面を向いている度合いを表し、すべてのykがMykと一致している場合に最大となり、ykとMykの差が大きいほど小さくなる。ただし、式(3)の右辺が0よりも小さい場合は、QH=0に設定される。したがって、QSの最大値は1であり、最小値は0である。
QSとQHの平均値であるQの最大値は1であり、最小値は0である。Qが1に近いほど、顔が正面に近い方向を向いていると言える。顔が左又は右を向いている場合はQSが小さくなるため、Qも小さくなる。また、顔が上又は下を向いている場合はQHが小さくなるため、Qも小さくなる。
しかし、特徴点の誤検出が発生した場合、正しい正面度333を求めることが困難になるため、正面度333のみを用いて処理対象画像を選択すると、適切でない処理対象画像が選択される可能性がある。そこで、パターン生成部315は、画素値パターン334を求め、処理対象画像を選択するための指標として特性値335を計算する。
まず、パターン生成部315は、正規化画像において顔の一部分を含む部分領域を決定する。例えば、部分領域としては、顔の部位が写っている領域が用いられ、特徴点情報332が示す特徴点を用いて、部分領域が決定される。部分領域にはm軸及びn軸が座標軸として設定され、m軸は、部分領域の水平方向を表し、n軸は、部分領域の垂直方向を表す。水平方向は、垂直方向に対して垂直な方向である。
図5は、顔の一部分を含む部分領域の例を示している。図5の部分領域501は、図4に示した特徴点401〜特徴点405を含む領域である。
次に、パターン生成部315は、目、鼻、及び口が写っている部分領域において、垂直方向を所定方向として用い、輝度値を画素値として用いて、画素値パターン334を求める。この場合、垂直方向における各画素の位置nにおいて、水平方向に並んでいるすべての画素の輝度値の総和L(n)が計算され、各画素の位置nとL(n)との関係を示す明暗パターンが、垂直方向における画素値パターン334として求められる。
図6は、垂直方向における明暗パターンの例を示している。横軸はn軸を表し、縦軸はL(n)を表す。図6(a)は、すべての特徴点が正しく検出された場合に部分領域から得られる明暗パターンの例を示している。
人物の顔は、目、鼻孔、及び上下の唇の間の位置で周囲よりも暗くなり、鼻の頂点及び上下の唇の位置で明るくなる。このため、すべての特徴点が正しく検出された場合、図6(a)に示すように、L(n)は3個の極小値を持つ。極小値601は左右の目の位置を示し、極小値602は鼻孔の位置を示し、極小値603は上下の唇の間の位置を示している。
一方、図6(b)は、誤検出された特徴点が存在する場合に部分領域から得られる明暗パターンの例を示している。誤検出された特徴点が存在する場合、左右の目の高さ等に水平方向のずれが生じるため、図6(b)に示すように、4個以上の極小値を持つ明暗パターンが得られ、各部位の位置と極小値の位置とが一致しない。
そこで、パターン生成部315は、画素値パターン334の周波数特性における3次高調波成分を、特性値335として計算する。例えば、画素値パターン334の周波数特性としては、L(n)を離散フーリエ変換により変換したパワースペクトルを用いることができ、特性値335としてはパワースペクトルにおける3次高調波成分S3を用いることができる。
図6(a)の明暗パターンは、3個の極小値を持つ曲線であるため、S3が大きくなるが、図6(b)の明暗パターンは、多数の極小値を持つ曲線であるため、S3が小さくなる。したがって、L(n)のパワースペクトルにおけるS3を特性値335として用いることで、特徴点が正しく検出されたか否かを判別することができる。
パターン生成部315は、目が写っている部分領域において、水平方向を所定方向として用い、輝度値を画素値として用いて、画素値パターン334を求めることもできる。
図7は、目が写っている部分領域の例を示している。図7の部分領域701は、図4に示した特徴点401及び特徴点402を含んでおり、特徴点403〜特徴点405を含んでいない。
この場合、水平方向における各画素の位置mにおいて、垂直方向に並んでいるすべての画素の輝度値の総和H(m)が計算され、各画素の位置mとH(m)との関係を示す明暗パターンが、水平方向における画素値パターン334として求められる。
図8は、水平方向における明暗パターンの例を示している。横軸はm軸を表し、縦軸はH(m)を表す。図8(a)は、左右の目を開いた状態の部分領域から得られる明暗パターンの例を示している。
目を開いた状態では、瞳の位置の輝度値が周囲の輝度値よりも小さくなるため、図8(a)に示すように、H(m)は2個の極小値を持つ。極小値801は右の瞳の位置を示し、極小値802は左の瞳の位置を示している。
一方、図8(b)は、左右の目がまばたきしている状態の部分領域から得られる明暗パターンの例を示している。まばたきしている状態では、瞳にまぶたが重なって、瞳の位置の輝度値が周囲の皮膚の色に近い輝度値になるため、図8(b)に示すように、極小値の位置が曖昧になる。
そこで、パターン生成部315は、画素値パターン334の周波数特性における2次高調波成分を、特性値335として計算する。例えば、画素値パターン334の周波数特性としては、H(m)を離散フーリエ変換により変換したパワースペクトルを用いることができ、特性値335としてはパワースペクトルにおける2次高調波成分S2を用いることができる。
図8(a)の明暗パターンは、2個の極小値を持つ曲線であるため、S2が大きくなるが、図8(b)の明暗パターンは、極小値が不明瞭な曲線であるため、S2が小さくなる。したがって、H(m)のパワースペクトルにおけるS2を特性値335として用いることで、まばたきの有無を判別することができる。
さらに、パターン生成部315は、垂直方向における明暗パターンと水平方向における明暗パターンの両方を求めて、それぞれの明暗パターンの特性値を計算してもよい。この場合、L(n)のパワースペクトルにおけるS3と、H(m)のパワースペクトルにおけるS2とを、特性値335として用いることができる。
パターン生成部315は、画素値パターン334の周波数特性以外の情報を用いて、特性値335を計算することも可能である。例えば、パターン生成部315は、事前に、不特定の複数の人物の正面顔を撮影した画像から、L(n)の平均Lmean(n)を計算しておき、画像331から求めたL(n)とLmean(n)の誤差の総和Esumを、次式により計算する。
Figure 2021043914
式(4)のHpは、垂直方向における明暗パターンを求める際に用いられる部分領域の高さを表す。Esumは、特徴点が正しく検出された場合に小さくなり、誤検出された特徴点が存在する場合に大きくなる。したがって、Esumを特性値335として用いることで、特徴点が正しく検出されたか否かを判別することができる。
なお、パターン生成部315は、各画素の輝度値の代わりに、各画素のRGB、色差信号等を用いて、特性値335を計算してもよい。
選択部316は、N枚の画像331それぞれの特性値335から、特性値335の統計値を計算し、N個の特性値335を正面度333が大きい順に参照する。特性値335の統計値としては、平均値、中央値、最頻値等が用いられる。
そして、選択部316は、参照された特性値335と統計値との差分が閾値よりも大きい場合、次の画像331の特性値335を参照し、差分が閾値よりも小さい場合、参照された特性値335を有する画像331を処理対象画像として選択する操作を繰り返す。これにより、M枚の画像331が処理対象画像として選択される。
N個の特性値335を正面度333が大きい順に参照することで、顔が正面に近い方向を向いている画像331から優先的に処理対象画像を選択することができ、処理対象画像の選択処理が効率化される。
図9は、図3の画像処理装置301が行う画像処理の具体例を示すフローチャートである。まず、画像取得部312は、撮像装置302が出力するN枚の画像331を取得する(ステップ901)。そして、特徴点抽出部313は、各画像331から、顔の部位の位置を示す特徴点を抽出し、各特徴点の位置を示す特徴点情報332を生成する(ステップ902)。
次に、正面度計算部314は、特徴点情報332が示す特徴点を用いて、各画像331の正面度333を計算する(ステップ903)。例えば、正面度計算部314は、j番目(j=1〜N)の画像331の正面度333として、顔の左右の方向の正面度QSと上下の方向の正面度QHの平均値を表すQ(j)を計算する。
次に、パターン生成部315は、特徴点情報332が示す特徴点を用いて、各画像331の画素値パターン334を求め(ステップ904)、画素値パターン334を用いて特性値335を計算する(ステップ905)。
以下では、j番目の画像331の特性値335をC(j)と記載する。例えば、C(j)としては、L(n)のパワースペクトルにおける3次高調波成分を表すS3(j)、H(m)のパワースペクトルにおける2次高調波成分を表すS2(j)、又はL(n)とLmean(n)の誤差の総和を表すEsum(j)が用いられる。
次に、選択部316は、C(1)〜C(N)の平均値MC及び標準偏差σCを計算し、画像331及びC(j)をQ(j)が大きい順にソートする(ステップ906)。
次に、選択部316は、各画像331を示す制御変数iに1を設定し(ステップ907)、ソート後の順序におけるi番目の画像331のC(i)を参照する(ステップ908)。そして、選択部316は、C(i)が所定の条件を満たすか否かをチェックする(ステップ909)。例えば、所定の条件は、次式のD(i)が閾値よりも小さいことを示す。
D(i)=|C(i)−MC|/σC (5)
式(5)のD(i)は、C(i)とMCの差分を表している。そこで、選択部316は、D(i)と閾値とを比較する。
D(i)が閾値以上である場合(ステップ909,NO)、選択部316は、iを1だけインクリメントして(ステップ913)、i番目の画像331を選択することなく、ステップ908以降の処理を繰り返す。
一方、D(i)が閾値よりも小さい場合(ステップ909,YES)、選択部316は、i番目の画像331を処理対象画像として選択し(ステップ910)、M枚の画像331が処理対象画像として選択されたか否かをチェックする(ステップ911)。
M枚の画像331が選択されていない場合(ステップ911,NO)、選択部316は、ステップ913以降の処理を繰り返す。
そして、M枚の画像331が選択された場合(ステップ911,YES)、特徴抽出部317は、各処理対象画像から顔の特徴情報を抽出し、登録部318又は認証部319は、生体情報処理を行う(ステップ912)。生体情報処理が登録処理である場合、登録部318は、抽出された特徴情報を、登録対象者の登録生体情報336として記憶部311に登録する。生体情報処理が認証処理である場合、認証部319は、抽出された特徴情報を登録生体情報336と照合することで、認証対象者に対する認証を行う。
例えば、C(i)としてS3(i)を用いた場合、特徴点の誤検出が発生するとS3(i)が小さくなるため、D(i)が大きくなる。したがって、そのような画像331が処理対象画像から除外され、特徴点の誤検出に起因する認証精度の低下を防止することができる。
一方、C(i)としてS2(i)を用いた場合、まばたきしている状態ではS2(i)が小さくなるため、D(i)が大きくなる。したがって、そのような画像331が処理対象画像から除外され、まばたきに起因する認証精度の低下を防止することができる。
また、C(i)としてEsum(i)を用いた場合、特徴点の誤検出が発生するとEsum(i)が大きくなるため、D(i)が大きくなる。したがって、そのような画像331が処理対象画像から除外され、特徴点の誤検出に起因する認証精度の低下を防止することができる。
さらに、同一人物のN枚の画像331の特性値335の平均値MC及び標準偏差σCに基づいてD(i)を求めることで、顔の部位の形状、部位の位置関係等の個人差に依存することなく、適切な画像331を選択することが可能になる。
ところで、撮像装置302が人物の顔の映像を撮影して画像処理装置301へ出力する場合、映像に含まれる複数のフレームは同一シーケンスで撮影されるため、時系列に隣り合う2枚のフレームの間では、画像の変化が小さいことが多い。しかし、複数の処理対象画像を選択する場合、選択された処理対象画像にばらつきがある方が、より多くの姿勢変動に対応することができる。
この場合、ステップ901において、画像取得部312は、撮像装置302が出力する各画像の撮影時刻を撮影時刻順に参照する。そして、画像取得部312は、参照された撮影時刻と直前に取得された画像の撮影時刻との差分が所定時間よりも短い場合、次の画像の撮影時刻を参照し、差分が所定時間よりも長い場合、参照された撮影時刻を有する画像を取得する操作を繰り返す。これにより、所定時間以上の時間間隔で、N枚の画像331が取得される。
図10は、ステップ901における画像取得処理の例を示すフローチャートである。まず、画像取得部312は、撮像装置302から画像を受信し(ステップ1001)、受信した画像から顔を検出する顔検出処理を行って(ステップ1002)、顔が検出されたか否かを判定する(ステップ1003)。顔が検出されない場合(ステップ1003,NO)、画像取得部312は、受信した画像を破棄して、ステップ1001以降の処理を繰り返す。
一方、顔が検出された場合(ステップ1003,YES)、画像取得部312は、受信した画像の撮影時刻と直前に取得された画像の撮影時刻との差分を、所定時間Tと比較する(ステップ1004)。差分がTよりも短い場合(ステップ1004,NO)、画像取得部312は、ステップ1001以降の処理を繰り返す。
一方、差分がT以上である場合(ステップ1004,YES)、画像取得部312は、受信した画像を取得し、画像331として記憶部311に格納する(ステップ1005)。このとき、受信した画像の撮影時刻も、画像331とともに記憶部311に格納される。
次に、画像取得部312は、N枚の画像331が取得されたか否かをチェックする(ステップ1106)。N枚の画像331が取得されていない場合(ステップ1106,NO)、画像取得部312は、ステップ1001以降の処理を繰り返す。そして、N枚の画像331が取得された場合(ステップ1106,YES)、画像取得部312は、処理を終了する。
図10の画像取得処理によれば、撮像装置302が出力する映像から、所定時間以上の時間間隔で、画像の変化が大きなN枚の画像331を取得することができる。
画像処理装置301は、複数種類の画素値パターン334を併用して処理対象画像を選択することも可能である。例えば、複数種類の画素値パターン334としては、垂直方向及び水平方向における2種類の画素値パターン334を用いることができる。
図11は、2種類の画素値パターン334を用いた画像処理の具体例を示すフローチャートである。図11のステップ1101〜ステップ1103及びステップ1113〜ステップ1116の処理は、図9のステップ901〜ステップ903及びステップ910〜ステップ913の処理と同様である。
各画像331の正面度333が計算された後、パターン生成部315は、特徴点情報332が示す特徴点を用いて、各画像331の垂直方向における画素値パターンP1を求める(ステップ1104)。そして、パターン生成部315は、画素値パターンP1を用いて、L(n)のパワースペクトルにおける3次高調波成分を表すS3(j)を計算する(ステップ1105)。
次に、パターン生成部315は、特徴点情報332が示す特徴点を用いて、各画像331の水平方向における画素値パターンP2を求める(ステップ1106)。そして、パターン生成部315は、画素値パターンP2を用いて、H(m)のパワースペクトルにおける2次高調波成分を表すS2(j)を計算する(ステップ1107)。
次に、選択部316は、S3(1)〜S3(N)の平均値及び標準偏差と、S2(1)〜S2(N)の平均値及び標準偏差とを計算し、画像331、S3(j)、及びS2(j)をQ(j)が大きい順にソートする(ステップ1108)。
次に、選択部316は、各画像331を示す制御変数iに1を設定し(ステップ1109)、ソート後の順序におけるi番目の画像331のS3(i)及びS2(i)を参照する(ステップ1110)。そして、選択部316は、S3(i)が所定の条件を満たすか否かをチェックする(ステップ1111)。ステップ1111の条件は、図9のステップ909の条件と同様である。
S3(i)が所定の条件を満たさない場合(ステップ1111,NO)、選択部316は、ステップ1116以降の処理を繰り返す。一方、S3(i)が所定の条件を満たす場合(ステップ1111,YES)、S2(i)が所定の条件を満たすか否かをチェックする(ステップ1112)。ステップ1112の条件は、図9のステップ909の条件と同様である。
S2(i)が所定の条件を満たさない場合(ステップ1112,NO)、選択部316は、ステップ1116以降の処理を繰り返す。一方、S2(i)が所定の条件を満たす場合(ステップ1112,YES)、選択部316は、i番目の画像331を処理対象画像として選択し(ステップ1113)、ステップ1114以降の処理を行う。
図11の画像処理によれば、特徴点の誤検出が発生した画像331と、まばたきしている状態の画像331とを、処理対象画像から除外することができる。したがって、1種類の画素値パターン334を用いた場合よりも認証精度が向上する。
図1の画像処理装置101及び図3の画像処理装置301の構成は一例に過ぎず、画像処理装置の用途又は条件に応じて一部の構成要素を省略又は変更してもよい。例えば、図3の画像処理装置301において、N枚の画像331が事前に記憶部311に格納されている場合は、画像取得部312を省略することができる。
正面度333及び特性値335の計算に特徴点を用いない場合は、特徴点抽出部313を省略することができる。処理対象画像を選択する際に正面度333を用いない場合は、正面度計算部314を省略することができる。
生体情報処理が外部の装置によって行われる場合は、特徴抽出部317、登録部318、及び認証部319を省略することができる。画像処理装置301は、処理対象画像を用いて生体情報処理を行う代わりに、処理対象画像を用いて別の情報処理を行ってもよい。
図2及び図9〜図11のフローチャートは一例に過ぎず、画像処理装置の構成又は条件に応じて一部の処理を省略又は変更してもよい。例えば、図9及び図11の画像処理において、N枚の画像331が事前に記憶部311に格納されている場合は、ステップ901及びステップ1101の処理を省略することができる。
正面度333及び特性値335の計算に特徴点を用いない場合は、ステップ902及びステップ1102の処理を省略することができる。処理対象画像を選択する際に正面度333を用いない場合は、ステップ903、ステップ906、ステップ1103、及びステップ1108の処理を省略することができる。
生体情報処理が外部の装置によって行われる場合は、ステップ912及びステップ1115の処理を省略することができる。画像処理装置301は、ステップ912及びステップ1115において、生体情報処理の代わりに別の情報処理を行ってもよい。画像処理装置301は、ステップ909、ステップ1111、及びステップ1112において、D(i)が閾値よりも小さいことを示す条件以外の別の条件を用いてもよい。
図10の画像取得処理において、撮像装置302から出力される画像に顔が写っていることが確定している場合は、ステップ1002及びステップ1003の処理を省略することができる。
図4の画像及び特徴点、図5及び図7の部分領域、図6及び図8の明暗パターンは一例に過ぎず、画像、特徴点、部分領域、及び明暗パターンは、被写体である人物に応じて変化する。式(1)〜式(5)は一例に過ぎず、画像処理装置301は、別の計算式を用いて画像処理を行ってもよい。
図12は、図1の画像処理装置101及び図3の画像処理装置301として用いられる情報処理装置(コンピュータ)のハードウェア構成例を示している。図12の情報処理装置は、CPU(Central Processing Unit)1201、メモリ1202、入力装置1203、出力装置1204、補助記憶装置1205、媒体駆動装置1206、及びネットワーク接続装置1207を含む。これらの構成要素はハードウェアであり、バス1208により互いに接続されている。図3の撮像装置302は、バス1208に接続されていてもよい。
メモリ1202は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリであり、処理に用いられるプログラム及びデータを記憶する。メモリ1202は、図1の記憶部111又は図3の記憶部311として用いることができる。
CPU1201(プロセッサ)は、例えば、メモリ1202を利用してプログラムを実行することにより、図1のパターン生成部112及び選択部113として動作する。CPU1201は、メモリ1202を利用してプログラムを実行することにより、図3の画像取得部312、特徴点抽出部313、正面度計算部314、パターン生成部315、選択部316、特徴抽出部317、登録部318、及び認証部319としても動作する。
入力装置1203は、例えば、キーボード、ポインティングデバイス等であり、オペレータ又はユーザからの指示又は情報の入力に用いられる。出力装置1204は、例えば、表示装置、プリンタ、スピーカ等であり、オペレータ又はユーザへの問い合わせ又は指示、及び処理結果の出力に用いられる。処理結果は、認証の成功又は失敗を示す認証結果であってもよい。
補助記憶装置1205は、例えば、磁気ディスク装置、光ディスク装置、光磁気ディスク装置、テープ装置等である。補助記憶装置1205は、ハードディスクドライブ又はフラッシュメモリであってもよい。情報処理装置は、補助記憶装置1205にプログラム及びデータを格納しておき、それらをメモリ1202にロードして使用することができる。補助記憶装置1205は、図1の記憶部111又は図3の記憶部311として用いることができる。
媒体駆動装置1206は、可搬型記録媒体1209を駆動し、その記録内容にアクセスする。可搬型記録媒体1209は、メモリデバイス、フレキシブルディスク、光ディスク、光磁気ディスク等である。可搬型記録媒体1209は、CD−ROM(Compact Disk Read Only Memory)、DVD(Digital Versatile Disk)、USB(Universal Serial Bus)メモリ等であってもよい。オペレータ又はユーザは、この可搬型記録媒体1209にプログラム及びデータを格納しておき、それらをメモリ1202にロードして使用することができる。
このように、処理に用いられるプログラム及びデータを格納するコンピュータ読み取り可能な記録媒体は、メモリ1202、補助記憶装置1205、又は可搬型記録媒体1209のような、物理的な(非一時的な)記録媒体である。
ネットワーク接続装置1207は、LAN(Local Area Network)、WAN(Wide Area Network)等の通信ネットワークに接続され、通信に伴うデータ変換を行う通信インタフェース回路である。情報処理装置は、プログラム及びデータを外部の装置からネットワーク接続装置1207を介して受信し、それらをメモリ1202にロードして使用することができる。
なお、情報処理装置が図12のすべての構成要素を含む必要はなく、用途又は条件に応じて一部の構成要素を省略することも可能である。例えば、オペレータ又はユーザとのインタフェースが不要な場合は、入力装置1203及び出力装置1204を省略してもよい。可搬型記録媒体1209又は通信ネットワークを使用しない場合は、媒体駆動装置1206又はネットワーク接続装置1207を省略してもよい。
開示の実施形態とその利点について詳しく説明したが、当業者は、特許請求の範囲に明確に記載した本発明の範囲から逸脱することなく、様々な変更、追加、省略をすることができるであろう。
図1乃至図12を参照しながら説明した実施形態に関し、さらに以下の付記を開示する。
(付記1)
人物の顔を撮影した複数の画像を記憶する記憶部と、
前記複数の画像それぞれの前記顔の部位が写っている領域において、所定方向における位置と画素値との関係を示す画素値パターンを求めるパターン生成部と、
前記複数の画像それぞれの画素値パターンに基づいて、前記複数の画像の中から処理対象画像を選択する選択部と、
を備えることを特徴とする画像処理装置。
(付記2)
前記パターン生成部は、前記所定方向における各画素の位置において、前記所定方向に対して垂直な方向に並んでいる複数の画素の画素値から画素値の統計値を計算し、前記所定方向における各画素の位置と統計値との関係を示すパターンを、前記画素値パターンとして求め、前記画素値パターンを用いて特性値を計算し、前記選択部は、前記複数の画像それぞれの特性値に基づいて、前記処理対象画像を選択することを特徴とする付記1記載の画像処理装置。
(付記3)
前記パターン生成部は、前記顔の部位として目、鼻、及び口が写っている領域において、前記顔の上下の方向を前記所定方向として用い、輝度値を前記画素値として用いて、前記画素値パターンを求め、前記画素値パターンの周波数特性における3次高調波成分を、前記特性値として計算することを特徴とする付記2記載の画像処理装置。
(付記4)
前記パターン生成部は、前記顔の部位として目が写っている領域において、前記顔の左右の方向を前記所定方向として用い、輝度値を前記画素値として用いて、前記画素値パターンを求め、前記画素値パターンの周波数特性における2次高調波成分を、前記特性値として計算することを特徴とする付記2記載の画像処理装置。
(付記5)
前記パターン生成部は、前記顔の部位として目、鼻、及び口が写っている領域において、前記顔の上下の方向を前記所定方向として用い、輝度値を前記画素値として用いて、前記顔の上下の方向における画素値パターンを求め、前記顔の上下の方向における画素値パターンの周波数特性における3次高調波成分を、前記特性値として計算するとともに、前記顔の部位として目が写っている領域において、前記顔の左右の方向を前記所定方向として用い、輝度値を前記画素値として用いて、前記顔の左右の方向における画素値パターンを求め、前記顔の左右の方向における画素値パターンの周波数特性における2次高調波成分を、前記特性値として計算し、前記選択部は、前記複数の画像それぞれの3次高調波成分と前記複数の画像それぞれの2次高調波成分とに基づいて、前記処理対象画像を選択することを特徴とする付記2記載の画像処理装置。
(付記6)
前記複数の画像それぞれに写っている前記顔が正面を向いている度合いを示す正面度を計算する正面度計算部をさらに備え、
前記選択部は、前記複数の画像それぞれの特性値と前記複数の画像それぞれの正面度とに基づいて、前記処理対象画像を選択することを特徴とする付記2乃至5のいずれか1項に記載の画像処理装置。
(付記7)
前記選択部は、前記複数の画像それぞれの特性値から特性値の統計値を計算し、前記複数の画像の特性値を前記正面度が大きい順に参照し、参照された特性値と前記特性値の統計値との差分が閾値よりも大きい場合、次の画像の特性値を参照し、前記差分が前記閾値よりも小さい場合、参照された特性値を有する画像を前記処理対象画像として選択する操作を繰り返すことで、所定数の画像を前記処理対象画像として選択することを特徴とする付記6記載の画像処理装置。
(付記8)
前記顔を撮影した画像の撮影時刻を撮影時刻順に参照し、参照された撮影時刻と直前に取得された画像の撮影時刻との差分が所定時間よりも短い場合、次の画像の撮影時刻を参照し、前記参照された撮影時刻と直前に取得された画像の撮影時刻との差分が前記所定時間よりも長い場合、参照された撮影時刻を有する画像を取得する操作を繰り返すことで、前記複数の画像を取得する画像取得部をさらに備えることを特徴とする付記1乃至7のいずれか1項に記載の画像処理装置。
(付記9)
前記処理対象画像は、登録対象又は認証対象の画像であることを特徴とする付記1乃至8のいずれか1項に記載の画像処理装置。
(付記10)
人物の顔を撮影した複数の画像それぞれの前記顔の部位が写っている領域において、所定方向における位置と画素値との関係を示す画素値パターンを求め、
前記複数の画像それぞれの画素値パターンに基づいて、前記複数の画像の中から処理対象画像を選択する、
処理をコンピュータに実行させるための画像処理プログラム。
(付記11)
前記コンピュータは、前記所定方向における各画素の位置において、前記所定方向に対して垂直な方向に並んでいる複数の画素の画素値から画素値の統計値を計算し、前記所定方向における各画素の位置と統計値との関係を示すパターンを、前記画素値パターンとして求め、前記画素値パターンを用いて特性値を計算し、前記複数の画像それぞれの特性値に基づいて、前記処理対象画像を選択することを特徴とする付記10記載の画像処理プログラム。
(付記12)
前記コンピュータは、前記顔の部位として目、鼻、及び口が写っている領域において、前記顔の上下の方向を前記所定方向として用い、輝度値を前記画素値として用いて、前記画素値パターンを求め、前記画素値パターンの周波数特性における3次高調波成分を、前記特性値として計算することを特徴とする付記11記載の画像処理プログラム。
(付記13)
コンピュータによって実行される画像処理方法であって、
前記コンピュータが、
人物の顔を撮影した複数の画像それぞれの前記顔の部位が写っている領域において、所定方向における位置と画素値との関係を示す画素値パターンを求め、
前記複数の画像それぞれの画素値パターンに基づいて、前記複数の画像の中から処理対象画像を選択する、
ことを特徴とする画像処理方法。
(付記14)
前記コンピュータは、前記所定方向における各画素の位置において、前記所定方向に対して垂直な方向に並んでいる複数の画素の画素値から画素値の統計値を計算し、前記所定方向における各画素の位置と統計値との関係を示すパターンを、前記画素値パターンとして求め、前記画素値パターンを用いて特性値を計算し、前記複数の画像それぞれの特性値に基づいて、前記処理対象画像を選択することを特徴とする付記13記載の画像処理方法。
(付記15)
前記コンピュータは、前記顔の部位として目、鼻、及び口が写っている領域において、前記顔の上下の方向を前記所定方向として用い、輝度値を前記画素値として用いて、前記画素値パターンを求め、前記画素値パターンの周波数特性における3次高調波成分を、前記特性値として計算することを特徴とする付記14記載の画像処理方法。
101、301 画像処理装置
111、311 記憶部
112、315 パターン生成部
113、316 選択部
302 撮像装置
312 画像取得部
313 特徴点抽出部
314 正面度計算部
317 特徴抽出部
318 登録部
319 認証部
331 画像
332 特徴点情報
333 正面度
334 画素値パターン
335 特性値
336 登録生体情報
401〜405 特徴点
501、701 部分領域
601〜603、801、802 極小値
1201 CPU
1202 メモリ
1203 入力装置
1204 出力装置
1205 補助記憶装置
1206 媒体駆動装置
1207 ネットワーク接続装置
1208 バス
1209 可搬型記録媒体

Claims (10)

  1. 人物の顔を撮影した複数の画像を記憶する記憶部と、
    前記複数の画像それぞれの前記顔の部位が写っている領域において、所定方向における位置と画素値との関係を示す画素値パターンを求めるパターン生成部と、
    前記複数の画像それぞれの画素値パターンに基づいて、前記複数の画像の中から処理対象画像を選択する選択部と、
    を備えることを特徴とする画像処理装置。
  2. 前記パターン生成部は、前記所定方向における各画素の位置において、前記所定方向に対して垂直な方向に並んでいる複数の画素の画素値から画素値の統計値を計算し、前記所定方向における各画素の位置と統計値との関係を示すパターンを、前記画素値パターンとして求め、前記画素値パターンを用いて特性値を計算し、前記選択部は、前記複数の画像それぞれの特性値に基づいて、前記処理対象画像を選択することを特徴とする請求項1記載の画像処理装置。
  3. 前記パターン生成部は、前記顔の部位として目、鼻、及び口が写っている領域において、前記顔の上下の方向を前記所定方向として用い、輝度値を前記画素値として用いて、前記画素値パターンを求め、前記画素値パターンの周波数特性における3次高調波成分を、前記特性値として計算することを特徴とする請求項2記載の画像処理装置。
  4. 前記パターン生成部は、前記顔の部位として目が写っている領域において、前記顔の左右の方向を前記所定方向として用い、輝度値を前記画素値として用いて、前記画素値パターンを求め、前記画素値パターンの周波数特性における2次高調波成分を、前記特性値として計算することを特徴とする請求項2記載の画像処理装置。
  5. 前記パターン生成部は、前記顔の部位として目、鼻、及び口が写っている領域において、前記顔の上下の方向を前記所定方向として用い、輝度値を前記画素値として用いて、前記顔の上下の方向における画素値パターンを求め、前記顔の上下の方向における画素値パターンの周波数特性における3次高調波成分を、前記特性値として計算するとともに、前記顔の部位として目が写っている領域において、前記顔の左右の方向を前記所定方向として用い、輝度値を前記画素値として用いて、前記顔の左右の方向における画素値パターンを求め、前記顔の左右の方向における画素値パターンの周波数特性における2次高調波成分を、前記特性値として計算し、前記選択部は、前記複数の画像それぞれの3次高調波成分と前記複数の画像それぞれの2次高調波成分とに基づいて、前記処理対象画像を選択することを特徴とする請求項2記載の画像処理装置。
  6. 前記複数の画像それぞれに写っている前記顔が正面を向いている度合いを示す正面度を計算する正面度計算部をさらに備え、
    前記選択部は、前記複数の画像それぞれの特性値と前記複数の画像それぞれの正面度とに基づいて、前記処理対象画像を選択することを特徴とする請求項2乃至5のいずれか1項に記載の画像処理装置。
  7. 前記選択部は、前記複数の画像それぞれの特性値から特性値の統計値を計算し、前記複数の画像の特性値を前記正面度が大きい順に参照し、参照された特性値と前記特性値の統計値との差分が閾値よりも大きい場合、次の画像の特性値を参照し、前記差分が前記閾値よりも小さい場合、参照された特性値を有する画像を前記処理対象画像として選択する操作を繰り返すことで、所定数の画像を前記処理対象画像として選択することを特徴とする請求項6記載の画像処理装置。
  8. 前記顔を撮影した画像の撮影時刻を撮影時刻順に参照し、参照された撮影時刻と直前に取得された画像の撮影時刻との差分が所定時間よりも短い場合、次の画像の撮影時刻を参照し、前記参照された撮影時刻と直前に取得された画像の撮影時刻との差分が前記所定時間よりも長い場合、参照された撮影時刻を有する画像を取得する操作を繰り返すことで、前記複数の画像を取得する画像取得部をさらに備えることを特徴とする請求項1乃至7のいずれか1項に記載の画像処理装置。
  9. 人物の顔を撮影した複数の画像それぞれの前記顔の部位が写っている領域において、所定方向における位置と画素値との関係を示す画素値パターンを求め、
    前記複数の画像それぞれの画素値パターンに基づいて、前記複数の画像の中から処理対象画像を選択する、
    処理をコンピュータに実行させるための画像処理プログラム。
  10. コンピュータによって実行される画像処理方法であって、
    前記コンピュータが、
    人物の顔を撮影した複数の画像それぞれの前記顔の部位が写っている領域において、所定方向における位置と画素値との関係を示す画素値パターンを求め、
    前記複数の画像それぞれの画素値パターンに基づいて、前記複数の画像の中から処理対象画像を選択する、
    ことを特徴とする画像処理方法。
JP2019167688A 2019-09-13 2019-09-13 画像処理装置、画像処理方法、及び画像処理プログラム Pending JP2021043914A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019167688A JP2021043914A (ja) 2019-09-13 2019-09-13 画像処理装置、画像処理方法、及び画像処理プログラム
US16/996,962 US11380132B2 (en) 2019-09-13 2020-08-19 Face image processing apparatus and face image processing method
DE102020211007.7A DE102020211007A1 (de) 2019-09-13 2020-09-01 Bildverarbeitungseinrichtung und Bildverarbeitungsverfahren, und Bildverarbeitungsprogramm

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019167688A JP2021043914A (ja) 2019-09-13 2019-09-13 画像処理装置、画像処理方法、及び画像処理プログラム

Publications (1)

Publication Number Publication Date
JP2021043914A true JP2021043914A (ja) 2021-03-18

Family

ID=74686380

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019167688A Pending JP2021043914A (ja) 2019-09-13 2019-09-13 画像処理装置、画像処理方法、及び画像処理プログラム

Country Status (3)

Country Link
US (1) US11380132B2 (ja)
JP (1) JP2021043914A (ja)
DE (1) DE102020211007A1 (ja)

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006259900A (ja) * 2005-03-15 2006-09-28 Omron Corp 画像処理システム、画像処理装置および方法、記録媒体、並びにプログラム
JP2007128262A (ja) * 2005-11-02 2007-05-24 Omron Corp 顔照合装置
JP2008171079A (ja) * 2007-01-09 2008-07-24 Toyota Motor Corp 画像処理装置
JP2009010616A (ja) * 2007-06-27 2009-01-15 Fujifilm Corp 撮像装置および画像出力制御方法
WO2010064405A1 (ja) * 2008-12-05 2010-06-10 パナソニック株式会社 顔検出装置
JP2010177859A (ja) * 2009-01-28 2010-08-12 Nikon Corp カメラ
WO2014045479A1 (ja) * 2012-09-24 2014-03-27 日本電気株式会社 オブジェクト情報抽出装置、オブジェクト情報抽出プログラム、及びオブジェクト情報抽出方法
JP2014142696A (ja) * 2013-01-22 2014-08-07 Nec Corp 解析処理制御システム
JP2015152742A (ja) * 2014-02-13 2015-08-24 キヤノン株式会社 撮像装置及びその制御方法
JP2016208355A (ja) * 2015-04-24 2016-12-08 住友電気工業株式会社 画像監視装置、画像監視方法及び画像監視プログラム
JP2019129382A (ja) * 2018-01-23 2019-08-01 株式会社リコー 画像処理装置、画像処理システム、及びビデオ会議システム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1021394A (ja) 1996-07-01 1998-01-23 Matsushita Electric Ind Co Ltd 個人照合装置
JP2002133423A (ja) 2000-10-19 2002-05-10 Nippon Hoso Kyokai <Nhk> 顔画像データベース新規登録装置および記録媒体
US7356190B2 (en) 2002-07-02 2008-04-08 Canon Kabushiki Kaisha Image area extraction method, image reconstruction method using the extraction result and apparatus thereof
JP3977291B2 (ja) 2003-06-26 2007-09-19 キヤノン株式会社 画像再生方法及び画像処理装置
JP3846582B2 (ja) 2002-09-27 2006-11-15 日本電気株式会社 指紋認証方法/プログラム/装置
JP2008243093A (ja) 2007-03-29 2008-10-09 Toshiba Corp 辞書データの登録装置及び辞書データの登録方法
JP2018045309A (ja) * 2016-09-12 2018-03-22 株式会社東芝 特徴量抽出装置および認証システム
JP6921694B2 (ja) * 2017-09-21 2021-08-18 株式会社東芝 監視システム

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006259900A (ja) * 2005-03-15 2006-09-28 Omron Corp 画像処理システム、画像処理装置および方法、記録媒体、並びにプログラム
JP2007128262A (ja) * 2005-11-02 2007-05-24 Omron Corp 顔照合装置
JP2008171079A (ja) * 2007-01-09 2008-07-24 Toyota Motor Corp 画像処理装置
JP2009010616A (ja) * 2007-06-27 2009-01-15 Fujifilm Corp 撮像装置および画像出力制御方法
WO2010064405A1 (ja) * 2008-12-05 2010-06-10 パナソニック株式会社 顔検出装置
JP2010177859A (ja) * 2009-01-28 2010-08-12 Nikon Corp カメラ
WO2014045479A1 (ja) * 2012-09-24 2014-03-27 日本電気株式会社 オブジェクト情報抽出装置、オブジェクト情報抽出プログラム、及びオブジェクト情報抽出方法
JP2014142696A (ja) * 2013-01-22 2014-08-07 Nec Corp 解析処理制御システム
JP2015152742A (ja) * 2014-02-13 2015-08-24 キヤノン株式会社 撮像装置及びその制御方法
JP2016208355A (ja) * 2015-04-24 2016-12-08 住友電気工業株式会社 画像監視装置、画像監視方法及び画像監視プログラム
JP2019129382A (ja) * 2018-01-23 2019-08-01 株式会社リコー 画像処理装置、画像処理システム、及びビデオ会議システム

Also Published As

Publication number Publication date
US20210081652A1 (en) 2021-03-18
US11380132B2 (en) 2022-07-05
DE102020211007A1 (de) 2021-03-18

Similar Documents

Publication Publication Date Title
US8515136B2 (en) Image processing device, image device, image processing method
US9480417B2 (en) Posture estimation device, posture estimation system, and posture estimation method
JP4501937B2 (ja) 顔特徴点検出装置、特徴点検出装置
US7853052B2 (en) Face identification device
JP6835223B2 (ja) 顔認証装置、顔認証方法およびプログラム
WO2010122721A1 (ja) 照合装置、照合方法および照合プログラム
WO2010137157A1 (ja) 画像処理装置、方法、プログラム
JP6822482B2 (ja) 視線推定装置、視線推定方法及びプログラム記録媒体
JP4860289B2 (ja) ロボット装置
US20220019771A1 (en) Image processing device, image processing method, and storage medium
JP3823760B2 (ja) ロボット装置
WO2022130616A1 (ja) 認証方法、情報処理装置、及び認証プログラム
JP2000268161A (ja) 実時間表情検出装置
JP2021043914A (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
JP2005209137A (ja) 対象物認識方法及び対象物認識装置、並びに顔方向識別装置
JP2021022185A (ja) 画像処理装置、画像処理プログラム、及び画像処理方法
Srivastava et al. Face Verification System with Liveness Detection
JP7103443B2 (ja) 情報処理装置、情報処理方法、およびプログラム
Hannuksela Facial feature based head tracking and pose estimation
WO2020090111A1 (ja) 動線補正装置、動線補正方法、および記録媒体
CN115880787A (zh) 一种人脸活体检测方法、系统、终端设备及存储介质
KR20210059312A (ko) 얼굴 인식을 위한 얼굴영상 생성 방법
JP2020160658A (ja) 情報処理装置、情報処理方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220609

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230421

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230509

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231003

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20240402