JPWO2019123554A1 - 画像処理装置、画像処理方法、及び、プログラム - Google Patents

画像処理装置、画像処理方法、及び、プログラム Download PDF

Info

Publication number
JPWO2019123554A1
JPWO2019123554A1 JP2019559918A JP2019559918A JPWO2019123554A1 JP WO2019123554 A1 JPWO2019123554 A1 JP WO2019123554A1 JP 2019559918 A JP2019559918 A JP 2019559918A JP 2019559918 A JP2019559918 A JP 2019559918A JP WO2019123554 A1 JPWO2019123554 A1 JP WO2019123554A1
Authority
JP
Japan
Prior art keywords
degree
blur
image
point
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019559918A
Other languages
English (en)
Other versions
JP6885474B2 (ja
Inventor
昭裕 早坂
昭裕 早坂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2019123554A1 publication Critical patent/JPWO2019123554A1/ja
Application granted granted Critical
Publication of JP6885474B2 publication Critical patent/JP6885474B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/30Noise filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20216Image averaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

顔画像のぼけ度を高速かつ高精度に推定するため、本発明の画像処理装置は、画像に含まれる対象物の認証に用いられる特徴点を検出する特徴点検出手段と、特徴点における所定の処理点のぼけ度である第1のぼけ度を計算するぼけ度計算手段と、第1のぼけ度を用いて対象物のぼけ度である第2のぼけ度を推定するぼけ度推定手段とを含む。

Description

本発明は、画像の処理に関し、特に、画像のぼけの処理に関する。
画像のぼけの程度(以下、「ぼけ度」と呼ぶ)に応じて画像を取捨選択したいという状況は、数多く存在する。
例えば、鑑賞用の画像において、被写体がぼけている画像は、好まれない。特に、人の顔に関しては、ぼけていない画像が、好まれることが多い。
また、画像において、ぼけは、情報の劣化とみなせる。そのため、ぼけた画像は、積極的に排除されることが多い。例えば、認証用の画像において、認証対象のぼけは、認証精度の低下につながる。顔認証においても、ぼけた顔画像は、認証失敗の原因となる。そのため、認証対象の顔がどの程度ぼけているのかを知ることは、有用である。
画像のぼけ度を推定する手法が、提案されている(例えば、特許文献1(PTL1:Patent Literature 1)及び非特許文献1(NPL1:Non−patent Literatue 1)を参照)。
PTL1に記載の技術(以下、技術を含め単に「PTL1」と呼ぶ)は、画像中の顔領域から「ぼけ度」を計算する。画像中に複数の顔が存在した場合、PTL1は、顔の面積に比例した重みを用いて、複数の顔におけるぼけ度の平均を計算する。そして、PTL1は、平均を、その画像のぼけ度とする。
PTL1は、上記の計算において、顔領域全体の多重解像度画像に対して縦横斜めのエッジ点を抽出し、所定の基準値に基づいてエッジ点を分類し、一定の強度を有するエッジ点の中からぼけが発生しているエッジ点の割合を計算する。
NPL1に記載の技術(以下、技術を含め単に「NPL1」と呼ぶ)は、被写体のぼけ度から奥行きを推定する技術である。NPL1は、奥行きの推定過程において、画素のぼけ度を推定する。ぼけ度の推定において、NPL1は、画像中の任意の画素に対して周辺画素との差分の絶対値和を取り、絶対値和が一定値以上の画素を所定の領域内で総和したものを、ぼけ度とする。
特開2010−079446号公報
S. K. Nayar and Y. Nakagawa, "Shape from Focus", IEEE Transactions on Pattern Analysis and Machine Intelligence, Volume: 16, Issue: 8, August 1994, pp. 824-831
PTL1は、ぼけ度の計算の途中過程において、顔領域全体の多重解像度画像に対してエッジ抽出計算を必要とする。つまり、PTL1は、顔領域に対して、複数の解像度における画像を処理する必要がある。そのため、PTL1は、計算コストが高いという問題点があった。
NPL1は、顔画像に限らず、任意の画像の任意の画素のぼけ度を、低い計算コストで推定できる。
しかし、顔画像などの所定の対象物を含む画像は、ぼけの影響を受けやすい部分と、受けにくい部分とがある。そのため、対象物を含む画像におけるぼけ度の推定は、ぼけ度を推定する位置などを考慮する必要がある。
しかし、NPL1は、ぼけ度の推定における位置(例えば、顔画像のぼけ度を推定する位置)に関して、言及していない。つまり、NPL1は、画素のぼけ度を推定できるが、対象物を含む画像のぼけ度を推定できないという問題点があった。
本発明の目的は、上記問題を解決し、画像における精度のよいぼけ度を、計算コストを低減して推定する画像処理装置などを提供することにある。
本発明の一形態に係る画像処理装置は、画像に含まれる対象物の認証に用いられる特徴点を検出する特徴点検出手段と、特徴点における所定の処理点のぼけ度である第1のぼけ度を計算するぼけ度計算手段と、第1のぼけ度を用いて対象物のぼけ度である第2のぼけ度を推定するぼけ度推定手段とを含む。
本発明の一形態に係る画像処理方法は、画像に含まれる対象物の認証に用いられる特徴点を検出し、特徴点における所定の処理点のぼけ度である第1のぼけ度を計算し、第1のぼけ度を用いて対象物のぼけ度である第2のぼけ度を推定する。
本発明の一形態に係る記録媒体は、画像に含まれる対象物の認証に用いられる特徴点を検出する処理と、特徴点における所定の処理点のぼけ度である第1のぼけ度を計算する処理と、第1のぼけ度を用いて対象物のぼけ度である第2のぼけ度を推定する処理とをコンピュータに実行させるプログラムをコンピュータ読み取り可能に記録する。
本発明に基づけば、画像における精度のよいぼけ度を、計算コストを低減して推定するとの効果を奏することができる。
図1は、本発明における第1の実施形態に係る画像処理装置の構成の一例を示すブロック図である。 図2は、第1の実施形態に係る画像処理装置の動作の一例を示すフローチャートである。 図3は、特徴点検出部の動作の一例を説明するための図である。 図4は、処理点選択部の動作の一例を説明するための図である。 図5は、第2の実施形態に係る画像処理装置の構成の一例を示すブロック図である。 図6は、第2の実施形態に係る画像処理装置の動作の一例を示すフローチャートである。 図7は、第1の実施形態に係る画像処理装置の概要の一例を示すブロック図である。 図8は、第1の実施形態に係る画像処理装置のハードウェア構成の一例を示すブロック図である。 図9は、第1の実施形態に係る画像処理システムの構成の一例を示す図である。
以下、図面を参照して、本発明における実施形態について説明する。
各図面は、本発明における実施形態を説明するためのものである。ただし、以下の実施形態に記載されている構成要素は、例示であり、本発明を限定するものではない。
各図面の同様の構成には、同じ番号を付し、その繰り返しの説明を、省略する場合がある。また、以下の説明に用いる図面において、本発明の説明に関係しない部分の構成については、記載を省略し、図示しない場合もある。
なお、以下の説明において、実施形態における処理の対象として、「顔画像の認証」に影響する「画像のぼけ」を用いる。例えば、各実施形態は、顔認証に用いる特徴点を検出する。さらに、各実施形態は、特徴点から顔認証に影響するぼけに関連する処理点を選択する。
ただし、これは、各実施形態に関連する画像処理、処理対象の画像、画像に含まれる対象物、画像の劣化、及び、抽出する特徴点などを限定するものではない。
例えば、処理対象となる画像は、画像の処理に関連する特徴点(例えば、認証に用いる特徴点)を抽出できる画像であればよい。例えば、処理対象となる画像は、人、生物、又は車などの全体画像でもよい。
あるいは、特徴点は、認識対象を基に選択されればよい。例えば、特徴点は、文字認識などにおける端点、交点、分岐点、及び屈折点などでもよい。
あるいは、各実施形態は、焦点のずれなどに基づいて発生する「ぼけ」に限らず、照明不足、霧などの障害物、又は、対象物の移動など基づいて発生する画像の劣化を処理対象として用いてもよい。
<第1の実施形態>
以下、図面を参照して、本発明における第1の実施形態について説明する。
[構成の説明]
まず、図面を参照して、第1の実施形態に係る画像処理装置10の構成について説明する。
図1は、本発明における第1の実施形態に係る画像処理装置10の構成の一例を示すブロック図である。
画像処理装置10は、画像受信部100と、特徴点検出部101と、処理点選択部102と、ぼけ度計算部103と、ぼけ度推定部104とを含む。
画像受信部100は、所定の装置(例えば、撮像装置)から、顔画像を受信する。あるいは、画像受信部100は、所定の装置(例えば、記憶装置)から、顔画像を取得してもよい。以下、画像受信部100が受信又は所得した顔画像を「対象顔画像」とも呼ぶ。
本実施形態において、対象顔画像は、限定されない。対象顔画像は、カラー画像でもよく、白黒画像でもよい。対象顔画像は、カメラ等の撮像装置が撮像した画像でもよいし、人物の顔が写った画像を保存する記録媒体又は記憶装置等から読み出された画像でもよい。さらに、対象顔画像は、補正された画像(例えば、トリミング又は色補正等が施された画像)でもよい。
特徴点検出部101は、顔認証に用いるため、対象顔画像に写った人物の顔領域、及び、顔の特徴点を検出する。
顔の特徴点とは、目及び口など、その人物の顔(顔の輪郭を含む)における、その人物の特徴を表す点である。
特徴点検出部101が用いる方法は、限定されない。例えば、顔領域及び顔の特徴点を検出する方法として、Viola−Jones法がある。ただし、Viola−Jones法は、特徴点検出部101が用いる方法の一例である。特徴点検出部101は、その他の手法を用いて、顔領域、及び、顔の特徴点を検出してもよい。
処理点選択部102は、検出された特徴点の中から、ぼけ度の計算の対象となる点(以下、「処理点」と呼ぶ)を選択する。処理点は、予め、対象物(今の場合、顔)におけるぼけの影響を受けやすい部分から決定された点である。
例えば、口及び目など顔の部分品、特に部分品の端点は、顔の認証に有効となる点である。これらの部分がぼけると、顔認証の精度が低下する。そこで、処理点として、例えば、対象物(今の場合、顔)の部分品(例えば、目及び口)の端点(例えば、目頭、目尻、及び口端)の少なくとも一部が選択される。例えば、処理点選択部102は、選択する処理点として、目、鼻、及び、口などの顔の主要な部分品(パーツ)の端点の少なくとも一部を保持し、特徴点からその処理点を選択する。
さらに、処理点選択部102は、部分品の端点に加え、2つの端点を結んだ線分の分割点(例えば、線分の中点、三等分点、及び/又は、四等分点)、及び/又は、その線分を延長した延長線上の点を選択してもよい。
処理点選択部102は、予め選択する処理点を保持していてもよい。あるいは、処理点選択部102は、対象となる顔画像と共に処理点を取得してもよい。なお、画像処理装置10における処理点が固定の場合、特徴点検出部101又はぼけ度計算部103が、処理点選択部102の機能を含んでもよい。
ぼけ度計算部103は、選択された処理点それぞれに対して、ぼけ度(第1のぼけ度)を計算する。ただし、ぼけ度計算部103は、計算コストの低い計算方法を用いることが望ましい。例えば、ぼけ度計算部103は、ぼけ度の計算方法として、NPL1に記載された方法を用いてもよい。ただし、NPL1に記載の方法は、ぼけ度計算部103が用いる方法の一例である。ぼけ度計算部103は、その他の手法を用いて、ぼけ度を計算してもよい。
ぼけ度推定部104は、ぼけ度計算部103が計算したぼけ度を用いて、顔画像としてぼけ度(第2のぼけ度)を推定する。言い換えると、ぼけ度推定部104は、所定の処理点のぼけ度(第1のぼけ度)を用いて、顔画像としてのぼけ度(第2のぼけ度)の推定値を計算する。
ぼけ度推定部104が用いるぼけ度は、限定されない。顔画像のぼけ度は、対象となる顔画像、又は、ぼけ度を用いる装置など、所定の知見を基に決定されればよい。
例えば、算出したぼけ度が大きい処理点が顔画像のぼけ度として適切な場合、ぼけ度推定部104は、顔画像のぼけ度として、処理点のぼけ度の大きい方から所定数のぼけ度を平均した値を用いてもよい。あるいは、算出したぼけ度が小さい処理点が顔画像のぼけ度として適切な場合、ぼけ度推定部104は、顔画像のぼけ度として、処理点のぼけ度の小さい方から所定数のぼけ度を平均した値を用いてもよい。あるいは、算出したぼけ度が大きい処理点が顔画像のぼけ度として適切な場合、ぼけ度推定部104は、顔画像のぼけ度として、所定の閾値より大きな値である処理点のぼけ度の平均値を用いてもよい。あるいは、算出したぼけ度が小さい処理点が顔画像のぼけ度として適切な場合、ぼけ度推定部104は、顔画像のぼけ度として、所定の閾値より小さい値となる処理点のぼけ度の平均値を用いてもよい。さらに、ぼけ度推定部104は、平均値に限らず、中間値、又は、合計値など他の値を用いてもよい。
ぼけ度推定部104は、推定した顔画像のぼけ度を所定の装置に出力する。
[動作の説明]
次に、図面を参照して、第1の実施形態に係る画像処理装置10の動作を説明する。
図2は、第1の実施形態に係る画像処理装置10の動作の一例を示すフローチャートである。ただし、図2に示す動作の流れは、一例である。画像処理装置10は、各動作を、必ずしも図2に示された順に実行しなくてもよい。例えば、画像処理装置10は、処理点毎に、ステップS22及びS23を実行してもよい。
なお、画像受信部100は、対象顔画像を受信済みとする。
特徴点検出部101は、対象顔画像における顔領域、及び、顔の特徴点を検出する(ステップS21)。
図3は、特徴点検出部101の動作の一例を説明するための図である。
図3の左側が、対象顔画像の一例である。
図3の右側における円で示される点が、特徴点検出部101が検出した特徴点の一例である。図3の場合、特徴点検出部101は、特徴点として、目尻、目頭、鼻下、口端、眉端、及び、顔の輪郭(フェイスライン)を検出している。
図2を参照した説明に戻る。
処理点選択部102は、検出された特徴点から、ぼけ度を計算する処理点を選択する(ステップS22)。処理点は、ぼけの影響を受けやすい点として、予め処理点選択部102に設定されている。例えば、顔の部分品(目、眉、鼻、及び、口を含む領域)は、ぼけの影響を受けやすい。そこで、例えば、処理点選択部102は、処理点として、顔の部分品の端点の特徴点を選択する。さらに、処理点選択部102は、処理点として、2つの処理点を結ぶ線分の間の点(例えば、処理点を結ぶ線分の中点)、及び/又は、その線分を延長した延長線上の点を選択してもよい。なお、処理点が、分割点などを含む場合、これらの点も、予め処理点選択部102に設定されている。
図4は、処理点選択部102の動作の一例を説明するための図である。
図4の左側が、図3の右側に対応する特徴点検出部101が検出した特徴点を示す。
図4の右側が、選択された処理点の一例を示す図である。図4の右側の四角形で示される点が、処理点である。図4の場合、処理点選択部102は、処理点として、特徴点から次の11点を選択している。
(1)両目頭と両目尻(4点)
(2)鼻下(1点)
(3)口端(2点)
(4)両眉端(4点)
さらに、処理点選択部102は、上記に加え、次の4点を選択している。
(1)左目頭と鼻下とを結ぶ線分の中点
(2)右目頭と鼻下とを結ぶ線分の中点
(3)左目尻と左口端とを結ぶ線分の中点
(4)右目尻と右口端とを結ぶ線分の中点
図2を参照した説明に戻る。
上記のとおり、処理点選択部102は、顔画像における特徴点から、ぼけの影響を受けやすい点(例えば、部分品の端部)を選択する。そのため、以下の処理において、画像処理装置10は、ぼけに対して精度の高い処理を実現できる。
ぼけ度計算部103は、選択された処理点に対して、ぼけ度を計算する(ステップS23)。例えば、ぼけ度計算部103は、選択された処理点の各点に対して、NPL1に記載された方法を用いてぼけ度を計算する。
参考として、NPL1が用いるぼけ度を簡単に説明する。
等式1は、NPL1に用いられているぼけ度であるぼけ指標値F(i,j)を求める式である。i及びjは、画像上の画素の位置(例えば、iが横座標の位置で、jが縦座標の位置)である。関数ML()は、絶対値和の関数である。sは、対象画素と、予め決められた周辺画素との距離(画素数)である。一般的に、sは、「1」つまり、隣の画素である。しかし、sは、1より大きな数でもよい。関数I()は、画素の値である。Tは、所定の閾値である。Nは、所定の自然数である。
座標(i,j)の画素におけるぼけ指標値F(i,j)は、画素(i,j)を中心とした上下左右それぞれN画素までの領域「(2N+1)×(2N+1)」の各画素を対象として計算される。詳細には、ぼけ指標値F(i,j)は、各画素と、距離(画素)sだけ離れた周辺画素との差分の絶対値和ML(x,y)が、所定の閾値(T)以上となる絶対値和ML(x,y)の総和である。この場合のぼけ度は、その値が小さいほど、周辺画素との差が小さい、つまり、ぼけていることを示す指標である。
[等式1]
Figure 2019123554
等式1を処理点に適用した場合、ぼけ度計算部103は、次のようにぼけ度(指標値(i,j))を計算する。まず、ぼけ度計算部103は、処理点を中心として上下左右それぞれ所定数(N)の画素までの領域の画素と処理点との絶対値和を算出する。そして、ぼけ度計算部103は、所定の閾値より大きい絶対値和の操作を、ぼけ度とする。
上記の等式1、つまり、NPL1の計算は、一つの画像における加減算の処理のため、計算コストが低い。ぼけ度計算部103は、処理点におけるぼけ度の計算において、上記のような計算コストの低い方法を用いる。
ぼけ度推定部104は、処理点において計算されたぼけ度を用いて、顔画像のぼけ度を推定する(ステップS24)。
顔認証において、認証において重要な部分(ぼけの影響を受けやすい部分)の中にぼけが少ない部分があると、顔認証の精度は、低下しにくい。顔認証においては、最もぼけていない部分でのぼけ度が、認証の精度に影響を与える。そこで、例えば、値が小さいほど画像がぼけているというぼけ度の場合、ぼけ度推定部104は、画像のぼけ度として、ぼけ度を値が大きい処理点(ぼけていない点)から所定数の処理点のぼけ度の平均値を計算する。ぼけ度推定部104は、平均値に替えて中央値又は総和を計算してもよい。平均値などの計算は、計算コストが低い計算の一例である。ぼけ度推定部104は、第2のぼけ度として、第1のぼけ度(処理点のぼけ度)の少なくとも一部の平均値、中央値、又は総和を計算する。
この場合、ぼけ度推定部104は、顔画像の全ての点におけるぼけ度ではなく、ぼけの影響を受けやすい一部の点(処理点)のぼけ度を用いたぼけ度を計算している。そのため、ぼけ度推定部104が計算したぼけ度は、顔画像のぼけ度の推定値である。ただし、この推定値は、ぼけの影響を受けやすい点を用いた推定である。そのため、この推定は、計算コストが低いが、顔画像のぼけ度の推定としては有効な推定となる。
このように、ぼけ度推定部104は、計算コストが低い計算方法を用いて画像のぼけ度の推定値を計算する。
以上のように、特徴点検出部101は、画像における対象物の特徴を示す特徴点を検出する。そして、処理点選択部102は、特徴点の中から、予め設定されたぼけの影響を受けやすい処理点を選択する。ぼけ度計算部103は、計算コストが低い計算方法を用いて、処理点のぼけ度を計算する。そして、ぼけ度推定部104は、計算コストの低い計算方法を用いて、処理点のぼけ度(第1のぼけ度)から画像のぼけ度(第2のぼけ度)を推定(計算)する。そのため、画像処理装置10は、画像における精度のよいぼけ度を、計算コストを低減して得ることができる。
[効果の説明]
次に、第1の実施形態に係る画像処理装置10の効果について説明する。
第1の実施形態に係る画像処理装置10は、画像における精度のよいぼけ度を、計算コストを低減して計算するとの効果を得ることができる。
その理由は、次のとおりである。
画像処理装置10は、特徴点検出部101と、処理点選択部102と、ぼけ度計算部103と、ぼけ度推定部104とを含む。特徴点検出部101は、画像に含まれる対象物の認証に用いられる特徴点を検出する。処理点選択部102は、特徴点から所定の処理点を選択する。ぼけ度計算部103は、処理点のぼけ度(第1のぼけ度)を計算する。ぼけ度推定部104は、処理点のぼけ度を用いて顔画像(対象物)のぼけ度(第2のぼけ度)を推定(計算)する。
特徴点検出部101は、画像における対象物の特徴を示す特徴点を検出する。
そして、処理点選択部102は、特徴点の中から、予め設定された処理点(例えば、ぼけの影響を受けやすい部分品の端点)を選択する。
ぼけ度計算部103は、処理点におけるぼけ度を計算する。ただし、既に説明したとおり、ぼけ度計算部103は、NPL1など計算コストが低い計算方法を用いて、処理点におけるぼけ度を計算する。上記のとおり、処理点は、ぼけの影響を受けやすい点である。そのため、ぼけ度計算部103が計算したぼけ度は、ぼけの影響を受けやすい点におけるぼけ度である。ぼけ度計算部103は、計算コストを低減して、精度のよいぼけ度を計算する。
そして、ぼけ度推定部104は、ぼけ度計算部103が計算したぼけ度を用いて、画像におけるぼけ度を推定する。ただし、既に説明したとおり、ぼけ度推定部104は、平均値など計算コストの低い計算方法を用いて、画像におけるぼけ度を推定する。ぼけ度推定部104は、計算コストを低減して、精度のよい画像のぼけ度を推定する。
このように、画像処理装置10は、画像における精度のよいぼけ度の推定値を、計算コストを低減して得ることができる。
[実施形態の概要]
図面を参照して第1の実施形態の概要を説明する。
図7は、第1の実施形態に係る画像処理装置10の概要である画像処理装置11の構成の一例を示すブロック図である。画像処理装置11は、特徴点検出部101と、ぼけ度計算部103と、ぼけ度推定部104とを含む。特徴点検出部101は、画像に含まれる対象物の認証に用いられる特徴点を検出する。ぼけ度計算部103は、特徴点における所定の処理点のぼけ度である第1のぼけ度を計算する。ぼけ度推定部104は、第1のぼけ度を用いて対象物のぼけ度である第2のぼけ度を推定する。
特徴点検出部101は、画像における対象物の特徴を示す特徴点を検出する。
ぼけ度計算部103は、例えば、特徴点の中から、予め設定された処理点におけるぼけ度を計算してもよい。処理点は、ぼけの影響を受けやすい点(例えば、ぼけの影響を受けやすい部分品の端点)と仮定する。この場合、ぼけ度計算部103が計算したぼけ度は、ぼけの影響を受けやすい点におけるぼけ度である。その結果、ぼけ度計算部103は、計算コストを低減して、精度のよいぼけ度を計算する。すなわち、ぼけ度計算部103は、NPL1など計算コストが低い計算方法を用いて、処理点におけるぼけ度を計算する。
そして、ぼけ度推定部104は、ぼけ度計算部103が計算したぼけ度を用いて、画像におけるぼけ度を推定する。この場合、既に説明したとおり、ぼけ度推定部104は、平均値など計算コストの低い計算方法を用いて、画像におけるぼけ度を推定することができる。その結果、ぼけ度推定部104は、計算コストを低減して、精度のよい画像のぼけ度を推定することができる。
要するに、第1の最小構成である画像処理装置11は、画像処理装置10と同様に、画像における精度のよいぼけ度を、計算コストを低減して計算するとの効果を奏することができる。
[ハードウェア構成]
画像処理装置10を参照して、画像処理装置10及び11のハードウェアの構成について説明する。
画像処理装置10は、次のように構成される。
例えば、画像処理装置10の各構成部は、ハードウェア回路で構成されてもよい。
あるいは、画像処理装置10において、各構成部は、ネットワークを介して接続した複数の装置を用いて、構成されてもよい。
あるいは、画像処理装置10において、複数の構成部は、1つのハードウェアで構成されてもよい。
あるいは、画像処理装置10は、CPU(Central Processing Unit)と、ROM(Read Only Memory)と、RAM(Random Access Memory)とを含むコンピュータ装置として実現されてもよい。画像処理装置10は、上記構成に加え、さらに、入出力接続回路(IOC:Input and Output Circuit)を含むコンピュータ装置として実現されてもよい。画像処理装置10は、上記構成に加え、さらに、ネットワークインターフェース回路(NIC:Network Interface Circuit)を含むコンピュータ装置として実現されてもよい。
図8は、第1の実施形態に係る画像処理装置10のハードウェア構成の一例である画像処理装置60の構成を示すブロック図である。
画像処理装置60は、CPU610と、ROM620と、RAM630と、内部記憶装置640と、IOC650と、NIC680とを含み、コンピュータ装置を構成している。
CPU610は、ROM620からプログラムを読み込む。そして、CPU610は、読み込んだプログラムに基づいて、RAM630と、内部記憶装置640と、IOC650と、NIC680とを制御する。そして、CPU610を含むコンピュータは、これらの構成を制御し、図1に示される、画像受信部100と、特徴点検出部101と、処理点選択部102と、ぼけ度計算部103と、ぼけ度推定部104としての各機能を実現する。
CPU610は、各機能を実現する際に、RAM630又は内部記憶装置640を、プログラムの一時記録媒体として使用してもよい。
また、CPU610は、コンピュータで読み取り可能にプログラムを記憶した記録媒体700が含むプログラムを、図示しない記録媒体読み取り装置を用いて読み込んでもよい。あるいは、CPU610は、NIC680を介して、図示しない外部の装置からプログラムを受け取り、RAM630又は内部記憶装置640に保存して、保存したプログラムを基に動作してもよい。
ROM620は、CPU610が実行するプログラム及び固定的なデータを記憶する。ROM620は、例えば、P−ROM(Programmable−ROM)又はフラッシュROMである。
RAM630は、CPU610が実行するプログラム及びデータを一時的に記憶する。RAM630は、例えば、D−RAM(Dynamic−RAM)である。
内部記憶装置640は、画像処理装置60が長期的に保存するデータ及びプログラムを記憶する。また、内部記憶装置640は、CPU610の一時記憶装置として動作してもよい。内部記憶装置640は、例えば、ハードディスク装置、光磁気ディスク装置、SSD(Solid State Drive)又はディスクアレイ装置である。
ここで、ROM620と内部記憶装置640は、不揮発性(non−transitory)の記録媒体である。一方、RAM630は、揮発性(transitory)の記録媒体である。そして、CPU610は、ROM620、内部記憶装置640、又は、RAM630に記憶されているプログラムを基に動作可能である。つまり、CPU610は、不揮発性記録媒体又は揮発性記録媒体を用いて動作可能である。
IOC650は、CPU610と、入力機器660及び表示機器670とのデータを仲介する。IOC650は、例えば、IOインターフェースカード又はUSB(Universal Serial Bus)カードである。さらに、IOC650は、USBのような有線に限らず、無線を用いてもよい。
入力機器660は、画像処理装置60の操作者からの入力指示を受け取る機器である。入力機器660は、例えば、キーボード、マウス又はタッチパネルである。
表示機器670は、画像処理装置60の操作者に情報を表示する機器である。表示機器670は、例えば、液晶ディスプレイである。
NIC680は、ネットワークを介した図示しない外部の装置とのデータのやり取りを中継する。NIC680は、例えば、LAN(Local Area Network)カードである。さらに、NIC680は、有線に限らず、無線を用いてもよい。
このように構成された画像処理装置60は、画像処理装置10と同様の効果を得ることができる。
その理由は、画像処理装置60のCPU610が、プログラムに基づいて画像処理装置10と同様の機能を実現できるためである。
<第2の実施形態>
次に、図面を参照して、第2の実施形態について説明する。
[構成の説明]
まず、図面を参照して、第2の実施形態に係る画像処理装置50の構成について説明する。
図5は、第2の実施形態に係る画像処理装置50の構成の一例を示すブロック図である。
画像処理装置50は、第1の実施形態に係る画像処理装置10と比較すると、処理点選択部102に替えて処理点選択部502を含む。さらに、画像処理装置50は、正規化部505を含む。その他の構成は、第1の実施形態に係る画像処理装置10の構成と同一のため、その詳細な説明を省略する。
画像処理装置50は、画像処理装置10と同様に、図8に示されるコンピュータ装置を用いて実現されてもよい。
正規化部505は、特徴点検出部101が検出した特徴点に基づいて、対象顔画像を正規化する。以下、正規化後の画像を「正規化画像」と呼ぶ。
本実施形態において、正規化の対象範囲は、限定されない。例えば、正規化は、顔画像の位置、顔画像の大きさ、及び/又は、顔画像の角度の正規化である。
また、正規化部505が用いる正規化の手法は、限定されない。例えば、正規化部505は、予め、基準特徴点を保持してもよい。基準特徴点とは、正規化において、予め決められた位置(この位置を「基準」と呼ぶ)に変換される特徴点である。正規化部505は、予め保持する基準特徴点と、対象顔画像における特徴点とを用いて、対象顔画像を変換する。
この場合、正規化部505は、基準特徴点に対応した対象顔画像の特徴点が、基準特徴点の位置となるように、対象顔画像を変換(例えば、アフィン変換)する。正規化部505は、正規化に用いる画像変換の方法として、アフィン変換に限らず、射影変換、相似変換、又は、透視投影変換などの方法を用いてもよい。
あるいは、正規化部505は、予め、基準特徴点の3次元情報及び/又は平均3次元顔形状情報も保持してもよい。この場合、正規化部505は、対象顔画像と、基準特徴点の3次元情報(及び/又は平均3次元顔座標情報)とを用いて、位置、大きさ、角度に加え、顔画像の向きを正規化してもよい。
平均3次元顔形状情報とは、所定数の顔形状の3次元情報を平均化して得られる顔形状情報である。平均に用いられる顔形状の3次元情報は、対象となる人物の顔形状の3次元情報を含んでもよく、含まなくてもよい。
正規化部505は、予め、基準特徴点の位置、基準特徴点の3次元情報、及び/又は、平均3次元顔形状情報を保持せず、処理に際して図示しない装置などから、これらの情報を取得してもよい。
処理点選択部502は、処理点を選択する。ただし、正規化部505が、特徴点を正規化している。そのため、処理点選択部502は、正規化後の特徴点から処理点を選択する。例えば、処理点選択部502は、正規化後の画像における目、眉、鼻、及び口の端点を選択する。この場合、処理点は、正規化画像に含まれる点となる。
ただし、正規化後の画像において、基準特徴点に対応する特徴点は、いずれの顔画像においても、同じ位置に変換される。そこで、処理点選択部502は、正規化後の顔画像における所定の座標の点(例えば、基準特徴点、又は、基準特徴点に対した所定の位置の点)を選択してもよい。この場合、処理点選択部502は、処理点として、全ての顔画像において同じ位置の点を選択できる。この場合、処理点は、正規化画像における予め設定された位置の点となる。
例えば、画像によっては、特徴点検出部101が、ぼけの影響を受けやすい部分での特徴点を検出しにくい場合がある。この場合、第1の実施形態に係る処理点選択部102は、その部分において処理点を選択できない。
しかし、第2の実施形態に係る処理点選択部502は、処理点として正規化後の画像における所定の座標の点を選択できる。そのため、画像処理装置50は、ぼけの影響を受けやすい部分で特徴点が検出できない場合でも、その部分における処理点を選択できる。
このように、処理点選択部502は、処理点選択部102よりも頑強に処理点を選択できる。
[動作の説明]
次に、図面を参照して、第2の実施形態に係る画像処理装置50の動作の一例を説明する。
図6は、第2の実施形態に係る画像処理装置50の動作の一例を示すフローチャートである。ただし、図6に示す動作の流れは一例である。画像処理装置50は、各動作を、必ずしも図6に示された順に実行しなくてもよい。例えば、画像処理装置50は、処理点毎に、ステップS62及びS23を実行してもよい。
なお、第1の実施形態に係る画像処理装置10の動作と同じ動作については、詳細な説明を省略する。
正規化部505は、検出された特徴点に基づいて、顔画像を正規化する(ステップS65)。例えば、正規化部505は、予め、特徴点に対応した基準特徴点の3次元情報及び/又は平均3次元顔形状情報を保持する。そして、正規化部505は、基準特徴点を、検出された特徴点に変換する透視投影変換の変換パラメータを求める。そして、正規化部505は、求めた変換パラメータを用いて、平均3次元顔形状上に対象顔画像を投影する。このように、正規化部505は、位置などを正規化した顔画像を生成する。ただし、前述のとおり、正規化方法は、この方法に限らない。正規化部505は、任意の方法を用いてよい。
処理点選択部502は、正規化後の顔画像から、ぼけ度を計算する処理点を選択する(ステップS62)。例えば、処理点選択部502は、処理点として、正規化された顔画像において特徴点に対応する点を選択する。処理点選択部502は、正規化された顔画像における特徴点から処理点を選択してもよいし、正規化に利用された基準特徴点の座標値を利用して処理点を選択してもよい。
[効果の説明]
次に、第2の実施形態に係る画像処理装置50の効果について説明する。
第2の実施形態に係る画像処理装置50は、第1の実施形態の効果に加え、ぼけ度をより高精度に推定するとの効果を得ることができる。
その理由は、次のとおりである。
処理点選択部102がぼけ度を計算する処理点を選択する前に、正規化部505が、顔画像を正規化する。その結果、正規化後の画像において、隣接画素間の関係性、及び、1画素が表す領域の大きさが、全ての顔画像において均一となる。
等式1を用いる場合、ぼけ度計算部103は、計算対象の画素と、その画素の周辺画素とを用いてぼけ度(等式1のぼけ指標値)を計算する。正規化部505は、計算対象の画素と周辺画素との間の関係を均一化する。そのため、処理点におけるぼけ度(ぼけ指標値)の計算精度は、正規化前に比べ、向上する。その結果、画像処理装置50は、処理点におけるぼけ度を用いた画像のぼけ度の推定値の推定精度を向上できる。
さらに、第2の実施形態に係る画像処理装置50は、より頑強にぼけ度を計算するとの効果を奏することができる。
その理由は、次のとおりである。
正規化部505が、特徴点の位置を正規化するように画像を変換する。そのため、特徴点は、同じ位置に変換される。その結果、特徴点検出部101が特徴点を検出できない画像においても、処理点選択部502は、正規化後の画像における位置を用いて、処理点を選択できるためである。
[詳細例]
次に、図面を参照して、第2の実施形態の詳細例について説明する。
(構成の説明)
以下の説明における画像処理装置50の構成は、上記の説明と同じである。ただし、各構成は、次の説明するとおり、より詳細な動作を実行する。
画像受信部100は、図示しないカメラから対象顔画像を受信する。
特徴点検出部101は、対象顔画像から顔の特徴点を検出する。検出する顔の特徴点は、図3に示されている、両目尻(2点)、両目頭(2点)、鼻下(1点)、口端(2点)、両眉端(4点)、及び、顔輪郭(7点)の18点とする。
正規化部505は、検出された顔の特徴点を利用して、顔画像を正規化する。さらに、正規化部505は、平均3次元顔形状情報を用いて、顔の向きを正規化する。
処理点選択部502は、生成された正規化顔画像から処理点を選択する。処理点は、上記の18個の特徴点から、輪郭の7個を除く11個の特徴点(ただし、正規化後の特徴点)とする。
ぼけ度計算部103は、選択された処理点に対してぼけ度を計算する。ぼけ度計算部103は、ぼけ度(ぼけ指標値)の計算に、NPL1の方法を利用する。
ぼけ度推定部104は、画像のぼけ度として、ぼけ度計算部103が計算したぼけ度の中で、値の大きい方から上位5点の平均値を計算する。
(動作の説明)
次に、詳細例の動作について説明する。動作フローは、図6である。
なお、画像受信部100は、対象顔画像を受信済みとする。
特徴点検出部101が、対象顔画像中の顔の特徴点を検出する(ステップS21)。例えば、特徴点検出部101は、Viola−Jones法を用いて、両目尻、両目頭、鼻下、口端、眉、及び輪郭(フェイスライン)における特徴点(18点)を検出する。
正規化部505が、特徴点に基づいて、顔画像を正規化する(ステップS65)。正規化部505は、予め、特徴点に対応した基準特徴点の3次元情報及び平均3次元顔形状情報を保持する。そして、正規化部505は、基準特徴点を、検出された特徴点の位置に変換する透視投影変換の変換パラメータを求める。そして、正規化部505は、その変換パラメータを使って画素を平均3次元顔形状上へ投影する。このように、正規化部505は、位置、大きさ、角度、及び/又は、向きを正規化した顔画像を生成する。
処理点選択部502が、生成された正規化後の顔画像から、ぼけ度を計算する処理点を選択する(ステップS62)。処理点選択部502は、処理点として、正規化された顔画像において、検出された特徴点(18点)において輪郭の7点を除く残りの11点に対応する点を選択する。処理点選択部502は、正規化された顔画像の特徴点の座標値として、正規化において利用された基準特徴点の座標値を利用する。
ぼけ度計算部103は、選択された処理点に対して、ぼけ度を計算する(ステップS23)。ぼけ度計算部103は、選択された各処理点に対して、NPL1に記載された計算方法を用いて、ぼけ度を計算する。具体的には、ぼけ度計算部103は、等式1において、「s=1,N=2,T=7」として、処理点のぼけ度(ぼけ指標値F(i,j))を計算する。
ぼけ度推定部104が、計算されたぼけ度(ぼけ指標値)を用いて、画像のぼけ度を推定(計算)する(ステップS24)。今の場合、ぼけ度計算部103が計算したぼけ度(ぼけ指標値)は、値が小さいほどぼけていることを示す。そのため、ぼけ度推定部104は、ぼけ度を大きい順にソートし、画像のぼけ度として値が大きい上位5点のぼけ度の平均値を計算する。
<画像処理システム>
次に図面を参照して、画像処理装置10を含む画像処理システム40について説明する。画像処理システム40は、画像処理装置10に替えて、画像処理装置50、又は、画像処理装置11を含んでもよい。
図9は、画像処理システム40の構成の一例を示すブロック図である。
画像処理システム40は、画像処理装置10と、画像送信装置20と、画像受信装置30とを含む。
画像送信装置20は、対象顔画像を画像処理装置10に送信する装置である。例えば、画像送信装置20は、撮像装置201である。あるいは、画像送信装置20は、画像を保存する画像記憶装置202である。画像送信装置20は、複数の装置(例えば、撮像装置201と画像記憶装置202)を含んでもよい。ただし、画像送信装置20は、上記に限定されない。
画像処理装置10は、既に説明したとおり、対象顔画像を用いて、ぼけ度を推定(計算)する。
画像受信装置30は、画像処理装置10から画像のぼけ度(ぼけ度の推定値)を受信して、所定の画像を表示する。例えば、画像受信装置30は、画像処理装置10から、対象顔画像、及び、その画像のぼけ度を受信する。そして、画像受信装置30は、ぼけ度を基に表示する対象顔画像を選択して表示する。
あるいは、画像受信装置30は、ぼけ度を基に顔認証に用いる対象顔画像を選択してもよい。
さらに、画像受信装置30は、受信した対象画像のぼけ度の推定値が所定の条件を満足しない場合(例えば、ぼけがひどい場合)、画像送信装置20及び/又は画像処理装置10に画像の再取得を依頼してもよい。
以上、実施形態を参照して本願発明を説明したが、本願発明は上記実施形態に限定されるものではない。本願発明の構成及び詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
本発明は、ぼけた顔画像の自動判定又は選別に利用可能である。
例えば、本発明を利用すると、デジタルカメラは、人物を撮影する際に、人物の顔が一定以上ぼけていると推定された場合に、自動でフォーカスを調整できる。あるいは、デジタルカメラは、撮影後の画像において、顔が一定以上ぼけていると推定された場合、自動的に消去候補とすることができる。また、顔認証装置は、本発明を利用して、認証対象の顔画像が一定以上ぼけていると推定される場合に、顔画像の撮影をやり直すように促したり、認証におけるスコアを補正したりできる。
10 画像処理装置
11 画像処理装置
20 画像送信装置
30 画像受信装置
50 画像処理装置
60 画像処理装置
100 画像受信部
101 特徴点検出部
102 処理点選択部
103 ぼけ度計算部
104 ぼけ度推定部
201 撮像装置
202 画像記憶装置
502 処理点選択部
505 正規化部
610 CPU
620 ROM
630 RAM
640 内部記憶装置
650 IOC
660 入力機器
670 表示機器
680 NIC
700 記録媒体
本発明の一形態に係るプログラムは、画像に含まれる対象物の認証に用いられる特徴点を検出する処理と、特徴点における所定の処理点のぼけ度である第1のぼけ度を計算する処理と、第1のぼけ度を用いて対象物のぼけ度である第2のぼけ度を推定する処理とをコンピュータに実行させる

Claims (10)

  1. 画像に含まれる対象物の認証に用いられる特徴点を検出する特徴点検出手段と、
    前記特徴点における所定の処理点のぼけ度である第1のぼけ度を計算するぼけ度計算手段と、
    前記第1のぼけ度を用いて前記対象物のぼけ度である第2のぼけ度を推定するぼけ度推定手段と
    を含む画像処理装置。
  2. 前記特徴点から前記所定の処理点を選択する処理点選択手段を、
    さらに含む請求項1に記載の画像処理装置。
  3. 前記処理点が、前記対象物に含まれる部分品の端点である
    請求項1又は2に記載に画像処理装置。
  4. 前記処理点が、前記処理点の少なくとも一部を結んだ線分の分割点、及び、前記線分を延長した延長線上の点の少なくともどちらか一つをさらに含む
    請求項3に記載の画像処理装置。
  5. 前記ぼけ度計算手段が、前記第1のぼけ度として、前記処理点を中心として上下左右それぞれ所定数の画素までの領域の画素と前記処理点との絶対値和を算出し、所定の閾値より大きい前記絶対値和の総和を算出し、
    前記ぼけ度推定手段が、前記第2のぼけ度として、前記第1のぼけ度の少なくとも一部の平均値、中央値、又は総和を算出する
    請求項1ないし4のいずれか1項に記載の画像処理装置。
  6. 前記対象物の位置、大きさ、角度、及び向きの少なくとも一つにおいて前記対象物を正規化した正規化画像を生成する正規化手段をさらに含み、
    前記処理点が、前記正規化画像に含まる点である
    請求項1ないし5のいずれか1項に記載の画像処理装置。
  7. 前記正規化手段が、
    正規化の基準となる所定の基準特徴点を保持し、
    前記特徴点と前記基準特徴点とを用いて前記正規化画像を生成する
    請求項6に記載の画像処理装置。
  8. 前記処理点が、前記正規化画像における予め設定された位置の点である
    請求項6又は7に記載の画像処理装置。
  9. 画像に含まれる対象物の認証に用いられる特徴点を検出し、
    前記特徴点における所定の処理点のぼけ度である第1のぼけ度を計算し、
    前記第1のぼけ度を用いて前記対象物のぼけ度である第2のぼけ度を推定する
    画像処理方法。
  10. 画像に含まれる対象物の認証に用いられる特徴点を検出する処理と、
    前記特徴点における所定の処理点のぼけ度である第1のぼけ度を計算する処理と、
    前記第1のぼけ度を用いて前記対象物のぼけ度である第2のぼけ度を推定する処理と
    をコンピュータに実行させるプログラムをコンピュータ読み取り可能に記録する記録媒体。
JP2019559918A 2017-12-20 2017-12-20 画像処理装置、画像処理方法、及び、プログラム Active JP6885474B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/045633 WO2019123554A1 (ja) 2017-12-20 2017-12-20 画像処理装置、画像処理方法、及び、記録媒体

Publications (2)

Publication Number Publication Date
JPWO2019123554A1 true JPWO2019123554A1 (ja) 2020-12-03
JP6885474B2 JP6885474B2 (ja) 2021-06-16

Family

ID=66994525

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019559918A Active JP6885474B2 (ja) 2017-12-20 2017-12-20 画像処理装置、画像処理方法、及び、プログラム

Country Status (3)

Country Link
US (1) US11462052B2 (ja)
JP (1) JP6885474B2 (ja)
WO (1) WO2019123554A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111368758B (zh) * 2020-03-09 2023-05-23 苏宁云计算有限公司 一种人脸模糊度检测方法、装置、计算机设备及存储介质
US20230094984A1 (en) * 2020-03-30 2023-03-30 Nec Corporation Information processing device, system, method, and non-transitory computer-readablemedium storing program
CN112085701B (zh) * 2020-08-05 2024-06-11 深圳市优必选科技股份有限公司 一种人脸模糊度检测方法、装置、终端设备及存储介质
CN116051390B (zh) * 2022-08-15 2024-04-09 荣耀终端有限公司 运动模糊程度检测方法和设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006157427A (ja) * 2004-11-29 2006-06-15 Seiko Epson Corp 画像情報の評価方法、画像情報の評価プログラム及び画像情報評価装置
JP2010079446A (ja) * 2008-09-24 2010-04-08 Sony Corp 電子機器、ぼけ画像選別方法及びプログラム
JP2010217954A (ja) * 2009-03-13 2010-09-30 Sony Corp 画像処理装置および方法、学習装置および方法、並びに、プログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102714694B (zh) * 2010-06-04 2015-08-19 松下电器(美国)知识产权公司 图像处理装置、图像处理方法、集成电路、程序
US8532421B2 (en) * 2010-11-12 2013-09-10 Adobe Systems Incorporated Methods and apparatus for de-blurring images using lucky frames
JP6075295B2 (ja) * 2011-12-12 2017-02-08 日本電気株式会社 辞書作成装置、画像処理装置、画像処理システム、辞書作成方法、画像処理方法及びプログラム
US9129185B1 (en) * 2012-05-21 2015-09-08 The Boeing Company System and method for reducing image clutter
AU2013263760A1 (en) * 2013-11-28 2015-06-11 Canon Kabushiki Kaisha Method, system and apparatus for determining a depth value of a pixel
US9911395B1 (en) * 2014-12-23 2018-03-06 Amazon Technologies, Inc. Glare correction via pixel processing
US9898674B2 (en) * 2015-12-10 2018-02-20 International Business Machines Corporation Spoof detection for facial recognition

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006157427A (ja) * 2004-11-29 2006-06-15 Seiko Epson Corp 画像情報の評価方法、画像情報の評価プログラム及び画像情報評価装置
JP2010079446A (ja) * 2008-09-24 2010-04-08 Sony Corp 電子機器、ぼけ画像選別方法及びプログラム
JP2010217954A (ja) * 2009-03-13 2010-09-30 Sony Corp 画像処理装置および方法、学習装置および方法、並びに、プログラム

Also Published As

Publication number Publication date
WO2019123554A1 (ja) 2019-06-27
US20210174062A1 (en) 2021-06-10
JP6885474B2 (ja) 2021-06-16
US11462052B2 (en) 2022-10-04

Similar Documents

Publication Publication Date Title
JP6885474B2 (ja) 画像処理装置、画像処理方法、及び、プログラム
US9747493B2 (en) Face pose rectification method and apparatus
US9881204B2 (en) Method for determining authenticity of a three-dimensional object
CN107948517B (zh) 预览画面虚化处理方法、装置及设备
US10304164B2 (en) Image processing apparatus, image processing method, and storage medium for performing lighting processing for image data
JP6125188B2 (ja) 映像処理方法及び装置
RU2607774C2 (ru) Способ управления в системе захвата изображения, устройство управления и машиночитаемый носитель данных
JP2020517027A (ja) 顔画像品質を決定する方法および装置、電子機器ならびにコンピュータ記憶媒体
CN110807427B (zh) 一种视线追踪方法、装置、计算机设备和存储介质
US11210842B2 (en) Image processing apparatus, image processing method and storage medium
JP6822482B2 (ja) 視線推定装置、視線推定方法及びプログラム記録媒体
KR20230110618A (ko) 영상 보정 방법, 장치 및 시스템, 전자 장치
EP3198522A1 (en) A face pose rectification method and apparatus
JPWO2019003973A1 (ja) 顔認証装置、顔認証方法およびプログラム
US12033429B2 (en) Image processing device of determining authenticity of object, image processing method of determining authenticity of object, and storage medium storing program of determining authenticity of object
JP2018081402A (ja) 画像処理装置、画像処理方法、及びプログラム
JP7312026B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP6276713B2 (ja) 画像データ処理方法、画像データ処理装置および画像データ処理プログラム
JP6098133B2 (ja) 顔構成部抽出装置、顔構成部抽出方法及びプログラム
JP5727969B2 (ja) 位置推定装置、方法、及びプログラム
EP3699865B1 (en) Three-dimensional face shape derivation device, three-dimensional face shape deriving method, and non-transitory computer readable medium
JPWO2018179119A1 (ja) 映像解析装置、映像解析方法およびプログラム
US10346680B2 (en) Imaging apparatus and control method for determining a posture of an object
JP6302427B2 (ja) 画像データ処理方法、画像データ処理装置および画像データ処理プログラム
JP7103443B2 (ja) 情報処理装置、情報処理方法、およびプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200519

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200519

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210413

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210426

R150 Certificate of patent or registration of utility model

Ref document number: 6885474

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150