JP2020009291A - Face image selection device - Google Patents

Face image selection device Download PDF

Info

Publication number
JP2020009291A
JP2020009291A JP2018131382A JP2018131382A JP2020009291A JP 2020009291 A JP2020009291 A JP 2020009291A JP 2018131382 A JP2018131382 A JP 2018131382A JP 2018131382 A JP2018131382 A JP 2018131382A JP 2020009291 A JP2020009291 A JP 2020009291A
Authority
JP
Japan
Prior art keywords
face
face image
information
unit
selection device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018131382A
Other languages
Japanese (ja)
Inventor
荒井 結子
Yuiko Arai
結子 荒井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2018131382A priority Critical patent/JP2020009291A/en
Publication of JP2020009291A publication Critical patent/JP2020009291A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Input (AREA)
  • Image Analysis (AREA)

Abstract

To provide a face image selection device capable of selecting a face image with little effect of glasses from multiple images for face authentication which are face images oriented in an appropriate direction.SOLUTION: The face image selection device includes: a face orientation estimation part 12 that estimates the angle of the face direction in the user's face image captured by a camera 100 and generates a piece of face orientation information; an overexposure information generation part 13 that generates a piece of overexposure information representing the percentage of overexposed areas due to the reflection of glasses in the face image; and a face image selection part 15 that selects a face image that satisfies the predetermined condition for the face orientation information and the overexposure information.SELECTED DRAWING: Figure 1

Description

本開示は、人の顔画像を選択する顔画像選択装置に関する。   The present disclosure relates to a face image selection device that selects a human face image.

個人認証の方法として、顔画像に基づき認証する顔認証技術が普及している。顔認証技術では、認証に用いるための顔画像をあらかじめ登録しておくことが必要となる。   As an individual authentication method, a face authentication technology for performing authentication based on a face image has been widely used. In the face authentication technology, it is necessary to register a face image to be used for authentication in advance.

顔認証技術としては、顔画像中において目尻、口角等の特徴点を抽出し、特徴点間の距離、特徴点を含む周辺領域の画像特徴量等に基づいて認証することが一般的である。従って、顔認証に用いられる顔画像としては、顔の特徴点が明瞭な画像が望ましい。特徴点が明瞭な画像は、顔画像を撮影するカメラに対してユーザの顔が適切な向きを向いているときに得られやすい。適切な向きを向いた顔画像を撮影する技術として、例えば特許文献1に開示された技術がある。   As a face authentication technique, it is general to extract a feature point such as an outer corner of the eye or a corner of a mouth in a face image and perform authentication based on a distance between the feature points, an image feature amount of a peripheral region including the feature point, and the like. Therefore, as a face image used for face authentication, an image in which feature points of the face are clear is desirable. An image with clear feature points is likely to be obtained when the user's face is appropriately oriented with respect to the camera that captures the face image. As a technique for photographing a face image facing an appropriate direction, for example, there is a technique disclosed in Patent Document 1.

特許文献1には、以下のような技術が開示されている。人物の顔画像を解析して特徴点として目と瞳を検出し、検出された目と瞳に基づいて算出された目位置パラメータと瞳位置パラメータとの差を目標値と比較して顔の向きを判定する。撮影時に人物の顔の向きを判定し、撮影不可と判定したときは人物に矯正内容を伝達することにより、適正な向きの顔写真が得られる。   Patent Document 1 discloses the following technology. Analyzing the face image of a person, detecting the eyes and pupils as feature points, comparing the difference between the eye position parameter and the pupil position parameter calculated based on the detected eyes and pupils with a target value, and detecting the face direction Is determined. The direction of the face of the person is determined at the time of photographing, and when it is determined that photographing is impossible, the correction content is transmitted to the person, so that a face photograph with the proper direction can be obtained.

特開2006−268248号公報JP 2006-268248 A

ところで、顔認証に用いる顔画像を撮影する際、例えばユーザがメガネを掛けている場合に、光源の位置によっては、反射によりメガネに対応する位置が白く光った状態(メガネに対応する位置の画素値が飽和した白飛びの状態)の顔画像が撮影されることがある。このような顔画像では正確な顔認証が困難である。   By the way, when capturing a face image used for face authentication, for example, when the user wears glasses, depending on the position of the light source, the position corresponding to the glasses shines white due to reflection (the pixel at the position corresponding to the glasses). In some cases, a face image with a value of saturated whiteout is captured. With such a face image, accurate face authentication is difficult.

本開示の目的は、複数枚撮影した顔認証用の画像の中から、メガネの反射の影響が小さい顔画像を選択することができる顔画像選択装置を提供することである。   An object of the present disclosure is to provide a face image selection device capable of selecting a face image having a small influence of reflection of glasses from a plurality of face authentication images captured.

本開示の顔画像選択装置は、撮像装置で撮影されたユーザの顔画像における顔向きの角度を示す顔向き情報を取得する顔向き情報取得部と、前記顔画像における、メガネの反射による白飛びの度合いを示す白飛び情報を生成する白飛び情報生成部と、前記顔向き情報と前記白飛び情報とが所定の条件を満たす顔画像を選択する顔画像選択部と、を有する。   A face image selection device according to an embodiment of the present disclosure includes a face direction information acquisition unit that acquires face direction information indicating an angle of a face direction in a user's face image captured by an imaging device, and overexposure due to reflection of glasses in the face image. And a face image selection unit that selects a face image in which the face orientation information and the whiteout information satisfy predetermined conditions.

本発明によれば、複数枚撮影した顔認証用の画像の中から、メガネの反射の影響が小さい顔画像を選択することができる。   ADVANTAGE OF THE INVENTION According to this invention, the face image with little influence of the reflection of glasses can be selected from the several images for face authentication which were image | photographed.

本開示の実施の形態に係る顔画像選択装置の構成例を示す図1 is a diagram illustrating a configuration example of a face image selection device according to an embodiment of the present disclosure. 顔向き角度について説明するための図Diagram for explaining face angle 白飛び情報について説明するための図Diagram for explaining whiteout information 顔向き指示部により指示される所定角度範囲について説明するための図FIG. 7 is a diagram for explaining a predetermined angle range instructed by a face direction instructing unit; 顔画像選択装置の顔画像選択処理の第1の動作例について説明するためのフローチャートFlow chart for describing a first operation example of a face image selection process of the face image selection device 顔画像選択装置の顔画像選択処理の第1の動作例について説明するためのフローチャートFlow chart for describing a first operation example of a face image selection process of the face image selection device 顔画像選択装置の顔画像選択処理の第2の動作例について説明するためのフローチャートFlowchart for describing a second operation example of the face image selection process of the face image selection device 顔画像選択装置の各機能を、プログラムにより実現するコンピュータのハードウェア構成を例示した図The figure which illustrated the hardware constitutions of the computer which implement | achieves each function of a face image selection device by a program.

以下、本開示の各実施の形態について図面を参照して詳細に説明する。ただし、必要以上に詳細な説明、例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明等は省略する場合がある。なお、以下の説明および参照される図面は、当業者が本開示を理解するために提供されるものであって、本開示の請求の範囲を限定するためのものではない。   Hereinafter, each embodiment of the present disclosure will be described in detail with reference to the drawings. However, an unnecessary detailed description, for example, a detailed description of a well-known matter or a redundant description of substantially the same configuration may be omitted. The following description and the drawings referred to are provided for those skilled in the art to understand the present disclosure, and are not intended to limit the scope of the present disclosure.

[構成例]
図1は、本開示の実施の形態に係る顔画像選択装置10の構成例を示す図である。図1に示すように、顔画像選択装置10は、顔画像取得部11、顔向き推定部12、白飛び情報生成部13、評価関数値算出部14、顔画像選択部15、顔向き指示部16、及び処理制御部17を有する。
[Configuration example]
FIG. 1 is a diagram illustrating a configuration example of a face image selection device 10 according to an embodiment of the present disclosure. As shown in FIG. 1, the face image selecting device 10 includes a face image obtaining unit 11, a face direction estimating unit 12, a whiteout information generating unit 13, an evaluation function value calculating unit 14, a face image selecting unit 15, a face direction instructing unit. 16 and a processing control unit 17.

顔画像取得部11は、顔画像選択装置10の外部に設けられたカメラ100がユーザの顔を撮影して生成した顔画像を取得する。カメラ100は撮像素子(図示せず)に入射した可視光や赤外光に基づいて画像を撮影する。カメラ100は、本開示の撮像装置の一例である。なお、カメラ100は、カメラ100の近傍に設けられた光源から発せられる赤外光等の反射光に基づいて画像を撮影してもよい。また、カメラ100が顔画像選択装置10の外部に設けられるのではなく、顔画像選択装置10にカメラが内蔵されていてもよい。   The face image acquisition unit 11 acquires a face image generated by the camera 100 provided outside the face image selection device 10 by photographing a user's face. The camera 100 captures an image based on visible light or infrared light incident on an image sensor (not shown). The camera 100 is an example of an imaging device according to the present disclosure. The camera 100 may capture an image based on reflected light such as infrared light emitted from a light source provided near the camera 100. Further, instead of providing the camera 100 outside the face image selection device 10, the camera may be built in the face image selection device 10.

顔向き推定部12は、顔画像取得部11が取得した顔画像に写っているユーザの顔を抽出し、ユーザの顔が向いている方向(以下、顔向きと記載する)を推定する。顔向き推定部12が顔画像に基づいてユーザの顔向きを推定する方法としては、例えば機械学習による方法がある。機械学習による顔向き推定方法とは、顔画像と当該顔画像に写っている顔の顔向きを大量に学習させることによって得られたモデルに基づいて画像内に写ったユーザの顔向きを推定する方法である。   The face direction estimating unit 12 extracts the user's face in the face image acquired by the face image acquiring unit 11, and estimates the direction in which the user's face is facing (hereinafter, referred to as the face direction). As a method in which the face direction estimating unit 12 estimates the user's face direction based on the face image, for example, there is a method based on machine learning. The face direction estimating method by machine learning is to estimate a user's face direction in an image based on a model obtained by learning a lot of face directions of a face image and a face in the face image. Is the way.

また、顔向き推定部12は、推定結果に基づいて、顔画像における顔が向いている方向に関する情報である顔向き情報を取得する。顔向き情報とは、例えばユーザがカメラ100に正対している状態の顔向きを基準とした場合の、画像に写る顔の向きを例えば角度(以下、顔向き角度と記載する)で示す情報である。顔向き推定部12は、本開示の顔向き情報取得部の一例である。   In addition, the face direction estimating unit 12 acquires face direction information, which is information on the direction of the face in the face image, based on the estimation result. The face direction information is information indicating, for example, an angle (hereinafter, referred to as a face direction angle) of a face direction in an image based on a face direction in which the user is directly facing the camera 100. is there. The face direction estimating unit 12 is an example of a face direction information acquiring unit according to the present disclosure.

図2は、顔向き角度について説明するための図である。図2は、ユーザの頭とカメラ100との位置関係を、ユーザの頭上から俯瞰した図である。図2においては、「顔向き」と示した矢印の方向がユーザの顔が向いている方向である。この方向と、ユーザから見てカメラ100がある方向とのなす角が顔向き角度である。   FIG. 2 is a diagram for explaining a face direction angle. FIG. 2 is a diagram in which the positional relationship between the user's head and the camera 100 is viewed from above the user's head. In FIG. 2, the direction of the arrow indicating “face direction” is the direction in which the user's face is facing. The angle between this direction and the direction in which the camera 100 is viewed from the user is the face direction angle.

なお、図2においては、ユーザの頭の上下方向を軸とした左右回転方向(ヨー方向)における顔向き角度のみ考慮されているが、本開示はこれに限定されない。本開示の顔向き角度としては、例えばユーザの頭の左右方向を軸とした上下回転方向(ピッチ方向)における顔向き角度、またはユーザの頭の前後方向を軸とした左右回転方向(ロール方向)における顔向き角度であってもよい。   In FIG. 2, only the face direction angle in the left-right rotation direction (yaw direction) around the vertical direction of the user's head is considered, but the present disclosure is not limited to this. As the face direction angle of the present disclosure, for example, the face direction angle in the vertical rotation direction (pitch direction) around the left-right direction of the user's head, or the left-right rotation direction (roll direction) around the front-rear direction of the user's head May be the face direction angle.

白飛び情報生成部13は、顔画像取得部11が取得した顔画像における白飛びの度合いを示す白飛び情報を生成する。なお、白飛びとは、メガネ等により反射した光がカメラ100の撮像素子に入射することで、撮像された画像において真っ白(輝度値が最大付近)の画素が生じ、その部分の階調が失われる現象である。また、白飛びの度合いとは、例えば顔画像を構成する全画素の内、輝度値が最大値付近の所定値以上である画素が占める割合である。例えば256階調の場合、輝度が255(最大)である画素が白飛びしていると判断されればよい。また、白飛びと判断される輝度に幅を持たせ、例えば輝度が245〜255である画素を白飛びと判断してもよい。   The whiteout information generation unit 13 generates whiteout information indicating the degree of whiteout in the face image acquired by the face image acquisition unit 11. Note that overexposure means that light reflected by eyeglasses or the like is incident on the image sensor of the camera 100, so that a white pixel (having a luminance value near the maximum) occurs in the captured image, and the gradation of that portion is lost. It is a phenomenon that is done. The degree of overexposure is, for example, the ratio of pixels occupied by a pixel whose luminance value is equal to or higher than a predetermined value near the maximum value among all pixels constituting the face image. For example, in the case of 256 gradations, it is only necessary to determine that a pixel having a luminance of 255 (maximum) is overexposed. Alternatively, a range may be provided for the luminance determined to be overexposed, and, for example, a pixel having a luminance of 245 to 255 may be determined to be overexposed.

図3は、白飛び情報について説明するための図である。図3に示すように顔画像の中に白飛び領域が存在する場合、白飛び情報生成部13は、白飛び領域が占める画素数を顔画像全体の画素数で除して白飛び領域が占める割合(以下、白飛び割合と記載する)を算出することで、算出した白飛び割合を含む白飛び情報を生成する。   FIG. 3 is a diagram for explaining the whiteout information. When the overexposed area exists in the face image as shown in FIG. 3, the overexposed information generation unit 13 divides the number of pixels occupied by the overexposed area by the number of pixels of the entire face image and occupies the overexposed area. By calculating a ratio (hereinafter, referred to as a whiteout ratio), whiteout information including the calculated whiteout ratio is generated.

メガネに反射した光によって白飛びが発生した顔画像では、目や瞳に対応する画素の階調が失われることがある。このため、上記説明した顔向き推定部12に用いられる顔向き推定方法は、目や瞳に対応する特徴点を用いない方法であることが望ましい。   In a face image in which overexposure occurs due to light reflected on glasses, the gradation of pixels corresponding to eyes and pupils may be lost. For this reason, it is desirable that the face direction estimating method used in the face direction estimating unit 12 described above does not use the feature points corresponding to the eyes and the pupils.

評価関数値算出部14は、顔画像取得部11が取得した顔画像が、顔認証に用いられる顔画像としてどの程度適切であるかを示す評価関数を定義する。評価関数は、顔向き推定部12が推定した顔向き角度に関する顔向き情報と、白飛び情報生成部13が生成した白飛びに関する白飛び情報と、をパラメータとして定義される関数である。評価関数値算出部14は、本開示の評価値算出部の一例である。   The evaluation function value calculation unit 14 defines an evaluation function indicating how appropriate the face image acquired by the face image acquisition unit 11 is as a face image used for face authentication. The evaluation function is a function defined by using, as parameters, face direction information regarding the face direction angle estimated by the face direction estimating unit 12 and overexposure information regarding overexposure generated by the overexposed information generating unit 13. The evaluation function value calculation unit 14 is an example of an evaluation value calculation unit according to the present disclosure.

具体的には、評価関数fは例えば、以下の式(1)で与えられる。
=A×|d|/360°+B×p (1)
Specifically, the evaluation function fv is given, for example, by the following equation (1).
f v = A × | d f | / 360 ° + B × p w (1)

ただし、式(1)において、dはカメラ方向を0とした場合の顔向き角度、pは顔画像全体の画素数に対する白飛び画素数の割合である。また、係数A及びBは重み付けのための係数である。このような評価関数fの値は、例えばユーザの顔が完全にカメラ100に正対しており(|d|=0)、かつ白飛び画素数が0(p=0)である場合に最小(0)となる。すなわち、評価関数fの値が0に近いほど、その顔画像は、より顔認証に適切な画像である。なお、評価関数fの値は、本開示の評価値の一例である。 However, in equation (1), df is the face direction angle when the camera direction is set to 0, and pw is the ratio of the number of overexposed pixels to the number of pixels of the entire face image. The coefficients A and B are weighting coefficients. The value of such evaluation function f v, for example the face of the user is directly facing the full camera 100 when (| = 0 | d f) , and overexposure pixel number is 0 (p w = 0) Becomes the minimum (0). That is, the closer to the value of the evaluation function f v is 0, the face image is an appropriate image more face recognition. The value of the evaluation function f v is an example of the evaluation value of the present disclosure.

顔画像選択部15は、複数の顔画像から、顔向き情報と白飛び情報とが所定の条件を満たす顔画像を選択し、外部に出力する。外部とは、例えば顔画像選択装置10が撮影した顔画像を用いて顔認証する顔認証装置等である。   The face image selecting unit 15 selects a face image in which the face direction information and the whiteout information satisfy predetermined conditions from a plurality of face images, and outputs the selected face image to the outside. The external is, for example, a face authentication device that performs face authentication using a face image captured by the face image selection device 10.

顔向き情報と白飛び情報とが所定の条件を満たす顔画像とは、具体的には、上記説明した評価関数の値ができるだけ小さい顔画像である。評価関数の値ができるだけ小さい顔画像とは、カメラ100の方向から顔向きがそれほど離れておらず、かつ白飛び画素数の割合がある程度小さい顔画像である。上記説明したように、評価関数fの値は、例えばユーザの顔が完全にカメラ100に正対しており(d=0)、かつ白飛び画素数が0(p=0)である場合に最小(0)となり、この値を示す顔画像が顔認証に最も適した画像である。 The face image in which the face direction information and the overexposed information satisfy the predetermined condition is, specifically, a face image in which the value of the evaluation function described above is as small as possible. The face image whose evaluation function value is as small as possible is a face image in which the face direction is not so far from the direction of the camera 100 and the ratio of the number of overexposed pixels is small to some extent. As explained above, the value of the evaluation function f v, for example the face of the user is directly facing the full camera 100 (d f = 0), and overexposure pixel count is 0 (p w = 0) In this case, the value becomes the minimum (0), and the face image indicating this value is the image most suitable for face authentication.

しかしながら、例えば光源がカメラ100の近くに設けられている場合には、ユーザの顔がカメラ100に正対すればするほど顔画像において白飛びが生じやすい。このため、顔向き角度dを小さくしようとすると白飛び割合pが大きくなり、白飛び割合pを小さくしようとすると顔向き角度dが大きくなる。このように顔向き角度dと白飛び割合pとがトレードオフの関係にある場合には、評価関数fの値を0にすることは困難である。このような場合、顔画像選択部15は、評価関数fの値ができるだけ0に近い顔画像を選択する。 However, for example, when the light source is provided near the camera 100, the more the user's face faces the camera 100, the more likely overexposure occurs in the face image. For this reason, overexposed proportion p w increases when you try to reduce the face angle d f, overexposed when you try to reduce the proportion p w face angle d f increases. In such a case where is the face angle d f and overexposed proportion p w there is a trade-off, the value of the evaluation function f v is difficult to 0. In this case, the face image selecting section 15 selects the face image as close to 0 can the value of the evaluation function f v.

顔向き指示部16は、顔向き推定部12が生成した顔向き情報に基づいて、ユーザに対して顔向きを指示する。顔向き指示部16は、例えば音声等によってユーザに指示する。これは、例えば小型ディスプレイ等の表示装置を用いて指示すると、ユーザの目が表示装置の方を向いてしまい、顔認証に適切な画像が得られにくいからである。従って、本開示では、ユーザの視線や顔向きに影響を及ぼさない指示方法であればよく、必ずしも音声を用いなくともよい。具体的には、例えばユーザの左右に光源を設け、向かせたい方向の光源を発光させる等の方法を採用してもよい。   The face direction instructing unit 16 instructs the user on the face direction based on the face direction information generated by the face direction estimating unit 12. The face direction instructing unit 16 instructs the user by, for example, voice or the like. This is because, for example, when an instruction is given using a display device such as a small display, the user's eyes turn to the display device, and it is difficult to obtain an image suitable for face authentication. Therefore, in the present disclosure, any instruction method that does not affect the user's line of sight or face direction may be used, and it is not necessary to use voice. Specifically, for example, a method may be adopted in which light sources are provided on the left and right sides of the user, and the light sources in the direction to be directed emit light.

顔向き指示部16は、ユーザに対して、カメラ100と顔を正対させるように指示する。より具体的には、顔向き指示部16は、ユーザに対して、顔向き角度が所定角度範囲内に収まるように指示する。   The face direction instructing unit 16 instructs the user to face the camera 100 and the face. More specifically, the face direction instructing unit 16 instructs the user such that the face direction angle falls within a predetermined angle range.

図4は、顔向き指示部16により指示される所定角度範囲について説明するための図である。図4に示すように、所定角度範囲は、ユーザの顔がカメラ100に正対する方向を中心とした角度範囲である。すなわち、顔向き角度が所定角度範囲内に収まっていれば、ユーザの顔は概ねカメラに正対しており、カメラ100によって顔認証に適切な画像が撮影可能であることになる。なお、所定角度範囲の具体例としては、例えばカメラ100方向を0°として±5°とすればよい。   FIG. 4 is a diagram for describing a predetermined angle range specified by the face direction specifying unit 16. As shown in FIG. 4, the predetermined angle range is an angle range centered on the direction in which the user's face faces the camera 100. That is, if the face orientation angle falls within the predetermined angle range, the user's face is almost directly facing the camera, and the camera 100 can take an image suitable for face authentication. Note that a specific example of the predetermined angle range may be, for example, ± 5 ° with the camera 100 direction being 0 °.

処理制御部17は、顔画像選択装置10の上記説明した各構成における処理について全体的に制御する。   The processing control unit 17 controls the entire processing of the facial image selection device 10 in each of the above-described configurations.

[第1の動作例]
次に、上記説明した構成を有する顔画像選択装置10の顔画像選択処理について説明する。図5及び図6は、顔画像選択装置10の顔画像選択処理の第1の動作例について説明するためのフローチャートである。
[First operation example]
Next, a face image selecting process of the face image selecting apparatus 10 having the above-described configuration will be described. FIGS. 5 and 6 are flowcharts for describing a first operation example of the face image selection process of the face image selection device 10.

図5において、ステップS1からステップS6までの処理は、ステップS7においてYESが選択されるまで繰り返される。   In FIG. 5, the processing from step S1 to step S6 is repeated until YES is selected in step S7.

まず、顔向き指示部16は、ユーザに対して、顔向きが所定角度範囲(図4参照)内となるように指示する(ステップS1)。そして、顔画像取得部11は、カメラ100が撮影したユーザの顔画像を取得する(ステップS2)。なお、ステップS2において顔画像取得部11は、ステップS1の指示毎に1枚の顔画像を取得してもよいし、カメラ100が連続して複数の顔画像を撮影し続けている場合には、一度に複数枚の顔画像を取得してもよい。   First, the face direction instructing unit 16 instructs the user such that the face direction is within a predetermined angle range (see FIG. 4) (step S1). Then, the face image acquisition unit 11 acquires a face image of the user captured by the camera 100 (Step S2). In step S2, the face image acquisition unit 11 may acquire one face image for each instruction in step S1, or when the camera 100 continuously captures a plurality of face images, Alternatively, a plurality of face images may be acquired at one time.

顔向き推定部12は、取得された顔画像における顔向き角度を推定し、顔向き情報を生成する(ステップS3)。顔向き推定部12は、推定された顔向き角度が所定角度範囲内であるか否かを判定する(ステップS4)。顔向き角度が所定角度範囲内であった場合(ステップS4:YES)、処理はステップS5に進み、そうでない場合(ステップS4:NO)、処理はステップS1に戻る。   The face direction estimating unit 12 estimates a face direction angle in the acquired face image and generates face direction information (step S3). The face direction estimating unit 12 determines whether or not the estimated face direction angle is within a predetermined angle range (Step S4). If the face orientation angle is within the predetermined angle range (step S4: YES), the process proceeds to step S5, otherwise (step S4: NO), the process returns to step S1.

ステップS4までの処理により、顔向き角度が確実に所定角度範囲内に入っている顔画像が得られる。次に、白飛び情報生成部13は、顔画像の全画素数に対する白飛び画素数の割合を算出し、白飛び情報を生成する(ステップS5)。さらに、評価関数値算出部14は、顔向き情報と白飛び情報とに基づいて定義された評価関数値を算出する(ステップS6)。   By the processing up to step S4, a face image whose face direction angle is surely within the predetermined angle range can be obtained. Next, the overexposed information generation unit 13 calculates the ratio of the number of overexposed pixels to the total number of pixels of the face image, and generates overexposed information (step S5). Further, the evaluation function value calculation unit 14 calculates an evaluation function value defined based on the face direction information and the overexposed information (Step S6).

そして、処理制御部17は、ステップS1からステップS6までの処理が、既に規定回数繰り返されたか否かを判定する(ステップS7)。規定回数については特に限定しないが、例えば3回程度の回数である。既に規定回数繰り返されていた場合(ステップS7:YES)、処理は図6のステップS11に進む(図5及び図6のR1を参照)。一方、規定回数繰り返されていなかった場合(ステップS7:NO)、処理はステップS1に戻る。   Then, the processing control unit 17 determines whether or not the processing from step S1 to step S6 has already been repeated a specified number of times (step S7). The prescribed number is not particularly limited, but is, for example, about three times. If it has been repeated the specified number of times (step S7: YES), the process proceeds to step S11 in FIG. 6 (see R1 in FIGS. 5 and 6). On the other hand, if it has not been repeated the specified number of times (step S7: NO), the process returns to step S1.

このようにステップS1からステップS6までの処理が規定回数繰り返される間、顔向きが所定角度範囲内であるとともに、白飛び情報が生成され、評価関数値が算出された顔画像が複数枚得られる。個々の顔画像は、例えば図1に図示しない記憶部等にそれぞれ格納される。この記憶部は、顔画像選択装置10の外部に設けられてもよいし、顔画像選択装置10に内蔵されていてもよい。このような処理により、それぞれ顔向きや白飛び度合いが少しずつ異なる複数の顔画像が得られる。   As described above, while the processing from step S1 to step S6 is repeated a specified number of times, the face direction is within the predetermined angle range, whiteout information is generated, and a plurality of face images for which the evaluation function value is calculated are obtained. . Each face image is stored in, for example, a storage unit not shown in FIG. This storage unit may be provided outside the face image selection device 10 or may be built in the face image selection device 10. Through such processing, a plurality of face images each having a slightly different face direction and degree of overexposure are obtained.

処理制御部17は、これらの複数枚の顔画像のうち、評価関数値が所定の閾値以下である顔画像があるか否かを判定する(ステップS11)。所定の閾値は、顔認証に適切な顔画像であるか否かを判定するための閾値であり、顔画像選択装置10が選択した顔画像を用いて顔認証する顔認証装置の認証精度によって決定される値である。評価関数値が所定の閾値以下である画像がない場合(ステップS11:NO)、処理はステップS12に進み、評価関数値が所定の閾値以下である画像が存在する場合(ステップS11:YES)、処理はステップS14に進む。   The processing control unit 17 determines whether or not there is a face image whose evaluation function value is equal to or less than a predetermined threshold value among the plurality of face images (step S11). The predetermined threshold is a threshold for determining whether or not the face image is appropriate for face authentication, and is determined by the authentication accuracy of the face authentication device that performs face authentication using the face image selected by the face image selection device 10. Value. When there is no image whose evaluation function value is equal to or smaller than the predetermined threshold (step S11: NO), the process proceeds to step S12, and when there is an image whose evaluation function value is equal to or smaller than the predetermined threshold (step S11: YES), The process proceeds to step S14.

処理制御部17は、顔画像選択装置10の各構成に対して、ステップS1からステップS6の処理が繰り返される回数である規定回数を増大させる、及び/または、顔向き指示部16に対して、所定角度範囲を増大させる。そして、処理制御部17は、規定回数及び/または所定角度範囲を増大させた結果、それぞれの値が所定の限界値以上となったか否かを判定する(ステップS13)。規定回数及び/または所定角度範囲が所定の限界値以上となった場合(ステップS13:YES)、処理はステップS14に進み、そうでない場合(ステップS13:NO)、図5のステップS1に戻る(図5及び図6のR2を参照)。   The processing control unit 17 increases the specified number of times that the processing of steps S1 to S6 is repeated for each component of the face image selection device 10 and / or causes the face direction instruction unit 16 to: The predetermined angle range is increased. Then, the processing control unit 17 determines whether each value has become equal to or more than a predetermined limit value as a result of increasing the specified number of times and / or the predetermined angle range (Step S13). If the specified number of times and / or the predetermined angle range is equal to or larger than the predetermined limit value (step S13: YES), the process proceeds to step S14, otherwise (step S13: NO), returns to step S1 in FIG. (See R2 in FIGS. 5 and 6).

なお、規定回数を増大させた場合、図5におけるステップS1からステップS6までの処理が繰り返される回数が増大する。この場合、単純に試行回数が増えるので、より適切な(評価関数値が小さい)顔画像が取得される可能性が高くなる。また、所定角度範囲を増大させた場合、図5のステップS1における顔向き指示で、顔向き指示部16がユーザに対して顔を向けさせる範囲が広くなる。この場合、ステップS2において取得される顔画像の顔向きはカメラ100の方向から多少離れた方向となるが、それまでとは顔向きが異なる方向であるため、白飛び割合が改善される可能性がある。このため、より適切な顔画像が取得される可能性が高くなる。そして、規定回数と所定角度範囲とを同時に増大させることにより、適切な顔画像が取得される可能性をさらに高めることができる。   When the specified number of times is increased, the number of times that the processing from step S1 to step S6 in FIG. 5 is repeated increases. In this case, since the number of trials simply increases, the possibility that a more appropriate face image (small evaluation function value) is obtained increases. When the predetermined angle range is increased, the range in which the face direction instruction unit 16 turns the face toward the user by the face direction instruction in step S1 of FIG. 5 is widened. In this case, the face direction of the face image acquired in step S2 is slightly away from the direction of the camera 100, but since the face direction is different from the direction up to that time, the overexposure ratio may be improved. There is. For this reason, the possibility that a more appropriate face image is acquired increases. Then, by simultaneously increasing the prescribed number of times and the predetermined angle range, it is possible to further increase the possibility of obtaining an appropriate face image.

なお、ステップS12において、処理制御部17は、必ずしも規定回数と所定角度範囲の両方を増大させずともよく、どちらか片方のみ増大させてもよい。   In step S12, the processing control unit 17 does not necessarily need to increase both the specified number of times and the predetermined angle range, and may increase only one of them.

また、ステップS13の判定に用いられる限界値とは、あらかじめ定められた規定回数及び/または所定角度範囲の最大値である。規定回数の初期値が3回である場合、例えば1度の増大分を2回とし、限界値を9回とすればよい。すなわち、1度増大された場合の規定回数は5回であり、2度増大された場合は7回であり、さらに3度増大された場合は9回となる。また、所定角度範囲の初期値が±5°である場合、例えば1度の増大分を±5°とし、限界値を±15°とすればよい。すなわち、1度増大された場合の所定角度範囲は±10°であり、さらに2度増大された場合は±15°となる。このように限界値をあらかじめ定めておくことにより、処理に時間が掛かりすぎたり、カメラ100に全く正対していない顔画像が選択されたり、といった事態を防止することができる。なお、上記例示した規定回数及び所定角度範囲の初期値及び限界値は一例であり、本開示はこれに限定されない。   Further, the limit value used for the determination in step S13 is a predetermined number of times and / or a maximum value in a predetermined angle range. When the initial value of the prescribed number of times is three, for example, the increment of one degree may be set to two and the limit value may be set to nine. That is, the prescribed number of times when increased once is five times, seven times when increased twice, and nine times when further increased three times. When the initial value of the predetermined angle range is ± 5 °, for example, the increment of one degree may be set to ± 5 ° and the limit value may be set to ± 15 °. That is, the predetermined angle range when the angle is increased once is ± 10 °, and when the angle is further increased twice, it is ± 15 °. By preliminarily setting the limit value in this way, it is possible to prevent the processing from taking too much time or selecting a face image that does not face the camera 100 at all. In addition, the initial value and the limit value of the specified number of times and the predetermined angle range exemplified above are merely examples, and the present disclosure is not limited thereto.

そして顔画像選択部15は、ここまでの処理で得られた複数の顔画像の内、評価関数値が最も小さい顔画像を選択する(ステップS14)。評価関数値が最も小さい顔画像とは、上記説明したように、顔がカメラ100に正対しており、かつ白飛びが少ない、顔認証に適した画像である。なお、ステップS14において、顔画像選択部15は、評価関数値が最も小さい顔画像を1枚のみ選択するのではなく、あらかじめ決められた枚数を選択してもよいし、評価関数値が所定の閾値以下である顔画像を全て選択してもよい。   Then, the face image selecting unit 15 selects a face image having the smallest evaluation function value from among the plurality of face images obtained by the processing so far (step S14). As described above, the face image having the smallest evaluation function value is an image suitable for face authentication, in which the face faces the camera 100 and has few overexposed areas. In step S14, the face image selecting unit 15 may select a predetermined number of face images instead of selecting only one face image having the smallest evaluation function value, or may select a predetermined number of face images. All face images that are equal to or smaller than the threshold value may be selected.

以上説明したように、顔画像選択装置10の第1の動作例によれば、ユーザの顔向き角度が確実に所定角度範囲内に入っている顔画像が取得される。そして、顔画像に含まれる白飛び画素数の割合を含む白飛び情報及び顔向き角度を含む顔向き情報に基づいて評価関数値が算出され、評価関数値が最も小さい顔画像が選択されることにより、顔認証に適切な顔画像が選択される。さらに、顔画像選択装置10に求められる顔画像の評価関数値が所定の閾値を満たさない場合、繰り返し回数や顔向き角度の範囲等の条件を変更して処理がやり直されるため、適切な顔画像を取得できる可能性が高まる。   As described above, according to the first operation example of the face image selection device 10, a face image in which the face direction angle of the user falls within the predetermined angle range is acquired without fail. Then, the evaluation function value is calculated based on the overexposure information including the ratio of the number of overexposed pixels included in the face image and the face direction information including the face direction angle, and the face image with the smallest evaluation function value is selected. As a result, a face image suitable for face authentication is selected. Furthermore, if the evaluation function value of the face image required by the face image selection device 10 does not satisfy the predetermined threshold, the process is repeated by changing conditions such as the number of repetitions and the range of the face orientation angle. Increase the likelihood of getting

[第2の動作例]
次に、顔画像選択装置10の第2の動作例について説明する。図7は、顔画像選択装置10の顔画像選択処理の第2の動作例について説明するためのフローチャートである。
[Second operation example]
Next, a second operation example of the face image selection device 10 will be described. FIG. 7 is a flowchart for describing a second operation example of the face image selection process of the face image selection device 10.

まず、顔向き指示部16は、ユーザに対して、顔向きが所定角度範囲(図4参照)内となるように指示する(ステップS21)。そして、顔画像取得部11は、カメラ100が撮影したユーザの顔画像を連続的に取得する(ステップS22)。第2の動作例では、カメラ100が所定の微少時間間隔で連続して撮影することが想定されており、ステップS22では、顔画像取得部11は、ステップS21の指示により顔向きを変化させている最中のユーザの顔画像を連続的に取得することができる。   First, the face direction instructing unit 16 instructs the user so that the face direction is within a predetermined angle range (see FIG. 4) (step S21). Then, the face image acquisition unit 11 continuously acquires the user's face image captured by the camera 100 (Step S22). In the second operation example, it is assumed that the camera 100 continuously captures images at a predetermined minute time interval. In step S22, the face image acquisition unit 11 changes the face direction according to the instruction in step S21. It is possible to continuously obtain a face image of a user who is in the presence of the user.

顔向き推定部12は、連続的に取得される全ての顔画像において、顔向き角度を推定し、顔向き情報を生成する(ステップS23)。顔向き推定部12は、それぞれの画像において、推定された顔向き角度が所定角度範囲内であるか否かを判定する(ステップS24)。顔向き角度が所定角度範囲内である顔画像については(ステップS24:YES)、処理がステップS25に進められ、そうでない場合(ステップS24:NO)、ステップS21に戻される。   The face direction estimating unit 12 estimates a face direction angle for all continuously acquired face images and generates face direction information (step S23). The face direction estimating unit 12 determines whether or not the estimated face direction angle is within a predetermined angle range in each image (step S24). If the face image has a face orientation angle within the predetermined angle range (step S24: YES), the process proceeds to step S25; otherwise (step S24: NO), the process returns to step S21.

ステップS24までの処理により、顔向き角度が確実に所定角度範囲内に入っている顔画像が複数枚得られる。次に、白飛び情報生成部13は、それぞれの顔画像において、顔画像の全画素数に対する白飛び画素数の割合を算出し、白飛び情報を生成する(ステップS25)。白飛び情報生成部13は、それぞれの顔画像において、白飛び割合が所定割合範囲内であるか否かを判定する(ステップS26)。白飛び割合が所定割合範囲内ではない顔画像については(ステップS26:NO)、処理がステップS27に進められ、そうでない場合(ステップS26:YES)、処理がステップS210に進められる。   By the processing up to step S24, a plurality of face images in which the face orientation angle is within the predetermined angle range are obtained. Next, in each face image, the whiteout information generation unit 13 calculates the ratio of the number of whiteout pixels to the total number of pixels in the face image, and generates whiteout information (step S25). The whiteout information generation unit 13 determines whether the whiteout ratio is within a predetermined ratio range in each face image (step S26). For a face image whose whiteout ratio is not within the predetermined ratio range (step S26: NO), the process proceeds to step S27; otherwise (step S26: YES), the process proceeds to step S210.

白飛び割合が所定割合範囲内ではない場合、現在処理中の顔画像は、顔画像選択装置10に求められる顔画像の適切さを満たしていないことになる。このため、以下のステップS27からステップS29において、より後に取得される顔画像の白飛び割合が改善される。白飛び情報生成部13は、連続した複数の顔画像のうち、現在処理中の顔画像における白飛び割合が、直前に処理した顔画像の白飛び割合より減少しているか否かを判定する(ステップS27)。現在処理中の顔画像の方が直前に処理した顔画像より白飛び割合が減少している場合(ステップS27:YES)、処理はステップS28に進み、そうでない場合(ステップS27:NO)、処理はステップS29に進む。   If the whiteout ratio is not within the predetermined ratio range, the face image currently being processed does not satisfy the suitability of the face image required by the face image selection device 10. Therefore, in the following steps S27 to S29, the whiteout ratio of the face image acquired later is improved. The whiteout information generation unit 13 determines whether the whiteout ratio of the face image currently being processed is smaller than the whiteout ratio of the previously processed face image among a plurality of continuous face images ( Step S27). If the whiteout ratio of the face image currently being processed is smaller than that of the previously processed face image (step S27: YES), the process proceeds to step S28; otherwise (step S27: NO), the process proceeds. Goes to step S29.

現在処理中の顔画像における白飛び割合が直前に処理した顔画像の白飛び割合より減少している場合、現状の顔向き指示(ステップS21)によって白飛び割合が徐々に改善されていることになる。このため、顔向き指示部16は、現在処理中の顔画像が撮影された時点での顔向き指示をその後も継続する(ステップS28)。そして、処理はステップS22に戻る。   If the overexposed ratio in the face image currently being processed is smaller than the overexposed ratio of the previously processed face image, the overexposed ratio is gradually improved by the current face direction instruction (step S21). Become. For this reason, the face direction instructing unit 16 continues the face direction instruction at the time when the currently processed face image is captured (step S28). Then, the process returns to step S22.

一方、現在処理中の顔画像における白飛び割合が直前に処理した顔画像の白飛び割合より減少していない場合、現状の顔向き指示(ステップS21)によって白飛び割合が悪化していることになる。このため、顔向き指示部16は、直前に処理された顔画像が撮影された時点での顔向きの指示方向に戻して改めて指示する(ステップS29)。そして、処理はステップS22に戻る。これにより、白飛び割合のそれ以上の増加を防止することができる。   On the other hand, if the overexposed ratio in the face image that is currently being processed is not less than the overexposed ratio of the previously processed face image, the overexposed ratio is deteriorating by the current face direction instruction (step S21). Become. For this reason, the face direction instructing unit 16 returns to the direction in which the face direction was instructed at the time when the face image processed immediately before was photographed, and gives an instruction again (step S29). Then, the process returns to step S22. As a result, it is possible to prevent the whiteout ratio from further increasing.

このように、ステップS27からステップS29の処理によって、より後に取得される顔画像の白飛び割合を改善することができる。   As described above, by performing the processing from step S27 to step S29, the overexposed ratio of the face image acquired later can be improved.

ステップS26において、現在処理中の顔画像における白飛び割合が所定割合範囲であると判定された場合、その画像は顔画像選択装置10に求められる顔画像の適切さを満たしていると考えられる。このため、顔画像選択部15は、その時点で最新の顔画像、すなわち白飛び割合が所定割合範囲である顔画像を選択する(ステップS210)。これにより、顔画像選択部15は、顔認証に適切な顔画像を選択することができる。   In step S26, when it is determined that the overexposed ratio in the face image currently being processed is within the predetermined ratio range, the image is considered to satisfy the appropriateness of the face image required by the face image selecting device 10. For this reason, the face image selecting unit 15 selects the latest face image at that time, that is, the face image in which the whiteout ratio is within the predetermined ratio range (step S210). Thereby, the face image selecting unit 15 can select a face image suitable for face authentication.

以上説明したように、顔画像選択装置10の第2の動作例によれば、顔向き指示によって顔向きを変化させている最中のユーザの顔画像が連続的に取得される。そして、顔向き角度が所定角度範囲内であるか否か、及び白飛び割合が所定割合範囲内であるか否かが判定され、いずれも範囲内である顔画像が顔認証用の画像として選択される。一方、白飛び割合が所定割合範囲内ではない顔画像が得られた場合には、それより後に得られる顔画像の白飛び割合を改善する。具体的には、直前に処理された顔画像と処理中の顔画像との白飛び割合の変化に基づいて、顔向き指示における指示方向を変化させることで、それより後に得られる顔画像の白飛び割合が改善される。   As described above, according to the second operation example of the face image selection device 10, the face images of the user whose face direction is being changed by the face direction instruction are continuously obtained. Then, it is determined whether or not the face direction angle is within a predetermined angle range and whether or not the overexposed ratio is within a predetermined ratio range, and a face image that is within the range is selected as a face authentication image. Is done. On the other hand, when a face image whose whiteout ratio is not within the predetermined ratio range is obtained, the whiteout ratio of the face image obtained thereafter is improved. Specifically, by changing the pointing direction in the face direction instruction based on the change in the whiteout ratio between the face image processed immediately before and the face image being processed, the whiteness of the face image obtained thereafter is changed. The jump ratio is improved.

このように、第2の動作例では、得られた顔画像における白飛び割合に基づいて、白飛び割合が改善されるように顔向き指示における指示方向が変化する。これにより、顔認証に適切な画像を速やかに選択することができる。   As described above, in the second operation example, the pointing direction in the face direction instruction is changed based on the overexposed ratio in the obtained face image so that the overexposed ratio is improved. As a result, an image suitable for face authentication can be quickly selected.

<変形例>
以上、図面を参照しながら各種の実施形態について説明したが、本開示はかかる例に限定されない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例または修正例に想到しうることは明らかであり、それらについても当然に本開示の技術的範囲に属するものと了解される。また、開示の趣旨を逸脱しない範囲において、上記実施の形態における各構成要素は任意に組み合わせてられてもよい。
<Modification>
Although various embodiments have been described with reference to the drawings, the present disclosure is not limited to such examples. It will be apparent to those skilled in the art that various changes or modifications can be made within the scope of the claims, and these naturally belong to the technical scope of the present disclosure. I understand. Further, each component in the above embodiment may be arbitrarily combined without departing from the spirit of the disclosure.

上記説明した実施の形態において、カメラ100は顔画像選択装置10の外部に設けられているとしたが、本開示はこれに限定されない。カメラ100は顔画像選択装置10が有していてもよい。   In the embodiment described above, the camera 100 is provided outside the face image selection device 10, but the present disclosure is not limited to this. The camera 100 may be included in the face image selection device 10.

上記した実施の形態において、顔向き推定部12はユーザの顔向きを推定し、その結果に基づいて顔向き情報を生成していたが、本開示はこれに限定されない。顔向き推定部12は、既に生成された顔向き情報を取得するようにしてもよい。   In the above-described embodiment, the face direction estimating unit 12 estimates the user's face direction and generates face direction information based on the result, but the present disclosure is not limited to this. The face direction estimating unit 12 may acquire the already generated face direction information.

<作用・効果>
本開示の顔画像選択装置10によれば、カメラ100で撮影されたユーザの顔画像における顔向きの角度を示す顔向き情報を取得する顔向き推定部12と、顔画像における、メガネの反射による白飛び領域の割合を示す白飛び情報を生成する白飛び情報生成部13と、顔向き情報と白飛び情報とが所定の条件を満たす顔画像を選択する顔画像選択部15と、を有する。
<Action / Effect>
According to the face image selection device 10 of the present disclosure, the face direction estimating unit 12 that acquires face direction information indicating the angle of the face direction in the user's face image captured by the camera 100, The image processing apparatus includes a whiteout information generation unit 13 that generates whiteout information indicating a ratio of a whiteout region, and a face image selection unit 15 that selects a face image in which face direction information and whiteout information satisfy predetermined conditions.

また、本開示の顔画像選択装置10によれば、顔画像選択部15は、顔向き情報と白飛び情報とを用いて定義される評価関数の値に基づいて、複数の顔画像の中から、顔向き情報と白飛び情報とが所定の条件を満たす顔画像を選択する。   Further, according to face image selecting device 10 of the present disclosure, face image selecting unit 15 selects a face image from a plurality of face images based on the value of an evaluation function defined using face direction information and overexposed information. Then, a face image whose face direction information and overexposed information satisfy predetermined conditions is selected.

このような構成により、複数の顔画像の中から、できるだけ顔向きがカメラ100に正対しており、かつ白飛びができるだけ少ない、顔認証に適切な顔画像を選択することができる。   With such a configuration, it is possible to select a face image suitable for face authentication, in which the face direction faces the camera 100 as much as possible and the whiteout is as small as possible from a plurality of face images.

さらに、本開示の顔画像選択装置10は、評価関数値が所定の閾値以下ではない場合には、繰り返し回数や顔向き角度の範囲等の条件を変更して処理をやり直す。これにより、適切な顔画像を取得できる可能性を高めることができる。   Furthermore, when the evaluation function value is not less than or equal to the predetermined threshold, the face image selection device 10 of the present disclosure changes the conditions such as the number of repetitions and the range of the face orientation angle and performs the process again. This can increase the possibility of obtaining an appropriate face image.

また、顔向き指示部16は、顔向きの角度が所定の角度範囲内であるように指示し、指示によってユーザの顔向きに変化が生じたとき、白飛び領域の割合が変化前より変化後の方が大きい場合には、ユーザに対して顔を変化前の方向に向けさせるように改めて指示する。   Further, the face direction instructing unit 16 instructs that the angle of the face direction is within a predetermined angle range, and when the direction of the user's face changes due to the instruction, the ratio of the overexposed area is changed after the change before the change. Is larger, the user is instructed to turn the face in the direction before the change.

このような構成により、得られた顔画像における白飛び割合に基づいて、白飛び割合が改善されるように顔向き指示における指示方向が変化する。これにより、顔認証に適切な画像を速やかに選択することができる。   With such a configuration, the pointing direction in the face direction instruction is changed based on the overexposed ratio in the obtained face image so that the overexposed ratio is improved. As a result, an image suitable for face authentication can be quickly selected.

<コンピュータの例>
図8は、上述した実施の形態における顔画像選択装置10の各機能を、プログラムにより実現するコンピュータのハードウェア構成を例示した図である。
<Example of computer>
FIG. 8 is a diagram exemplifying a hardware configuration of a computer that realizes each function of the face image selecting device 10 in the above-described embodiment by a program.

図8に示すように、コンピュータ2100は、入力ボタン、タッチパッドなどの入力装置2101、ディスプレイ、スピーカなどの出力装置2102、CPU(Central Processing Unit)2103、ROM(Read Only Memory)2104、RAM(Random Access Memory)2105を備える。また、コンピュータ2100は、ハードディスク装置、SSD(Solid State Drive )などの記憶装置2106、DVD−ROM(Digital Versatile Disk Read Only Memory)、USB(Universal Serial Bus)メモリなどの記録媒体から情報を読み取る読取装置2107、ネットワークを介して通信する送受信装置2108を備える。上述した各部は、バス2109により接続される。   As shown in FIG. 8, a computer 2100 includes an input device 2101, such as an input button and a touch pad, an output device 2102, such as a display and a speaker, a CPU (Central Processing Unit) 2103, a ROM (Read Only Memory) 2104, and a RAM (Random). Access Memory) 2105. Further, the computer 2100 is a reading device that reads information from a recording medium such as a hard disk device, a storage device 2106 such as an SSD (Solid State Drive), a DVD-ROM (Digital Versatile Disk Read Only Memory), and a USB (Universal Serial Bus) memory. 2107, and a transmission / reception device 2108 for communicating via a network. The above-described units are connected by a bus 2109.

そして、読取装置2107は、上記各部の機能を実現するためのプログラムを記録した記録媒体からそのプログラムを読み取り、記憶装置2106に記憶させる。あるいは、送受信装置2108が、ネットワークに接続されたサーバ装置と通信し、サーバ装置からダウンロードした上記各部の機能を実現するためのプログラムを記憶装置2106に記憶させる。   Then, the reading device 2107 reads the program for realizing the function of each unit from a recording medium on which the program is recorded, and causes the storage device 2106 to store the program. Alternatively, the transmission / reception device 2108 communicates with a server device connected to the network, and causes the storage device 2106 to store a program downloaded from the server device for realizing the function of each unit.

そして、CPU2103が、記憶装置2106に記憶されたプログラムをRAM2105にコピーし、そのプログラムに含まれる命令をRAM2105から順次読み出して実行することにより、上記各部の機能が実現される。また、プログラムを実行する際、RAM2105または記憶装置2106には、各実施の形態で述べた各種処理で得られた情報が記憶され、適宜利用される。   Then, the CPU 2103 copies the program stored in the storage device 2106 to the RAM 2105, and sequentially reads and executes the instructions included in the program from the RAM 2105, thereby realizing the functions of the above-described units. When the program is executed, information obtained by various processes described in each embodiment is stored in the RAM 2105 or the storage device 2106, and is appropriately used.

<本開示のまとめ>
本開示における顔画像選択装置は、撮像装置で撮影されたユーザの顔画像における顔向きの角度を示す顔向き情報を取得する顔向き情報取得部と、前記顔画像における、白飛びの度合いを示す白飛び情報を生成する白飛び情報生成部と、前記顔向き情報と前記白飛び情報とが所定の条件を満たす顔画像を選択する顔画像選択部と、を有する。
<Summary of this disclosure>
A face image selection device according to the present disclosure includes a face direction information acquisition unit that acquires face direction information indicating an angle of a face direction in a user's face image captured by an imaging device, and indicates a degree of overexposure in the face image. The image processing apparatus includes a whiteout information generation unit that generates whiteout information, and a face image selection unit that selects a face image in which the face direction information and the whiteout information satisfy predetermined conditions.

本開示における顔画像選択装置において、前記顔画像選択部は、前記顔向き情報と前記白飛び情報とを用いて定義される関数に基づいて、複数の顔画像の中から、前記顔向き情報と前記白飛び情報とが前記所定の条件を満たす前記顔画像を選択する。   In the face image selecting device according to the present disclosure, the face image selecting unit, based on a function defined using the face direction information and the overexposed information, from among a plurality of face images, the face direction information and The face image that satisfies the predetermined condition with the whiteout information is selected.

本開示における顔画像選択装置において、前記顔向き情報と前記白飛び情報とを用いて、顔認証に用いられる顔画像としての適切の度合いを示す評価値を前記顔画像毎に算出する評価値算出部をさらに有し、前記顔画像選択部は、前記評価値が所定の範囲内にある顔画像を前記所定の条件を満たす画像として選択する。   In the face image selection device according to the present disclosure, an evaluation value calculation that calculates, for each of the face images, an evaluation value indicating a degree of appropriateness as a face image used for face authentication, using the face direction information and the overexposure information. A face image selection unit that selects a face image whose evaluation value is within a predetermined range as an image satisfying the predetermined condition.

本開示における顔画像選択装置において、前記ユーザに対して、前記顔向きの角度が前記撮像装置の方向を基準とした所定の角度範囲内に収まるように指示する顔向き指示部をさらに有する。   The face image selection device according to the present disclosure further includes a face direction instruction unit that instructs the user such that the angle of the face direction falls within a predetermined angle range based on the direction of the imaging device.

本開示における顔画像選択装置において、前記顔向き指示部は、前記顔向き情報と前記白飛び情報とが前記所定の条件を満たさない場合には、前記所定の条件を満たすように再度指示する。   In the face image selection device according to the present disclosure, when the face direction information and the whiteout information do not satisfy the predetermined condition, the face direction instruction unit instructs again to satisfy the predetermined condition.

本開示における顔画像選択装置において、前記顔向き指示部による前記顔向きの角度の指示と、前記顔向き情報取得部による前記顔向き情報の取得と、前記白飛び情報生成部による前記白飛び情報の生成と、前記評価値算出部による前記評価値の算出と、を含む処理を規定回数に至るまで繰り返させる処理制御部をさらに有する。   In the face image selecting apparatus according to the present disclosure, the face direction instructing unit instructs the angle of the face direction, the face direction information acquiring unit acquires the face direction information, and the whiteout information generating unit outputs the whiteout information. And a processing control unit that repeats a process including generating the evaluation value and calculating the evaluation value by the evaluation value calculation unit up to a specified number of times.

本開示における顔画像選択装置において、前記処理制御部は、前記評価値が前記所定の範囲内にある顔画像が存在するか否かを判定し、存在しないと判定した場合には、判定後の前記処理における前記規定回数及び/または前記所定の角度範囲を増大させる。   In the face image selection device according to the present disclosure, the processing control unit determines whether or not there is a face image whose evaluation value is within the predetermined range. The specified number of times and / or the predetermined angle range in the processing are increased.

本開示における顔画像選択装置において、前記顔向き指示部は、前記指示によって前記ユーザの顔向きに変化が生じたとき、前記白飛び領域の割合が前記変化前より前記変化後の方が大きい場合には、前記ユーザに対して顔を前記変化前の方向に向けさせるように改めて指示する。   In the face image selecting device according to the present disclosure, the face direction instructing unit may be configured such that, when a change occurs in the user's face direction due to the instruction, a ratio of the overexposed area is greater after the change than before the change. In this case, the user is instructed to turn the face in the direction before the change.

本開示における顔画像選択装置において、前記顔向き指示部は、前記指示によって前記ユーザの顔向きに変化が生じたとき、前記白飛び領域の割合が前記変化前より前記変化後の方が小さい場合には、前記指示を継続する。   In the face image selecting device according to the present disclosure, the face direction instructing unit may be configured such that, when a change occurs in the user's face direction due to the instruction, the ratio of the overexposed area is smaller after the change than before the change. , The above instruction is continued.

本開示は、顔認証に適切な顔画像を選択する顔画像選択装置に有用である。   INDUSTRIAL APPLICABILITY The present disclosure is useful for a face image selection device that selects a suitable face image for face authentication.

10 顔画像選択装置
11 顔画像取得部
12 顔向き推定部
13 白飛び情報生成部
14 評価関数値算出部
15 顔画像選択部
16 顔向き指示部
17 処理制御部
REFERENCE SIGNS LIST 10 face image selecting device 11 face image obtaining unit 12 face direction estimating unit 13 overexposed information generating unit 14 evaluation function value calculating unit 15 face image selecting unit 16 face direction instructing unit 17 processing control unit

Claims (9)

撮像装置で撮影されたユーザの顔画像における顔向きの角度を示す顔向き情報を取得する顔向き情報取得部と、
前記顔画像における白飛びの度合いを示す白飛び情報を生成する白飛び情報生成部と、
前記顔向き情報と前記白飛び情報とが所定の条件を満たす顔画像を選択する顔画像選択部と、
を有する顔画像選択装置。
A face orientation information acquisition unit that acquires face orientation information indicating an angle of the face orientation in a user's face image captured by the imaging device,
A whiteout information generating unit that generates whiteout information indicating a degree of whiteout in the face image,
A face image selecting unit that selects a face image in which the face direction information and the overexposed information satisfy a predetermined condition,
A face image selection device having:
前記顔画像選択部は、前記顔向き情報と前記白飛び情報とを用いて定義される関数に基づいて、複数の顔画像の中から、前記顔向き情報と前記白飛び情報とが前記所定の条件を満たす前記顔画像を選択する、
請求項1に記載の顔画像選択装置。
The face image selecting unit, based on a function defined by using the face direction information and the overexposed information, the face direction information and the overexposed information from the plurality of face images, the predetermined Selecting the face image satisfying the condition,
The face image selection device according to claim 1.
前記顔向き情報と前記白飛び情報とを用いて、顔認証に用いられる顔画像としての適切の度合いを示す評価値を前記顔画像毎に算出する評価値算出部をさらに有し、
前記顔画像選択部は、前記評価値が所定の範囲内にある顔画像を前記所定の条件を満たす画像として選択する、
請求項1または2に記載の顔画像選択装置。
Using the face direction information and the overexposed information, further comprising an evaluation value calculation unit that calculates an evaluation value indicating an appropriate degree as a face image used for face authentication for each of the face images,
The face image selecting unit selects a face image whose evaluation value is within a predetermined range as an image that satisfies the predetermined condition,
The face image selection device according to claim 1.
前記ユーザに対して、前記顔向きの角度が前記撮像装置の方向を基準とした所定の角度範囲内に収まるように指示する顔向き指示部をさらに有する、
請求項3に記載の顔画像選択装置。
The apparatus further includes a face direction instruction unit that instructs the user such that the angle of the face direction falls within a predetermined angle range based on the direction of the imaging device.
The face image selection device according to claim 3.
前記顔向き指示部は、前記顔向き情報と前記白飛び情報とが前記所定の条件を満たさない場合には、前記所定の条件を満たすように再度指示する、
請求項4に記載の顔画像選択装置。
The face direction instructing unit, when the face direction information and the overexposed information do not satisfy the predetermined condition, instructs again to satisfy the predetermined condition,
The face image selection device according to claim 4.
前記顔向き指示部による前記顔向きの角度の指示と、前記顔向き情報取得部による前記顔向き情報の取得と、前記白飛び情報生成部による前記白飛び情報の生成と、前記評価値算出部による前記評価値の算出と、を含む処理を規定回数に至るまで繰り返させる処理制御部をさらに有する、
請求項5に記載の顔画像選択装置。
An instruction for the angle of the face direction by the face direction instruction unit, an acquisition of the face direction information by the face direction information acquisition unit, an generation of the overexposure information by the overexposure information generation unit, and an evaluation value calculation unit Calculating the evaluation value according to, further comprising a processing control unit that repeats the processing including the specified number of times,
The face image selection device according to claim 5.
前記処理制御部は、前記評価値が前記所定の範囲内にある顔画像が存在するか否かを判定し、存在しないと判定した場合には、判定後の前記処理における前記規定回数及び/または前記所定の角度範囲を増大させる、
請求項6に記載の顔画像選択装置。
The processing control unit determines whether or not there is a face image whose evaluation value is within the predetermined range, and when it is determined that the face image does not exist, the specified number of times and / or in the processing after the determination. Increasing the predetermined angular range,
The face image selection device according to claim 6.
前記顔向き指示部は、前記指示によって前記ユーザの顔向きに変化が生じたとき、前記白飛び領域の割合が前記変化前より前記変化後の方が大きい場合には、前記ユーザに対して顔を前記変化前の方向に向けさせるように改めて指示する、
請求項4に記載の顔画像選択装置。
When the face direction of the user is changed by the instruction, if the ratio of the overexposed area is larger after the change than before the change, the face direction instructing unit is configured to change the face of the user. Is again instructed to point in the direction before the change,
The face image selection device according to claim 4.
前記顔向き指示部は、前記指示によって前記ユーザの顔向きに変化が生じたとき、前記白飛び領域の割合が前記変化前より前記変化後の方が小さい場合には、前記指示を継続する、
請求項4に記載の顔画像選択装置。
The face direction instructing unit, when a change occurs in the face direction of the user due to the instruction, if the ratio of the overexposed area is smaller after the change than before the change, continue the instruction,
The face image selection device according to claim 4.
JP2018131382A 2018-07-11 2018-07-11 Face image selection device Pending JP2020009291A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018131382A JP2020009291A (en) 2018-07-11 2018-07-11 Face image selection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018131382A JP2020009291A (en) 2018-07-11 2018-07-11 Face image selection device

Publications (1)

Publication Number Publication Date
JP2020009291A true JP2020009291A (en) 2020-01-16

Family

ID=69151939

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018131382A Pending JP2020009291A (en) 2018-07-11 2018-07-11 Face image selection device

Country Status (1)

Country Link
JP (1) JP2020009291A (en)

Similar Documents

Publication Publication Date Title
US10997696B2 (en) Image processing method, apparatus and device
US8830381B2 (en) Imaging device and method to provide bokeh effect in captured image by determining distance and focus of captured objects in secondary image sequence
US8810665B2 (en) Imaging device and method to detect distance information for blocks in secondary images by changing block size
JP2010056692A (en) Imaging apparatus and its control method
JP2013058828A (en) Smile determination device and method
JP2009116742A (en) Onboard image processor, image processing method, and program
CN108111768B (en) Method and device for controlling focusing, electronic equipment and computer readable storage medium
EP3654236A2 (en) Information processing apparatus, control method of information processing apparatus, storage medium, and imaging system
US20150178595A1 (en) Image processing apparatus, imaging apparatus, image processing method and program
JP2007072627A (en) Sunglasses detection device and face center position detection device
US10078918B2 (en) Information processing apparatus, information processing method, and storage medium
JP6981277B2 (en) Detection device and detection program
US11610293B2 (en) Image processing apparatus and image processing method
JP2008035125A (en) Image pickup device, image processing method, and program
JP2010154306A (en) Device, program and method for imaging control
JP6098133B2 (en) Face component extraction device, face component extraction method and program
JP7292905B2 (en) Image processing device, image processing method, and imaging device
JP2020009291A (en) Face image selection device
JP6087615B2 (en) Image processing apparatus and control method therefor, imaging apparatus, and display apparatus
JP7451465B2 (en) Learning method, program and image processing device
JP2010170042A (en) Imaging apparatus and method for controlling the same
JP5111293B2 (en) Imaging apparatus and control method thereof
JP7204387B2 (en) Image processing device and its control method
JP2013210778A (en) Imaging apparatus
JP2020010168A (en) Image processing apparatus

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190625

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20191021