JP2023007006A - Face authentication system and face authentication method - Google Patents

Face authentication system and face authentication method Download PDF

Info

Publication number
JP2023007006A
JP2023007006A JP2021109944A JP2021109944A JP2023007006A JP 2023007006 A JP2023007006 A JP 2023007006A JP 2021109944 A JP2021109944 A JP 2021109944A JP 2021109944 A JP2021109944 A JP 2021109944A JP 2023007006 A JP2023007006 A JP 2023007006A
Authority
JP
Japan
Prior art keywords
image
face
background
camera
spoofing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021109944A
Other languages
Japanese (ja)
Inventor
宏昭 都築
Hiroaki Tsuzuki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokai Rika Co Ltd
Original Assignee
Tokai Rika Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokai Rika Co Ltd filed Critical Tokai Rika Co Ltd
Priority to JP2021109944A priority Critical patent/JP2023007006A/en
Publication of JP2023007006A publication Critical patent/JP2023007006A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide a face authentication system and a face authentication method that are capable of preventing impersonation using a face photograph or a display image.SOLUTION: A face authentication system acquires a first image G1 and a second image G2 obtained by imaging an object which is the same as the object of the first image G1 with a changed exposure value. When a difference between brightness L1 of a background image of the first image G1 and brightness L2 of a background image of the second image G2 is a predetermined value or more, the face authentication system determines that the images are images obtained by imaging a person and there are no impersonation, and performs face authentication.SELECTED DRAWING: Figure 5

Description

本開示は、顔認証システム、および顔認証方法に関する。 The present disclosure relates to face authentication systems and face authentication methods.

特開2008-139973号公報(特許文献1)には、カメラで撮像した画像を用いて個人認証を行う、顔画像認証システムが開示されている。この顔画像認証システムでは、認証対象者の画像から白目部分の輝度を検出し、検出した白目部分の輝度に基づいて、カメラの露出またはフラッシュの発光量の一方を調整して認証対象者を撮像し、撮像した画像を用いて認証を行っている。 Japanese Patent Application Laid-Open No. 2008-139973 (Patent Document 1) discloses a face image authentication system that performs personal authentication using an image captured by a camera. This facial image recognition system detects the brightness of the whites of the eyes from the image of the person to be authenticated, and adjusts either the camera exposure or the amount of flash light based on the detected brightness of the whites of the eyes to image the person to be authenticated. Then, the captured image is used for authentication.

特開2008-139973号公報JP 2008-139973 A

画像を用いた顔認証システムでは、印刷した顔写真やweb(World Wide Web)上に公開されている画像などをカメラに提示して、他人になりすます不正行為が懸念される。特許文献1に開示されたように、白目部分の輝度に基づいて、カメラの露出またはフラッシュの発光量の一方を調整し顔写真やタブレットの(ディスプレイの)画像を撮像した画像を用いても、顔認証が成立し、なりすましを防止できない可能性がある。 In a face authentication system using an image, there is a concern that a printed photograph of the face or an image published on the web (World Wide Web) may be presented to a camera to impersonate another person. As disclosed in Patent Document 1, based on the brightness of the white part of the eye, either the exposure of the camera or the light emission amount of the flash is adjusted, and even if an image is taken of a face photograph or a tablet (display) image, There is a possibility that face authentication will be established and spoofing cannot be prevented.

本開示は、顔写真やディスプレイの画像を用いたなりすましを抑止可能な、顔認証システムおよび顔認証方法を提供することを、目的とする。 An object of the present disclosure is to provide a face authentication system and a face authentication method capable of deterring spoofing using a face photograph or display image.

本開示の顔認証システムは、カメラで撮像した顔画像と基準顔画像を照合し認証を行う顔認証システムである。顔認証システムは、同一の被写体に対して、被写体に焦点を合わせ、露出に関連するパラメータが異なる第1画像と第2画像を撮像するようカメラを制御するカメラ制御部と、第1画像および第2画像における、顔領域の周辺部である背景を背景画像として特定する背景領域検出部と、第1画像の背景画像と第2画像の背景画像を用いて、なりすましを判定するなりすまし判定部と、を備える。 A face authentication system according to the present disclosure is a face authentication system that performs authentication by matching a face image captured by a camera with a reference face image. The face authentication system includes a camera control unit that controls a camera to capture a first image and a second image with different exposure-related parameters, focusing on the same subject, the first image and the second image. a background area detection unit that identifies the background, which is the peripheral portion of the face area, as a background image in the two images; a spoofing determination unit that determines spoofing using the background image of the first image and the background image of the second image; Prepare.

この顔認証システムによれば、第1画像と第2画像は、同一の被写体を撮像したものであり、被写体に焦点を合わせ、露出に関連するパラメータが異なる状態で撮像される。被写体が本物の人物の場合、顔領域と顔領域の周辺である背景は、カメラからの距離が異なる。カメラから顔領域の周辺である背景までの距離は、カメラから顔領域までの距離より長い(遠い)。したがって、露出に関連するパラメータが異なる第1画像と第2画像において、第1画像の顔領域の周辺である背景の明るさやボケの程度は、第2画像の顔領域の周辺である背景の明るさやボケの程度と、大きく異なる。 According to this face authentication system, the first image and the second image are images of the same subject, focused on the subject, and captured with different parameters related to exposure. When the subject is a real person, the face area and the background around the face area are at different distances from the camera. The distance from the camera to the background, which is the periphery of the face area, is longer (further) than the distance from the camera to the face area. Therefore, in the first image and the second image having different exposure-related parameters, the brightness and degree of blurring of the background around the face region in the first image are the same as the brightness of the background around the face region in the second image. It differs greatly from the degree of bokeh.

顔写真やディスプレイの画像は二次元(平面)であり、顔写真やディスプレイの画像における顔領域と顔領域の周辺である背景は、同一平面上に存在し、カメラからの距離が同じである。顔写真やディスプレイの画像における顔領域と顔領域の周辺である背景は、カメラからの距離が同じであるので、露出に関連するパラメータが異なる第1画像と第2画像において、第1画像の顔領域の周辺である背景の明るさやボケの程度は、第2画像の顔領域の周辺である背景の明るさやボケの程度と、大きな差異はない。 A photograph of a face or an image of a display is two-dimensional (flat), and a face area and a background surrounding the face area in the photograph of the face or the image of the display are on the same plane and are at the same distance from the camera. Since the distance from the camera is the same between the face area and the background around the face area in the photograph of the face or the display image, the face in the first image and the second image with different parameters related to exposure are different from each other. The brightness and degree of blurring of the background around the region are not significantly different from the brightness and degree of blurring of the background around the face region of the second image.

背景領域検出部で、第1画像および第2画像における、顔領域から所定距離離れた周辺部である背景を背景画像として特定し、なりすまし判定部で、第1画像の背景画像と第2画像の背景画像を用いて、なりすましを判定する。たとえば、第1画像と第2画像の背景画像の明るさやボケの程度が、ほとんど変化しない場合、顔写真やディスプレイの画像によるなりすましである可能性が高く、第1画像の背景画像と第2画像の背景画像を用いて、なりすましを判定することが可能になる。これにより、顔写真やディスプレイの画像の特徴を捉えるための専用デバイスを設けることなく、なりすましを抑制可能になる。 The background region detection unit identifies the background, which is the peripheral portion of the first image and the second image at a predetermined distance from the face region, as the background image, and the spoofing determination unit detects the difference between the background image of the first image and the second image. A background image is used to determine spoofing. For example, if the brightness and the degree of blurring of the background images of the first image and the second image hardly change, there is a high possibility that the background image of the first image and the second image are spoofed by a photograph of a person's face or an image of the display. It becomes possible to judge spoofing by using the background image of . This makes it possible to suppress spoofing without providing a dedicated device for capturing the features of facial photographs and display images.

カメラ制御部は、第1画像を所定の露出で撮像し、第2画像を第1画像撮像時の照明より明るい照明および所定の露出より大きな露出値で撮像し、なりすまし判定部は、第1画像の背景画像と第2画像の背景画像の明るさの差が所定値以上のとき、なりすましでないと判定するようにしてもよい。 The camera control unit captures the first image with a predetermined exposure, captures the second image with illumination brighter than the illumination at the time of capturing the first image, and with an exposure value greater than the predetermined exposure, and the spoofing determination unit captures the first image. When the difference in brightness between the background image of the second image and the background image of the second image is equal to or greater than a predetermined value, it may be determined that the image is not spoofing.

被写体が本物の人物の場合、カメラから顔領域の周辺である背景までの距離は、カメラから顔領域までの距離より長い。このため、カメラの露出値を大きくし、被写体に照明を照射して撮像すると、露出値が小さい場合に比較して、顔領域の周辺である背景の輝度が小さくなり暗くなる。被写体が顔写真やディスプレイの画像である場合、顔写真やディスプレイの画像における顔領域と顔領域の周辺である背景は、同一平面上に存在し、カメラからの距離が同じである。したがって、カメラの露出値を大きくし、被写体に照明を照射して撮像しても、露出値が小さい場合と比較して、顔領域の周辺である背景の輝度にそれほど変化がない。 When the subject is a real person, the distance from the camera to the background, which is the periphery of the face area, is longer than the distance from the camera to the face area. For this reason, if the exposure value of the camera is increased and the subject is imaged by illuminating it, the brightness of the background around the face region will be lower and darker than when the exposure value is small. When the subject is a face photograph or display image, the face area and the background around the face area in the face photograph or display image are on the same plane and are at the same distance from the camera. Therefore, even if the exposure value of the camera is increased and the subject is illuminated and captured, the brightness of the background around the face region does not change much compared to when the exposure value is small.

したがって、第1画像の背景画像と第2画像の背景画像の明るさの差が所定値以上の場合は、本物の人物が撮像されており、なりすましでないと判定できる。なお、露出値(EV:Exposure Value)は、カメラの撮像素子に届く光量を調整する値であり、本開示においては、撮像素子に届く光量が小さいほど、その値が大きくなることとする。露出値は、カメラの絞り値(F値)、シャッタースピード(露光時間)およびISO(International Organization for Standardization)感度の少なくともひとつ、あるいは、これらの組み合わせから、設定されてもよい。 Therefore, when the difference in brightness between the background image of the first image and the background image of the second image is equal to or greater than a predetermined value, it can be determined that the image is of a real person and not impersonation. Note that the exposure value (EV) is a value that adjusts the amount of light reaching the imaging element of the camera, and in the present disclosure, the smaller the amount of light reaching the imaging element, the larger the value. The exposure value may be set from at least one of the aperture value (F number), shutter speed (exposure time), and ISO (International Organization for Standardization) sensitivity of the camera, or a combination thereof.

カメラ制御部は、第1画像を所定の露出で撮像し、第2画像を前記第1画像撮像時の照明より明るい照明および所定の露出より大きな露出値で撮像し、なりすまし判定部は、第1画像の顔領域の画像と背景画像の明るさの差が所定値より小さく、かつ、第2画像の顔領域の画像と背景画像の明るさの差が所定値以上のとき、なりすましでないと判定するようにしてもよい。 The camera control unit captures a first image with a predetermined exposure, captures a second image with illumination brighter than the illumination when the first image was captured, and an exposure value greater than the predetermined exposure, and the spoofing determination unit captures the first When the difference in brightness between the image of the face area of the image and the background image is smaller than a predetermined value and the difference in brightness between the image of the face area of the second image and the background image is equal to or greater than a predetermined value, it is determined that the image is not spoofing. You may do so.

被写体が本物の人物の場合、カメラから顔領域の周辺である背景までの距離は、カメラから顔領域までの距離より長い。このため、カメラの露出値を大きくし、被写体に照明を照射して撮像すると、露出値が小さい場合に比較して、顔領域の周辺である背景の輝度が小さくなり暗くなるが、顔領域は、顔領域の周辺である背景よりカメラに近いため、露出値の相違による輝度の変化は、背景に比べて少ない。被写体が顔写真やディスプレイの画像である場合、顔写真やディスプレイの画像における顔領域と顔領域の周辺である背景は、同一平面上に存在し、カメラからの距離が同じである。したがって、カメラの露出値を大きくし、被写体に照明を照射して撮像しても、露出値が小さい場合と比較して、顔領域の輝度および顔領域の周辺である背景の輝度にそれほど変化がない。 When the subject is a real person, the distance from the camera to the background, which is the periphery of the face area, is longer than the distance from the camera to the face area. For this reason, if the exposure value of the camera is increased and the subject is illuminated and captured, the brightness of the background surrounding the face area will decrease and become darker than when the exposure value is small. , since it is closer to the camera than the background, which is the periphery of the face area, the change in luminance due to the difference in exposure value is smaller than that of the background. When the subject is a face photograph or display image, the face area and the background around the face area in the face photograph or display image are on the same plane and are at the same distance from the camera. Therefore, even if the exposure value of the camera is increased and the subject is illuminated and captured, the brightness of the face area and the brightness of the background surrounding the face area will not change much compared to when the exposure value is small. Absent.

したがって、第1画像の顔領域の画像と背景画像の明るさの差が所定値より小さく、かつ、第2画像の顔領域の画像と背景画像の明るさの差が所定値以上の場合は、本物の人物が撮像されており、なりすましでないと判定できる。 Therefore, when the difference in brightness between the image of the face region in the first image and the background image is smaller than a predetermined value and the difference in brightness between the image of the face region in the second image and the background image is greater than or equal to the predetermined value, A real person is imaged, and it can be determined that it is not impersonation.

カメラ制御部は、第1画像を所定の絞り値で撮像し、第2画像を所定の絞り値より小さな絞り値で撮像し、なりすまし判定部は、第1画像の背景画像と第2画像の背景画像のボケの程度の差が所定値以上のとき、なりすましでないと判定してもよい。 The camera control unit captures the first image with a predetermined aperture value, and captures the second image with an aperture value smaller than the predetermined aperture value. It may be determined that the image is not spoofing when the difference in the degree of blurring of the image is equal to or greater than a predetermined value.

被写体が本物の人物の場合、カメラから顔領域の周辺である背景までの距離は、カメラから顔領域までの距離より長い。このため、カメラの絞り値を小さくし被写界深度を浅くして撮像すると、絞り値が大きく被写界深度が深い場合に比較して、顔領域の周辺である背景のボケの程度(ボケ量)が大きくなる。被写体が顔写真やディスプレイの画像である場合、顔写真やディスプレイの画像における顔領域と顔領域の周辺である背景は、同一平面上に存在し、カメラからの距離が同じである。このため、カメラの絞り値を変えて被写界深度が変わっても、顔写真やディスプレイの画像に焦点が合っているので、顔写真やディスプレイの画像における顔領域の周辺である背景のボケの程度(ボケ量)が大きくなることはない。 When the subject is a real person, the distance from the camera to the background, which is the periphery of the face area, is longer than the distance from the camera to the face area. For this reason, if the aperture value of the camera is made small and the depth of field is made shallow, the degree of blurring of the background around the face area (bokeh) will be lower than when the aperture value is large and the depth of field is large. amount) increases. When the subject is a face photograph or display image, the face area and the background around the face area in the face photograph or display image are on the same plane and are at the same distance from the camera. For this reason, even if the depth of field changes by changing the aperture value of the camera, the photograph of the face and the image on the display are in focus, so the background blur around the face area in the photograph of the face and the image on the display is blurred. The degree (bokeh amount) does not increase.

したがって、第1画像の背景画像と第2画像の背景画像のボケの程度の差が所定値以上のとき、なりすましでないと判定できる。 Therefore, when the difference in degree of blur between the background image of the first image and the background image of the second image is equal to or greater than a predetermined value, it can be determined that the image is not spoofing.

本開示の認証システムは、カメラで撮像した画像から、顔画像を抽出する顔抽出部と、顔画像と基準顔画像を照合し、顔認証を行う照合判定部と、を更に備え、照合判定部は、なりすまし判定部で、なりすましでないと判定されたとき、第1画像または第2画像の少なくとも一方から抽出した顔画像と基準顔画像を照合して、顔認証を行ってもよい。 The authentication system of the present disclosure further includes a face extraction unit that extracts a face image from an image captured by a camera, and a matching determination unit that matches the face image with a reference face image to perform face authentication. may perform face authentication by collating a face image extracted from at least one of the first image and the second image with a reference face image when the spoofing determination unit determines that the person is not spoofing.

この構成によれば、カメラで撮像した画像がなりすましでないと判定されたときに、顔認証を行う。したがって、基準顔画像と照合される顔画像は、顔写真やディスプレイの画像を撮像したものではないので、顔写真やディスプレイの画像を用いたなりすましによって認証が成立することを抑制できる。 According to this configuration, face authentication is performed when it is determined that the image captured by the camera is not spoofed. Therefore, since the face image to be compared with the reference face image is not the photograph of the face or the image of the display, it is possible to suppress the establishment of authentication by spoofing using the photograph of the face or the image of the display.

本開示の顔認証方法は、カメラで撮像した顔画像と基準顔画像を照合し認証を行う顔認証方法である。顔認証方法は、同一の被写体に対して、被写体に焦点を合わせ、露出に関連するパラメータが異なる第1画像と第2画像を前記カメラで撮像するステップと、第1画像および第2画像における、顔領域の周辺部である背景を背景画像として特定するステップと、第1画像の背景画像と第2画像の背景画像を用いて、なりすましを判定するステップと、を含む。 The face authentication method of the present disclosure is a face authentication method that performs authentication by matching a face image captured by a camera with a reference face image. The face authentication method includes the steps of: focusing on the same subject and capturing a first image and a second image with different parameters related to exposure with the camera; and The method includes a step of identifying a background that is a peripheral portion of the face area as a background image, and a step of determining spoofing using the background image of the first image and the background image of the second image.

この顔認証方法によれば、第1画像と第2画像は、同一の被写体を撮像したものであり、被写体に焦点を合わせ、露出に関連するパラメータが異なる状態で撮像される。被写体が本物の人物の場合、顔領域と顔領域の周辺である背景は、カメラからの距離が異なる。カメラから顔領域の周辺である背景までの距離は、カメラから顔領域までの距離より長い。したがって、露出に関連するパラメータが異なる状態で撮像した第1画像と第2画像において、顔領域の周辺である背景の明るさやボケの程度の差は、大きい。 According to this face authentication method, the first image and the second image are images of the same subject, focused on the subject, and captured with different parameters related to exposure. When the subject is a real person, the face area and the background around the face area are at different distances from the camera. The distance from the camera to the background, which is the periphery of the face area, is longer than the distance from the camera to the face area. Therefore, between the first image and the second image captured with different parameters related to exposure, the difference in brightness and degree of blurring of the background around the face area is large.

顔写真やディスプレイの画像は二次元(平面)であり、顔写真やディスプレイの画像における顔領域と顔領域の周辺である背景は、同一平面上に存在し、カメラからの距離が同じである。顔写真やディスプレイの画像における顔領域と顔領域の周辺である背景は、カメラからの距離が同じであるので、露出に関連するパラメータが異なる状態で撮像した第1画像と第2画像において、顔領域の周辺である背景の明るさやボケの程度の差は、小さい。 A photograph of a face or an image of a display is two-dimensional (flat), and a face area and a background surrounding the face area in the photograph of the face or the image of the display are on the same plane and are at the same distance from the camera. Since the distance from the camera is the same between the face area and the background around the face area in the photograph of the face or the image of the display, the first image and the second image captured with different parameters related to exposure show the face The difference in brightness and degree of blurring of the background, which is the periphery of the region, is small.

したがって、たとえば、第1画像と第2画像の背景画像の明るさやボケの程度が、ほとんど変化しない場合、顔写真やディスプレイの画像によるなりすましである可能性が高く、第1画像の背景画像と第2画像の背景画像を用いることにより、なりすましを判定することができる。 Therefore, for example, when the brightness and the degree of blurring of the background images of the first image and the second image hardly change, there is a high possibility that the background image of the first image and the background image of the second image are spoofed by a photograph of a person's face or an image of the display. Spoofing can be determined by using two background images.

本開示によれば、顔写真やディスプレイの画像を用いたなりすましを抑止可能な、顔認証システムおよび顔認証方法を提供できる。 Advantageous Effects of Invention According to the present disclosure, it is possible to provide a face authentication system and a face authentication method capable of deterring spoofing using a photograph of the face or an image on a display.

本開示の顔認証システムを搭載したカーシェアリング用の車両1の概略構成図である。1 is a schematic configuration diagram of a vehicle 1 for car sharing equipped with a face authentication system of the present disclosure; FIG. 認証ECU200内に構成される機能ブロックを示した図である。3 is a diagram showing functional blocks configured within an authentication ECU 200. FIG. (A)、(B)は、カメラ10で人物を撮像した画像を示す図である。(A) and (B) are diagrams showing images of a person captured by the camera 10. FIG. (A)、(B)は、カメラ10で、印刷した顔写真pを撮像した画像を示す図である。(A) and (B) are diagrams showing images of a printed facial photograph p captured by the camera 10. FIG. 認証ECU200で実行される処理の概略フローチャートである。4 is a schematic flowchart of processing executed by an authentication ECU 200; 実施の形態2において、認証ECU200a内に構成される機能ブロック図である。FIG. 7 is a functional block diagram configured in an authentication ECU 200a in Embodiment 2; 認証ECU200aで実行される処理の概略フローチャートである。4 is a schematic flowchart of processing executed by an authentication ECU 200a; (A)、(B)は、実施の形態3において、カメラ10で人物を撮像した画像を示す図である。10A and 10B are diagrams showing images of a person captured by the camera 10 in Embodiment 3. FIG. (A)、(B)は、実施の形態3において、カメラ10で、印刷した顔写真pを撮像した画像を示す図である。12A and 12B are diagrams showing images of a printed facial photograph p captured by the camera 10 in the third embodiment. FIG. 実施の形態3において、認証ECU200b内に構成される機能ブロック図である。FIG. 11 is a functional block diagram configured in an authentication ECU 200b in Embodiment 3; 認証ECU200bで実行される処理の概略フローチャートである。4 is a schematic flowchart of processing executed by an authentication ECU 200b;

以下、本開示の実施の形態について、図面を参照しながら詳細に説明する。なお、図中同一または相当部分には同一符号を付してその説明は繰返さない。 Hereinafter, embodiments of the present disclosure will be described in detail with reference to the drawings. The same or corresponding parts in the drawings are denoted by the same reference numerals, and the description thereof will not be repeated.

(実施の形態1)
本実施の形態では、本開示の顔認証システムをカーシェアェリングに適用した例を説明する。図1は、本開示の顔認証システムを搭載したカーシェアリング用の車両1の概略構成図である。カーシェアェリングは、登録された会員間で、車両1を共同使用する移動サービスである。車両1は、車体2にドア3が設けられている。車両1の使用者は、ドア3から車両1に乗車し、車両1を使用することができる。車両1は、ドアロック装置30を備えており、ドア3のドアロックの施錠、解錠がなされる。車両1は、貸出専用の駐車場に配置され、車両1の使用希望者は、使用予約を行い、予約日時に駐車場に出向いて、ドアロックを解錠し車両1を使用する。
(Embodiment 1)
In this embodiment, an example in which the face authentication system of the present disclosure is applied to car sharing will be described. FIG. 1 is a schematic configuration diagram of a vehicle 1 for car sharing equipped with a face authentication system of the present disclosure. Car sharing is a mobile service in which registered members jointly use a vehicle 1 . A vehicle 1 is provided with a door 3 on a vehicle body 2 . A user of the vehicle 1 can get on the vehicle 1 through the door 3 and use the vehicle 1 . The vehicle 1 is provided with a door lock device 30, which locks and unlocks the door 3. As shown in FIG. The vehicle 1 is arranged in a rental-only parking lot, and a person who wishes to use the vehicle 1 makes a reservation for use, goes to the parking lot on the reserved date and time, unlocks the door, and uses the vehicle 1.例文帳に追加

車両1は、顔認証システム5を搭載している。顔認証システム5は、カメラ10、エレクトロニックフラッシュ20、カメラECU(Electronic Control Unit)100、認証ECU200、および通信装置250を備える。 A vehicle 1 is equipped with a face authentication system 5. - 特許庁The face authentication system 5 includes a camera 10 , an electronic flash 20 , a camera ECU (Electronic Control Unit) 100 , an authentication ECU 200 and a communication device 250 .

カメラ10は、ドア3周囲の被写体を撮像して、画像データを取得するものである。カメラ10は、たとえば、CCD(Charge Coupled Device)イメージセンサ、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等の撮像素子と、撮像素子上に被写体の像を結像させる光学系(レンズ、絞り、シャッター)等を備えるデジタルカメラである。 The camera 10 captures an image of a subject around the door 3 to acquire image data. The camera 10 includes, for example, an imaging element such as a CCD (Charge Coupled Device) image sensor, a CMOS (Complementary Metal Oxide Semiconductor) image sensor, and an optical system (lens, diaphragm, shutter) that forms an image of a subject on the imaging element. etc. is a digital camera.

エレクトロニックフラッシュ20は、被写体に照明(フラッシュ光)を照射する発光装置であり、カメラ10の撮像レンズの近傍に設けられている。 The electronic flash 20 is a light-emitting device that irradiates a subject with illumination (flash light), and is provided near the imaging lens of the camera 10 .

カメラECU100は、CPU(Central Processing Unit)と、メモリ(たとえば、ROM(Read Only Memory)およびRAM(Random Access Memory)等)とから構成される。カメラECU100は、認証ECU200からの信号や指令を受け、カメラ10およびエレクトロニックフラッシュ20をの動作を制御する。カメラECU100は、その機能ブロックとして、焦点制御部101、露出制御部102、および発光制御部103を備える。焦点制御部101は、カメラ10の撮像範囲内の被写体(人物)の目、鼻、口の位置を検出し、その位置情報を元にして、人物の顔を検出し、検出した顔にカメラ10の焦点を合わせる、オートフォーカス処理を行う。露出制御部102は、カメラ10で撮像するときの絞り値(F値)、シャッタースピード(露光時間)、およびISO感度を調整する。発光制御部103は、エレクトロニックフラッシュ20の発光/非発光を制御するとともに、発光時の光量を調整する。 The camera ECU 100 includes a CPU (Central Processing Unit) and memory (for example, ROM (Read Only Memory) and RAM (Random Access Memory)). The camera ECU 100 receives signals and instructions from the authentication ECU 200 and controls operations of the camera 10 and the electronic flash 20 . The camera ECU 100 includes a focus control section 101, an exposure control section 102, and a light emission control section 103 as its functional blocks. The focus control unit 101 detects the positions of the eyes, nose, and mouth of a subject (person) within the imaging range of the camera 10, detects the person's face based on the position information, and detects the face detected by the camera 10. to focus on and perform autofocus processing. The exposure control unit 102 adjusts the aperture value (F value), shutter speed (exposure time), and ISO sensitivity when capturing an image with the camera 10 . The light emission control unit 103 controls light emission/non-light emission of the electronic flash 20 and adjusts the amount of light during light emission.

顔認証システム5は、カメラECU100によって制御されるカメラ10で撮像した画像から検出した顔画像と、基準顔画像を照合することにより、顔認証を行う。基準顔画像は、登録された会員(ユーザ)の顔画像であり、管理サーバ400に登録されている。管理サーバ400は、ECU401と、記憶装置402と、通信装置403とを含んで構成される。ECU401は、CPUを含み、所定の情報処理を行なうとともに通信装置403を制御するように構成される。記憶装置402は、各種情報を保存可能に構成される。通信装置403は各種通信I/Fを含む。ECU401は、通信装置403を通じて外部と通信可能に構成され、車両1の通信装置250、および、会員(ユーザ)の携帯端末500と通信を行う。 The face authentication system 5 performs face authentication by matching a face image detected from an image captured by the camera 10 controlled by the camera ECU 100 with a reference face image. A reference face image is a face image of a registered member (user) and is registered in the management server 400 . The management server 400 includes an ECU 401 , a storage device 402 and a communication device 403 . ECU 401 includes a CPU and is configured to perform predetermined information processing and control communication device 403 . The storage device 402 is configured to be able to store various types of information. A communication device 403 includes various communication I/Fs. The ECU 401 is configured to be able to communicate with the outside through the communication device 403, and communicates with the communication device 250 of the vehicle 1 and the mobile terminal 500 of the member (user).

会員(ユーザ)は、予め会員情報の登録を行う。会員情報の登録を行うと、管理サーバ400の記憶装置402に、会員のID(識別符号)と会員の顔画像データが登録される。会員の顔画像データは、会員がカメラ(たとえば、携帯端末500のカメラ)で撮像した顔画像(顔領域の画像)データを管理サーバ400に送信すると、ECU401において、受信した顔画像から顔の特徴を示す特徴量データRiを作成し、会員毎に、会員のIDと特徴量データRiを紐付けして、記憶装置402に格納する。顔の特徴を示す特徴量データRiは、機械学習アルゴリズム(たとえば、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)を用いた深層学習(ディープラーニング))を用いて、顔画像から特徴量データRiを抽出する。なお、顔画像から顔部品(目、鼻、口、輪郭、等)の特徴量を示す特徴量データRiを作成してもよく、あるいは、顔領域の画像の全体から抽出したデータのいずれであってもよい。記憶装置402に格納された特徴量データRiが、本開示の「基準顔画像」に相当する。 A member (user) registers member information in advance. When member information is registered, the ID (identification code) of the member and face image data of the member are registered in the storage device 402 of the management server 400 . The member's face image data is obtained by transmitting face image (face area image) data taken by the member with a camera (for example, the camera of the mobile terminal 500) to the management server 400, and the ECU 401 extracts facial features from the received face image. is created, and for each member, the ID of the member and the feature amount data Ri are linked and stored in the storage device 402 . The feature amount data Ri representing facial features is extracted from the face image using a machine learning algorithm (for example, deep learning using a convolutional neural network (CNN)). do. It should be noted that feature amount data Ri representing feature amounts of facial parts (eyes, nose, mouth, outline, etc.) may be created from the face image, or data extracted from the entire image of the face region. may The feature amount data Ri stored in the storage device 402 corresponds to the "reference face image" of the present disclosure.

会員(ユーザ)は、カーシェアリングの使用の予約(貸出予約)を、携帯端末500を用いて行う。たとえば、使用者の携帯端末500のアプリケーションを立ち上げ、貸出場所、貸出日時および返却日時を入力し予約ボタンをタップすると、会員のID、貸出場所、貸出日時および返却日時が、管理サーバ400に送信される。管理サーバ400は、携帯端末500から、予約情報を受信すると、ECU401が記憶装置402に記憶される貸出予約DBを更新して、予約が完了する。なお、貸出場所は、カーシェリング用の車両1が駐車している駐車場の場所である。 A member (user) uses the mobile terminal 500 to make a reservation (rental reservation) for use of car sharing. For example, when the application of the user's portable terminal 500 is launched, the rental location, rental date and time, and return date and time are entered and the reservation button is tapped, the member's ID, rental location, rental date and time, and return date and time are sent to the management server 400. be done. When the management server 400 receives the reservation information from the mobile terminal 500, the ECU 401 updates the rental reservation DB stored in the storage device 402, and the reservation is completed. The rental location is the location of the parking lot where the vehicle 1 for car sharing is parked.

会員は、貸出日時に、貸出場所に出向き、カーシェリング用の車両1に搭載された顔認証システム5によって顔認証を行い、認証が成立すると、ドアロックが解錠され、車両1の使用が可能になる。顔認証システム5による顔認証は、カメラ10で撮像された画像から検出された顔画像と、基準顔画像を照合することにより行われる。この際、貸出予約を行った会員以外の第三者が、貸出予約を行った会員の顔を印刷した写真や、貸出予約を行った会員の顔が表示されているタブレット(ディスプレイ)の画像を、カメラ10に提示して、第三者が会員になりすます不正行為が懸念される。 The member goes to the rental place at the rental date and time, performs face authentication by the face authentication system 5 mounted on the vehicle 1 for car sharing, and when the authentication is established, the door is unlocked and the vehicle 1 can be used. become. Face authentication by the face authentication system 5 is performed by matching a face image detected from an image captured by the camera 10 with a reference face image. At this time, a third party other than the member who made the rental reservation may print the photo of the member who made the rental reservation or the image of the tablet (display) showing the face of the member who made the rental reservation. , is presented to the camera 10, and there is concern that a third party may fraudulently pretend to be a member.

貸出予約を行った会員の顔を印刷した写真や、貸出予約を行った会員の顔が表示されているディスプレイの画像を、カメラ10で撮像した画像から検出される顔画像は、貸出予約を行った会員の基準顔画像と一致する可能性が高く、顔写真やディスプレイの画像を用いたなりすましを抑制することが望まれる。 A photo of the face of the member who made the rental reservation or a face image detected from an image of the display showing the face of the member who made the rental reservation captured by the camera 10 is There is a high possibility that the face image matches the reference face image of the selected member, and it is desirable to suppress spoofing using the face photo or display image.

本実施の形態では、このなりすましを抑制するため、カメラ10で露出に関連するパラメータが異なる状態で第1画像と第2画像を撮像することにより、カメラ10で撮像した画像が、顔写真やディスプレイの画像を撮像した画像であることを、判定する。 In the present embodiment, in order to suppress this spoofing, the camera 10 captures the first image and the second image with different parameters related to exposure, so that the image captured by the camera 10 can be used as a facial photograph or a display. It is determined that the image is obtained by capturing the image of .

認証ECU200は、カメラECU100と同様に、CPUと、メモリ(たとえば、ROMおよびRAM等)とから構成される。認証ECU200は、カメラECU100へ撮像指令を出力し、また、カメラ10で撮像した画像を用いて顔認証を行う。認証ECU200の詳細は後述する。 Authentication ECU 200, like camera ECU 100, comprises a CPU and a memory (for example, ROM and RAM). Authentication ECU 200 outputs an imaging command to camera ECU 100 and performs face authentication using an image captured by camera 10 . Details of the authentication ECU 200 will be described later.

通信装置250は、各種通信I/F(インターフェース)を含んで構成される。通信装置250は、DCM(Data Communication Module)を含んでもよい。通信装置250は、5G(第5世代移動通信システム)対応の通信I/Fを含んでもよい。認証ECU200は、通信装置250を通じて車両1外部の管理サーバ400と無線通信を行なうように構成される。 The communication device 250 includes various communication I/Fs (interfaces). The communication device 250 may include a DCM (Data Communication Module). The communication device 250 may include a communication I/F compatible with 5G (fifth generation mobile communication system). Authentication ECU 200 is configured to perform wireless communication with management server 400 outside vehicle 1 through communication device 250 .

ドアECU300は、認証ECU200からの指令を受け、ドアロック装置30を駆動し、ドア3のドアロックの施錠、解錠を行う。 The door ECU 300 receives a command from the authentication ECU 200 and drives the door lock device 30 to lock and unlock the door 3 .

図2は、認証ECU200内に構成される機能ブロックを示した図である。カメラ制御部201は、カメラECU100を介してカメラ10を制御する。たとえば、携帯端末500を、車両1のドア3近傍に設置されたNFC(Near field communication)装置の読み取り部にかざすと、カメラ10で、第1画像および第2画像を撮像するよう、カメラECU100に撮像指令を出力する。撮像指令は、第1画像として、被写体を適正露出(自動露出)で撮像し、第2画像として、エレクトロニックフラッシュ20を発光するとともに、第1画像の撮像時の適正露出より露出値が大きな露出で被写体を撮像する指令である。第1画像の撮像と第2画像の撮像は、連続して行われ、第1画像と第2画像は、同一の被写体を撮像した画像である。 FIG. 2 is a diagram showing functional blocks configured in the authentication ECU 200. As shown in FIG. A camera control unit 201 controls the camera 10 via the camera ECU 100 . For example, when the mobile terminal 500 is held over a reading unit of an NFC (Near field communication) device installed near the door 3 of the vehicle 1, the camera ECU 100 is instructed to capture a first image and a second image with the camera 10. Outputs an imaging command. The imaging command is to image the subject with proper exposure (automatic exposure) as the first image, emit the electronic flash 20 as the second image, and set the exposure value to be larger than the proper exposure when the first image was captured. This is a command to image an object. The imaging of the first image and the imaging of the second image are continuously performed, and the first image and the second image are images of the same subject.

カメラECU100は、撮像指令を受信すると、焦点制御部101で被写体(人物)の顔領域に焦点を合わせ、露出制御部102で適正露出になるよう、絞り値(F値)、シャッタースピード(露光時間)、およびISO感度を調整して、第1画像を撮像するよう、カメラ10を動作する。カメラ10は、撮像した画像を第1画像G1として出力する。カメラECU100は、第1画像を撮像すると、続けて、発光制御部103が、所定の発光量でエレクトロニックフラッシュ20を発光させ、その発光と同期して、焦点制御部101で被写体(人物)の顔領域に焦点を合わせ、露出制御部102で、第1画像の撮像時の露出より露出値が大きくなるよう、絞り値(F値)、シャッタースピード(露光時間)、およびISO感度の少なくともひとつを調整して、第2画像を撮像するよう、カメラ10を動作する。カメラ10は、撮像した画像を第2画像G2として出力する。 When the camera ECU 100 receives an imaging command, the focus control unit 101 focuses on the face area of the subject (person), and the exposure control unit 102 adjusts the aperture value (F value), shutter speed (exposure time), and so on to achieve proper exposure. ), and adjust the ISO sensitivity to capture the first image. The camera 10 outputs the captured image as the first image G1. After the camera ECU 100 captures the first image, the light emission control unit 103 causes the electronic flash 20 to emit light with a predetermined amount of light emission. An area is focused, and at least one of the aperture value (F value), shutter speed (exposure time), and ISO sensitivity is adjusted by the exposure control unit 102 so that the exposure value becomes larger than the exposure value when the first image was captured. to operate the camera 10 to capture a second image. The camera 10 outputs the captured image as the second image G2.

第2画像の撮像時における露出値は、たとえば、エレクトロニックフラッシュ20の発光による光(照明)が被写体の顔領域に照射された際に、顔領域の距離において適正露出になる露出値であってよい。これにより、エレクトロニックフラッシュ20の発光により、被写体の顔領域は明るくなるので、エレクトロニックフラッシュ20の非発光時に比較して、露出値が大きくなる(カメラ10の撮像素子に届く光量を小さくする)。露出値を大きくするには、カメラ10の絞り値(F値)を大きくしてもよく、シャッタースピードを早く(露光時間を短く)してもよく、ISO感度を小さくしてもよく、これらを組み合わせてもよい。 The exposure value at the time of capturing the second image may be, for example, an exposure value that provides proper exposure at the distance of the face region when the light (illumination) emitted by the electronic flash 20 is applied to the face region of the subject. . As a result, the subject's face area is brightened by the emission of the electronic flash 20, so that the exposure value is increased (the amount of light reaching the imaging device of the camera 10 is reduced) compared to when the electronic flash 20 is not emitted. To increase the exposure value, the aperture value (F number) of the camera 10 may be increased, the shutter speed may be increased (exposure time shortened), and the ISO sensitivity may be decreased. May be combined.

図3は、カメラ10で人物を撮像した画像を示す図である。図3(A)は第1画像G1を示しており、図3(B)は第2画像G2を示している。エレクトロニックフラッシュ20を発光することなく撮像した第1画像G1では、図3(A)に示すように、格子模様で表した背景bおよび人物の顔fとも適正な明るさで撮像される。エレクトロニックフラッシュ20を発光するとともに露出値を大きくして撮像した第2画像G2では、図3(B)に示すように、人物の顔fは適正な明るさで撮像されるが、背景bは、カメラ10からの距離が顔fよりも長く、エレクトロニックフラッシュ20の光が届き難いため、暗く撮像される。 FIG. 3 is a diagram showing an image of a person captured by the camera 10. As shown in FIG. FIG. 3A shows the first image G1, and FIG. 3B shows the second image G2. In the first image G1 captured without the electronic flash 20 emitting light, as shown in FIG. 3A, both the background b represented by the lattice pattern and the person's face f are captured with proper brightness. In the second image G2 captured with the electronic flash 20 emitted and the exposure value increased, as shown in FIG. Since the distance from the camera 10 is longer than the face f and the light from the electronic flash 20 is difficult to reach, the image is dark.

図4は、カメラ10で、印刷した顔写真pを撮像した画像を示す図である。図4(A)は第1画像G1を示しており、図4(B)は第2画像G2を示している。エレクトロニックフラッシュ20を発光することなく撮像した第1画像G1では、図4(A)に示すように、格子模様で表した背景bおよび顔写真pとも適正な明るさで撮像され、顔写真pの顔fも鮮明に撮像される。エレクトロニックフラッシュ20を発光するとともに露出値を大きくして撮像した第2画像G2では、図4(B)に示すように、顔写真pは適正な明るさで撮像されるが、背景bは、エレクトロニックフラッシュ20の光が届き難いため、暗く撮像される。この場合、図4(B)に示すように、顔写真pにおいて、斜線で表した背景bpと顔fは同一平面上に存在し、カメラ10からの距離は同じであるので、背景bpと顔fは同様な明るさで鮮明に撮像される。 FIG. 4 is a diagram showing an image of a printed portrait p taken by the camera 10. As shown in FIG. FIG. 4A shows the first image G1, and FIG. 4B shows the second image G2. In the first image G1 captured without the electronic flash 20 emitting light, as shown in FIG. The face f is also clearly imaged. In the second image G2 captured by emitting the electronic flash 20 and increasing the exposure value, as shown in FIG. Since it is difficult for the light from the flash 20 to reach the image, the image is dark. In this case, as shown in FIG. 4B, the hatched background bp and the face f in the facial photograph p are on the same plane, and the distance from the camera 10 is the same. f is sharply imaged with similar brightness.

カメラ10で人物を撮像した場合、図3(A)と図3(B)の対比から理解されるよう、第2画像G2では、第1画像G1に対して背景bが暗くなる。これに対して、印刷した顔写真pを撮像した場合、図4(A)と図4(B)の対比から理解されるよう、顔写真の背景bpの明るさは、第2画像G2と第1画像G1でほとんど変化しない。したがって、第1画像G1と第2画像G2の顔fの周辺部である背景の明るさを比較することにより、明るさの差が所定値以上であれば、人物を撮像した画像であり、明るさの差が所定値より小さければ、顔写真を撮像した画像であることを、判定できる。 When the camera 10 captures an image of a person, the second image G2 has a darker background b than the first image G1, as can be understood from the comparison between FIGS. 3A and 3B. On the other hand, when the printed facial photograph p is captured, as understood from the comparison between FIGS. 4A and 4B, the brightness of the background bp of the facial photograph is There is almost no change in one image G1. Therefore, by comparing the brightness of the background, which is the peripheral portion of the face f, in the first image G1 and the second image G2, if the difference in brightness is equal to or greater than a predetermined value, the image is an image of a person, and the brightness is low. If the difference in height is smaller than a predetermined value, it can be determined that the image is a face photograph.

図2を参照して、認証ECU200は、顔/背景領域検出部202を備える。顔/背景領域検出部202は、カメラ10で撮像した第1画像G1および第2画像G2から、機械学習アルゴリズムを用いて、画像の顔領域を検出し、顔領域を特定する。なお、被写体の目、鼻、口の位置を検出し、その位置情報を元に、画像の顔領域を検出し、顔領域を特定してもよい。特定された顔領域の周囲において、人物の髪型を考慮して予め設定された範囲(マージン範囲)を髪領域とする。そして、髪領域の周囲の所定範囲を、背景領域として特定する。所定範囲は、髪領域からの距離が所定距離以内の範囲であってよい。また、所定範囲は、髪領域の周囲の画像におけるX方向およびY方向の画素数で規定してもよい。その画素数は、たとえば、X方向の総画素数に対して1/10とし、Y方向の総画素数に対して1/10としてもよい。なお、第1画像および第2画像のRGB(Red、Green、Blue)情報から、髪型を特定できる場合は、髪型の周辺の所定範囲を背景領域と特定してもよい。このようにして特定した背景領域が、人物を撮像した場合の背景bと、印刷した顔写真pを撮像した場合の顔写真pの背景bpとを判別する領域になる。 Referring to FIG. 2 , authentication ECU 200 includes face/background area detection section 202 . The face/background area detection unit 202 uses a machine learning algorithm to detect and identify the face area from the first image G1 and the second image G2 captured by the camera 10 . Note that the positions of the eyes, nose, and mouth of the subject may be detected, and based on the position information, the face area of the image may be detected and the face area may be specified. A range (margin range) set in advance in consideration of a person's hairstyle is defined as a hair region around the identified face region. Then, a predetermined range around the hair region is identified as the background region. The predetermined range may be a range within a predetermined distance from the hair region. Also, the predetermined range may be defined by the number of pixels in the X direction and the Y direction in the image around the hair region. The number of pixels may be, for example, 1/10 of the total number of pixels in the X direction and 1/10 of the total number of pixels in the Y direction. If the hairstyle can be identified from the RGB (Red, Green, Blue) information of the first image and the second image, a predetermined range around the hairstyle may be identified as the background area. The background area specified in this way is the area for discriminating between the background b when a person is imaged and the background bp of the face photo p when a printed face photo p is imaged.

顔/背景領域検出部202は、第1画像G1の背景領域から、背景画像の明るさL1を算出するとともに、第2画像G2の背景領域から、背景画像の明るさL2を算出する。たとえば、画像の背景領域に含まれる各画素のRGBの階調と輝度の関係を予め求めておき、各画素のRGBの階調から各画素の輝度を算出する。そして、算出した各画素の輝度の平均値を、背景画像の明るさL1、L2として算出してよい。 The face/background area detection unit 202 calculates the background image brightness L1 from the background area of the first image G1, and calculates the background image brightness L2 from the background area of the second image G2. For example, the relationship between the RGB gradation and luminance of each pixel included in the background area of the image is obtained in advance, and the luminance of each pixel is calculated from the RGB gradation of each pixel. Then, the calculated average value of the brightness of each pixel may be calculated as the brightnesses L1 and L2 of the background image.

なりすまし判定部203は、顔/背景領域検出部202で算出した、第1画像G1の背景画像の明るさL1と、第2画像G2の背景画像の明るさL2を比較し、カメラ10で撮像した画像が、顔写真を用いたなりすましの画像か否かを判定する。明るさL1と明るさL2の差(輝度の差)が所定値以上の場合、画像は人物を撮像した画像であり、なりすましでないと判定し、カメラ10で撮像した画像がなりすましでない旨の信号を出力する。明るさL1と明るさL2の差(輝度の差)が所定値より小さい場合、画像は顔写真を撮像した画像であり、なりすましであると判定する。なお、所定値は、実験等によって、予め設定される。 The spoofing determination unit 203 compares the background image brightness L1 of the first image G1 and the background image brightness L2 of the second image G2 calculated by the face/background area detection unit 202, and captures the image with the camera 10. It is determined whether or not the image is a spoofed image using a photograph of the face. If the difference between the brightness L1 and the brightness L2 (luminance difference) is equal to or greater than a predetermined value, the image is determined to be an image of a person and is not spoofing, and a signal indicating that the image captured by the camera 10 is not spoofing is generated. Output. If the difference between the brightness L1 and the brightness L2 (luminance difference) is smaller than a predetermined value, the image is determined to be a photograph of a person's face and is a spoofing image. Note that the predetermined value is set in advance by experiment or the like.

顔抽出部204は、なりすまし判定部203から、カメラ10で撮像した画像が、なりすましでない旨の信号を受信すると、第1画像G1または第2画像G2から顔の特徴量(顔特徴量)を抽出する。たとえば、顔/背景領域検出部202で特定した、第1画像G1の顔領域の画像から、機械学習アルゴリズム(たとえば、畳み込みニューラルネットワーク(CNN)を用いた深層学習(ディープラーニング))を用いて、特徴量データFiを抽出する。なお、顔領域の画像から顔部品(目、鼻、口、輪郭、等)の特徴量を示す特徴量データFiを作成してもよい。顔抽出部204で抽出した特徴量データFiが、本開示の「顔画像」に相当し、以下、顔画像とも称する。特徴量データFiは、第2画像G2の顔領域から抽出してもよい。特徴量データFi(顔画像)は、顔部品の一部から抽出したデータ、あるいは、顔領域の画像の全体から抽出したデータのいずれであってもよい。 When the face extraction unit 204 receives a signal from the spoofing determination unit 203 indicating that the image captured by the camera 10 is not spoofing, the face extraction unit 204 extracts a face feature amount (face feature amount) from the first image G1 or the second image G2. do. For example, from the image of the face region of the first image G1 identified by the face/background region detection unit 202, using a machine learning algorithm (for example, deep learning using a convolutional neural network (CNN)), Extract the feature amount data Fi. Note that feature amount data Fi representing feature amounts of facial parts (eyes, nose, mouth, outline, etc.) may be created from the image of the face region. The feature amount data Fi extracted by the face extraction unit 204 corresponds to the “face image” of the present disclosure, and is hereinafter also referred to as the face image. The feature amount data Fi may be extracted from the face area of the second image G2. The feature amount data Fi (face image) may be either data extracted from a part of the face part or data extracted from the entire image of the face region.

基準顔画像取得部205は、管理サーバ400から基準顔画像(特徴量データRi)を取得する。たとえば、管理サーバ400は、会員によって車両1の貸出予約が完了すると、車両1の予約を行った会員のIDに紐付けられた基準顔画像(特徴量データRi)を記憶装置402から読み出す。そして、管理サーバ400は、通信装置403を用いて、車両1へ、貸出日時、会員のID、および基準顔画像を紐付けて送信する。基準顔画像取得部205は、通信装置250を介して、貸出日時、会員のID、および基準顔画像を受信すると、認証ECU200のメモリに、貸出日時、会員のID、および基準顔画像を紐付けて記憶する。 A reference face image acquisition unit 205 acquires a reference face image (feature amount data Ri) from the management server 400 . For example, when the member completes the rental reservation of the vehicle 1 , the management server 400 reads from the storage device 402 the reference face image (feature data Ri) associated with the ID of the member who made the reservation of the vehicle 1 . Then, the management server 400 uses the communication device 403 to link and transmit the rental date and time, the member's ID, and the reference face image to the vehicle 1 . Upon receiving the rental date and time, the member's ID, and the reference facial image via the communication device 250, the reference facial image acquisition unit 205 associates the rental date and time, the member's ID, and the reference facial image with the memory of the authentication ECU 200. memorize.

照合判定部206は、顔抽出部204で抽出した顔画像(特徴量データFi)と基準顔画像(特徴量データRi)を照合することにより、顔認証を行う。たとえば、第1画像G1または第2画像G2を撮像した日時と最も近い貸出日時に紐付けられた基準顔画像を、メモリから読み出す。そして、顔抽出部204で検出した顔画像とメモリから読み出した基準顔画像を照合することにより、顔認証を行う。照合判定部206は、たとえば、基準顔画像の特徴量データRiと、顔抽出部204で検出した顔画像の特徴量データFiとを比較し、たとえば、2つの特徴量データの類似度が所定値以上であり一致しているとき、一致している(顔認証が成立した)と判定し、類似度が所定値未満であれば、不一致(顔認証が不成立)と判定する。 The matching determination unit 206 performs face authentication by matching the face image (feature amount data Fi) extracted by the face extraction unit 204 with the reference face image (feature amount data Ri). For example, the reference face image associated with the closest rental date and time to the date and time when the first image G1 or the second image G2 was captured is read out from the memory. Then, the face image detected by the face extraction unit 204 is compared with the reference face image read from the memory to perform face authentication. The matching determination unit 206 compares, for example, the feature amount data Ri of the reference face image with the feature amount data Fi of the face image detected by the face extraction unit 204, and determines that the similarity between the two feature amount data is a predetermined value. If they match, it is determined that they match (face authentication is successful), and if the degree of similarity is less than a predetermined value, it is determined that they do not match (face authentication is not successful).

照合判定部206は、基準顔画像の特徴量データRiと、顔画像の特徴量データFiが一致し、顔認証が成立したと判定すると、ドアECU300に、ドアロックを解錠するよう解錠指令を出力する。解錠指令を受信したドアECU300は、ドアロック装置30を駆動し、ドア3のドアロックの解錠を行う。 When the matching determination unit 206 determines that the feature amount data Ri of the reference face image and the feature amount data Fi of the face image match and the face authentication is established, it issues an unlock command to the door ECU 300 to unlock the door. to output Upon receiving the unlock command, the door ECU 300 drives the door lock device 30 to unlock the door 3 .

図5は、認証ECU200で実行される処理の概略フローチャートである。このフローチャートは、携帯端末500が、車両1のドア3近傍に設置されたNFC装置の読み取り部にかざされると、処理が実行される。まず、ステップ(以下、ステップをSと略す)10では、カメラ10で被写体を撮像し、第1画像G1を取得する。第1画像G1は、上記で説明したように、焦点制御部101で被写体(人物)の顔領域に焦点を合わせ、露出制御部102で適正露出になるよう、絞り値(F値)、シャッタースピード(露光時間)、およびISO感度を調整して、撮像した画像である。 FIG. 5 is a schematic flow chart of the process executed by authentication ECU 200. As shown in FIG. This flowchart is executed when the portable terminal 500 is held over the reader of the NFC device installed near the door 3 of the vehicle 1 . First, in step (hereinafter, step is abbreviated as S) 10, the camera 10 captures an image of a subject to obtain a first image G1. For the first image G1, as described above, the focus control unit 101 focuses on the face area of the subject (person), and the exposure control unit 102 adjusts the aperture value (F value) and shutter speed so that the exposure is appropriate. (Exposure time) and ISO sensitivity are adjusted to capture images.

続く、S11では、カメラ10で被写体を撮像し、第2画像G2を取得する。第2画像G2は、上記で説明したように、発光制御部103が、所定の発光量でエレクトロニックフラッシュ20を発光させ、その発光と同期して、焦点制御部101で被写体(人物)の顔領域に焦点を合わせ、露出制御部102で、第1画像の撮像時の露出より露出値が大きくなるよう、絞り値(F値)、シャッタースピード(露光時間)、およびISO感度の少なくともひとつを調整して、撮像した画像である。なお、S10とS11は連続して処理され、第1画像G1と第2画像G2は、同一の被写体を撮像した画像である。 Subsequently, in S11, the camera 10 captures an image of the subject to acquire the second image G2. As described above, the second image G2 is generated by the light emission control unit 103 causing the electronic flash 20 to emit light with a predetermined amount of light emission, and in synchronization with the light emission, the focus control unit 101 detects the face area of the subject (person). , and the exposure control unit 102 adjusts at least one of the aperture value (F value), shutter speed (exposure time), and ISO sensitivity so that the exposure value is greater than the exposure value when the first image was captured. This is the captured image. Note that S10 and S11 are continuously processed, and the first image G1 and the second image G2 are images of the same subject.

S12では、第1画像G1の背景画像の明るさL1と、第2画像G2の背景画像の明るさL2を算出する。第1画像G1および第2画像G2から、機械学習アルゴリズムを用いて画像の顔領域を検出し、顔領域を特定する。そして、特定された顔領域から所定距離以上離れた所定範囲の領域を、背景領域として特定する。そして、第1画像G1の背景領域に含まれる各画素のRGBの階調と輝度の関係から各画素の輝度を算出し、算出した各画素の輝度の平均値を、背景画像の明るさL1として算出する。また、同様に、第2画像G2の背景領域に含まれる各画素のRGBの階調と輝度の関係から、背景画像の明るさL2として算出する。 In S12, the background image brightness L1 of the first image G1 and the background image brightness L2 of the second image G2 are calculated. From the first image G1 and the second image G2, a machine learning algorithm is used to detect the face area of the image to identify the face area. Then, an area within a predetermined range that is at least a predetermined distance away from the identified face area is identified as a background area. Then, the brightness of each pixel is calculated from the relationship between the RGB gradation and brightness of each pixel included in the background region of the first image G1, and the calculated average value of the brightness of each pixel is taken as the brightness L1 of the background image. calculate. Similarly, the brightness L2 of the background image is calculated from the relationship between the RGB gradation and brightness of each pixel included in the background area of the second image G2.

続く、S13において、明るさL1と明るさL2の差が所定値以上か否かを判定する。明るさL1と明るさL2の差(輝度の差)が所定値以上の場合、肯定判定されS14へ進む。明るさL1と明るさL2の差(輝度の差)が所定値より小さい場合、否定判定され、今回のルーチンを終了する。 Subsequently, in S13, it is determined whether or not the difference between the brightness L1 and the brightness L2 is equal to or greater than a predetermined value. If the difference (luminance difference) between the brightness L1 and the brightness L2 is equal to or greater than the predetermined value, the determination is affirmative and the process proceeds to S14. If the difference (luminance difference) between the brightness L1 and the brightness L2 is smaller than the predetermined value, a negative determination is made, and the current routine ends.

S14では、第1画像G1または第2画像G2から顔画像(特徴量データFi)を抽出する。たとえば、S12で特定した、第1画像G1の顔領域の画像から、機械学習アルゴリズムを用いて顔の特徴を示す特徴量データFiを検出する。特徴量データFiは、第2画像G2の顔領域の画像から抽出してもよい。 In S14, a face image (feature data Fi) is extracted from the first image G1 or the second image G2. For example, from the image of the face area of the first image G1 specified in S12, the feature amount data Fi representing the features of the face is detected using a machine learning algorithm. The feature amount data Fi may be extracted from the face area image of the second image G2.

S15では、メモリから、現在の日時(すなわち、第1画像G1または第2画像G2を撮像した日時)と最も近い貸出日時に紐付けられた基準顔画像(特徴量データRi)を読み出し、S16に進む。なお、基準顔画像は、上記のように、予め管理サーバ400から受信し、メモリに記憶されている。 In S15, the reference face image (feature amount data Ri) associated with the closest rental date and time to the current date and time (that is, the date and time when the first image G1 or the second image G2 was captured) is read from the memory, and the process proceeds to S16. move on. Note that the reference face image is received in advance from the management server 400 and stored in the memory as described above.

続く、S16では、S14で抽出した顔画像(特徴量データFi)と基準顔画像(特徴量データRi)と顔を照合判定し、顔認証を行う。上記のように、たとえば、2つの特徴量データの類似度が所定値以上であり一致しているとき、顔認証が成立し肯定判定され、S17へ進み、類似度が所定値未満であれば、顔認証が成立せず否定判定され、今回のルーチンを終了する。 Subsequently, in S16, the face image (feature amount data Fi) extracted in S14 and the reference face image (feature amount data Ri) are collated and determined to perform face authentication. As described above, for example, when the similarity between the two feature amount data is equal to or greater than a predetermined value and they match, face authentication is established and an affirmative determination is made, and the process proceeds to S17. Face authentication is not established and a negative determination is made, and this routine ends.

S17では、ドアECU300に、ドアロックを解錠するよう解錠指令を出力し、今回のルーチンを終了する。 In S17, an unlock command is output to the door ECU 300 to unlock the door, and the current routine ends.

本実施の形態によれば、第1画像G1と第2画像G2は、カメラ10で同一の被写体を撮像したものであり、被写体に焦点を合わせ、露出に関連するパラメータが異なる状態で撮像される。第1画像G1は、被写体の顔領域に焦点を合わせ、適正露出になるよう、露出に関連するパラメータである、絞り値(F値)、シャッタースピード(露光時間)、およびISO感度を調整して、撮像される。第2画像G2は、エレクトロニックフラッシュ20の発光と同期して、被写体の顔領域に焦点を合わせ、第1画像G1の撮像時の露出より露出値が大きくなるよう、露出に関連するパラメータである、絞り値(F値)、シャッタースピード(露光時間)、およびISO感度の少なくともひとつを調整して、撮像される。 According to the present embodiment, the first image G1 and the second image G2 are images of the same subject captured by the camera 10, focused on the subject, and captured with different parameters related to exposure. . The first image G1 focuses on the face area of the subject, and adjusts exposure-related parameters such as aperture value (F value), shutter speed (exposure time), and ISO sensitivity so as to achieve proper exposure. , is imaged. The second image G2 is synchronized with the emission of the electronic flash 20, focused on the subject's face area, and has parameters related to exposure such that the exposure value is greater than the exposure when the first image G1 was captured. At least one of the aperture value (F value), shutter speed (exposure time), and ISO sensitivity is adjusted to capture the image.

カメラ10で、人物を撮像した場合、カメラ10から背景までの距離は、カメラ10から人物までの距離より長い。このため、第2画像G2の背景画像は、第1画像G1の背景画像より暗くなる。本実施の形態では、第1画像G1の背景画像の明るさL1と第2画像G2の背景画像の明るさL2の差が所定値以上の場合、カメラ10で撮像した画像は人物を撮像した画像であり、なりすましでないと判定する。 When the camera 10 captures an image of a person, the distance from the camera 10 to the background is longer than the distance from the camera 10 to the person. Therefore, the background image of the second image G2 is darker than the background image of the first image G1. In the present embodiment, when the difference between the background image brightness L1 of the first image G1 and the background image brightness L2 of the second image G2 is equal to or greater than a predetermined value, the image captured by the camera 10 is an image of a person. and it is determined that it is not spoofing.

カメラ10で、印刷された顔写真pを撮像した場合、顔写真pに写っている背景と顔は同一平面上に存在し、カメラ10からの距離は同じであるので、第2画像G2の顔の周辺部の背景画像の明るさと、第1画像G1の顔の周辺の背景画像の明るさは、ほとんど変わらない。本実施の形態では、第1画像G1の背景画像の明るさL1と第2画像G2の背景画像の明るさL2の差が所定値より小さい場合、カメラ10で撮像した画像は顔写真を撮像した画像であり、なりすましであると判定する。なお、本実施の形態では、なりすましの形態として、印刷した顔写真の例を説明したが、ディスプレイの画像についても同様である。 When the printed face photo p is captured by the camera 10, the background and the face in the face photo p are on the same plane and the distance from the camera 10 is the same. and the brightness of the background image around the face in the first image G1 are almost the same. In the present embodiment, when the difference between the background image brightness L1 of the first image G1 and the background image brightness L2 of the second image G2 is smaller than a predetermined value, the image captured by the camera 10 is a face photograph. It is an image and is determined to be spoofing. In the present embodiment, an example of a printed facial photograph has been described as a form of spoofing, but the same applies to the image on the display.

以上のように、本実施の形態によれば、顔写真やディスプレイの画像の特徴を捉えるための専用デバイスを設けることなく、なりすましを判定でき、なりすましを抑制することができる。 As described above, according to the present embodiment, spoofing can be determined and spoofing can be suppressed without providing a dedicated device for capturing the features of a face photograph or a display image.

本実施の形態では、第1画像G1を撮像し、連続して第2画像G2を撮像しているが、最初に第2画像G2を撮像し、連続して第1画像G1を撮像してもよい。 In the present embodiment, the first image G1 is captured and then the second image G2 is continuously captured. good.

本実施の形態では、基準顔画像取得部205で、予め、管理サーバ400から基準顔画像(特徴量データRi)を受信して取得している。しかし、第1画像G1および第2画像G2の撮像後、あるいは、撮像と同時に、基準顔画像を取得するようにしてもよい。たとえば、図5のフローチャートの処理の開始と同時に、車両1の車両IDと現在の日時を管理サーバ400に送信し、現在の日時に車両1を予約している会員の基準顔画像を要求し、管理サーバ400から基準顔画像を受信してもよい。また、携帯端末500がNFC装置にかざされたとき、携帯端末500から会員のIDを取得可能であれば、取得した会員のIDの基準顔画像の送信要求を管理サーバ400に送信して、該当する会員の基準顔画像を受信してもよい。 In this embodiment, the reference face image acquisition unit 205 receives and acquires the reference face image (feature data Ri) from the management server 400 in advance. However, the reference face image may be obtained after or at the same time that the first image G1 and the second image G2 are captured. For example, simultaneously with the start of the process of the flowchart of FIG. 5, the vehicle ID of vehicle 1 and the current date and time are transmitted to the management server 400, and the reference face image of the member who has reserved the vehicle 1 at the current date and time is requested, A reference face image may be received from the management server 400 . Also, when the mobile terminal 500 is held up to the NFC device, if the member's ID can be acquired from the mobile terminal 500, a transmission request for the reference face image of the acquired member's ID is transmitted to the management server 400, You may receive the reference face image of the member who does.

本実施の形態では、図5のフローチャートにおいて、S13で否定判定されたとき、およびS16で否定判定されたとき、ルーチンを終了していた。しかし、S13、およびS16で否定判定されたとき、予約した会員以外の人物が車両1を使用しようとしている旨の情報を、管理サーバ400に送信するようにしてもよい。 In the present embodiment, in the flowchart of FIG. 5, the routine ends when a negative determination is made in S13 and when a negative determination is made in S16. However, when negative determinations are made in S13 and S16, information may be transmitted to the management server 400 to the effect that a person other than the member who made the reservation is going to use the vehicle 1. FIG.

本実施の形態では、第1画像G1の撮像時に、エレクトロニックフラッシュ20を非発光としたが、発光してもよい。この場合、第1画像G1の撮像時におけるエレクトロニックフラッシュ20の発光量は、第2画像G2の撮影時における発光量より、十分小さな値とすることが望ましい。また、被写体に照明を照射できる構成であればよく、エレクトロニックフラッシュ20に代えて、LED(Light Emitting Diode)ライト等の照明器具であってもよい。 In this embodiment, the electronic flash 20 does not emit light when capturing the first image G1, but it may emit light. In this case, it is desirable that the amount of light emitted by the electronic flash 20 when capturing the first image G1 is sufficiently smaller than the amount of light emitted when capturing the second image G2. Also, any configuration may be used as long as it can illuminate the subject, and instead of the electronic flash 20, a lighting fixture such as an LED (Light Emitting Diode) light may be used.

(実施の形態2)
上記の実施の形態では、第1画像G1の背景画像の明るさL1と第2画像G2の背景画像の明るさL2の差を用いて、なりすましを判定していた。実施の形態2では、第1画像G1における顔fの明るさと背景画像の明るさL1の差、および、第2画像G2における顔fの明るさと背景画像の明るさL2の差を用いて、なりすましを判定する。
(Embodiment 2)
In the above embodiment, spoofing is determined using the difference between the background image brightness L1 of the first image G1 and the background image brightness L2 of the second image G2. In Embodiment 2, spoofing is performed using the difference between the brightness of the face f in the first image G1 and the brightness L1 of the background image, and the difference between the brightness of the face f in the second image G2 and the brightness L2 of the background image. judge.

カメラ10で人物を撮像した場合、図3(A)に示すように、第1画像G1において、背景bおよび人物の顔fとも適正な明るさで撮像され、顔fの明るさと背景画像の明るさL1の差は小さい。しかし、図3(B)に示すように、第2画像G2では、人物の顔fは適正な明るさで撮像されるが、背景bは暗く撮像されので、顔fの明るさと背景画像の明るさL2の差は大きくなる。 When an image of a person is captured by the camera 10, as shown in FIG. The difference in height L1 is small. However, as shown in FIG. 3B, in the second image G2, the face f of the person is captured with appropriate brightness, but the background b is captured dark. The difference in height L2 becomes large.

カメラ10で印刷した顔写真pを撮像した場合、図4(A)、(B)に示すように、第1画像G1および第2画像G2において、顔fと背景bpは同様な明るさで撮像されるので、第1画像G1の顔fの明るさと背景画像の明るさL1の差は小さく、同様に、第2画像G2の顔fの明るさと背景画像の明るさL2の差も小さい。 When the photograph of the face p printed by the camera 10 is captured, the face f and the background bp are captured with the same brightness in the first image G1 and the second image G2, as shown in FIGS. Therefore, the difference between the brightness of the face f in the first image G1 and the background image brightness L1 is small, and similarly, the difference between the brightness of the face f in the second image G2 and the background image brightness L2 is also small.

したがって、第2画像G2における顔fの明るさと背景画像の明るさL2の差が、第1画像G1における顔fの明るさと背景画像の明るさL1の差より所定値以上大きい場合、人物を撮像した画像であることを、判定できる。 Therefore, when the difference between the brightness of the face f in the second image G2 and the background image brightness L2 is larger than the difference between the brightness of the face f in the first image G1 and the background image brightness L1 by a predetermined value or more, the person is captured. It can be determined that the image is an image that has been processed.

図6は、実施の形態2において、認証ECU200a内に構成される機能ブロック図である。なお、実施の形態2において、認証ECU200a以外の構成は、実施の形態1と同様であるので、その説明を省略する。また、図6において、カメラ制御部201、顔抽出部204、基準顔画像取得部205、および照合判定部206は、実施の形態1の認証ECU200と同様であるので、その説明を省略する。 FIG. 6 is a functional block diagram configured in authentication ECU 200a in the second embodiment. In the second embodiment, the configuration other than the authentication ECU 200a is the same as that of the first embodiment, so description thereof will be omitted. 6, camera control unit 201, face extraction unit 204, reference face image acquisition unit 205, and collation determination unit 206 are the same as authentication ECU 200 of the first embodiment, so description thereof will be omitted.

顔/背景領域検出部202aは、カメラ10で撮像した第1画像G1および第2画像G2から、機械学習アルゴリズムを用いて、画像の顔領域を検出し、顔領域を特定する。なお、被写体の目、鼻、口の位置を検出し、その位置情報を元に、画像の顔領域を検出し、顔領域を特定してもよい。実施の形態1と同様に、特定された顔領域から所定距離以上離れた所定範囲の領域を、背景領域として特定する。そして、実施の形態1と同様に、第1画像G1の背景領域から、背景画像の明るさL1を算出するとともに、第2画像G2の背景領域から、背景画像の明るさL2を算出する。 The face/background area detection unit 202a uses a machine learning algorithm to detect the face area of the image from the first image G1 and the second image G2 captured by the camera 10, and specifies the face area. Note that the positions of the eyes, nose, and mouth of the subject may be detected, and based on the position information, the face area of the image may be detected and the face area may be specified. As in the first embodiment, a predetermined range of areas separated by a predetermined distance or more from the identified face area is identified as a background area. Then, similarly to the first embodiment, the background image brightness L1 is calculated from the background area of the first image G1, and the background image brightness L2 is calculated from the background area of the second image G2.

顔/背景領域検出部202aは、第1画像G1の顔領域に含まれる各画素の輝度の平均値を、第1画像G1の顔fの明るさFL1として算出し、第2画像G2の顔領域に含まれる各画素の輝度の平均値を、第2画像G2の顔fの明るさFL2として算出する。そして、顔/背景領域検出部202aは、第1画像G1における顔fの明るさFL1と背景画像の明るさL1の差S1(=|FL1-L1|)を算出し、第2画像G2における顔fの明るさと背景画像の明るさL2の差S2(=|FL2-L2|)を算出する。 The face/background area detection unit 202a calculates the average luminance value of each pixel included in the face area of the first image G1 as the brightness FL1 of the face f of the first image G1, and calculates the brightness FL1 of the face f of the first image G1 as the face area of the second image G2. is calculated as the brightness FL2 of the face f in the second image G2. Then, the face/background area detection unit 202a calculates the difference S1 (=|FL1−L1|) between the brightness FL1 of the face f in the first image G1 and the brightness L1 of the background image, and calculates the difference S1 (=|FL1−L1|) A difference S2 (=|FL2−L2|) between the brightness of f and the brightness L2 of the background image is calculated.

なりすまし判定部203aは、第1画像G1における顔fの明るさFL1と背景画像の明るさL1の差S1が所定値αより小さく(S1<α)、かつ、第2画像G2における顔fの明るさと背景画像の明るさL2の差S2が所定値α以上(S2≧α)の条件が成立すると、画像は人物を撮像した画像であり、なりすましでないと判定する。また、なりすまし判定部203aは、第1画像G1における顔fの明るさFL1と背景画像の明るさL1の差S1が所定値αより小さく(S1<α)、かつ、第2画像G2における顔fの明るさと背景画像の明るさL2の差S2が所定値αより小さい(S2<α)条件が成立すると、画像は顔写真を撮像した画像であり、なりすましであると判定する。いずれの条件も成立しない場合、なりすまし判定部203aは、なりすましの有無を判定しない。なお、所定値αは、実験等によって、予め設定される。 The spoofing determination unit 203a determines whether the difference S1 between the brightness FL1 of the face f in the first image G1 and the brightness L1 of the background image is smaller than a predetermined value α (S1<α) and the brightness of the face f in the second image G2. If the condition that the difference S2 between the brightness L2 of the background image and the background image is equal to or greater than a predetermined value α (S2≧α) is satisfied, it is determined that the image is an image of a person and is not spoofing. In addition, the spoofing determination unit 203a determines that the difference S1 between the brightness FL1 of the face f in the first image G1 and the brightness L1 of the background image is smaller than a predetermined value α (S1<α), and the face f in the second image G2 If the difference S2 between the brightness L2 of the background image and the brightness L2 of the background image is smaller than a predetermined value α (S2<α), the image is determined to be a photograph of a person's face and to be impersonation. If none of the conditions are met, the spoofing determination unit 203a does not determine the presence or absence of spoofing. Note that the predetermined value α is set in advance by experiments or the like.

図7は、認証ECU200aで実行される処理の概略フローチャートである。このフローチャートは、図5のフローチャートのS12、S13を廃止し、S20~S23を追加したものである。図7において、S10~S17の処理は、図5のフローチャートと同様であるので、その説明を省略する。 FIG. 7 is a schematic flowchart of processing executed by the authentication ECU 200a. This flowchart eliminates S12 and S13 of the flowchart of FIG. 5 and adds S20 to S23. In FIG. 7, the processes of S10 to S17 are the same as those in the flowchart of FIG. 5, so description thereof will be omitted.

S20では、第1画像G1における顔fの明るさFL1と背景画像の明るさL1の差S1(=|FL1-L1|)、および、第2画像G2における顔fの明るさと背景画像の明るさL2の差S2(=|FL2-L2|)を算出する。カメラ10で撮像した第1画像G1および第2画像G2から、機械学習アルゴリズムを用いて、画像の顔領域を検出し、顔領域を特定する。特定された顔領域から所定距離以上離れた所定範囲の領域を、背景領域として特定し、第1画像G1の背景領域から、背景画像の明るさL1を算出するとともに、第2画像G2の背景領域から、背景画像の明るさL2を算出する。第1画像G1の顔領域に含まれる各画素の輝度の平均値を、第1画像G1の顔fの明るさFL1として算出し、第2画像G2の顔領域に含まれる各画素の輝度の平均値を、第2画像G2の顔fの明るさFL2として算出する。そして、顔/背景領域検出部202aは、第1画像G1における顔fの明るさFL1と背景画像の明るさL1の差S1を算出し、第2画像G2における顔fの明るさと背景画像の明るさL2の差S2を算出する。 In S20, the difference S1 (=|FL1−L1|) between the brightness FL1 of the face f and the brightness L1 of the background image in the first image G1, and the brightness of the face f and the brightness of the background image in the second image G2 are calculated. A difference S2 (=|FL2-L2|) of L2 is calculated. From the first image G1 and the second image G2 captured by the camera 10, a machine learning algorithm is used to detect and identify the face area of the image. A region of a predetermined range separated by a predetermined distance or more from the identified face region is identified as a background region, the brightness L1 of the background image is calculated from the background region of the first image G1, and the background region of the second image G2 is calculated. , the brightness L2 of the background image is calculated. The average brightness of each pixel included in the face region of the first image G1 is calculated as the brightness FL1 of the face f in the first image G1, and the average brightness of each pixel included in the face region of the second image G2 is calculated. A value is calculated as the brightness FL2 of the face f in the second image G2. Then, the face/background area detection unit 202a calculates the difference S1 between the brightness FL1 of the face f in the first image G1 and the brightness L1 of the background image, and calculates the difference S1 between the brightness FL1 of the face f in the first image G1 and the brightness L1 of the background image. A difference S2 of the height L2 is calculated.

続く、S21では、明るさの差S1が所定値αより小さく(S1<α)、かつ、明るさの差S2が所定値α以上(S2≧α)であるか否かを判定する。カメラ10で人物を撮像した画像の場合、第1画像G1における顔fの明るさFL1と背景画像の明るさL1の差S1は小さく、第2画像G2における顔fの明るさと背景画像の明るさL2の差S2は大きいので、S21で肯定判定され、S14へ進む。 Subsequently, in S21, it is determined whether or not the difference S1 in brightness is smaller than a predetermined value α (S1<α) and the difference S2 in brightness is equal to or greater than a predetermined value α (S2≧α). In the case of an image of a person captured by the camera 10, the difference S1 between the brightness FL1 of the face f in the first image G1 and the brightness L1 of the background image is small, and the brightness of the face f and the brightness of the background image in the second image G2 is small. Since the difference S2 of L2 is large, an affirmative determination is made in S21, and the process proceeds to S14.

S21で否定判定されると、S22へ進み、明るさの差S1が所定値αより小さく(S1<α)、かつ、明るさの差S2が所定値αより小さい(S2<α)か否かを判定する。カメラ10で印刷した顔写真pを撮像した画像の場合、第1画像G1における顔fの明るさFL1と背景画像の明るさL1の差S1は小さく、第2画像G2における顔fの明るさと背景画像の明るさL2の差S2も小さいので、S22で肯定判定され、S23へ進む。 If the determination in S21 is negative, the process advances to S22 to determine whether the brightness difference S1 is smaller than a predetermined value α (S1<α) and the brightness difference S2 is smaller than a predetermined value α (S2<α). judge. In the case of the image obtained by capturing the photograph of the face p printed by the camera 10, the difference S1 between the brightness FL1 of the face f in the first image G1 and the brightness L1 of the background image is small, and the brightness of the face f and the background in the second image G2 is small. Since the difference S2 of the brightness L2 of the image is also small, an affirmative determination is made in S22, and the process proceeds to S23.

S23では、カメラ10で撮像した画像は、顔写真pを撮像したなりすますの画像であると判定し、たとえば、その旨の情報を管理サーバ400に送信し、今回のルーチンを終了する。 In S23, it is determined that the image captured by the camera 10 is a spoofed image of the facial photograph p, and information to that effect is transmitted to the management server 400, for example, and the current routine ends.

S22で否定判定される場合は、カメラ10で撮像された画像が、人物の撮像した画像であるか、あるいは、顔写真pを撮像した画像であるかを判定できないので、今回野ルーチンを終了する。 If a negative determination is made in S22, it cannot be determined whether the image captured by the camera 10 is an image of a person or an image of a photograph of the face p, so the current routine is terminated. .

カメラ10で人物を撮像した場合、カメラ10から背景までの距離は、カメラ10から人物までの距離より長いので、第1画像G1における顔fの明るさFL1と背景画像の明るさL1の差S1が所定値αより小さく、かつ、第2画像G2における顔fの明るさと背景画像の明るさL2の差S2が所定値α以上になる。したがって、この実施の形態2によれば、カメラ10で撮像した画像が、人物を撮像した画像であり、なりすましでないと判定することができる。 When a person is captured by the camera 10, the distance from the camera 10 to the background is longer than the distance from the camera 10 to the person. is smaller than the predetermined value α, and the difference S2 between the brightness of the face f in the second image G2 and the brightness L2 of the background image is greater than or equal to the predetermined value α. Therefore, according to the second embodiment, it can be determined that the image captured by the camera 10 is an image of a person and is not impersonation.

カメラ10で、印刷された顔写真pを撮像した場合、顔写真pに写っている背景と顔は同一平面上に存在し、カメラ10からの距離は同じであるので、第1画像G1における顔fの明るさFL1と背景画像の明るさL1の差S1が所定値αより小さく、かつ、第2画像G2における顔fの明るさと背景画像の明るさL2の差S2が所定値αより小さくなる。したがって、この実施の形態2によれば、カメラ10で撮像した画像は顔写真を撮像した画像であり、なりすましであると判定することができる。 When the printed facial photograph p is captured by the camera 10, the background and the face appearing in the facial photograph p are on the same plane, and the distance from the camera 10 is the same. The difference S1 between the brightness FL1 of the face f and the brightness L1 of the background image is less than a predetermined value α, and the difference S2 between the brightness of the face f in the second image G2 and the brightness L2 of the background image is less than a predetermined value α. . Therefore, according to the second embodiment, the image captured by the camera 10 is an image of a photograph of the face, and can be determined to be spoofing.

以上のように、この実施の形態2によれば、顔写真やディスプレイの画像の特徴を捉えるための専用デバイスを設けることなく、なりすましを判定でき、なりすましを抑制することができる。 As described above, according to the second embodiment, spoofing can be determined and spoofing can be suppressed without providing a dedicated device for capturing the features of the face photograph or the image on the display.

(変形例)
上記の実施の形態1および実施の形態2では、第1画像G1の背景画像の明るさL1と、第2画像G2の背景画像の明るさL2を比較して、なりすましを判定していた。しかし、第1画像G1と第2画像G2の全体の明るさを比較して、なりすましを判定するようにしてもよい。たとえば、第1画像G1と第2画像G2の同一座標の画素毎に輝度差を算出し、輝度差の分布を求める。そして、分布に広がりが所定値以上であるか、あるいは、分布の山が分離している場合、人物を撮像した画像であり、なりすましでないと判定し、分布の広がりが所定値以内であり、かつ、分布の山が分離していない場合、顔写真やディスプレイの画像を撮像した画像であり、なりすましであると判定してもよい。
(Modification)
In Embodiments 1 and 2 described above, spoofing is determined by comparing the brightness L1 of the background image of the first image G1 and the brightness L2 of the background image of the second image G2. However, spoofing may be determined by comparing the overall brightness of the first image G1 and the second image G2. For example, the luminance difference is calculated for each pixel at the same coordinates in the first image G1 and the second image G2, and the luminance difference distribution is obtained. Then, if the spread of the distribution is greater than or equal to a predetermined value, or if the peaks of the distribution are separated, it is determined that the image is an image of a person and is not impersonation, the spread of the distribution is within a predetermined value, and , if the peaks of the distribution are not separated, it may be determined that the image is a photograph of a face or an image of a display and that the image is spoofing.

また、上記の実施の形態1あるいは実施の形態2のなりすまし判定に加えて、上記変形例のなりすまし判定を実行することにより、より精度よく、人物を撮像した場合の背景bと、印刷した顔写真pを撮像した場合の顔写真pの背景bpとを判別することが可能になる。 In addition to the spoofing determination of the first embodiment or the second embodiment, the spoofing determination of the above-described modified example can be performed to achieve more accurate background b when a person is imaged and a printed facial photograph. It becomes possible to discriminate the background bp of the facial photograph p when p is imaged.

(実施の形態3)
実施の形態1では、第1画像G1の背景画像の明るさL1と第2画像G2の背景画像の明るさL2の差を用いて、なりすましを判定していた。実施の形態3では、第1画像の背景画像と第2画像の背景画像のボケの程度を用いて、なりすましを判定する。なお、実施の形態3において、顔認証システムが搭載された車両の基本的な構成は、図1の車両1と実施的に同様であり、認証ECU200の構成のみ相違する。
(Embodiment 3)
In Embodiment 1, spoofing is determined using the difference between the background image brightness L1 of the first image G1 and the background image brightness L2 of the second image G2. In the third embodiment, spoofing is determined using the degree of blurring of the background image of the first image and the background image of the second image. In Embodiment 3, the basic configuration of a vehicle equipped with a face authentication system is practically the same as that of vehicle 1 in FIG. 1, and only the configuration of authentication ECU 200 is different.

図8は、実施の形態3において、カメラ10で人物を撮像した画像を示す図である。図8(A)は、カメラ10の絞り値(F値)を所定値(たとえば、F16)で撮像した第1画像g1であり、図8(B)は、絞り値を所定値より小さい値(たとえば、F2.8)で撮像した第2画像g2である。なお、カメラ10の焦点は、オートフォーカス処理により、人物の顔fに合わせている。被写体が人物の場合、カメラ10から背景bまでの距離は、カメラ10から顔fまでの距離より長い(遠い)。カメラ10の絞り値を所定値(たとえば、F16)で撮像した第1画像g1では、被写界深度が比較的深いので、図8(A)に示すように、格子模様で表した背景bのボケの程度(ボケ量)は比較的小さい。カメラ10の絞り値を所定値より小さい値(たとえば、F2.8)で撮像した第2画像g2では、被写界深度が浅くなるので、図8(B)に示すように、背景bのボケの程度が大きくなる。 FIG. 8 is a diagram showing an image of a person captured by the camera 10 in the third embodiment. FIG. 8A shows the first image g1 captured by setting the aperture value (F number) of the camera 10 to a predetermined value (for example, F16), and FIG. For example, the second image g2 captured with F2.8). Note that the camera 10 is focused on the person's face f by autofocus processing. When the subject is a person, the distance from the camera 10 to the background b is longer (further) than the distance from the camera 10 to the face f. In the first image g1 captured with the aperture value of the camera 10 at a predetermined value (for example, F16), the depth of field is relatively deep. The degree of blur (bokeh amount) is relatively small. In the second image g2 captured with the aperture value of the camera 10 smaller than a predetermined value (for example, F2.8), the depth of field is shallow, so that the background b is blurred as shown in FIG. 8B. increase in the degree of

図9は、実施の形態3において、カメラ10で、印刷した顔写真pを撮像した画像を示す図である。図9(A)は、カメラ10の絞り値(F値)を所定値(たとえば、F16)で撮像した第1画像g1であり、図9(B)は、絞り値を所定値より小さい値(たとえば、F2.8)で撮像した第2画像g2である。なお、カメラ10の焦点は、オートフォーカス処理により、人物の顔fに合わせている。被写体が顔写真pである場合、顔写真pにおいて、斜線で表した背景bpと顔fは同一平面上に存在し、カメラ10からの距離は同じであるので、カメラ10の被写界深度の大小に関係無く、背景bpのボケの程度は小さい。 FIG. 9 is a diagram showing an image of a printed facial photograph p captured by the camera 10 in the third embodiment. FIG. 9A shows the first image g1 captured with the aperture value (F-number) of the camera 10 set to a predetermined value (for example, F16), and FIG. For example, the second image g2 captured with F2.8). Note that the camera 10 is focused on the person's face f by autofocus processing. When the subject is a photograph of the face p, the background bp and the face f represented by diagonal lines are on the same plane in the photograph of the face p, and the distance from the camera 10 is the same. Regardless of the size, the blurring degree of the background bp is small.

したがって、カメラ10の被写界深度を変えて同一被写体を撮像し、撮像した画像における顔領域周辺の背景画像のボケの程度を比較することにより、顔写真やディスプレイの画像を用いたなりすましを判定することができる。 Therefore, by photographing the same subject while changing the depth of field of the camera 10 and comparing the degree of blurring of the background image around the face area in the photographed image, it is possible to determine spoofing using the photograph of the face or the image of the display. can do.

図10は、実施の形態3において、認証ECU200b内に構成される機能ブロック図である。図10において、顔抽出部204、基準顔画像取得部205、および照合判定部206は、実施の形態1の認証ECU200と同様であるので、その説明を省略する。 FIG. 10 is a functional block diagram configured in authentication ECU 200b in the third embodiment. In FIG. 10, the face extraction unit 204, the reference face image acquisition unit 205, and the collation determination unit 206 are the same as those of the authentication ECU 200 of the first embodiment, so description thereof will be omitted.

カメラ制御部201bは、カメラECU100を介してカメラ10を制御する。たとえば、携帯端末500を、車両1のドア3近傍に設置されたNFC装置の読み取り部にかざすと、カメラ10で、第1画像g1および第2画像g2を撮像するよう、カメラECU100に撮像指令を出力する。撮像指令は、第1画像g1として、被写体を所定の絞り値(たとえば、F16)で撮像し、第2画像として、所定の絞り値より小さい絞り値(たとえば、F2.8)で被写体を撮像する指令である。第1画像g1の撮像と第2画像g2の撮像は、連続して行われ、第1画像g1と第2画像g2は、同一の被写体を撮像した画像である。 The camera control unit 201b controls the camera 10 via the camera ECU 100. FIG. For example, when the mobile terminal 500 is held over the reader of the NFC device installed near the door 3 of the vehicle 1, the camera ECU 100 is instructed to capture the first image g1 and the second image g2 by the camera 10. Output. The imaging command is to image the subject with a predetermined aperture value (eg, F16) as the first image g1, and image the subject with an aperture value smaller than the predetermined aperture value (eg, F2.8) as the second image. Directive. The imaging of the first image g1 and the imaging of the second image g2 are continuously performed, and the first image g1 and the second image g2 are images of the same subject.

カメラECU100は、撮像指令を受信すると、焦点制御部101で被写体(人物)の顔領域に焦点を合わせる。そして、絞り値を所定の絞り値に設定し、露出制御部102で適正露出になるよう、シャッタースピード(露光時間)、およびISO感度を調整して、第1画像g1を撮像するよう、カメラ10を動作する。カメラ10は、撮像した画像を第1画像g1として出力する。カメラECU100は、第1画像g1を撮像すると、続けて、絞り値を所定の絞り値より小さい絞り値に設定し、露出制御部102で、適正露出になるよう、シャッタースピード(露光時間)、およびISO感度を調整して、第2画像g2を撮像するよう、カメラ10を動作する。カメラ10は、撮像した画像を第2画像g2として出力する。 When the camera ECU 100 receives the imaging command, the focus control unit 101 focuses on the face area of the subject (person). Then, the camera 10 sets the aperture value to a predetermined aperture value, adjusts the shutter speed (exposure time) and the ISO sensitivity so that the exposure control unit 102 obtains an appropriate exposure, and captures the first image g1. to work. The camera 10 outputs the captured image as the first image g1. After capturing the first image g1, the camera ECU 100 continuously sets the aperture value to be smaller than a predetermined aperture value, and the exposure control unit 102 controls the shutter speed (exposure time) and The camera 10 is operated so as to adjust the ISO sensitivity and capture the second image g2. The camera 10 outputs the captured image as the second image g2.

顔/背景領域検出部202bは、カメラ10で撮像した第1画像g1および第2画像g2から、機械学習アルゴリズムを用いて、画像の顔領域を検出し、顔領域を特定する。なお、被写体の目、鼻、口の位置を検出し、その位置情報を元に、画像の顔領域を検出し、顔領域を特定してもよい。そして、特定された顔領域から所定距離以上離れた所定範囲の領域を、背景領域として特定する。 The face/background area detection unit 202b uses a machine learning algorithm to detect the face area of the image from the first image g1 and the second image g2 captured by the camera 10, and specifies the face area. Note that the positions of the eyes, nose, and mouth of the subject may be detected, and based on the position information, the face area of the image may be detected and the face area may be specified. Then, an area within a predetermined range that is at least a predetermined distance away from the identified face area is identified as a background area.

顔/背景領域検出部202bは、第1画像g1の背景領域から、背景画像のボケの程度(ボケ量)bk1を算出するとともに、第2画像g2の背景領域から、背景画像のボケの程度(ボケ量)bk2を算出する。たとえば、背景領域において、隣接する画素間のコントラストが小さい(弱い)ほど、ボケの程度が大きいと算出する。 The face/background area detection unit 202b calculates the degree of background image blur (bokeh amount) bk1 from the background area of the first image g1, and calculates the degree of blur of the background image (bk1) from the background area of the second image g2. Bokeh amount) bk2 is calculated. For example, in the background area, the smaller (weaker) the contrast between adjacent pixels, the larger the degree of blurring.

なりすまし判定部203bは、顔/背景領域検出部202bで算出した、第1画像g1の背景画像のボケの程度bk1と、第2画像g2の背景画像のボケの程度bk2を比較し、カメラ10で撮像した画像が、顔写真を用いたなりすましの画像か否かを判定する。ボケの程度bk1とボケの程度bk2の差が所定値以上の場合、画像は人物を撮像した画像であり、なりすましでないと判定し、カメラ10で撮像した画像がなりすましでない旨の信号を出力する。ボケの程度bk1とボケの程度bk2の差が所定値より小さい場合、画像は顔写真を撮像した画像であり、なりすましであると判定する。なお、所定値は、実験等によって、予め設定される。 The spoofing determination unit 203b compares the degree of blur bk1 of the background image of the first image g1 and the degree of blur bk2 of the background image of the second image g2 calculated by the face/background area detection unit 202b. To determine whether or not a captured image is a spoofed image using a photograph of the face. When the difference between the degree of blur bk1 and the degree of blur bk2 is equal to or greater than a predetermined value, the image is an image of a person and is determined not to be spoofed, and a signal indicating that the image picked up by the camera 10 is not spoofed is output. If the difference between the degree of blur bk1 and the degree of blur bk2 is smaller than a predetermined value, it is determined that the image is an image obtained by picking up a face photograph and that the image is impersonation. Note that the predetermined value is set in advance by experiment or the like.

図11は、認証ECU200bで実行される処理の概略フローチャートである。このフローチャートは、図5のフローチャートのS10~S13を、S30~S33に置き換えたものである。図11において、S14~S17の処理は、図5のフローチャートと同様であるので、その説明を省略する。 FIG. 11 is a schematic flowchart of processing executed by the authentication ECU 200b. In this flowchart, S10 to S13 in the flowchart of FIG. 5 are replaced with S30 to S33. In FIG. 11, the processes of S14 to S17 are the same as those in the flowchart of FIG. 5, so description thereof will be omitted.

まず、S30で、カメラ10で被写体を撮像し、第1画像g1を取得する。第1画像g1は、被写体(人物)の顔領域に焦点を合わせ、絞り値を所定の絞り値に設定し、適正露出になるよう、シャッタースピード(露光時間)、およびISO感度を調整して撮像した画像である。 First, in S30, the camera 10 captures an image of the subject to acquire the first image g1. The first image g1 is captured by focusing on the face area of the subject (person), setting the aperture value to a predetermined aperture value, and adjusting the shutter speed (exposure time) and ISO sensitivity to achieve proper exposure. This is an image with

続く、S31では、カメラ10で被写体を撮像し、第2画像g2を取得する。第2画像g2は、被写体(人物)の顔領域に焦点を合わせ、絞り値を所定の絞り値より小さい絞り値に設定し、適正露出になるよう、シャッタースピード(露光時間)、およびISO感度を調整して撮像した画像である。 Subsequently, in S31, the subject is imaged by the camera 10 and the second image g2 is obtained. For the second image g2, the face area of the subject (person) is focused, the aperture value is set to an aperture value smaller than a predetermined aperture value, and the shutter speed (exposure time) and ISO sensitivity are adjusted to achieve proper exposure. It is an image captured after adjustment.

S32において、第1画像g1の背景画像のボケの程度(ボケ量)bk1と、第2画像g2の背景画像のボケの程度(ボケ量)bk2を算出する。第1画像g1および第2画像g2から、機械学習アルゴリズムを用いて、画像の顔領域を検出し、顔領域を特定する。そして、特定された顔領域から所定距離以上離れた所定範囲の領域を、背景領域として特定する。そして、第1画像g1の背景領域において、隣接する画素間のコントラストからボケの程度bk1を算出する。また、同様に、第2画像g2の背景領域において、隣接する画素間のコントラストからボケの程度bk2を算出する。 In S32, the degree of blur (bokeh amount) bk1 of the background image of the first image g1 and the degree of blur (bokeh amount) bk2 of the background image of the second image g2 are calculated. From the first image g1 and the second image g2, a machine learning algorithm is used to detect and identify the face area of the image. Then, an area within a predetermined range that is at least a predetermined distance away from the identified face area is identified as a background area. Then, in the background area of the first image g1, the degree of blur bk1 is calculated from the contrast between adjacent pixels. Similarly, in the background area of the second image g2, the degree of blur bk2 is calculated from the contrast between adjacent pixels.

続く、S33において、ボケの程度bk1とボケの程度bk2の差が所定値以上か否かを判定する。ボケの程度bk1とボケの程度bk2の差が所定値以上の場合、肯定判定されS14へ進む。ボケの程度bk1とボケの程度bk2の差が所定値より小さい場合、否定判定され、今回のルーチンを終了する。 Subsequently, in S33, it is determined whether or not the difference between the degree of blur bk1 and the degree of blur bk2 is equal to or greater than a predetermined value. If the difference between the degree of blur bk1 and the degree of blur bk2 is greater than or equal to the predetermined value, the determination is affirmative and the process proceeds to S14. If the difference between the degree of blur bk1 and the degree of blur bk2 is smaller than the predetermined value, a negative determination is made and the current routine ends.

この実施の形態3によれば、第1画像g1を所定の絞り値(たとえば、F16)で撮像し、第2画像g2を所定の絞り値より小さな絞り値(たとえば、F2.8)で撮像する。そして、第1画像g1の背景画像のボケの程度bk1と第2画像g2の背景画像のボケの程度bk2の差が所定値以上のとき、なりすましでないと判定し、撮像した画像を用いて、顔認証を行っている。したがって、実施の形態1および実施の形態2と同様に、顔写真やディスプレイの画像の特徴を捉えるための専用デバイスを設けることなく、なりすましを判定でき、なりすましを抑制することができる。 According to the third embodiment, the first image g1 is captured with a predetermined aperture value (eg, F16), and the second image g2 is captured with a smaller aperture value than the predetermined aperture value (eg, F2.8). . Then, when the difference between the degree of blur bk1 of the background image of the first image g1 and the degree of blur bk2 of the background image of the second image g2 is equal to or greater than a predetermined value, it is determined that the image is not impersonation, and the photographed image is used to detect the face. doing authentication. Therefore, as in Embodiments 1 and 2, spoofing can be determined and spoofing can be suppressed without providing a dedicated device for capturing the features of a face photograph or a display image.

以上説明したように、上記の実施の形態(実施の形態1、実施の形態2、および実施の形態3)によれば、同一の被写体に対して、被写体に焦点を合わせ、露出に関連するパラメータが異なる状態で、第1画像と第2画像を撮像する。そして、第1画像と第2画像から、顔領域の周辺部である背景を背景画像として抽出し、第1画像の背景画像と第2画像の背景画像を用いて、なりすましを判定している。これにより、顔写真やディスプレイの画像の特徴を捉えるための専用デバイスを設けることなく、なりすましを判定でき、なりすましを抑制することができる。 As described above, according to the above-described embodiments (Embodiment 1, Embodiment 2, and Embodiment 3), for the same subject, the subject is focused, and parameters related to exposure are A first image and a second image are captured in different states. Then, from the first image and the second image, the background, which is the peripheral portion of the face area, is extracted as a background image, and spoofing is determined using the background image of the first image and the background image of the second image. As a result, spoofing can be determined and spoofing can be suppressed without providing a dedicated device for capturing the characteristics of the face photograph or the image on the display.

上記の実施の形態では、携帯端末をNFC装置の読み取り部にかざすと、カメラで被写体を撮像し、第1画像および第2画像を取得していた。しかし、携帯端末を用いることなく、顔認証を行うようにしてもよい。たとえば、カメラの近傍に設けた人感センサによって、貸出予約を行った会員がカメラに近づいたことを検知し、被写体(人物)を撮影するようにしてもよい。これにより、携帯端末を持ち歩くことなく、手ぶらで認証を行うことが可能になる。 In the above embodiment, when the mobile terminal is held over the reading unit of the NFC device, the camera captures an image of the subject and acquires the first image and the second image. However, face authentication may be performed without using a mobile terminal. For example, a motion sensor provided near the camera may detect that the member who has made the rental reservation approaches the camera, and the subject (person) may be photographed. This makes it possible to carry out authentication without carrying a mobile terminal.

上記の実施の形態では、カメラ10で撮像した画像から、顔/背景領域検出部202(202a、202b)で、画像の顔領域を検出して顔領域を特定し、特定した顔領域の画像から、顔抽出部204で、顔の特徴を示す特徴量データFi(顔画像)を抽出していた。しかし、顔領域を特定するとともに、顔の特徴を示す特徴量データFi(顔画像)を抽出することが可能な機械学習アルゴリズムを用いる場合は、顔抽出部204の機能を、顔/背景領域検出部202(202a、202b)に統合してもよい。 In the above embodiment, the face/background area detection unit 202 (202a, 202b) detects the face area of the image from the image captured by the camera 10 to specify the face area, and from the image of the specified face area, , the face extraction unit 204 extracts feature amount data Fi (face image) representing features of the face. However, when using a machine learning algorithm capable of specifying a face region and extracting feature amount data Fi (face image) indicating facial features, the function of the face extraction unit 204 is replaced by face/background region detection. It may be integrated into the section 202 (202a, 202b).

上記の実施の形態では、基準顔画像(特徴量データRi)を、管理サーバ400から取得していた。しかし、車両1の記憶装置、たとえば、認証ECUのメモリに記憶していてもよい。この場合、認証ECUは、管理サーバ400と通信を行うことなく、顔認証を実行できる。 In the above embodiment, the reference face image (feature amount data Ri) is acquired from the management server 400. FIG. However, it may be stored in the storage device of the vehicle 1, for example, the memory of the authentication ECU. In this case, the authentication ECU can perform face authentication without communicating with the management server 400 .

上記の実施の形態では、なりすましを判定するために撮像した第1画像または第2画像から、認証対象者の顔画像(特徴量データFi)を抽出している。したがって、なりすましの判定と顔認証を同時に行うことができる。なお、上記の実施の形態では、第1画像または第2画像から、認証対象者の顔画像を検出し、顔認証を行っていた。しかし、第1画像および第2画像の両方の画像から、認証対象者の顔画像を検出し、両方の画像から検出した顔画像が基準顔画像と一致したとき、顔認証が成立するようにしてもよい。 In the above embodiment, the facial image (feature data Fi) of the person to be authenticated is extracted from the first image or the second image taken for judging impersonation. Therefore, spoofing determination and face authentication can be performed at the same time. It should be noted that in the above embodiment, the face image of the person to be authenticated is detected from the first image or the second image, and face authentication is performed. However, when the face image of the person to be authenticated is detected from both the first image and the second image, and the face image detected from both images matches the reference face image, face authentication is established. good too.

上記の実施の形態では、連続して撮像した第1画像および第2画像を用いていた。しかし、同一の被写体を連続して撮像した画像を用いるのであれば、なりすましを判定するために用いる画像は3以上であってもよい。また、露出(露出値)や光量(照明の明るさ)を連続的に調整しながら撮像し、背景画像の差のプロファイルからなりすましを判定してもよい。 In the above embodiment, the first image and the second image that are captured in succession are used. However, three or more images may be used for judging impersonation as long as images of the same subject are continuously captured. Alternatively, an image may be captured while continuously adjusting the exposure (exposure value) and the amount of light (brightness of the illumination), and spoofing may be determined from the profile of the difference between the background images.

今回開示された実施の形態は、すべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した実施の形態の説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。 The embodiments disclosed this time should be considered as examples and not restrictive in all respects. The scope of the present invention is indicated by the scope of the claims rather than the description of the above-described embodiments, and is intended to include all modifications within the scope and meaning equivalent to the scope of the claims.

1 車両、2 車体、3 ドア、5 認証システム、10 カメラ、20 エレクトロニックフラッシュ、30 ドアロック装置、100 カメラECU、101 焦点制御部、102 露出制御部、103 発光制御部、200,200a,200b 認証ECU、201,201b カメラ制御部、202,202a,202b 顔/背景領域検出部、203,203a,203b なりすまし判定部、204 顔検出部、205 基準顔画像取得部、206 照合判定部、250 通信部、300 ドアECU、400 管理サーバ、401 ECU、402 記憶装置、403 通信装置、500 携帯端末。 1 vehicle, 2 vehicle body, 3 door, 5 authentication system, 10 camera, 20 electronic flash, 30 door lock device, 100 camera ECU, 101 focus control unit, 102 exposure control unit, 103 light emission control unit, 200, 200a, 200b authentication ECU, 201, 201b camera control unit, 202, 202a, 202b face/background area detection unit, 203, 203a, 203b spoofing determination unit, 204 face detection unit, 205 reference face image acquisition unit, 206 matching determination unit, 250 communication unit , 300 door ECU, 400 management server, 401 ECU, 402 storage device, 403 communication device, 500 portable terminal.

Claims (10)

カメラで撮像した顔画像と基準顔画像を照合し認証を行う顔認証システムであって、
同一の被写体に対して、前記被写体に焦点を合わせ、露出に関連するパラメータが異なる第1画像と第2画像を撮像するよう前記カメラを制御する、カメラ制御部と、
前記第1画像および前記第2画像における、顔領域の周辺部である背景を背景画像として検出する、背景領域検出部と、
前記第1画像の前記背景画像と前記第2画像の前記背景画像を用いて、なりすましを判定する、なりすまし判定部と、を備える顔認証システム。
A face authentication system that performs authentication by matching a face image captured by a camera with a reference face image,
a camera control unit configured to control the camera to capture a first image and a second image having different exposure-related parameters with respect to the same subject, focusing on the subject;
a background area detection unit that detects, as a background image, a background that is a peripheral portion of a face area in the first image and the second image;
A face authentication system comprising: a spoofing determination unit that determines spoofing using the background image of the first image and the background image of the second image.
前記カメラ制御部は、前記第1画像を所定の露出で撮像し、前記第2画像を前記第1画像撮像時の照明より明るい照明および前記所定の露出より大きな露出値で撮像し、
前記なりすまし判定部は、前記第1画像の前記背景画像と前記第2画像の前記背景画像の明るさの差が所定値以上のとき、なりすましでないと判定する、請求項1に記載の顔認証システム。
The camera control unit captures the first image with a predetermined exposure, captures the second image with illumination brighter than the illumination when the first image was captured, and with an exposure value greater than the predetermined exposure,
2. The face authentication system according to claim 1, wherein said spoofing determination unit determines that spoofing is not performed when a difference in brightness between said background image of said first image and said background image of said second image is equal to or greater than a predetermined value. .
前記カメラ制御部は、前記第1画像を所定の露出で撮像し、前記第2画像を前記第1画像撮像時の照明より明るい照明および前記所定の露出より大きな露出値で撮像し、
前記なりすまし判定部は、前記第1画像の顔領域の画像と前記背景画像の明るさの差が所定値より小さく、かつ、前記第2画像の顔領域の画像と前記背景画像の明るさの差が前記所定値以上のとき、なりすましでないと判定する、請求項1に記載の顔認証システム。
The camera control unit captures the first image with a predetermined exposure, captures the second image with illumination brighter than the illumination when the first image was captured, and with an exposure value greater than the predetermined exposure,
The spoofing determination unit determines that a difference in brightness between the image of the face area in the first image and the background image is smaller than a predetermined value, and a difference in brightness between the image of the face area in the second image and the background image. 2. The face authentication system according to claim 1, wherein when is equal to or greater than the predetermined value, the face authentication system determines that it is not spoofing.
前記カメラ制御部は、前記第1画像を所定の絞り値で撮像し、前記第2画像を前記所定の絞り値より小さな絞り値で撮像し、
前記なりすまし判定部は、前記第1画像の前記背景画像と前記第2画像の前記背景画像のボケの程度の差が所定値以上のとき、なりすましでないと判定する、請求項1に記載の顔認証システム。
The camera control unit captures the first image with a predetermined aperture value and captures the second image with an aperture value smaller than the predetermined aperture value,
2. The face authentication according to claim 1, wherein said spoofing determination unit determines that spoofing is not performed when a difference in degree of blur between said background image of said first image and said background image of said second image is equal to or greater than a predetermined value. system.
前記カメラで撮像した画像から、前記顔画像を抽出する顔抽出部と、
前記顔画像と前記基準顔画像を照合し、顔認証を行う照合判定部と、を更に備え、
前記照合判定部は、前記なりすまし判定部で、なりすましでないと判定されたとき、前記第1画像または前記第2画像の少なくとも一方から抽出した前記顔画像と前記基準顔画像を照合して、顔認証を行う、請求項2から請求項4のいずれか1項に記載の顔認証システム。
a face extraction unit that extracts the face image from the image captured by the camera;
a matching determination unit for matching the face image and the reference face image to perform face authentication;
The collation determination unit compares the face image extracted from at least one of the first image and the second image with the reference face image to perform face authentication when the impersonation determination unit determines that the impersonation is not performed. 5. The face authentication system according to any one of claims 2 to 4, wherein:
カメラで撮像した顔画像と基準顔画像を照合し認証を行う顔認証方法であって、
同一の被写体に対して、前記被写体に焦点を合わせ、露出に関連するパラメータが異なる第1画像と第2画像を前記カメラで撮像するステップと、
前記第1画像および前記第2画像における、顔領域の周辺部である背景を背景画像として検出するステップと、
前記第1画像の前記背景画像と前記第2画像の前記背景画像を比較することにより、なりすましを判定するステップと、を含む顔認証方法。
A face authentication method for performing authentication by matching a face image captured by a camera with a reference face image,
capturing with the camera a first image and a second image with different exposure-related parameters, focusing on the same subject;
a step of detecting a background, which is a peripheral portion of a face area, in the first image and the second image as a background image;
determining spoofing by comparing the background image of the first image and the background image of the second image.
前記カメラで撮像するステップは、前記第1画像を所定の照明および所定の露出で撮像するステップと、前記第2画像を前記所定の照明より明るい照明および前記所定の露出より大きな露出値で撮像するステップと、を含み、
前記なりすましを判定するステップは、前記第1画像の前記背景画像と前記第2画像の前記背景画像の明るさの差が所定値以上のとき、なりすましでないと判定する、請求項6に記載の顔認証方法。
The step of capturing images with the camera includes capturing the first image with a predetermined illumination and a predetermined exposure, and capturing the second image with illumination brighter than the predetermined illumination and an exposure value greater than the predetermined exposure. including steps and
7. The face according to claim 6, wherein the step of judging whether or not it is spoofing determines that it is not spoofing when a difference in brightness between said background image of said first image and said background image of said second image is equal to or greater than a predetermined value. Authentication method.
前記カメラで撮像するステップは、前記第1画像を所定の照明および所定の露出で撮像するステップと、前記第2画像を前記所定の照明より明るい照明および前記所定の露出より大きな露出値で撮像するステップと、を含み、
前記なりすましを判定するステップは、前記第1画像の顔領域の画像と前記背景画像の明るさの差が所定値より小さく、かつ、前記第2画像の顔領域の画像と前記背景画像の明るさの差が所定値以上のとき、なりすましでないと判定する、請求項6に記載の顔認証方法。
The step of capturing images with the camera includes capturing the first image with a predetermined illumination and a predetermined exposure, and capturing the second image with illumination brighter than the predetermined illumination and an exposure value greater than the predetermined exposure. including steps and
The step of judging spoofing comprises: a difference in brightness between the image of the face area of the first image and the background image being smaller than a predetermined value, and the brightness of the image of the face area of the second image and the background image; 7. The face authentication method according to claim 6, wherein when the difference between is equal to or greater than a predetermined value, it is determined that the person is not impersonating.
前記カメラで撮像するステップは、前記第1画像を所定の絞り値で撮像するステップと、前記第2画像を前記所定の絞り値より小さな絞り値で撮像するステップと、を含み、
前記なりすましを判定するステップは、前記第1画像の前記背景画像と前記第2画像の前記背景画像のボケの程度の差が所定値以上のとき、なりすましでないと判定する、請求項6に記載の顔認証方法。
The step of capturing an image with the camera includes capturing the first image with a predetermined aperture value, and capturing the second image with an aperture value smaller than the predetermined aperture value,
7. The step of determining spoofing according to claim 6, wherein when a difference in degree of blur between the background image of the first image and the background image of the second image is equal to or greater than a predetermined value, it is determined that the image is not spoofing. face recognition method.
前記なりすましを判定するステップで、なりすましでないと判定されたとき、前記第1画像または前記第2画像の少なくとも一方から抽出した前記顔画像と前記基準顔画像を照合して、顔認証を行うステップを、さらに含む、請求項7から請求項9のいずれか1項に記載の顔認証方法。 In the step of determining spoofing, when it is determined that spoofing is not performed, the face image extracted from at least one of the first image and the second image is compared with the reference face image to perform face authentication. 10. A face authentication method according to any one of claims 7 to 9, further comprising .
JP2021109944A 2021-07-01 2021-07-01 Face authentication system and face authentication method Pending JP2023007006A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021109944A JP2023007006A (en) 2021-07-01 2021-07-01 Face authentication system and face authentication method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021109944A JP2023007006A (en) 2021-07-01 2021-07-01 Face authentication system and face authentication method

Publications (1)

Publication Number Publication Date
JP2023007006A true JP2023007006A (en) 2023-01-18

Family

ID=85108169

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021109944A Pending JP2023007006A (en) 2021-07-01 2021-07-01 Face authentication system and face authentication method

Country Status (1)

Country Link
JP (1) JP2023007006A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021043496A (en) * 2019-09-06 2021-03-18 東芝テック株式会社 Digital imaging device, digital imaging method and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021043496A (en) * 2019-09-06 2021-03-18 東芝テック株式会社 Digital imaging device, digital imaging method and program
JP7382767B2 (en) 2019-09-06 2023-11-17 東芝テック株式会社 Digital imaging equipment, digital imaging methods, programs

Similar Documents

Publication Publication Date Title
EP2324391B1 (en) In-camera based method of detecting defect eye with high accuracy
KR100826309B1 (en) Device for authenticating face image
WO2009107237A1 (en) Biometrics device
JP2003178306A (en) Personal identification device and personal identification method
JP2006259923A (en) Object authentication device, face authentication device, cellular phone, object authentication unit, object authentication method, and object authentication program
CN106878605A (en) The method and electronic equipment of a kind of image generation based on electronic equipment
JP2006259924A (en) Object authentication device, cellular phone, object authentication unit, object authentication method, and object authentication program
CN103294993A (en) Apparatus and method for identifying fake face
JP2003030647A (en) Image processor, image processing method and program
JP2004261515A (en) Iris image pickup device
KR101123834B1 (en) Method and camera device for determination of photograph cheating using controllable ir light
JP2007334854A (en) Registration device, collation device, extraction method and program
JP4670521B2 (en) Imaging device
JP2007094535A (en) Authentication system and authentication method
JP2007067934A (en) Imaging apparatus and its control method
JP2023007006A (en) Face authentication system and face authentication method
JP2008139973A (en) Face image authentication system and imaging device
JP2005157648A (en) Device for recognizing driver
JP7357640B2 (en) Solid-state imaging device, solid-state imaging method, and electronic equipment
JP2008052510A (en) Iris imaging apparatus, iris authentication apparatus, iris imaging method, iris authentication method
JP2003308524A (en) Access control system
CN109426762B (en) Biological recognition system, method and biological recognition terminal
JP4823681B2 (en) Personal identification device
CN113128259B (en) Face recognition device and face recognition method
JP2006081087A (en) Imaging apparatus and method