JP2023007006A - Face authentication system and face authentication method - Google Patents
Face authentication system and face authentication method Download PDFInfo
- Publication number
- JP2023007006A JP2023007006A JP2021109944A JP2021109944A JP2023007006A JP 2023007006 A JP2023007006 A JP 2023007006A JP 2021109944 A JP2021109944 A JP 2021109944A JP 2021109944 A JP2021109944 A JP 2021109944A JP 2023007006 A JP2023007006 A JP 2023007006A
- Authority
- JP
- Japan
- Prior art keywords
- image
- face
- background
- camera
- spoofing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本開示は、顔認証システム、および顔認証方法に関する。 The present disclosure relates to face authentication systems and face authentication methods.
特開2008-139973号公報(特許文献1)には、カメラで撮像した画像を用いて個人認証を行う、顔画像認証システムが開示されている。この顔画像認証システムでは、認証対象者の画像から白目部分の輝度を検出し、検出した白目部分の輝度に基づいて、カメラの露出またはフラッシュの発光量の一方を調整して認証対象者を撮像し、撮像した画像を用いて認証を行っている。 Japanese Patent Application Laid-Open No. 2008-139973 (Patent Document 1) discloses a face image authentication system that performs personal authentication using an image captured by a camera. This facial image recognition system detects the brightness of the whites of the eyes from the image of the person to be authenticated, and adjusts either the camera exposure or the amount of flash light based on the detected brightness of the whites of the eyes to image the person to be authenticated. Then, the captured image is used for authentication.
画像を用いた顔認証システムでは、印刷した顔写真やweb(World Wide Web)上に公開されている画像などをカメラに提示して、他人になりすます不正行為が懸念される。特許文献1に開示されたように、白目部分の輝度に基づいて、カメラの露出またはフラッシュの発光量の一方を調整し顔写真やタブレットの(ディスプレイの)画像を撮像した画像を用いても、顔認証が成立し、なりすましを防止できない可能性がある。 In a face authentication system using an image, there is a concern that a printed photograph of the face or an image published on the web (World Wide Web) may be presented to a camera to impersonate another person. As disclosed in Patent Document 1, based on the brightness of the white part of the eye, either the exposure of the camera or the light emission amount of the flash is adjusted, and even if an image is taken of a face photograph or a tablet (display) image, There is a possibility that face authentication will be established and spoofing cannot be prevented.
本開示は、顔写真やディスプレイの画像を用いたなりすましを抑止可能な、顔認証システムおよび顔認証方法を提供することを、目的とする。 An object of the present disclosure is to provide a face authentication system and a face authentication method capable of deterring spoofing using a face photograph or display image.
本開示の顔認証システムは、カメラで撮像した顔画像と基準顔画像を照合し認証を行う顔認証システムである。顔認証システムは、同一の被写体に対して、被写体に焦点を合わせ、露出に関連するパラメータが異なる第1画像と第2画像を撮像するようカメラを制御するカメラ制御部と、第1画像および第2画像における、顔領域の周辺部である背景を背景画像として特定する背景領域検出部と、第1画像の背景画像と第2画像の背景画像を用いて、なりすましを判定するなりすまし判定部と、を備える。 A face authentication system according to the present disclosure is a face authentication system that performs authentication by matching a face image captured by a camera with a reference face image. The face authentication system includes a camera control unit that controls a camera to capture a first image and a second image with different exposure-related parameters, focusing on the same subject, the first image and the second image. a background area detection unit that identifies the background, which is the peripheral portion of the face area, as a background image in the two images; a spoofing determination unit that determines spoofing using the background image of the first image and the background image of the second image; Prepare.
この顔認証システムによれば、第1画像と第2画像は、同一の被写体を撮像したものであり、被写体に焦点を合わせ、露出に関連するパラメータが異なる状態で撮像される。被写体が本物の人物の場合、顔領域と顔領域の周辺である背景は、カメラからの距離が異なる。カメラから顔領域の周辺である背景までの距離は、カメラから顔領域までの距離より長い(遠い)。したがって、露出に関連するパラメータが異なる第1画像と第2画像において、第1画像の顔領域の周辺である背景の明るさやボケの程度は、第2画像の顔領域の周辺である背景の明るさやボケの程度と、大きく異なる。 According to this face authentication system, the first image and the second image are images of the same subject, focused on the subject, and captured with different parameters related to exposure. When the subject is a real person, the face area and the background around the face area are at different distances from the camera. The distance from the camera to the background, which is the periphery of the face area, is longer (further) than the distance from the camera to the face area. Therefore, in the first image and the second image having different exposure-related parameters, the brightness and degree of blurring of the background around the face region in the first image are the same as the brightness of the background around the face region in the second image. It differs greatly from the degree of bokeh.
顔写真やディスプレイの画像は二次元(平面)であり、顔写真やディスプレイの画像における顔領域と顔領域の周辺である背景は、同一平面上に存在し、カメラからの距離が同じである。顔写真やディスプレイの画像における顔領域と顔領域の周辺である背景は、カメラからの距離が同じであるので、露出に関連するパラメータが異なる第1画像と第2画像において、第1画像の顔領域の周辺である背景の明るさやボケの程度は、第2画像の顔領域の周辺である背景の明るさやボケの程度と、大きな差異はない。 A photograph of a face or an image of a display is two-dimensional (flat), and a face area and a background surrounding the face area in the photograph of the face or the image of the display are on the same plane and are at the same distance from the camera. Since the distance from the camera is the same between the face area and the background around the face area in the photograph of the face or the display image, the face in the first image and the second image with different parameters related to exposure are different from each other. The brightness and degree of blurring of the background around the region are not significantly different from the brightness and degree of blurring of the background around the face region of the second image.
背景領域検出部で、第1画像および第2画像における、顔領域から所定距離離れた周辺部である背景を背景画像として特定し、なりすまし判定部で、第1画像の背景画像と第2画像の背景画像を用いて、なりすましを判定する。たとえば、第1画像と第2画像の背景画像の明るさやボケの程度が、ほとんど変化しない場合、顔写真やディスプレイの画像によるなりすましである可能性が高く、第1画像の背景画像と第2画像の背景画像を用いて、なりすましを判定することが可能になる。これにより、顔写真やディスプレイの画像の特徴を捉えるための専用デバイスを設けることなく、なりすましを抑制可能になる。 The background region detection unit identifies the background, which is the peripheral portion of the first image and the second image at a predetermined distance from the face region, as the background image, and the spoofing determination unit detects the difference between the background image of the first image and the second image. A background image is used to determine spoofing. For example, if the brightness and the degree of blurring of the background images of the first image and the second image hardly change, there is a high possibility that the background image of the first image and the second image are spoofed by a photograph of a person's face or an image of the display. It becomes possible to judge spoofing by using the background image of . This makes it possible to suppress spoofing without providing a dedicated device for capturing the features of facial photographs and display images.
カメラ制御部は、第1画像を所定の露出で撮像し、第2画像を第1画像撮像時の照明より明るい照明および所定の露出より大きな露出値で撮像し、なりすまし判定部は、第1画像の背景画像と第2画像の背景画像の明るさの差が所定値以上のとき、なりすましでないと判定するようにしてもよい。 The camera control unit captures the first image with a predetermined exposure, captures the second image with illumination brighter than the illumination at the time of capturing the first image, and with an exposure value greater than the predetermined exposure, and the spoofing determination unit captures the first image. When the difference in brightness between the background image of the second image and the background image of the second image is equal to or greater than a predetermined value, it may be determined that the image is not spoofing.
被写体が本物の人物の場合、カメラから顔領域の周辺である背景までの距離は、カメラから顔領域までの距離より長い。このため、カメラの露出値を大きくし、被写体に照明を照射して撮像すると、露出値が小さい場合に比較して、顔領域の周辺である背景の輝度が小さくなり暗くなる。被写体が顔写真やディスプレイの画像である場合、顔写真やディスプレイの画像における顔領域と顔領域の周辺である背景は、同一平面上に存在し、カメラからの距離が同じである。したがって、カメラの露出値を大きくし、被写体に照明を照射して撮像しても、露出値が小さい場合と比較して、顔領域の周辺である背景の輝度にそれほど変化がない。 When the subject is a real person, the distance from the camera to the background, which is the periphery of the face area, is longer than the distance from the camera to the face area. For this reason, if the exposure value of the camera is increased and the subject is imaged by illuminating it, the brightness of the background around the face region will be lower and darker than when the exposure value is small. When the subject is a face photograph or display image, the face area and the background around the face area in the face photograph or display image are on the same plane and are at the same distance from the camera. Therefore, even if the exposure value of the camera is increased and the subject is illuminated and captured, the brightness of the background around the face region does not change much compared to when the exposure value is small.
したがって、第1画像の背景画像と第2画像の背景画像の明るさの差が所定値以上の場合は、本物の人物が撮像されており、なりすましでないと判定できる。なお、露出値(EV:Exposure Value)は、カメラの撮像素子に届く光量を調整する値であり、本開示においては、撮像素子に届く光量が小さいほど、その値が大きくなることとする。露出値は、カメラの絞り値(F値)、シャッタースピード(露光時間)およびISO(International Organization for Standardization)感度の少なくともひとつ、あるいは、これらの組み合わせから、設定されてもよい。 Therefore, when the difference in brightness between the background image of the first image and the background image of the second image is equal to or greater than a predetermined value, it can be determined that the image is of a real person and not impersonation. Note that the exposure value (EV) is a value that adjusts the amount of light reaching the imaging element of the camera, and in the present disclosure, the smaller the amount of light reaching the imaging element, the larger the value. The exposure value may be set from at least one of the aperture value (F number), shutter speed (exposure time), and ISO (International Organization for Standardization) sensitivity of the camera, or a combination thereof.
カメラ制御部は、第1画像を所定の露出で撮像し、第2画像を前記第1画像撮像時の照明より明るい照明および所定の露出より大きな露出値で撮像し、なりすまし判定部は、第1画像の顔領域の画像と背景画像の明るさの差が所定値より小さく、かつ、第2画像の顔領域の画像と背景画像の明るさの差が所定値以上のとき、なりすましでないと判定するようにしてもよい。 The camera control unit captures a first image with a predetermined exposure, captures a second image with illumination brighter than the illumination when the first image was captured, and an exposure value greater than the predetermined exposure, and the spoofing determination unit captures the first When the difference in brightness between the image of the face area of the image and the background image is smaller than a predetermined value and the difference in brightness between the image of the face area of the second image and the background image is equal to or greater than a predetermined value, it is determined that the image is not spoofing. You may do so.
被写体が本物の人物の場合、カメラから顔領域の周辺である背景までの距離は、カメラから顔領域までの距離より長い。このため、カメラの露出値を大きくし、被写体に照明を照射して撮像すると、露出値が小さい場合に比較して、顔領域の周辺である背景の輝度が小さくなり暗くなるが、顔領域は、顔領域の周辺である背景よりカメラに近いため、露出値の相違による輝度の変化は、背景に比べて少ない。被写体が顔写真やディスプレイの画像である場合、顔写真やディスプレイの画像における顔領域と顔領域の周辺である背景は、同一平面上に存在し、カメラからの距離が同じである。したがって、カメラの露出値を大きくし、被写体に照明を照射して撮像しても、露出値が小さい場合と比較して、顔領域の輝度および顔領域の周辺である背景の輝度にそれほど変化がない。 When the subject is a real person, the distance from the camera to the background, which is the periphery of the face area, is longer than the distance from the camera to the face area. For this reason, if the exposure value of the camera is increased and the subject is illuminated and captured, the brightness of the background surrounding the face area will decrease and become darker than when the exposure value is small. , since it is closer to the camera than the background, which is the periphery of the face area, the change in luminance due to the difference in exposure value is smaller than that of the background. When the subject is a face photograph or display image, the face area and the background around the face area in the face photograph or display image are on the same plane and are at the same distance from the camera. Therefore, even if the exposure value of the camera is increased and the subject is illuminated and captured, the brightness of the face area and the brightness of the background surrounding the face area will not change much compared to when the exposure value is small. Absent.
したがって、第1画像の顔領域の画像と背景画像の明るさの差が所定値より小さく、かつ、第2画像の顔領域の画像と背景画像の明るさの差が所定値以上の場合は、本物の人物が撮像されており、なりすましでないと判定できる。 Therefore, when the difference in brightness between the image of the face region in the first image and the background image is smaller than a predetermined value and the difference in brightness between the image of the face region in the second image and the background image is greater than or equal to the predetermined value, A real person is imaged, and it can be determined that it is not impersonation.
カメラ制御部は、第1画像を所定の絞り値で撮像し、第2画像を所定の絞り値より小さな絞り値で撮像し、なりすまし判定部は、第1画像の背景画像と第2画像の背景画像のボケの程度の差が所定値以上のとき、なりすましでないと判定してもよい。 The camera control unit captures the first image with a predetermined aperture value, and captures the second image with an aperture value smaller than the predetermined aperture value. It may be determined that the image is not spoofing when the difference in the degree of blurring of the image is equal to or greater than a predetermined value.
被写体が本物の人物の場合、カメラから顔領域の周辺である背景までの距離は、カメラから顔領域までの距離より長い。このため、カメラの絞り値を小さくし被写界深度を浅くして撮像すると、絞り値が大きく被写界深度が深い場合に比較して、顔領域の周辺である背景のボケの程度(ボケ量)が大きくなる。被写体が顔写真やディスプレイの画像である場合、顔写真やディスプレイの画像における顔領域と顔領域の周辺である背景は、同一平面上に存在し、カメラからの距離が同じである。このため、カメラの絞り値を変えて被写界深度が変わっても、顔写真やディスプレイの画像に焦点が合っているので、顔写真やディスプレイの画像における顔領域の周辺である背景のボケの程度(ボケ量)が大きくなることはない。 When the subject is a real person, the distance from the camera to the background, which is the periphery of the face area, is longer than the distance from the camera to the face area. For this reason, if the aperture value of the camera is made small and the depth of field is made shallow, the degree of blurring of the background around the face area (bokeh) will be lower than when the aperture value is large and the depth of field is large. amount) increases. When the subject is a face photograph or display image, the face area and the background around the face area in the face photograph or display image are on the same plane and are at the same distance from the camera. For this reason, even if the depth of field changes by changing the aperture value of the camera, the photograph of the face and the image on the display are in focus, so the background blur around the face area in the photograph of the face and the image on the display is blurred. The degree (bokeh amount) does not increase.
したがって、第1画像の背景画像と第2画像の背景画像のボケの程度の差が所定値以上のとき、なりすましでないと判定できる。 Therefore, when the difference in degree of blur between the background image of the first image and the background image of the second image is equal to or greater than a predetermined value, it can be determined that the image is not spoofing.
本開示の認証システムは、カメラで撮像した画像から、顔画像を抽出する顔抽出部と、顔画像と基準顔画像を照合し、顔認証を行う照合判定部と、を更に備え、照合判定部は、なりすまし判定部で、なりすましでないと判定されたとき、第1画像または第2画像の少なくとも一方から抽出した顔画像と基準顔画像を照合して、顔認証を行ってもよい。 The authentication system of the present disclosure further includes a face extraction unit that extracts a face image from an image captured by a camera, and a matching determination unit that matches the face image with a reference face image to perform face authentication. may perform face authentication by collating a face image extracted from at least one of the first image and the second image with a reference face image when the spoofing determination unit determines that the person is not spoofing.
この構成によれば、カメラで撮像した画像がなりすましでないと判定されたときに、顔認証を行う。したがって、基準顔画像と照合される顔画像は、顔写真やディスプレイの画像を撮像したものではないので、顔写真やディスプレイの画像を用いたなりすましによって認証が成立することを抑制できる。 According to this configuration, face authentication is performed when it is determined that the image captured by the camera is not spoofed. Therefore, since the face image to be compared with the reference face image is not the photograph of the face or the image of the display, it is possible to suppress the establishment of authentication by spoofing using the photograph of the face or the image of the display.
本開示の顔認証方法は、カメラで撮像した顔画像と基準顔画像を照合し認証を行う顔認証方法である。顔認証方法は、同一の被写体に対して、被写体に焦点を合わせ、露出に関連するパラメータが異なる第1画像と第2画像を前記カメラで撮像するステップと、第1画像および第2画像における、顔領域の周辺部である背景を背景画像として特定するステップと、第1画像の背景画像と第2画像の背景画像を用いて、なりすましを判定するステップと、を含む。 The face authentication method of the present disclosure is a face authentication method that performs authentication by matching a face image captured by a camera with a reference face image. The face authentication method includes the steps of: focusing on the same subject and capturing a first image and a second image with different parameters related to exposure with the camera; and The method includes a step of identifying a background that is a peripheral portion of the face area as a background image, and a step of determining spoofing using the background image of the first image and the background image of the second image.
この顔認証方法によれば、第1画像と第2画像は、同一の被写体を撮像したものであり、被写体に焦点を合わせ、露出に関連するパラメータが異なる状態で撮像される。被写体が本物の人物の場合、顔領域と顔領域の周辺である背景は、カメラからの距離が異なる。カメラから顔領域の周辺である背景までの距離は、カメラから顔領域までの距離より長い。したがって、露出に関連するパラメータが異なる状態で撮像した第1画像と第2画像において、顔領域の周辺である背景の明るさやボケの程度の差は、大きい。 According to this face authentication method, the first image and the second image are images of the same subject, focused on the subject, and captured with different parameters related to exposure. When the subject is a real person, the face area and the background around the face area are at different distances from the camera. The distance from the camera to the background, which is the periphery of the face area, is longer than the distance from the camera to the face area. Therefore, between the first image and the second image captured with different parameters related to exposure, the difference in brightness and degree of blurring of the background around the face area is large.
顔写真やディスプレイの画像は二次元(平面)であり、顔写真やディスプレイの画像における顔領域と顔領域の周辺である背景は、同一平面上に存在し、カメラからの距離が同じである。顔写真やディスプレイの画像における顔領域と顔領域の周辺である背景は、カメラからの距離が同じであるので、露出に関連するパラメータが異なる状態で撮像した第1画像と第2画像において、顔領域の周辺である背景の明るさやボケの程度の差は、小さい。 A photograph of a face or an image of a display is two-dimensional (flat), and a face area and a background surrounding the face area in the photograph of the face or the image of the display are on the same plane and are at the same distance from the camera. Since the distance from the camera is the same between the face area and the background around the face area in the photograph of the face or the image of the display, the first image and the second image captured with different parameters related to exposure show the face The difference in brightness and degree of blurring of the background, which is the periphery of the region, is small.
したがって、たとえば、第1画像と第2画像の背景画像の明るさやボケの程度が、ほとんど変化しない場合、顔写真やディスプレイの画像によるなりすましである可能性が高く、第1画像の背景画像と第2画像の背景画像を用いることにより、なりすましを判定することができる。 Therefore, for example, when the brightness and the degree of blurring of the background images of the first image and the second image hardly change, there is a high possibility that the background image of the first image and the background image of the second image are spoofed by a photograph of a person's face or an image of the display. Spoofing can be determined by using two background images.
本開示によれば、顔写真やディスプレイの画像を用いたなりすましを抑止可能な、顔認証システムおよび顔認証方法を提供できる。 Advantageous Effects of Invention According to the present disclosure, it is possible to provide a face authentication system and a face authentication method capable of deterring spoofing using a photograph of the face or an image on a display.
以下、本開示の実施の形態について、図面を参照しながら詳細に説明する。なお、図中同一または相当部分には同一符号を付してその説明は繰返さない。 Hereinafter, embodiments of the present disclosure will be described in detail with reference to the drawings. The same or corresponding parts in the drawings are denoted by the same reference numerals, and the description thereof will not be repeated.
(実施の形態1)
本実施の形態では、本開示の顔認証システムをカーシェアェリングに適用した例を説明する。図1は、本開示の顔認証システムを搭載したカーシェアリング用の車両1の概略構成図である。カーシェアェリングは、登録された会員間で、車両1を共同使用する移動サービスである。車両1は、車体2にドア3が設けられている。車両1の使用者は、ドア3から車両1に乗車し、車両1を使用することができる。車両1は、ドアロック装置30を備えており、ドア3のドアロックの施錠、解錠がなされる。車両1は、貸出専用の駐車場に配置され、車両1の使用希望者は、使用予約を行い、予約日時に駐車場に出向いて、ドアロックを解錠し車両1を使用する。
(Embodiment 1)
In this embodiment, an example in which the face authentication system of the present disclosure is applied to car sharing will be described. FIG. 1 is a schematic configuration diagram of a vehicle 1 for car sharing equipped with a face authentication system of the present disclosure. Car sharing is a mobile service in which registered members jointly use a vehicle 1 . A vehicle 1 is provided with a door 3 on a
車両1は、顔認証システム5を搭載している。顔認証システム5は、カメラ10、エレクトロニックフラッシュ20、カメラECU(Electronic Control Unit)100、認証ECU200、および通信装置250を備える。
A vehicle 1 is equipped with a
カメラ10は、ドア3周囲の被写体を撮像して、画像データを取得するものである。カメラ10は、たとえば、CCD(Charge Coupled Device)イメージセンサ、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等の撮像素子と、撮像素子上に被写体の像を結像させる光学系(レンズ、絞り、シャッター)等を備えるデジタルカメラである。
The
エレクトロニックフラッシュ20は、被写体に照明(フラッシュ光)を照射する発光装置であり、カメラ10の撮像レンズの近傍に設けられている。
The
カメラECU100は、CPU(Central Processing Unit)と、メモリ(たとえば、ROM(Read Only Memory)およびRAM(Random Access Memory)等)とから構成される。カメラECU100は、認証ECU200からの信号や指令を受け、カメラ10およびエレクトロニックフラッシュ20をの動作を制御する。カメラECU100は、その機能ブロックとして、焦点制御部101、露出制御部102、および発光制御部103を備える。焦点制御部101は、カメラ10の撮像範囲内の被写体(人物)の目、鼻、口の位置を検出し、その位置情報を元にして、人物の顔を検出し、検出した顔にカメラ10の焦点を合わせる、オートフォーカス処理を行う。露出制御部102は、カメラ10で撮像するときの絞り値(F値)、シャッタースピード(露光時間)、およびISO感度を調整する。発光制御部103は、エレクトロニックフラッシュ20の発光/非発光を制御するとともに、発光時の光量を調整する。
The
顔認証システム5は、カメラECU100によって制御されるカメラ10で撮像した画像から検出した顔画像と、基準顔画像を照合することにより、顔認証を行う。基準顔画像は、登録された会員(ユーザ)の顔画像であり、管理サーバ400に登録されている。管理サーバ400は、ECU401と、記憶装置402と、通信装置403とを含んで構成される。ECU401は、CPUを含み、所定の情報処理を行なうとともに通信装置403を制御するように構成される。記憶装置402は、各種情報を保存可能に構成される。通信装置403は各種通信I/Fを含む。ECU401は、通信装置403を通じて外部と通信可能に構成され、車両1の通信装置250、および、会員(ユーザ)の携帯端末500と通信を行う。
The
会員(ユーザ)は、予め会員情報の登録を行う。会員情報の登録を行うと、管理サーバ400の記憶装置402に、会員のID(識別符号)と会員の顔画像データが登録される。会員の顔画像データは、会員がカメラ(たとえば、携帯端末500のカメラ)で撮像した顔画像(顔領域の画像)データを管理サーバ400に送信すると、ECU401において、受信した顔画像から顔の特徴を示す特徴量データRiを作成し、会員毎に、会員のIDと特徴量データRiを紐付けして、記憶装置402に格納する。顔の特徴を示す特徴量データRiは、機械学習アルゴリズム(たとえば、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)を用いた深層学習(ディープラーニング))を用いて、顔画像から特徴量データRiを抽出する。なお、顔画像から顔部品(目、鼻、口、輪郭、等)の特徴量を示す特徴量データRiを作成してもよく、あるいは、顔領域の画像の全体から抽出したデータのいずれであってもよい。記憶装置402に格納された特徴量データRiが、本開示の「基準顔画像」に相当する。
A member (user) registers member information in advance. When member information is registered, the ID (identification code) of the member and face image data of the member are registered in the
会員(ユーザ)は、カーシェアリングの使用の予約(貸出予約)を、携帯端末500を用いて行う。たとえば、使用者の携帯端末500のアプリケーションを立ち上げ、貸出場所、貸出日時および返却日時を入力し予約ボタンをタップすると、会員のID、貸出場所、貸出日時および返却日時が、管理サーバ400に送信される。管理サーバ400は、携帯端末500から、予約情報を受信すると、ECU401が記憶装置402に記憶される貸出予約DBを更新して、予約が完了する。なお、貸出場所は、カーシェリング用の車両1が駐車している駐車場の場所である。
A member (user) uses the
会員は、貸出日時に、貸出場所に出向き、カーシェリング用の車両1に搭載された顔認証システム5によって顔認証を行い、認証が成立すると、ドアロックが解錠され、車両1の使用が可能になる。顔認証システム5による顔認証は、カメラ10で撮像された画像から検出された顔画像と、基準顔画像を照合することにより行われる。この際、貸出予約を行った会員以外の第三者が、貸出予約を行った会員の顔を印刷した写真や、貸出予約を行った会員の顔が表示されているタブレット(ディスプレイ)の画像を、カメラ10に提示して、第三者が会員になりすます不正行為が懸念される。
The member goes to the rental place at the rental date and time, performs face authentication by the
貸出予約を行った会員の顔を印刷した写真や、貸出予約を行った会員の顔が表示されているディスプレイの画像を、カメラ10で撮像した画像から検出される顔画像は、貸出予約を行った会員の基準顔画像と一致する可能性が高く、顔写真やディスプレイの画像を用いたなりすましを抑制することが望まれる。
A photo of the face of the member who made the rental reservation or a face image detected from an image of the display showing the face of the member who made the rental reservation captured by the
本実施の形態では、このなりすましを抑制するため、カメラ10で露出に関連するパラメータが異なる状態で第1画像と第2画像を撮像することにより、カメラ10で撮像した画像が、顔写真やディスプレイの画像を撮像した画像であることを、判定する。
In the present embodiment, in order to suppress this spoofing, the
認証ECU200は、カメラECU100と同様に、CPUと、メモリ(たとえば、ROMおよびRAM等)とから構成される。認証ECU200は、カメラECU100へ撮像指令を出力し、また、カメラ10で撮像した画像を用いて顔認証を行う。認証ECU200の詳細は後述する。
通信装置250は、各種通信I/F(インターフェース)を含んで構成される。通信装置250は、DCM(Data Communication Module)を含んでもよい。通信装置250は、5G(第5世代移動通信システム)対応の通信I/Fを含んでもよい。認証ECU200は、通信装置250を通じて車両1外部の管理サーバ400と無線通信を行なうように構成される。
The
ドアECU300は、認証ECU200からの指令を受け、ドアロック装置30を駆動し、ドア3のドアロックの施錠、解錠を行う。
The
図2は、認証ECU200内に構成される機能ブロックを示した図である。カメラ制御部201は、カメラECU100を介してカメラ10を制御する。たとえば、携帯端末500を、車両1のドア3近傍に設置されたNFC(Near field communication)装置の読み取り部にかざすと、カメラ10で、第1画像および第2画像を撮像するよう、カメラECU100に撮像指令を出力する。撮像指令は、第1画像として、被写体を適正露出(自動露出)で撮像し、第2画像として、エレクトロニックフラッシュ20を発光するとともに、第1画像の撮像時の適正露出より露出値が大きな露出で被写体を撮像する指令である。第1画像の撮像と第2画像の撮像は、連続して行われ、第1画像と第2画像は、同一の被写体を撮像した画像である。
FIG. 2 is a diagram showing functional blocks configured in the
カメラECU100は、撮像指令を受信すると、焦点制御部101で被写体(人物)の顔領域に焦点を合わせ、露出制御部102で適正露出になるよう、絞り値(F値)、シャッタースピード(露光時間)、およびISO感度を調整して、第1画像を撮像するよう、カメラ10を動作する。カメラ10は、撮像した画像を第1画像G1として出力する。カメラECU100は、第1画像を撮像すると、続けて、発光制御部103が、所定の発光量でエレクトロニックフラッシュ20を発光させ、その発光と同期して、焦点制御部101で被写体(人物)の顔領域に焦点を合わせ、露出制御部102で、第1画像の撮像時の露出より露出値が大きくなるよう、絞り値(F値)、シャッタースピード(露光時間)、およびISO感度の少なくともひとつを調整して、第2画像を撮像するよう、カメラ10を動作する。カメラ10は、撮像した画像を第2画像G2として出力する。
When the
第2画像の撮像時における露出値は、たとえば、エレクトロニックフラッシュ20の発光による光(照明)が被写体の顔領域に照射された際に、顔領域の距離において適正露出になる露出値であってよい。これにより、エレクトロニックフラッシュ20の発光により、被写体の顔領域は明るくなるので、エレクトロニックフラッシュ20の非発光時に比較して、露出値が大きくなる(カメラ10の撮像素子に届く光量を小さくする)。露出値を大きくするには、カメラ10の絞り値(F値)を大きくしてもよく、シャッタースピードを早く(露光時間を短く)してもよく、ISO感度を小さくしてもよく、これらを組み合わせてもよい。
The exposure value at the time of capturing the second image may be, for example, an exposure value that provides proper exposure at the distance of the face region when the light (illumination) emitted by the
図3は、カメラ10で人物を撮像した画像を示す図である。図3(A)は第1画像G1を示しており、図3(B)は第2画像G2を示している。エレクトロニックフラッシュ20を発光することなく撮像した第1画像G1では、図3(A)に示すように、格子模様で表した背景bおよび人物の顔fとも適正な明るさで撮像される。エレクトロニックフラッシュ20を発光するとともに露出値を大きくして撮像した第2画像G2では、図3(B)に示すように、人物の顔fは適正な明るさで撮像されるが、背景bは、カメラ10からの距離が顔fよりも長く、エレクトロニックフラッシュ20の光が届き難いため、暗く撮像される。
FIG. 3 is a diagram showing an image of a person captured by the
図4は、カメラ10で、印刷した顔写真pを撮像した画像を示す図である。図4(A)は第1画像G1を示しており、図4(B)は第2画像G2を示している。エレクトロニックフラッシュ20を発光することなく撮像した第1画像G1では、図4(A)に示すように、格子模様で表した背景bおよび顔写真pとも適正な明るさで撮像され、顔写真pの顔fも鮮明に撮像される。エレクトロニックフラッシュ20を発光するとともに露出値を大きくして撮像した第2画像G2では、図4(B)に示すように、顔写真pは適正な明るさで撮像されるが、背景bは、エレクトロニックフラッシュ20の光が届き難いため、暗く撮像される。この場合、図4(B)に示すように、顔写真pにおいて、斜線で表した背景bpと顔fは同一平面上に存在し、カメラ10からの距離は同じであるので、背景bpと顔fは同様な明るさで鮮明に撮像される。
FIG. 4 is a diagram showing an image of a printed portrait p taken by the
カメラ10で人物を撮像した場合、図3(A)と図3(B)の対比から理解されるよう、第2画像G2では、第1画像G1に対して背景bが暗くなる。これに対して、印刷した顔写真pを撮像した場合、図4(A)と図4(B)の対比から理解されるよう、顔写真の背景bpの明るさは、第2画像G2と第1画像G1でほとんど変化しない。したがって、第1画像G1と第2画像G2の顔fの周辺部である背景の明るさを比較することにより、明るさの差が所定値以上であれば、人物を撮像した画像であり、明るさの差が所定値より小さければ、顔写真を撮像した画像であることを、判定できる。
When the
図2を参照して、認証ECU200は、顔/背景領域検出部202を備える。顔/背景領域検出部202は、カメラ10で撮像した第1画像G1および第2画像G2から、機械学習アルゴリズムを用いて、画像の顔領域を検出し、顔領域を特定する。なお、被写体の目、鼻、口の位置を検出し、その位置情報を元に、画像の顔領域を検出し、顔領域を特定してもよい。特定された顔領域の周囲において、人物の髪型を考慮して予め設定された範囲(マージン範囲)を髪領域とする。そして、髪領域の周囲の所定範囲を、背景領域として特定する。所定範囲は、髪領域からの距離が所定距離以内の範囲であってよい。また、所定範囲は、髪領域の周囲の画像におけるX方向およびY方向の画素数で規定してもよい。その画素数は、たとえば、X方向の総画素数に対して1/10とし、Y方向の総画素数に対して1/10としてもよい。なお、第1画像および第2画像のRGB(Red、Green、Blue)情報から、髪型を特定できる場合は、髪型の周辺の所定範囲を背景領域と特定してもよい。このようにして特定した背景領域が、人物を撮像した場合の背景bと、印刷した顔写真pを撮像した場合の顔写真pの背景bpとを判別する領域になる。
Referring to FIG. 2 ,
顔/背景領域検出部202は、第1画像G1の背景領域から、背景画像の明るさL1を算出するとともに、第2画像G2の背景領域から、背景画像の明るさL2を算出する。たとえば、画像の背景領域に含まれる各画素のRGBの階調と輝度の関係を予め求めておき、各画素のRGBの階調から各画素の輝度を算出する。そして、算出した各画素の輝度の平均値を、背景画像の明るさL1、L2として算出してよい。
The face/background
なりすまし判定部203は、顔/背景領域検出部202で算出した、第1画像G1の背景画像の明るさL1と、第2画像G2の背景画像の明るさL2を比較し、カメラ10で撮像した画像が、顔写真を用いたなりすましの画像か否かを判定する。明るさL1と明るさL2の差(輝度の差)が所定値以上の場合、画像は人物を撮像した画像であり、なりすましでないと判定し、カメラ10で撮像した画像がなりすましでない旨の信号を出力する。明るさL1と明るさL2の差(輝度の差)が所定値より小さい場合、画像は顔写真を撮像した画像であり、なりすましであると判定する。なお、所定値は、実験等によって、予め設定される。
The
顔抽出部204は、なりすまし判定部203から、カメラ10で撮像した画像が、なりすましでない旨の信号を受信すると、第1画像G1または第2画像G2から顔の特徴量(顔特徴量)を抽出する。たとえば、顔/背景領域検出部202で特定した、第1画像G1の顔領域の画像から、機械学習アルゴリズム(たとえば、畳み込みニューラルネットワーク(CNN)を用いた深層学習(ディープラーニング))を用いて、特徴量データFiを抽出する。なお、顔領域の画像から顔部品(目、鼻、口、輪郭、等)の特徴量を示す特徴量データFiを作成してもよい。顔抽出部204で抽出した特徴量データFiが、本開示の「顔画像」に相当し、以下、顔画像とも称する。特徴量データFiは、第2画像G2の顔領域から抽出してもよい。特徴量データFi(顔画像)は、顔部品の一部から抽出したデータ、あるいは、顔領域の画像の全体から抽出したデータのいずれであってもよい。
When the
基準顔画像取得部205は、管理サーバ400から基準顔画像(特徴量データRi)を取得する。たとえば、管理サーバ400は、会員によって車両1の貸出予約が完了すると、車両1の予約を行った会員のIDに紐付けられた基準顔画像(特徴量データRi)を記憶装置402から読み出す。そして、管理サーバ400は、通信装置403を用いて、車両1へ、貸出日時、会員のID、および基準顔画像を紐付けて送信する。基準顔画像取得部205は、通信装置250を介して、貸出日時、会員のID、および基準顔画像を受信すると、認証ECU200のメモリに、貸出日時、会員のID、および基準顔画像を紐付けて記憶する。
A reference face
照合判定部206は、顔抽出部204で抽出した顔画像(特徴量データFi)と基準顔画像(特徴量データRi)を照合することにより、顔認証を行う。たとえば、第1画像G1または第2画像G2を撮像した日時と最も近い貸出日時に紐付けられた基準顔画像を、メモリから読み出す。そして、顔抽出部204で検出した顔画像とメモリから読み出した基準顔画像を照合することにより、顔認証を行う。照合判定部206は、たとえば、基準顔画像の特徴量データRiと、顔抽出部204で検出した顔画像の特徴量データFiとを比較し、たとえば、2つの特徴量データの類似度が所定値以上であり一致しているとき、一致している(顔認証が成立した)と判定し、類似度が所定値未満であれば、不一致(顔認証が不成立)と判定する。
The matching
照合判定部206は、基準顔画像の特徴量データRiと、顔画像の特徴量データFiが一致し、顔認証が成立したと判定すると、ドアECU300に、ドアロックを解錠するよう解錠指令を出力する。解錠指令を受信したドアECU300は、ドアロック装置30を駆動し、ドア3のドアロックの解錠を行う。
When the matching
図5は、認証ECU200で実行される処理の概略フローチャートである。このフローチャートは、携帯端末500が、車両1のドア3近傍に設置されたNFC装置の読み取り部にかざされると、処理が実行される。まず、ステップ(以下、ステップをSと略す)10では、カメラ10で被写体を撮像し、第1画像G1を取得する。第1画像G1は、上記で説明したように、焦点制御部101で被写体(人物)の顔領域に焦点を合わせ、露出制御部102で適正露出になるよう、絞り値(F値)、シャッタースピード(露光時間)、およびISO感度を調整して、撮像した画像である。
FIG. 5 is a schematic flow chart of the process executed by
続く、S11では、カメラ10で被写体を撮像し、第2画像G2を取得する。第2画像G2は、上記で説明したように、発光制御部103が、所定の発光量でエレクトロニックフラッシュ20を発光させ、その発光と同期して、焦点制御部101で被写体(人物)の顔領域に焦点を合わせ、露出制御部102で、第1画像の撮像時の露出より露出値が大きくなるよう、絞り値(F値)、シャッタースピード(露光時間)、およびISO感度の少なくともひとつを調整して、撮像した画像である。なお、S10とS11は連続して処理され、第1画像G1と第2画像G2は、同一の被写体を撮像した画像である。
Subsequently, in S11, the
S12では、第1画像G1の背景画像の明るさL1と、第2画像G2の背景画像の明るさL2を算出する。第1画像G1および第2画像G2から、機械学習アルゴリズムを用いて画像の顔領域を検出し、顔領域を特定する。そして、特定された顔領域から所定距離以上離れた所定範囲の領域を、背景領域として特定する。そして、第1画像G1の背景領域に含まれる各画素のRGBの階調と輝度の関係から各画素の輝度を算出し、算出した各画素の輝度の平均値を、背景画像の明るさL1として算出する。また、同様に、第2画像G2の背景領域に含まれる各画素のRGBの階調と輝度の関係から、背景画像の明るさL2として算出する。 In S12, the background image brightness L1 of the first image G1 and the background image brightness L2 of the second image G2 are calculated. From the first image G1 and the second image G2, a machine learning algorithm is used to detect the face area of the image to identify the face area. Then, an area within a predetermined range that is at least a predetermined distance away from the identified face area is identified as a background area. Then, the brightness of each pixel is calculated from the relationship between the RGB gradation and brightness of each pixel included in the background region of the first image G1, and the calculated average value of the brightness of each pixel is taken as the brightness L1 of the background image. calculate. Similarly, the brightness L2 of the background image is calculated from the relationship between the RGB gradation and brightness of each pixel included in the background area of the second image G2.
続く、S13において、明るさL1と明るさL2の差が所定値以上か否かを判定する。明るさL1と明るさL2の差(輝度の差)が所定値以上の場合、肯定判定されS14へ進む。明るさL1と明るさL2の差(輝度の差)が所定値より小さい場合、否定判定され、今回のルーチンを終了する。 Subsequently, in S13, it is determined whether or not the difference between the brightness L1 and the brightness L2 is equal to or greater than a predetermined value. If the difference (luminance difference) between the brightness L1 and the brightness L2 is equal to or greater than the predetermined value, the determination is affirmative and the process proceeds to S14. If the difference (luminance difference) between the brightness L1 and the brightness L2 is smaller than the predetermined value, a negative determination is made, and the current routine ends.
S14では、第1画像G1または第2画像G2から顔画像(特徴量データFi)を抽出する。たとえば、S12で特定した、第1画像G1の顔領域の画像から、機械学習アルゴリズムを用いて顔の特徴を示す特徴量データFiを検出する。特徴量データFiは、第2画像G2の顔領域の画像から抽出してもよい。 In S14, a face image (feature data Fi) is extracted from the first image G1 or the second image G2. For example, from the image of the face area of the first image G1 specified in S12, the feature amount data Fi representing the features of the face is detected using a machine learning algorithm. The feature amount data Fi may be extracted from the face area image of the second image G2.
S15では、メモリから、現在の日時(すなわち、第1画像G1または第2画像G2を撮像した日時)と最も近い貸出日時に紐付けられた基準顔画像(特徴量データRi)を読み出し、S16に進む。なお、基準顔画像は、上記のように、予め管理サーバ400から受信し、メモリに記憶されている。
In S15, the reference face image (feature amount data Ri) associated with the closest rental date and time to the current date and time (that is, the date and time when the first image G1 or the second image G2 was captured) is read from the memory, and the process proceeds to S16. move on. Note that the reference face image is received in advance from the
続く、S16では、S14で抽出した顔画像(特徴量データFi)と基準顔画像(特徴量データRi)と顔を照合判定し、顔認証を行う。上記のように、たとえば、2つの特徴量データの類似度が所定値以上であり一致しているとき、顔認証が成立し肯定判定され、S17へ進み、類似度が所定値未満であれば、顔認証が成立せず否定判定され、今回のルーチンを終了する。 Subsequently, in S16, the face image (feature amount data Fi) extracted in S14 and the reference face image (feature amount data Ri) are collated and determined to perform face authentication. As described above, for example, when the similarity between the two feature amount data is equal to or greater than a predetermined value and they match, face authentication is established and an affirmative determination is made, and the process proceeds to S17. Face authentication is not established and a negative determination is made, and this routine ends.
S17では、ドアECU300に、ドアロックを解錠するよう解錠指令を出力し、今回のルーチンを終了する。
In S17, an unlock command is output to the
本実施の形態によれば、第1画像G1と第2画像G2は、カメラ10で同一の被写体を撮像したものであり、被写体に焦点を合わせ、露出に関連するパラメータが異なる状態で撮像される。第1画像G1は、被写体の顔領域に焦点を合わせ、適正露出になるよう、露出に関連するパラメータである、絞り値(F値)、シャッタースピード(露光時間)、およびISO感度を調整して、撮像される。第2画像G2は、エレクトロニックフラッシュ20の発光と同期して、被写体の顔領域に焦点を合わせ、第1画像G1の撮像時の露出より露出値が大きくなるよう、露出に関連するパラメータである、絞り値(F値)、シャッタースピード(露光時間)、およびISO感度の少なくともひとつを調整して、撮像される。
According to the present embodiment, the first image G1 and the second image G2 are images of the same subject captured by the
カメラ10で、人物を撮像した場合、カメラ10から背景までの距離は、カメラ10から人物までの距離より長い。このため、第2画像G2の背景画像は、第1画像G1の背景画像より暗くなる。本実施の形態では、第1画像G1の背景画像の明るさL1と第2画像G2の背景画像の明るさL2の差が所定値以上の場合、カメラ10で撮像した画像は人物を撮像した画像であり、なりすましでないと判定する。
When the
カメラ10で、印刷された顔写真pを撮像した場合、顔写真pに写っている背景と顔は同一平面上に存在し、カメラ10からの距離は同じであるので、第2画像G2の顔の周辺部の背景画像の明るさと、第1画像G1の顔の周辺の背景画像の明るさは、ほとんど変わらない。本実施の形態では、第1画像G1の背景画像の明るさL1と第2画像G2の背景画像の明るさL2の差が所定値より小さい場合、カメラ10で撮像した画像は顔写真を撮像した画像であり、なりすましであると判定する。なお、本実施の形態では、なりすましの形態として、印刷した顔写真の例を説明したが、ディスプレイの画像についても同様である。
When the printed face photo p is captured by the
以上のように、本実施の形態によれば、顔写真やディスプレイの画像の特徴を捉えるための専用デバイスを設けることなく、なりすましを判定でき、なりすましを抑制することができる。 As described above, according to the present embodiment, spoofing can be determined and spoofing can be suppressed without providing a dedicated device for capturing the features of a face photograph or a display image.
本実施の形態では、第1画像G1を撮像し、連続して第2画像G2を撮像しているが、最初に第2画像G2を撮像し、連続して第1画像G1を撮像してもよい。 In the present embodiment, the first image G1 is captured and then the second image G2 is continuously captured. good.
本実施の形態では、基準顔画像取得部205で、予め、管理サーバ400から基準顔画像(特徴量データRi)を受信して取得している。しかし、第1画像G1および第2画像G2の撮像後、あるいは、撮像と同時に、基準顔画像を取得するようにしてもよい。たとえば、図5のフローチャートの処理の開始と同時に、車両1の車両IDと現在の日時を管理サーバ400に送信し、現在の日時に車両1を予約している会員の基準顔画像を要求し、管理サーバ400から基準顔画像を受信してもよい。また、携帯端末500がNFC装置にかざされたとき、携帯端末500から会員のIDを取得可能であれば、取得した会員のIDの基準顔画像の送信要求を管理サーバ400に送信して、該当する会員の基準顔画像を受信してもよい。
In this embodiment, the reference face
本実施の形態では、図5のフローチャートにおいて、S13で否定判定されたとき、およびS16で否定判定されたとき、ルーチンを終了していた。しかし、S13、およびS16で否定判定されたとき、予約した会員以外の人物が車両1を使用しようとしている旨の情報を、管理サーバ400に送信するようにしてもよい。
In the present embodiment, in the flowchart of FIG. 5, the routine ends when a negative determination is made in S13 and when a negative determination is made in S16. However, when negative determinations are made in S13 and S16, information may be transmitted to the
本実施の形態では、第1画像G1の撮像時に、エレクトロニックフラッシュ20を非発光としたが、発光してもよい。この場合、第1画像G1の撮像時におけるエレクトロニックフラッシュ20の発光量は、第2画像G2の撮影時における発光量より、十分小さな値とすることが望ましい。また、被写体に照明を照射できる構成であればよく、エレクトロニックフラッシュ20に代えて、LED(Light Emitting Diode)ライト等の照明器具であってもよい。
In this embodiment, the
(実施の形態2)
上記の実施の形態では、第1画像G1の背景画像の明るさL1と第2画像G2の背景画像の明るさL2の差を用いて、なりすましを判定していた。実施の形態2では、第1画像G1における顔fの明るさと背景画像の明るさL1の差、および、第2画像G2における顔fの明るさと背景画像の明るさL2の差を用いて、なりすましを判定する。
(Embodiment 2)
In the above embodiment, spoofing is determined using the difference between the background image brightness L1 of the first image G1 and the background image brightness L2 of the second image G2. In
カメラ10で人物を撮像した場合、図3(A)に示すように、第1画像G1において、背景bおよび人物の顔fとも適正な明るさで撮像され、顔fの明るさと背景画像の明るさL1の差は小さい。しかし、図3(B)に示すように、第2画像G2では、人物の顔fは適正な明るさで撮像されるが、背景bは暗く撮像されので、顔fの明るさと背景画像の明るさL2の差は大きくなる。
When an image of a person is captured by the
カメラ10で印刷した顔写真pを撮像した場合、図4(A)、(B)に示すように、第1画像G1および第2画像G2において、顔fと背景bpは同様な明るさで撮像されるので、第1画像G1の顔fの明るさと背景画像の明るさL1の差は小さく、同様に、第2画像G2の顔fの明るさと背景画像の明るさL2の差も小さい。
When the photograph of the face p printed by the
したがって、第2画像G2における顔fの明るさと背景画像の明るさL2の差が、第1画像G1における顔fの明るさと背景画像の明るさL1の差より所定値以上大きい場合、人物を撮像した画像であることを、判定できる。 Therefore, when the difference between the brightness of the face f in the second image G2 and the background image brightness L2 is larger than the difference between the brightness of the face f in the first image G1 and the background image brightness L1 by a predetermined value or more, the person is captured. It can be determined that the image is an image that has been processed.
図6は、実施の形態2において、認証ECU200a内に構成される機能ブロック図である。なお、実施の形態2において、認証ECU200a以外の構成は、実施の形態1と同様であるので、その説明を省略する。また、図6において、カメラ制御部201、顔抽出部204、基準顔画像取得部205、および照合判定部206は、実施の形態1の認証ECU200と同様であるので、その説明を省略する。
FIG. 6 is a functional block diagram configured in
顔/背景領域検出部202aは、カメラ10で撮像した第1画像G1および第2画像G2から、機械学習アルゴリズムを用いて、画像の顔領域を検出し、顔領域を特定する。なお、被写体の目、鼻、口の位置を検出し、その位置情報を元に、画像の顔領域を検出し、顔領域を特定してもよい。実施の形態1と同様に、特定された顔領域から所定距離以上離れた所定範囲の領域を、背景領域として特定する。そして、実施の形態1と同様に、第1画像G1の背景領域から、背景画像の明るさL1を算出するとともに、第2画像G2の背景領域から、背景画像の明るさL2を算出する。
The face/background
顔/背景領域検出部202aは、第1画像G1の顔領域に含まれる各画素の輝度の平均値を、第1画像G1の顔fの明るさFL1として算出し、第2画像G2の顔領域に含まれる各画素の輝度の平均値を、第2画像G2の顔fの明るさFL2として算出する。そして、顔/背景領域検出部202aは、第1画像G1における顔fの明るさFL1と背景画像の明るさL1の差S1(=|FL1-L1|)を算出し、第2画像G2における顔fの明るさと背景画像の明るさL2の差S2(=|FL2-L2|)を算出する。
The face/background
なりすまし判定部203aは、第1画像G1における顔fの明るさFL1と背景画像の明るさL1の差S1が所定値αより小さく(S1<α)、かつ、第2画像G2における顔fの明るさと背景画像の明るさL2の差S2が所定値α以上(S2≧α)の条件が成立すると、画像は人物を撮像した画像であり、なりすましでないと判定する。また、なりすまし判定部203aは、第1画像G1における顔fの明るさFL1と背景画像の明るさL1の差S1が所定値αより小さく(S1<α)、かつ、第2画像G2における顔fの明るさと背景画像の明るさL2の差S2が所定値αより小さい(S2<α)条件が成立すると、画像は顔写真を撮像した画像であり、なりすましであると判定する。いずれの条件も成立しない場合、なりすまし判定部203aは、なりすましの有無を判定しない。なお、所定値αは、実験等によって、予め設定される。 The spoofing determination unit 203a determines whether the difference S1 between the brightness FL1 of the face f in the first image G1 and the brightness L1 of the background image is smaller than a predetermined value α (S1<α) and the brightness of the face f in the second image G2. If the condition that the difference S2 between the brightness L2 of the background image and the background image is equal to or greater than a predetermined value α (S2≧α) is satisfied, it is determined that the image is an image of a person and is not spoofing. In addition, the spoofing determination unit 203a determines that the difference S1 between the brightness FL1 of the face f in the first image G1 and the brightness L1 of the background image is smaller than a predetermined value α (S1<α), and the face f in the second image G2 If the difference S2 between the brightness L2 of the background image and the brightness L2 of the background image is smaller than a predetermined value α (S2<α), the image is determined to be a photograph of a person's face and to be impersonation. If none of the conditions are met, the spoofing determination unit 203a does not determine the presence or absence of spoofing. Note that the predetermined value α is set in advance by experiments or the like.
図7は、認証ECU200aで実行される処理の概略フローチャートである。このフローチャートは、図5のフローチャートのS12、S13を廃止し、S20~S23を追加したものである。図7において、S10~S17の処理は、図5のフローチャートと同様であるので、その説明を省略する。
FIG. 7 is a schematic flowchart of processing executed by the
S20では、第1画像G1における顔fの明るさFL1と背景画像の明るさL1の差S1(=|FL1-L1|)、および、第2画像G2における顔fの明るさと背景画像の明るさL2の差S2(=|FL2-L2|)を算出する。カメラ10で撮像した第1画像G1および第2画像G2から、機械学習アルゴリズムを用いて、画像の顔領域を検出し、顔領域を特定する。特定された顔領域から所定距離以上離れた所定範囲の領域を、背景領域として特定し、第1画像G1の背景領域から、背景画像の明るさL1を算出するとともに、第2画像G2の背景領域から、背景画像の明るさL2を算出する。第1画像G1の顔領域に含まれる各画素の輝度の平均値を、第1画像G1の顔fの明るさFL1として算出し、第2画像G2の顔領域に含まれる各画素の輝度の平均値を、第2画像G2の顔fの明るさFL2として算出する。そして、顔/背景領域検出部202aは、第1画像G1における顔fの明るさFL1と背景画像の明るさL1の差S1を算出し、第2画像G2における顔fの明るさと背景画像の明るさL2の差S2を算出する。
In S20, the difference S1 (=|FL1−L1|) between the brightness FL1 of the face f and the brightness L1 of the background image in the first image G1, and the brightness of the face f and the brightness of the background image in the second image G2 are calculated. A difference S2 (=|FL2-L2|) of L2 is calculated. From the first image G1 and the second image G2 captured by the
続く、S21では、明るさの差S1が所定値αより小さく(S1<α)、かつ、明るさの差S2が所定値α以上(S2≧α)であるか否かを判定する。カメラ10で人物を撮像した画像の場合、第1画像G1における顔fの明るさFL1と背景画像の明るさL1の差S1は小さく、第2画像G2における顔fの明るさと背景画像の明るさL2の差S2は大きいので、S21で肯定判定され、S14へ進む。
Subsequently, in S21, it is determined whether or not the difference S1 in brightness is smaller than a predetermined value α (S1<α) and the difference S2 in brightness is equal to or greater than a predetermined value α (S2≧α). In the case of an image of a person captured by the
S21で否定判定されると、S22へ進み、明るさの差S1が所定値αより小さく(S1<α)、かつ、明るさの差S2が所定値αより小さい(S2<α)か否かを判定する。カメラ10で印刷した顔写真pを撮像した画像の場合、第1画像G1における顔fの明るさFL1と背景画像の明るさL1の差S1は小さく、第2画像G2における顔fの明るさと背景画像の明るさL2の差S2も小さいので、S22で肯定判定され、S23へ進む。
If the determination in S21 is negative, the process advances to S22 to determine whether the brightness difference S1 is smaller than a predetermined value α (S1<α) and the brightness difference S2 is smaller than a predetermined value α (S2<α). judge. In the case of the image obtained by capturing the photograph of the face p printed by the
S23では、カメラ10で撮像した画像は、顔写真pを撮像したなりすますの画像であると判定し、たとえば、その旨の情報を管理サーバ400に送信し、今回のルーチンを終了する。
In S23, it is determined that the image captured by the
S22で否定判定される場合は、カメラ10で撮像された画像が、人物の撮像した画像であるか、あるいは、顔写真pを撮像した画像であるかを判定できないので、今回野ルーチンを終了する。
If a negative determination is made in S22, it cannot be determined whether the image captured by the
カメラ10で人物を撮像した場合、カメラ10から背景までの距離は、カメラ10から人物までの距離より長いので、第1画像G1における顔fの明るさFL1と背景画像の明るさL1の差S1が所定値αより小さく、かつ、第2画像G2における顔fの明るさと背景画像の明るさL2の差S2が所定値α以上になる。したがって、この実施の形態2によれば、カメラ10で撮像した画像が、人物を撮像した画像であり、なりすましでないと判定することができる。
When a person is captured by the
カメラ10で、印刷された顔写真pを撮像した場合、顔写真pに写っている背景と顔は同一平面上に存在し、カメラ10からの距離は同じであるので、第1画像G1における顔fの明るさFL1と背景画像の明るさL1の差S1が所定値αより小さく、かつ、第2画像G2における顔fの明るさと背景画像の明るさL2の差S2が所定値αより小さくなる。したがって、この実施の形態2によれば、カメラ10で撮像した画像は顔写真を撮像した画像であり、なりすましであると判定することができる。
When the printed facial photograph p is captured by the
以上のように、この実施の形態2によれば、顔写真やディスプレイの画像の特徴を捉えるための専用デバイスを設けることなく、なりすましを判定でき、なりすましを抑制することができる。 As described above, according to the second embodiment, spoofing can be determined and spoofing can be suppressed without providing a dedicated device for capturing the features of the face photograph or the image on the display.
(変形例)
上記の実施の形態1および実施の形態2では、第1画像G1の背景画像の明るさL1と、第2画像G2の背景画像の明るさL2を比較して、なりすましを判定していた。しかし、第1画像G1と第2画像G2の全体の明るさを比較して、なりすましを判定するようにしてもよい。たとえば、第1画像G1と第2画像G2の同一座標の画素毎に輝度差を算出し、輝度差の分布を求める。そして、分布に広がりが所定値以上であるか、あるいは、分布の山が分離している場合、人物を撮像した画像であり、なりすましでないと判定し、分布の広がりが所定値以内であり、かつ、分布の山が分離していない場合、顔写真やディスプレイの画像を撮像した画像であり、なりすましであると判定してもよい。
(Modification)
In
また、上記の実施の形態1あるいは実施の形態2のなりすまし判定に加えて、上記変形例のなりすまし判定を実行することにより、より精度よく、人物を撮像した場合の背景bと、印刷した顔写真pを撮像した場合の顔写真pの背景bpとを判別することが可能になる。 In addition to the spoofing determination of the first embodiment or the second embodiment, the spoofing determination of the above-described modified example can be performed to achieve more accurate background b when a person is imaged and a printed facial photograph. It becomes possible to discriminate the background bp of the facial photograph p when p is imaged.
(実施の形態3)
実施の形態1では、第1画像G1の背景画像の明るさL1と第2画像G2の背景画像の明るさL2の差を用いて、なりすましを判定していた。実施の形態3では、第1画像の背景画像と第2画像の背景画像のボケの程度を用いて、なりすましを判定する。なお、実施の形態3において、顔認証システムが搭載された車両の基本的な構成は、図1の車両1と実施的に同様であり、認証ECU200の構成のみ相違する。
(Embodiment 3)
In Embodiment 1, spoofing is determined using the difference between the background image brightness L1 of the first image G1 and the background image brightness L2 of the second image G2. In the third embodiment, spoofing is determined using the degree of blurring of the background image of the first image and the background image of the second image. In Embodiment 3, the basic configuration of a vehicle equipped with a face authentication system is practically the same as that of vehicle 1 in FIG. 1, and only the configuration of
図8は、実施の形態3において、カメラ10で人物を撮像した画像を示す図である。図8(A)は、カメラ10の絞り値(F値)を所定値(たとえば、F16)で撮像した第1画像g1であり、図8(B)は、絞り値を所定値より小さい値(たとえば、F2.8)で撮像した第2画像g2である。なお、カメラ10の焦点は、オートフォーカス処理により、人物の顔fに合わせている。被写体が人物の場合、カメラ10から背景bまでの距離は、カメラ10から顔fまでの距離より長い(遠い)。カメラ10の絞り値を所定値(たとえば、F16)で撮像した第1画像g1では、被写界深度が比較的深いので、図8(A)に示すように、格子模様で表した背景bのボケの程度(ボケ量)は比較的小さい。カメラ10の絞り値を所定値より小さい値(たとえば、F2.8)で撮像した第2画像g2では、被写界深度が浅くなるので、図8(B)に示すように、背景bのボケの程度が大きくなる。
FIG. 8 is a diagram showing an image of a person captured by the
図9は、実施の形態3において、カメラ10で、印刷した顔写真pを撮像した画像を示す図である。図9(A)は、カメラ10の絞り値(F値)を所定値(たとえば、F16)で撮像した第1画像g1であり、図9(B)は、絞り値を所定値より小さい値(たとえば、F2.8)で撮像した第2画像g2である。なお、カメラ10の焦点は、オートフォーカス処理により、人物の顔fに合わせている。被写体が顔写真pである場合、顔写真pにおいて、斜線で表した背景bpと顔fは同一平面上に存在し、カメラ10からの距離は同じであるので、カメラ10の被写界深度の大小に関係無く、背景bpのボケの程度は小さい。
FIG. 9 is a diagram showing an image of a printed facial photograph p captured by the
したがって、カメラ10の被写界深度を変えて同一被写体を撮像し、撮像した画像における顔領域周辺の背景画像のボケの程度を比較することにより、顔写真やディスプレイの画像を用いたなりすましを判定することができる。
Therefore, by photographing the same subject while changing the depth of field of the
図10は、実施の形態3において、認証ECU200b内に構成される機能ブロック図である。図10において、顔抽出部204、基準顔画像取得部205、および照合判定部206は、実施の形態1の認証ECU200と同様であるので、その説明を省略する。
FIG. 10 is a functional block diagram configured in
カメラ制御部201bは、カメラECU100を介してカメラ10を制御する。たとえば、携帯端末500を、車両1のドア3近傍に設置されたNFC装置の読み取り部にかざすと、カメラ10で、第1画像g1および第2画像g2を撮像するよう、カメラECU100に撮像指令を出力する。撮像指令は、第1画像g1として、被写体を所定の絞り値(たとえば、F16)で撮像し、第2画像として、所定の絞り値より小さい絞り値(たとえば、F2.8)で被写体を撮像する指令である。第1画像g1の撮像と第2画像g2の撮像は、連続して行われ、第1画像g1と第2画像g2は、同一の被写体を撮像した画像である。
The
カメラECU100は、撮像指令を受信すると、焦点制御部101で被写体(人物)の顔領域に焦点を合わせる。そして、絞り値を所定の絞り値に設定し、露出制御部102で適正露出になるよう、シャッタースピード(露光時間)、およびISO感度を調整して、第1画像g1を撮像するよう、カメラ10を動作する。カメラ10は、撮像した画像を第1画像g1として出力する。カメラECU100は、第1画像g1を撮像すると、続けて、絞り値を所定の絞り値より小さい絞り値に設定し、露出制御部102で、適正露出になるよう、シャッタースピード(露光時間)、およびISO感度を調整して、第2画像g2を撮像するよう、カメラ10を動作する。カメラ10は、撮像した画像を第2画像g2として出力する。
When the
顔/背景領域検出部202bは、カメラ10で撮像した第1画像g1および第2画像g2から、機械学習アルゴリズムを用いて、画像の顔領域を検出し、顔領域を特定する。なお、被写体の目、鼻、口の位置を検出し、その位置情報を元に、画像の顔領域を検出し、顔領域を特定してもよい。そして、特定された顔領域から所定距離以上離れた所定範囲の領域を、背景領域として特定する。
The face/background
顔/背景領域検出部202bは、第1画像g1の背景領域から、背景画像のボケの程度(ボケ量)bk1を算出するとともに、第2画像g2の背景領域から、背景画像のボケの程度(ボケ量)bk2を算出する。たとえば、背景領域において、隣接する画素間のコントラストが小さい(弱い)ほど、ボケの程度が大きいと算出する。
The face/background
なりすまし判定部203bは、顔/背景領域検出部202bで算出した、第1画像g1の背景画像のボケの程度bk1と、第2画像g2の背景画像のボケの程度bk2を比較し、カメラ10で撮像した画像が、顔写真を用いたなりすましの画像か否かを判定する。ボケの程度bk1とボケの程度bk2の差が所定値以上の場合、画像は人物を撮像した画像であり、なりすましでないと判定し、カメラ10で撮像した画像がなりすましでない旨の信号を出力する。ボケの程度bk1とボケの程度bk2の差が所定値より小さい場合、画像は顔写真を撮像した画像であり、なりすましであると判定する。なお、所定値は、実験等によって、予め設定される。
The
図11は、認証ECU200bで実行される処理の概略フローチャートである。このフローチャートは、図5のフローチャートのS10~S13を、S30~S33に置き換えたものである。図11において、S14~S17の処理は、図5のフローチャートと同様であるので、その説明を省略する。
FIG. 11 is a schematic flowchart of processing executed by the
まず、S30で、カメラ10で被写体を撮像し、第1画像g1を取得する。第1画像g1は、被写体(人物)の顔領域に焦点を合わせ、絞り値を所定の絞り値に設定し、適正露出になるよう、シャッタースピード(露光時間)、およびISO感度を調整して撮像した画像である。
First, in S30, the
続く、S31では、カメラ10で被写体を撮像し、第2画像g2を取得する。第2画像g2は、被写体(人物)の顔領域に焦点を合わせ、絞り値を所定の絞り値より小さい絞り値に設定し、適正露出になるよう、シャッタースピード(露光時間)、およびISO感度を調整して撮像した画像である。
Subsequently, in S31, the subject is imaged by the
S32において、第1画像g1の背景画像のボケの程度(ボケ量)bk1と、第2画像g2の背景画像のボケの程度(ボケ量)bk2を算出する。第1画像g1および第2画像g2から、機械学習アルゴリズムを用いて、画像の顔領域を検出し、顔領域を特定する。そして、特定された顔領域から所定距離以上離れた所定範囲の領域を、背景領域として特定する。そして、第1画像g1の背景領域において、隣接する画素間のコントラストからボケの程度bk1を算出する。また、同様に、第2画像g2の背景領域において、隣接する画素間のコントラストからボケの程度bk2を算出する。 In S32, the degree of blur (bokeh amount) bk1 of the background image of the first image g1 and the degree of blur (bokeh amount) bk2 of the background image of the second image g2 are calculated. From the first image g1 and the second image g2, a machine learning algorithm is used to detect and identify the face area of the image. Then, an area within a predetermined range that is at least a predetermined distance away from the identified face area is identified as a background area. Then, in the background area of the first image g1, the degree of blur bk1 is calculated from the contrast between adjacent pixels. Similarly, in the background area of the second image g2, the degree of blur bk2 is calculated from the contrast between adjacent pixels.
続く、S33において、ボケの程度bk1とボケの程度bk2の差が所定値以上か否かを判定する。ボケの程度bk1とボケの程度bk2の差が所定値以上の場合、肯定判定されS14へ進む。ボケの程度bk1とボケの程度bk2の差が所定値より小さい場合、否定判定され、今回のルーチンを終了する。 Subsequently, in S33, it is determined whether or not the difference between the degree of blur bk1 and the degree of blur bk2 is equal to or greater than a predetermined value. If the difference between the degree of blur bk1 and the degree of blur bk2 is greater than or equal to the predetermined value, the determination is affirmative and the process proceeds to S14. If the difference between the degree of blur bk1 and the degree of blur bk2 is smaller than the predetermined value, a negative determination is made and the current routine ends.
この実施の形態3によれば、第1画像g1を所定の絞り値(たとえば、F16)で撮像し、第2画像g2を所定の絞り値より小さな絞り値(たとえば、F2.8)で撮像する。そして、第1画像g1の背景画像のボケの程度bk1と第2画像g2の背景画像のボケの程度bk2の差が所定値以上のとき、なりすましでないと判定し、撮像した画像を用いて、顔認証を行っている。したがって、実施の形態1および実施の形態2と同様に、顔写真やディスプレイの画像の特徴を捉えるための専用デバイスを設けることなく、なりすましを判定でき、なりすましを抑制することができる。
According to the third embodiment, the first image g1 is captured with a predetermined aperture value (eg, F16), and the second image g2 is captured with a smaller aperture value than the predetermined aperture value (eg, F2.8). . Then, when the difference between the degree of blur bk1 of the background image of the first image g1 and the degree of blur bk2 of the background image of the second image g2 is equal to or greater than a predetermined value, it is determined that the image is not impersonation, and the photographed image is used to detect the face. doing authentication. Therefore, as in
以上説明したように、上記の実施の形態(実施の形態1、実施の形態2、および実施の形態3)によれば、同一の被写体に対して、被写体に焦点を合わせ、露出に関連するパラメータが異なる状態で、第1画像と第2画像を撮像する。そして、第1画像と第2画像から、顔領域の周辺部である背景を背景画像として抽出し、第1画像の背景画像と第2画像の背景画像を用いて、なりすましを判定している。これにより、顔写真やディスプレイの画像の特徴を捉えるための専用デバイスを設けることなく、なりすましを判定でき、なりすましを抑制することができる。
As described above, according to the above-described embodiments (Embodiment 1,
上記の実施の形態では、携帯端末をNFC装置の読み取り部にかざすと、カメラで被写体を撮像し、第1画像および第2画像を取得していた。しかし、携帯端末を用いることなく、顔認証を行うようにしてもよい。たとえば、カメラの近傍に設けた人感センサによって、貸出予約を行った会員がカメラに近づいたことを検知し、被写体(人物)を撮影するようにしてもよい。これにより、携帯端末を持ち歩くことなく、手ぶらで認証を行うことが可能になる。 In the above embodiment, when the mobile terminal is held over the reading unit of the NFC device, the camera captures an image of the subject and acquires the first image and the second image. However, face authentication may be performed without using a mobile terminal. For example, a motion sensor provided near the camera may detect that the member who has made the rental reservation approaches the camera, and the subject (person) may be photographed. This makes it possible to carry out authentication without carrying a mobile terminal.
上記の実施の形態では、カメラ10で撮像した画像から、顔/背景領域検出部202(202a、202b)で、画像の顔領域を検出して顔領域を特定し、特定した顔領域の画像から、顔抽出部204で、顔の特徴を示す特徴量データFi(顔画像)を抽出していた。しかし、顔領域を特定するとともに、顔の特徴を示す特徴量データFi(顔画像)を抽出することが可能な機械学習アルゴリズムを用いる場合は、顔抽出部204の機能を、顔/背景領域検出部202(202a、202b)に統合してもよい。
In the above embodiment, the face/background area detection unit 202 (202a, 202b) detects the face area of the image from the image captured by the
上記の実施の形態では、基準顔画像(特徴量データRi)を、管理サーバ400から取得していた。しかし、車両1の記憶装置、たとえば、認証ECUのメモリに記憶していてもよい。この場合、認証ECUは、管理サーバ400と通信を行うことなく、顔認証を実行できる。
In the above embodiment, the reference face image (feature amount data Ri) is acquired from the
上記の実施の形態では、なりすましを判定するために撮像した第1画像または第2画像から、認証対象者の顔画像(特徴量データFi)を抽出している。したがって、なりすましの判定と顔認証を同時に行うことができる。なお、上記の実施の形態では、第1画像または第2画像から、認証対象者の顔画像を検出し、顔認証を行っていた。しかし、第1画像および第2画像の両方の画像から、認証対象者の顔画像を検出し、両方の画像から検出した顔画像が基準顔画像と一致したとき、顔認証が成立するようにしてもよい。 In the above embodiment, the facial image (feature data Fi) of the person to be authenticated is extracted from the first image or the second image taken for judging impersonation. Therefore, spoofing determination and face authentication can be performed at the same time. It should be noted that in the above embodiment, the face image of the person to be authenticated is detected from the first image or the second image, and face authentication is performed. However, when the face image of the person to be authenticated is detected from both the first image and the second image, and the face image detected from both images matches the reference face image, face authentication is established. good too.
上記の実施の形態では、連続して撮像した第1画像および第2画像を用いていた。しかし、同一の被写体を連続して撮像した画像を用いるのであれば、なりすましを判定するために用いる画像は3以上であってもよい。また、露出(露出値)や光量(照明の明るさ)を連続的に調整しながら撮像し、背景画像の差のプロファイルからなりすましを判定してもよい。 In the above embodiment, the first image and the second image that are captured in succession are used. However, three or more images may be used for judging impersonation as long as images of the same subject are continuously captured. Alternatively, an image may be captured while continuously adjusting the exposure (exposure value) and the amount of light (brightness of the illumination), and spoofing may be determined from the profile of the difference between the background images.
今回開示された実施の形態は、すべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した実施の形態の説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。 The embodiments disclosed this time should be considered as examples and not restrictive in all respects. The scope of the present invention is indicated by the scope of the claims rather than the description of the above-described embodiments, and is intended to include all modifications within the scope and meaning equivalent to the scope of the claims.
1 車両、2 車体、3 ドア、5 認証システム、10 カメラ、20 エレクトロニックフラッシュ、30 ドアロック装置、100 カメラECU、101 焦点制御部、102 露出制御部、103 発光制御部、200,200a,200b 認証ECU、201,201b カメラ制御部、202,202a,202b 顔/背景領域検出部、203,203a,203b なりすまし判定部、204 顔検出部、205 基準顔画像取得部、206 照合判定部、250 通信部、300 ドアECU、400 管理サーバ、401 ECU、402 記憶装置、403 通信装置、500 携帯端末。 1 vehicle, 2 vehicle body, 3 door, 5 authentication system, 10 camera, 20 electronic flash, 30 door lock device, 100 camera ECU, 101 focus control unit, 102 exposure control unit, 103 light emission control unit, 200, 200a, 200b authentication ECU, 201, 201b camera control unit, 202, 202a, 202b face/background area detection unit, 203, 203a, 203b spoofing determination unit, 204 face detection unit, 205 reference face image acquisition unit, 206 matching determination unit, 250 communication unit , 300 door ECU, 400 management server, 401 ECU, 402 storage device, 403 communication device, 500 portable terminal.
Claims (10)
同一の被写体に対して、前記被写体に焦点を合わせ、露出に関連するパラメータが異なる第1画像と第2画像を撮像するよう前記カメラを制御する、カメラ制御部と、
前記第1画像および前記第2画像における、顔領域の周辺部である背景を背景画像として検出する、背景領域検出部と、
前記第1画像の前記背景画像と前記第2画像の前記背景画像を用いて、なりすましを判定する、なりすまし判定部と、を備える顔認証システム。 A face authentication system that performs authentication by matching a face image captured by a camera with a reference face image,
a camera control unit configured to control the camera to capture a first image and a second image having different exposure-related parameters with respect to the same subject, focusing on the subject;
a background area detection unit that detects, as a background image, a background that is a peripheral portion of a face area in the first image and the second image;
A face authentication system comprising: a spoofing determination unit that determines spoofing using the background image of the first image and the background image of the second image.
前記なりすまし判定部は、前記第1画像の前記背景画像と前記第2画像の前記背景画像の明るさの差が所定値以上のとき、なりすましでないと判定する、請求項1に記載の顔認証システム。 The camera control unit captures the first image with a predetermined exposure, captures the second image with illumination brighter than the illumination when the first image was captured, and with an exposure value greater than the predetermined exposure,
2. The face authentication system according to claim 1, wherein said spoofing determination unit determines that spoofing is not performed when a difference in brightness between said background image of said first image and said background image of said second image is equal to or greater than a predetermined value. .
前記なりすまし判定部は、前記第1画像の顔領域の画像と前記背景画像の明るさの差が所定値より小さく、かつ、前記第2画像の顔領域の画像と前記背景画像の明るさの差が前記所定値以上のとき、なりすましでないと判定する、請求項1に記載の顔認証システム。 The camera control unit captures the first image with a predetermined exposure, captures the second image with illumination brighter than the illumination when the first image was captured, and with an exposure value greater than the predetermined exposure,
The spoofing determination unit determines that a difference in brightness between the image of the face area in the first image and the background image is smaller than a predetermined value, and a difference in brightness between the image of the face area in the second image and the background image. 2. The face authentication system according to claim 1, wherein when is equal to or greater than the predetermined value, the face authentication system determines that it is not spoofing.
前記なりすまし判定部は、前記第1画像の前記背景画像と前記第2画像の前記背景画像のボケの程度の差が所定値以上のとき、なりすましでないと判定する、請求項1に記載の顔認証システム。 The camera control unit captures the first image with a predetermined aperture value and captures the second image with an aperture value smaller than the predetermined aperture value,
2. The face authentication according to claim 1, wherein said spoofing determination unit determines that spoofing is not performed when a difference in degree of blur between said background image of said first image and said background image of said second image is equal to or greater than a predetermined value. system.
前記顔画像と前記基準顔画像を照合し、顔認証を行う照合判定部と、を更に備え、
前記照合判定部は、前記なりすまし判定部で、なりすましでないと判定されたとき、前記第1画像または前記第2画像の少なくとも一方から抽出した前記顔画像と前記基準顔画像を照合して、顔認証を行う、請求項2から請求項4のいずれか1項に記載の顔認証システム。 a face extraction unit that extracts the face image from the image captured by the camera;
a matching determination unit for matching the face image and the reference face image to perform face authentication;
The collation determination unit compares the face image extracted from at least one of the first image and the second image with the reference face image to perform face authentication when the impersonation determination unit determines that the impersonation is not performed. 5. The face authentication system according to any one of claims 2 to 4, wherein:
同一の被写体に対して、前記被写体に焦点を合わせ、露出に関連するパラメータが異なる第1画像と第2画像を前記カメラで撮像するステップと、
前記第1画像および前記第2画像における、顔領域の周辺部である背景を背景画像として検出するステップと、
前記第1画像の前記背景画像と前記第2画像の前記背景画像を比較することにより、なりすましを判定するステップと、を含む顔認証方法。 A face authentication method for performing authentication by matching a face image captured by a camera with a reference face image,
capturing with the camera a first image and a second image with different exposure-related parameters, focusing on the same subject;
a step of detecting a background, which is a peripheral portion of a face area, in the first image and the second image as a background image;
determining spoofing by comparing the background image of the first image and the background image of the second image.
前記なりすましを判定するステップは、前記第1画像の前記背景画像と前記第2画像の前記背景画像の明るさの差が所定値以上のとき、なりすましでないと判定する、請求項6に記載の顔認証方法。 The step of capturing images with the camera includes capturing the first image with a predetermined illumination and a predetermined exposure, and capturing the second image with illumination brighter than the predetermined illumination and an exposure value greater than the predetermined exposure. including steps and
7. The face according to claim 6, wherein the step of judging whether or not it is spoofing determines that it is not spoofing when a difference in brightness between said background image of said first image and said background image of said second image is equal to or greater than a predetermined value. Authentication method.
前記なりすましを判定するステップは、前記第1画像の顔領域の画像と前記背景画像の明るさの差が所定値より小さく、かつ、前記第2画像の顔領域の画像と前記背景画像の明るさの差が所定値以上のとき、なりすましでないと判定する、請求項6に記載の顔認証方法。 The step of capturing images with the camera includes capturing the first image with a predetermined illumination and a predetermined exposure, and capturing the second image with illumination brighter than the predetermined illumination and an exposure value greater than the predetermined exposure. including steps and
The step of judging spoofing comprises: a difference in brightness between the image of the face area of the first image and the background image being smaller than a predetermined value, and the brightness of the image of the face area of the second image and the background image; 7. The face authentication method according to claim 6, wherein when the difference between is equal to or greater than a predetermined value, it is determined that the person is not impersonating.
前記なりすましを判定するステップは、前記第1画像の前記背景画像と前記第2画像の前記背景画像のボケの程度の差が所定値以上のとき、なりすましでないと判定する、請求項6に記載の顔認証方法。 The step of capturing an image with the camera includes capturing the first image with a predetermined aperture value, and capturing the second image with an aperture value smaller than the predetermined aperture value,
7. The step of determining spoofing according to claim 6, wherein when a difference in degree of blur between the background image of the first image and the background image of the second image is equal to or greater than a predetermined value, it is determined that the image is not spoofing. face recognition method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021109944A JP2023007006A (en) | 2021-07-01 | 2021-07-01 | Face authentication system and face authentication method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021109944A JP2023007006A (en) | 2021-07-01 | 2021-07-01 | Face authentication system and face authentication method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023007006A true JP2023007006A (en) | 2023-01-18 |
Family
ID=85108169
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021109944A Pending JP2023007006A (en) | 2021-07-01 | 2021-07-01 | Face authentication system and face authentication method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023007006A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021043496A (en) * | 2019-09-06 | 2021-03-18 | 東芝テック株式会社 | Digital imaging device, digital imaging method and program |
-
2021
- 2021-07-01 JP JP2021109944A patent/JP2023007006A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021043496A (en) * | 2019-09-06 | 2021-03-18 | 東芝テック株式会社 | Digital imaging device, digital imaging method and program |
JP7382767B2 (en) | 2019-09-06 | 2023-11-17 | 東芝テック株式会社 | Digital imaging equipment, digital imaging methods, programs |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2324391B1 (en) | In-camera based method of detecting defect eye with high accuracy | |
KR100826309B1 (en) | Device for authenticating face image | |
WO2009107237A1 (en) | Biometrics device | |
JP2003178306A (en) | Personal identification device and personal identification method | |
JP2006259923A (en) | Object authentication device, face authentication device, cellular phone, object authentication unit, object authentication method, and object authentication program | |
CN106878605A (en) | The method and electronic equipment of a kind of image generation based on electronic equipment | |
JP2006259924A (en) | Object authentication device, cellular phone, object authentication unit, object authentication method, and object authentication program | |
CN103294993A (en) | Apparatus and method for identifying fake face | |
JP2003030647A (en) | Image processor, image processing method and program | |
JP2004261515A (en) | Iris image pickup device | |
KR101123834B1 (en) | Method and camera device for determination of photograph cheating using controllable ir light | |
JP2007334854A (en) | Registration device, collation device, extraction method and program | |
JP4670521B2 (en) | Imaging device | |
JP2007094535A (en) | Authentication system and authentication method | |
JP2007067934A (en) | Imaging apparatus and its control method | |
JP2023007006A (en) | Face authentication system and face authentication method | |
JP2008139973A (en) | Face image authentication system and imaging device | |
JP2005157648A (en) | Device for recognizing driver | |
JP7357640B2 (en) | Solid-state imaging device, solid-state imaging method, and electronic equipment | |
JP2008052510A (en) | Iris imaging apparatus, iris authentication apparatus, iris imaging method, iris authentication method | |
JP2003308524A (en) | Access control system | |
CN109426762B (en) | Biological recognition system, method and biological recognition terminal | |
JP4823681B2 (en) | Personal identification device | |
CN113128259B (en) | Face recognition device and face recognition method | |
JP2006081087A (en) | Imaging apparatus and method |