WO2024048185A1 - 乗員認証装置、乗員認証方法、及びコンピュータ可読媒体 - Google Patents

乗員認証装置、乗員認証方法、及びコンピュータ可読媒体 Download PDF

Info

Publication number
WO2024048185A1
WO2024048185A1 PCT/JP2023/028259 JP2023028259W WO2024048185A1 WO 2024048185 A1 WO2024048185 A1 WO 2024048185A1 JP 2023028259 W JP2023028259 W JP 2023028259W WO 2024048185 A1 WO2024048185 A1 WO 2024048185A1
Authority
WO
WIPO (PCT)
Prior art keywords
authentication
vehicle
occupant
unit
authentication device
Prior art date
Application number
PCT/JP2023/028259
Other languages
English (en)
French (fr)
Inventor
雄太 清水
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Publication of WO2024048185A1 publication Critical patent/WO2024048185A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R25/00Fittings or systems for preventing or indicating unauthorised use or theft of vehicles
    • B60R25/20Means to switch the anti-theft system on or off
    • B60R25/25Means to switch the anti-theft system on or off using biometry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions

Definitions

  • the present disclosure relates to an occupant authentication device, an occupant authentication method, and a computer-readable medium.
  • Patent Document 1 discloses a vehicle authentication device using biometric authentication.
  • the authentication device estimates the risk of unauthorized use depending on the situation in which the vehicle is placed.
  • the risk of unauthorized use indicates the degree of possibility that the vehicle will be used illegally.
  • the risk of unauthorized use is estimated using factors that influence the likelihood of unauthorized use, such as time of day and region.
  • the authentication device changes the authentication level according to the estimated risk of unauthorized use.
  • Patent Document 1 does not take into account that face authentication is performed under conditions where the light environment may change. For example, if an image is acquired in a dark place, backlit, or in an environment where overexposure occurs, the degree of matching or matching score for facial recognition will drop significantly, even if the two individuals are the same, and as a result, authentication will fail. It is possible.
  • the present disclosure provides an occupant authentication device, an occupant authentication method, and a computer-readable medium that can suppress facial authentication failures in situations where the light environment may change when authenticating vehicle occupants using facial recognition.
  • the purpose is to provide.
  • the present disclosure provides an occupant authentication device.
  • the occupant authentication device includes an authentication unit that authenticates an occupant of a vehicle by facial recognition, and a determination unit that changes criteria for determining whether authentication is successful or unsuccessful in the facial authentication depending on a driving state of the vehicle.
  • the present disclosure also provides an occupant authentication method.
  • the passenger authentication method includes authenticating an occupant of a vehicle by facial recognition, and changing criteria for determining success or failure of authentication in the facial recognition depending on a driving state of the vehicle.
  • the program causes the processor to execute processing including authenticating an occupant of a vehicle by facial recognition and changing criteria for determining whether authentication is successful or unsuccessful in the facial authentication depending on a driving state of the vehicle.
  • the occupant authentication device, occupant authentication method, and computer-readable medium according to the present disclosure can suppress facial authentication failures in situations where the light environment may change when authenticating a vehicle occupant using facial authentication.
  • FIG. 1 is a block diagram showing a schematic configuration of an occupant authentication device according to the present disclosure.
  • FIG. 1 is a block diagram showing an occupant authentication device according to a first embodiment of the present disclosure.
  • 5 is a flowchart showing the operating procedure of the occupant authentication device.
  • FIG. 2 is a block diagram showing a system including an occupant authentication device according to a second embodiment of the present disclosure.
  • FIG. 2 is a block diagram showing the hardware configuration of an occupant authentication device.
  • FIG. 1 shows a schematic configuration of an occupant authentication device according to the present disclosure.
  • the occupant authentication device 10 includes an authentication section 11 and a determination section 12.
  • the authentication unit 11 authenticates the occupant of the vehicle using facial recognition.
  • the determining unit 12 changes the criteria for determining whether authentication is successful or unsuccessful in face authentication depending on the driving state of the vehicle.
  • the occupant authentication device 10 changes the criteria for determining whether authentication is successful or unsuccessful, depending on the driving state of the vehicle when performing face authentication.
  • the vehicle When the vehicle is running, for example, the light environment around the occupant changes, and an image suitable for face authentication may not be obtained when performing face authentication.
  • the same determination criteria are used when the vehicle is moving and when the vehicle is stopped, there is a possibility that facial recognition of the same person may be successful when the vehicle is stopped, but may fail when the vehicle is moving.
  • the criterion for determination is changed according to the driving state, it is possible to appropriately change the criterion for determination according to the change in the surrounding light environment. Therefore, the occupant authentication device can suppress failures in facial authentication under conditions where the light environment may change.
  • FIG. 2 shows an occupant authentication device according to the first embodiment of the present disclosure.
  • the occupant authentication device 100 includes a face authentication section 101, a determination section 102, a situation information acquisition section 103, and a warning section 104.
  • the occupant authentication device 100 is configured as a device including, for example, one or more processors and one or more memories. At least some of the functions of each part within the occupant authentication device 100 can be realized by executing processing according to a program read from a memory by a processor.
  • the occupant authentication device 100 corresponds to the occupant authentication device 10 shown in FIG.
  • the occupant authentication device 100 is used to determine whether or not an occupant of a vehicle such as a car, van, or truck is a valid user registered in advance.
  • the occupant authentication device 100 is mounted on a vehicle, for example.
  • the occupant authentication device 100 repeatedly authenticates the occupant using facial recognition, for example, from when the occupant gets into the vehicle until when the occupant gets off the vehicle.
  • the occupant authentication device 100 may be used for entry into a vehicle interior of a vehicle such as an automobile.
  • the occupant authentication device 100 can be applied not only to vehicle interior entry but also to authentication in various systems.
  • the occupant authentication device 100 acquires an image of a subject, that is, a passenger, from the camera 130, and performs facial authentication using the acquired image.
  • the camera 130 captures an image of the vehicle occupant who is the person to be authenticated.
  • the camera 130 takes images of the interior of the vehicle.
  • the camera 130 is installed, for example, between the driver's seat and the passenger's seat at a position where the entire inside of the vehicle can be viewed.
  • a plurality of cameras 130 may be arranged inside the vehicle. In that case, the occupant authentication device 100 may acquire images of a plurality of occupants from a plurality of cameras 130.
  • the face authentication unit 101 acquires an image taken by the camera 130, that is, image data inside the vehicle.
  • the face authentication unit 101 sequentially acquires the latest image data taken by the camera 130.
  • the face authentication unit 101 detects a face area from the acquired image data.
  • the face authentication unit 101 cuts out an image of the face area from the acquired image data.
  • the face authentication unit 101 cuts out, for example, a face image of a vehicle driver from the image data.
  • the face authentication unit 101 performs face authentication on the person to be authenticated, that is, the occupant of the vehicle, using the cut out face image.
  • the face authentication unit 101 performs face authentication, for example, when a specific condition is satisfied.
  • the face authentication unit 101 performs face authentication, for example, every time a predetermined period of time has passed since the previous face authentication.
  • the face authentication unit 101 has registered therein facial images of one or more users to be authenticated, that is, one or more registrants.
  • the registrant's face image is also referred to as a registered image.
  • a registered image of a person who has a driver's license and is capable of driving a vehicle is registered in the face authentication unit 101.
  • feature amounts extracted from the registered image may be registered in the face authentication unit 101.
  • the face authentication unit 101 matches the passenger's facial image with the registered image.
  • the face authentication unit 101 extracts a facial feature amount from, for example, a passenger's face image, and compares the extracted feature amount with a feature amount extracted from a registered image.
  • the face authentication unit 101 calculates a matching score indicating the degree of matching or similarity between the passenger's facial image and the registered image. In the following description, it will be assumed that the higher the degree of matching or similarity, the higher the matching score.
  • the face authentication unit 101 determines whether face authentication was successful based on the matching score.
  • the face authentication unit 101 compares the matching score and the authentication threshold.
  • the authentication threshold corresponds to a criterion for determining success or failure of face authentication.
  • the face authentication unit 101 determines whether face authentication is successful based on the comparison result between the matching score and the authentication threshold. For example, the face authentication unit 101 determines that face authentication has been successful when the matching score is equal to or greater than the authentication threshold.
  • the face authentication unit 101 determines that face authentication has failed when the matching score is less than the authentication threshold.
  • Face authentication section 101 corresponds to authentication section 11 shown in FIG.
  • the situation information acquisition unit 103 acquires information regarding the driving state of the vehicle.
  • Information regarding the driving state of the vehicle may include, for example, the speed of the vehicle, the position of the vehicle, and the shift position.
  • the situation information acquisition unit 103 may acquire information regarding the driving state of the vehicle from a device such as a vehicle control ECU (Electronic Control Unit) that controls the vehicle, for example, through an in-vehicle communication network such as a CAN (Controller Area Network). good. Further, the situation information acquisition unit 103 may acquire vehicle position information measured using GNSS (Global Navigation Satellite System) as information regarding the driving state of the vehicle.
  • GNSS Global Navigation Satellite System
  • the situation information acquisition unit 103 may acquire surrounding environment information in addition to the above information.
  • the surrounding environment information includes, for example, information about the light environment that affects the facial image captured using the camera 130.
  • the surrounding environment information includes at least one of whether overexposure occurs, whether there is a backlight condition, and whether the face image is insufficiently bright.
  • the surrounding environment information can be obtained, for example, by analyzing the brightness and histogram of each pixel of an in-vehicle image taken using the camera 130.
  • the determining unit 102 changes the authentication threshold in the face authentication unit 101 according to the information acquired by the situation information acquisition unit 103. For example, the determination unit 102 changes the authentication threshold depending on whether the vehicle is running or stopped. For example, the determination unit 102 lowers the authentication threshold when the vehicle is running than when the vehicle is stopped.
  • the face authentication unit 101 uses the authentication threshold determined or set by the determination unit 102 to determine whether face authentication is successful or unsuccessful.
  • the determining unit 102 corresponds to the determining unit 12 shown in FIG.
  • FIG. 3 schematically shows face authentication in a certain situation.
  • the determining unit 102 sets the authentication threshold to a high value, for example 0.7.
  • the determining unit 102 sets the authentication threshold to a low value, for example 0.6. It is assumed that the matching score calculated by the face authentication unit 101 is 0.65. In this case, if the authentication threshold is 0.7, the face authentication unit 101 determines that authentication has failed. On the other hand, when the authentication threshold is 0.6, the face authentication unit 101 determines that the authentication is successful.
  • the determining unit 102 sets the authentication threshold to a low value when the vehicle is running. In this case, the face authentication unit 101 determines that face authentication has been successful even if the matching score, that is, the degree of similarity between the registered image and the passenger's face image is somewhat low. Therefore, the possibility that face authentication will fail while driving is reduced.
  • the determining unit 102 sets the authentication threshold to a high value. In this case, the face authentication unit 101 determines that face authentication has failed unless the matching score is high to a certain extent. Therefore, the face authentication unit 101 can perform face authentication under stricter conditions while the vehicle is stopped, and can check for changes in drivers while the vehicle is stopped under strict conditions.
  • the determination unit 102 may change the authentication threshold depending on whether the vehicle is parked or whether the vehicle is temporarily stopped.
  • the state where the vehicle is temporarily stopped includes, for example, when the vehicle is stopped at a traffic light or when the vehicle is stopped on a busy road.
  • the determining unit 102 determines that the vehicle is parked when the speed is 0 and the shift position is P (Parking), and when the speed is 0 and the shift position is other than P, the vehicle is temporarily parked. It may be determined that the vehicle is stopped.
  • the determining unit 102 may determine whether the vehicle is parked or temporarily stopped based on the elapsed time since the vehicle stopped. For example, the determining unit 102 may determine that the vehicle is parked if the state where the speed is 0 continues for a predetermined time or more after the speed becomes 0.
  • the determining unit 102 may determine whether the vehicle is parked or temporarily stopped based on an image of a camera that captures an image in an area outside the vehicle. For example, when the vehicle is stopped near the edge of the road, the determining unit 102 may determine that the vehicle is parked. Alternatively, the determining unit 102 may determine that the vehicle is parked when the vehicle is parked in a parking space such as a parking lot. The determining unit 102 may determine whether the vehicle is located in a parking lot by comparing the vehicle's position information with map information. The determining unit 102 may determine that the vehicle is parked if the vehicle is located in a parking lot.
  • the determining unit 102 may change the authentication threshold based on surrounding environment information in addition to information regarding the driving state. For example, the determining unit 102 may temporarily lower the authentication threshold when the image has blown highlights, is backlit, or the face image is insufficiently bright. In that case, it is possible to reduce the possibility that face authentication will fail due to not having acquired an image suitable for face authentication.
  • the warning unit 104 generates an alert when the face authentication unit 101 fails in face authentication.
  • the warning unit 104 may use, for example, at least one of sound and light to notify the occupant of the vehicle that face authentication has failed, that is, that the occupant is not a pre-registered person.
  • the warning unit 104 may generate an alert when the face authentication unit 101 fails in face authentication a predetermined number of times in succession. Further, for example, when the operation of vehicles is managed in a corporation, the warning unit 104 may notify the vehicle operation manager of the corporation with an alert. In that case, the warning unit 104 may notify, for example, that the occupant is not a pre-registered person, using a communication means such as e-mail.
  • FIG. 4 shows the operating procedure of the occupant authentication device 100.
  • the operating procedure of the occupant authentication device 100 corresponds to an occupant authentication method.
  • the face authentication unit 101 acquires an image of the interior of the vehicle from the camera 130 (step S1).
  • the face authentication unit 101 detects the facial area of the passenger from the image acquired from the camera 130 (step S2).
  • the situation information acquisition unit 103 acquires information regarding the driving state of the vehicle (step S3).
  • the situation information acquisition unit 103 may acquire information on the surrounding environment of the vehicle in addition to information regarding the driving state of the vehicle.
  • the determining unit 102 determines an authentication threshold according to the information acquired in step S3 (step S4).
  • the determining unit 102 sets the authentication threshold determined in step S4 in the face authentication unit 101. Steps S1 and S2 and steps S3 and S4 may be performed first, or may be performed in parallel.
  • the face authentication unit 101 performs face authentication on the image of the passenger's facial area detected in step S2, that is, the face image (step S5). In face authentication, the face authentication unit 101 compares the authentication threshold determined in step S4 and the matching score. The face authentication unit 101 determines that face authentication has been successful when the matching score is equal to or greater than the authentication threshold. The face authentication unit 101 determines that face authentication has failed when the matching score is less than the authentication threshold.
  • the warning unit 104 determines whether or not face authentication was successful in the face authentication unit 101 (step S6).
  • the warning unit 104 generates an alert when face authentication fails in the face authentication unit 101 (step S7).
  • the warning unit 104 uses, for example, sound and light to warn the driver that a person other than the registrant is driving inside the vehicle.
  • the determining unit 102 changes the authentication threshold value in the face authentication unit 101 according to the driving state of the vehicle.
  • the determining unit 102 sets the authentication threshold to a low value while the vehicle is running, since there is a possibility that images suitable for authentication cannot be obtained due to changes in the light environment.
  • the face authentication unit 101 performs face authentication using a low authentication threshold, it is possible to reduce the possibility that face authentication will fail due to a change in the light environment while the vehicle is running. By suppressing frequent notifications of facial recognition failures, vehicle occupants can get into the vehicle without feeling bothered.
  • the determining unit 102 sets the authentication threshold to a higher value under a situation where the light environment does not change, such as when the vehicle is stopped. In this case, the face authentication unit 101 can perform face authentication under stricter conditions, and can check for changes in drivers while the vehicle is stopped under strict conditions.
  • FIG. 5 shows a system including an occupant authentication device according to a second embodiment of the present disclosure.
  • the configuration of the occupant authentication device 100 may be the same as the configuration of the occupant authentication device 100 described in the first embodiment shown in FIG. 2.
  • the occupant authentication device 100 when the face authentication unit 101 fails in face authentication, the occupant authentication device 100 notifies the vehicle control device 150 that the face authentication has failed.
  • Occupant authentication device 100 may notify vehicle control device 150 that face authentication has failed when face authentication section 101 has failed in face authentication a predetermined number of times in succession. Note that in this embodiment, the occupant authentication device 100 does not need to include the warning unit 104.
  • the vehicle control device 150 includes a vehicle control ECU that performs driving control of the vehicle.
  • the vehicle control ECU has a processor, memory, I/O (Input/Output), and a bus that connects these.
  • the vehicle control ECU acquires sensor information from vehicle sensors and performs vehicle driving control and the like.
  • a vehicle sensor is a sensor for detecting various states of a moving body.
  • Vehicle sensors include, for example, a vehicle speed sensor that detects the vehicle speed, a steering sensor that detects the steering angle, an accelerator opening sensor that detects the opening degree of the accelerator pedal, and a brake pedal force sensor that detects the amount of depression of the brake pedal. include.
  • the vehicle control ECU performs various controls such as fuel injection amount control, engine ignition timing control, and power steering assist amount control based on sensor information output by the vehicle sensor.
  • the vehicle control device 150 may include an automatic driving ECU that controls automatic driving of the vehicle.
  • the automatic driving ECU has a processor, memory, I/O, and a bus that connects these.
  • the automatic driving ECU acquires sensor information from a surrounding monitoring sensor and a vehicle sensor, and controls autonomous driving of the vehicle based on the acquired sensor information.
  • the surrounding monitoring sensor is a sensor that monitors the surrounding situation of a moving body.
  • the surrounding monitoring sensor includes, for example, a camera, radar, LiDAR (Light Detection and Ranging), and the like.
  • the surroundings monitoring sensor may include, for example, a plurality of cameras that take images of the front, rear, right side, and left side of the vehicle.
  • the vehicle control device 150 when the vehicle control device 150 receives a notification from the occupant authentication device 100 indicating that face authentication has failed, the vehicle control device 150 stops the vehicle on the roadside. For example, the vehicle control device 150 instructs the automatic driving ECU to stop, and the automatic driving ECU automatically stops the vehicle on the shoulder of the road. When the vehicle is running automatically, the vehicle control device 150 may end the automatic operation and switch the driving mode of the vehicle from automatic operation to manual operation. If the vehicle control device 150 receives a notification from the occupant authentication device 100 indicating that facial recognition was successful after stopping the vehicle on the roadside or switching to manual operation, the vehicle control device 150 switches the vehicle to automatic operation and switches the vehicle to automatic operation. may run automatically
  • the vehicle control device 150 causes the vehicle to stop on the roadside if facial authentication fails in the occupant authentication device 100.
  • the vehicle control device 150 ends the automatic operation when the vehicle is traveling under automatic operation. By doing so, it is possible to prevent unauthorized use of the vehicle by a registered person, that is, a person other than the authorized user. Other effects are similar to those in the first embodiment.
  • the occupant authentication device 100 is mounted on a vehicle.
  • the present disclosure is not limited thereto.
  • the occupant authentication device 100 does not necessarily need to be mounted on a vehicle.
  • Occupant authentication device 100 may be a device installed outside the vehicle. In that case, the occupant authentication device 100 may acquire an image taken by the camera 130 via a wireless communication network.
  • the occupant authentication device 100 does not necessarily need to be a single device.
  • the occupant authentication device 100 may be configured using a plurality of physically separated devices.
  • all functions of the occupant authentication device 100 do not necessarily need to be installed in the vehicle or arranged outside the vehicle.
  • some of the functions of the occupant authentication device 100 may be placed outside the vehicle, and the remaining functions may be installed in the vehicle.
  • FIG. 6 shows the hardware configuration of the occupant authentication device 100.
  • the occupant authentication device 100 includes a processor (CPU: Central Processing Unit) 501, a ROM (read only memory) 502, and a RAM (random access memory) 503.
  • a processor 501, a ROM 502, and a RAM 503 are interconnected via a bus 504.
  • the occupant authentication device 100 may include other circuits such as peripheral circuits, communication circuits, and interface circuits.
  • the ROM 502 is a nonvolatile storage device.
  • a semiconductor storage device such as a flash memory with a relatively small capacity is used as the ROM 502.
  • ROM 502 stores programs executed by processor 501.
  • the program includes a set of instructions (or software code) that, when loaded into a computer, causes the computer to perform one or more of the functions described in the embodiments.
  • the program may be stored on a non-transitory computer readable medium or a tangible storage medium.
  • computer readable or tangible storage media may include RAM, ROM, flash memory, solid-state drive (SSD) or other memory technology, Compact Disc (CD), digital versatile disc (DVD), including Blu-ray discs or other optical disc storage, magnetic cassettes, magnetic tape, magnetic disc storage or other magnetic storage devices.
  • the program may be transmitted on a transitory computer-readable medium or a communication medium.
  • transitory computer-readable or communication media includes electrical, optical, acoustic, or other forms of propagating signals.
  • the RAM 503 is a volatile storage device. Various semiconductor memory devices such as DRAM (Dynamic Random Access Memory) or SRAM (Static Random Access Memory) are used for the RAM 503.
  • the RAM 503 can be used as an internal buffer for temporarily storing data and the like.
  • the processor 501 loads the program stored in the ROM 502 into the RAM 503 and executes the program.
  • the functions of each part within the occupant authentication device 100 can be realized by the CPU 501 executing the program.
  • An authentication section that authenticates vehicle occupants using facial recognition;
  • An occupant authentication device comprising: a determination unit that changes criteria for determining success or failure of authentication in the face authentication according to a driving state of the vehicle.
  • the authentication unit compares the facial image of the passenger or the feature amount extracted from the facial image with the registered image of the registrant or the feature amount extracted from the registered image, and verifies the relationship between the passenger and the registrant. Supplementary Notes 1 to 7, calculating a matching score indicating the degree of matching, comparing the calculated matching score with the determination criterion, and determining whether or not the face authentication was successful based on the result of the comparison.
  • the occupant authentication device according to any one of paragraphs 1 to 9.
  • the determining unit determines a threshold value for the matching score as a criterion for the determination, The occupant authentication device according to supplementary note 8, wherein the authentication unit determines whether or not the face authentication is successful depending on whether or not the matching score is greater than or equal to the threshold value.
  • An occupant authentication method comprising changing a criterion for determining success or failure of authentication in the face authentication according to a driving state of the vehicle.
  • a program for causing a processor to execute processing including changing a criterion for determining success or failure of authentication in the face authentication according to a driving state of the vehicle.
  • Occupant authentication device 11 Occupant authentication device 11: Authentication section 12: Determination section 100: Occupant authentication device 101: Face authentication section 102: Determination section 103: Situation information acquisition section 104: Warning section 130: Camera 150: Vehicle control device

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mechanical Engineering (AREA)
  • Collating Specific Patterns (AREA)

Abstract

車両の乗員を顔認証で認証する場合に、光環境が変化し得る状況下における顔認証の失敗を抑制することを可能にする。認証部(11)は、車両の乗員を顔認証で認証する。決定部(12)は、車両の走行状態に応じて顔認証における認証成功及び失敗の判定の基準を変更する。

Description

乗員認証装置、乗員認証方法、及びコンピュータ可読媒体
 本開示は、乗員認証装置、乗員認証方法、及びコンピュータ可読媒体に関する。
 関連技術として、特許文献1は、生体認証を用いた車両用認証装置を開示する。認証装置は、車両が置かれている状況に応じて不正使用危険度を推測する。不正使用危険度は、車両が不正使用される可能性の程度を示す。特許文献1において、不正使用危険度は、時間帯、及び地域などの不正使用の行われ易さに影響を与える要素を用いて推測される。認証装置は、推測した不正使用危険度に応じて認証レベルを変更する。
特開2007-145200号公報
 しかしながら、特許文献1では、顔認証が、光環境が変化し得る状況下において実施されることは考慮されていない。例えば、暗所、逆光、及び白飛びが生じる環境下で画像が取得される場合、顔認証における認証の合致度又は照合スコアが本人同士であっても大きく低下し、その結果、認証に失敗することがあり得る。
 本開示は、上記事情に鑑み、車両の乗員を顔認証で認証する場合に、光環境が変化し得る状況下における顔認証の失敗を抑制できる乗員認証装置、乗員認証方法、及びコンピュータ可読媒体を提供することを目的とする。
 上記目的を達成するために、本開示は、乗員認証装置を提供する。乗員認証装置は、車両の乗員を顔認証で認証する認証部と、前記車両の走行状態に応じて前記顔認証における認証成功及び失敗の判定の基準を変更する決定部とを含む。
 本開示は、また、乗員認証方法を提供する。乗員認証方法は、車両の乗員を顔認証で認証し、前記車両の走行状態に応じて前記顔認証における認証成功及び失敗の判定の基準を変更することを含む。
 本開示は、プログラムを提供する。プログラムは、車両の乗員を顔認証で認証し、前記車両の走行状態に応じて前記顔認証における認証成功及び失敗の判定の基準を変更することを含む処理をプロセッサに実行させる。
 本開示に係る乗員認証装置、乗員認証方法、及びコンピュータ可読媒体は、車両の乗員を顔認証で認証する場合に、光環境が変化し得る状況下における顔認証の失敗を抑制することができる。
本開示に係る乗員認証装置の概略的な構成を示すブロック図。 本開示の第1実施形態に係る乗員認証装置を示すブロック図。 ある局面における顔認証を模式的に示す模式図。 乗員認証装置の動作手順を示すフローチャート。 本開示の第2実施形態に係る乗員認証装置を含むシステムを示すブロック図。 乗員認証装置のハードウェア構成を示すブロック図。
 本開示の実施の形態の説明に先立って、本開示の概要を説明する。図1は、本開示に係る乗員認証装置の概略的な構成を示す。乗員認証装置10は、認証部11と、決定部12とを有する。認証部11は、車両の乗員を顔認証で認証する。決定部12は、車両の走行状態に応じて顔認証における認証成功及び失敗の判定の基準を変更する。
 本開示に係る乗員認証装置10は、顔認証実施時の車両の走行状態に応じて、認証成功及び失敗の判定の基準を変更する。車両が走行している場合、例えば、乗員の周囲の光環境が変化し、顔認証の実施時に、顔認証に適した画像が取得できない場合があり得る。走行中と停車中とで同じ判定の基準が使用されたと仮定した場合、同一人物に対して、停車中は顔認証に成功するのに対し、走行中は顔認証に失敗する可能性がある。本開示では、走行状態に応じて判定の基準が変更されるため、周囲の光環境の変化に応じて判定の基準を適切に変化させることができる。このため、乗員認証装置は、光環境が変化し得る状況下における顔認証の失敗を抑制することができる。
 以下、図面を参照しつつ、本開示の実施の形態を詳細に説明する。なお、以下の記載及び図面は、説明の明確化のため、適宜、省略及び簡略化がなされている。また、以下の各図面において、同一の要素及び同様な要素には同一の符号が付されており、必要に応じて重複説明は省略されている。
 図2は、本開示の第1実施形態に係る乗員認証装置を示す。乗員認証装置100は、顔認証部101、決定部102、状況情報取得部103、及び警告部104を有する。乗員認証装置100は、例えば、1以上のプロセッサと1以上のメモリとを含む装置として構成される。乗員認証装置100内の各部の機能の少なくとも一部は、プロセッサがメモリから読み出したプログラムに従って処理を実行することで実現され得る。乗員認証装置100は、図1に示される乗員認証装置10に対応する。
 本実施形態において、乗員認証装置100は、自動車、バン、又はトラックなどの車両の乗員が、あらかじめ登録された正当な利用者であるか否かを判定するために用いられるものとする。乗員認証装置100は、例えば車両に搭載される。乗員認証装置100は、例えば、乗員が車両に乗車してから、乗員が車両から降車するまでの間、繰り返し、乗員を顔認証で認証する。乗員認証装置100は、上記判定に加えて、自動車などの車両における車室内エントリに用いられてもよい。乗員認証装置100は、車室内エントリに限らず、様々なシステムにおける認証に適用され得る。
 乗員認証装置100は、カメラ130から被験者、すなわち乗員の画像を取得し、取得した画像を用いて顔認証を実施する。カメラ130は、認証対象者である車両の乗員の画像を撮影する。本実施形態において、カメラ130は、車両の内部の画像を撮影する。カメラ130は、例えば、運転席と助手席との間で、車内全体を見渡せる位置に設置される。車両の内部には、複数のカメラ130が配置されていてもよい。その場合、乗員認証装置100は、複数のカメラ130から、複数の乗員の画像を取得してもよい。
 顔認証部101は、カメラ130が撮影した画像、すなわち車両の内部の画像データを取得する。顔認証部101は、カメラ130が撮影した最新の画像データを、順次に取得する。顔認証部101は、取得した画像データから、顔領域を検知する。顔認証部101は、取得した画像データから、顔領域の画像を切り出す。顔認証部101は、画像データから、例えば車両の運転手の顔画像を切り出す。顔認証部101は、切り出した顔画像を用いて、認証対象者、すなわち車両の乗員を顔認証する。顔認証部101は、例えば、特定の条件が成立するときに、顔認証を実施する。顔認証部101は、例えば、前回の顔認証から所定時間が経過するたびに、顔認証を実施する。
 顔認証部101には、認証対象の1以上のユーザ、すなわち1以上の登録者それぞれの顔画像が登録されている。以下の説明において、登録者の顔画像は、登録画像とも呼ばれる。顔認証部101には、例えば、運転免許を保有する、車両の運転が可能な人物の登録画像が登録されている。顔認証部101には、登録画像に加えて、又はこれに代えて、登録画像から抽出された特徴量が登録されていてもよい。
 顔認証部101は、乗員の顔画像と、登録画像とを照合する。顔認証部101は、例えば乗員の顔画像から顔の特徴量を抽出し、抽出した特徴量と、登録画像から抽出された特徴量とを比較する。顔認証部101は、乗員の顔画像と登録画像との一致度、又は類似度を示す照合スコアを計算する。以下では、一致度又は類似度が高いほど、照合スコアが高いものとして説明する。
 顔認証部101は、照合スコアに基づいて、顔認証に成功したか否かを判断する。顔認証部101は、照合スコアと認証しきい値とを比較する。認証しきい値は、顔認証の成功及び失敗の判定の基準に対応する。顔認証部101は、照合スコアと認証しきい値との比較結果に基づいて、顔認証に成功したか否かを判定する。顔認証部101は、例えば、照合スコアが認証しきい値以上の場合、顔認証に成功したと判定する。顔認証部101は、照合スコアが認証しきい値未満の場合、顔認証に失敗したと判定する。顔認証部101は、図1に示される認証部11に対応する。
 状況情報取得部103は、車両の走行状態に関する情報を取得する。車両の走行状態に関する情報は、例えば、車両の速度、車両の位置、及びシフトポジションを含み得る。状況情報取得部103は、例えば、CAN(Controller Area Network)などの車内通信ネットワークを通じて、車両を制御する車両制御ECU(Electronic Control Unit)などの装置から、車両の走行状態に関する情報を取得してもよい。また、状況情報取得部103は、GNSS(Global Navigation Satellite System)を用いて測定された車両の位置情報を、車両の走行状態に関する情報として取得してもよい。
 状況情報取得部103は、上記情報に加えて周辺環境情報を取得してもよい。周辺環境情報は、例えば、カメラ130を用いて撮影される顔画像に影響を与える光環境の情報を含む。周辺環境情報は、白飛び発生の有無、逆光状態か否か、及び顔画像の明るさ不足しているか否かの少なくとも1つを含む。周辺環境情報は、例えばカメラ130を用いて撮影された車内画像の各画素の輝度、及びヒストグラムを分析することで取得可能である。
 決定部102は、状況情報取得部103が取得した情報に応じて、顔認証部101における認証しきい値を変更する。例えば、決定部102は、車両が走行中か否か、又は停車中か否かに応じて、認証しきい値を変更する。決定部102は、例えば、車両が走行中の場合、車両が停車中の場合に比べて、認証しきい値を下げる。顔認証部101は、決定部102が決定又は設定した認証しきい値を用いて、顔認証の成功及び失敗の判定を行う。決定部102は、図1に示される決定部12に対応する。
 図3は、ある局面における顔認証を模式的に示す。決定部102は、車両が停車中の場合、認証しきい値を高い値、例えば0.7に設定する。一方、決定部102は、車両が走行中の場合、認証しきい値を低い値、例えば0.6に設定する。顔認証部101において計算された照合スコアは0.65であったとする。この場合、認証しきい値が0.7の場合、顔認証部101は、認証に失敗したと判定する。一方、認証しきい値が0.6の場合、顔認証部101は、認証に成功したと判定する。
 車両が走行中の場合、光環境は、車両の移動に伴って短時間で変化し得る。決定部102は、車両が走行中の場合、認証しきい値を低い値に設定する。この場合、顔認証部101は、照合スコア、すなわち登録画像と乗員の顔画像との類似度が多少低くても顔認証に成功したと判定する。従って、走行中に顔認証に失敗する可能性は低下する。一方、決定部102は、車両が停車中の場合、認証しきい値を高い値に設定する。この場合、顔認証部101は、照合スコアがある程度高くないと、顔認証に失敗した判定する。従って、顔認証部101は、停車中は顔認証をより厳密な条件で実施することができ、停車中の運転者の入れ替わりなどを、厳しい条件でチェックすることができる。
 決定部102は、車両が停車中の場合、車両が駐車中か否か、又は車両が一時的に停車しているか否かに応じて、認証しきい値を変更してもよい。車両が一時的に停車している状態は、例えば、車両が信号待ちで停車している場合、又は渋滞している道路上で停車している場合を含む。決定部102は、例えば速度が0で、かつシフトポジションがP(Parking)である場合は車両が駐車中であると判断し、速度が0で、かつシフトポジションがP以外の場合は車両が一時的に停車していると判断してもよい。あるいは、決定部102は、車両が停車してからの経過時間に基づいて、車両が駐車中か、又は、一時的に停車しているかを判断してもよい。決定部102は、例えば、速度が0になった後、速度が0の状態が所定時間以上継続した場合、車両は駐車中であると判断してもよい。
 決定部102は、車両の外部の領域に画像を撮影するカメラの画像に基づいて、車両が駐車中か、又は一時的に停車しているかを判断してもよい。決定部102は、例えば、車両が道路の端に寄って停車している場合、車両は駐車中であると判断してもよい。あるいは、決定部102は、駐車場などの駐車スペースに停車している場合、車両は駐車中であると判断してもよい。決定部102は、車両の位置情報と、地図情報とを照合し、車両が駐車場内に位置しているか否かを判断してもよい。決定部102は、車両が駐車場内に位置している場合、車両は駐車中であると判断してもよい。
 決定部102は、走行状態に関する情報に加えて、周辺環境情報に基づいて、認証しきい値を変更してもよい。例えば、決定部102は、画像に白飛びが発生している場合、逆光状態である場合、又は顔画像の明るさ不足している場合、一時的に認証しきい値を低下させてもよい。その場合、顔認証に適した画像が取得されていないことに起因して顔認証に失敗する可能性を低下させることができる。
 警告部104は、顔認証部101が顔認証に失敗した場合、アラートを発生する。警告部104は、例えば音及び光の少なくとも一方を用いて、車両の乗員に、顔認証に失敗していること、つまり、乗員があらかじめ登録された人物ではないことを知らせてもよい。警告部104は、顔認証部101において所定回数連続して顔認証に失敗した場合、アラートを発生してもよい。また、例えば法人において車両の運行が管理されている場合、警告部104は、その法人の車両運行管理者にアラートを通知してもよい。その場合、警告部104は、例えば電子メールなどの通信手段を用いて、例えば乗員があらかじめ登録された人物ではないことを通知してもよい。
 続いて、動作手順を説明する。図4は、乗員認証装置100の動作手順を示す。乗員認証装置100の動作手順は、乗員認証方法に対応する。顔認証部101は、カメラ130から車両の内部の画像を取得する(ステップS1)。顔認証部101は、カメラ130から取得した画像から、乗員の顔領域を検出する(ステップS2)。
 状況情報取得部103は、車両の走行状態に関する情報を取得する(ステップS3)。状況情報取得部103は、ステップS3では、車両の走行状態に関する情報に加えて、車両の周辺環境情報を取得してもよい。決定部102は、ステップS3で取得された情報に応じて、認証しきい値を決定する(ステップS4)。決定部102は、ステップS4で決定した認証しきい値を顔認証部101に設定する。ステップS1及びS2と、ステップS3及びS4とは、どちらが先に実施されてもよいし、並列に実施されてもよい。
 顔認証部101は、ステップS2で検出された乗員の顔領域の画像、すなわち顔画像に対して顔認証を実施する(ステップS5)。顔認証部101は、顔認証において、ステップS4で決定された認証しきい値と、照合スコアとを比較する。顔認証部101は、照合スコアが認証しきい値以上の場合、顔認証に成功したと判定する。顔認証部101は、照合スコアが認証しきい値未満の場合、顔認証に失敗したと判定する。
 警告部104は、顔認証部101において顔認証に成功したか否かを判断する(ステップS6)。警告部104は、顔認証部101において顔認証に失敗した場合、アラートを発生する(ステップS7)。警告部104は、ステップS7では、例えば音及び光などを用いて、車両の内部において、運転者に、登録者以外の人物が運転していることを警告する。
 本実施形態では、決定部102は、顔認証部101における認証しきい値を、車両の走行状態に応じて変更する。認証しきい値を、顔認証実施時の車両の走行状態に応じて適切に設定することで、顔認証に適した画像が取得できない場合でも、そのことに起因して顔認証に失敗することを抑制できる。
 例えば、決定部102は、車両の走行中は、光環境の変化に起因して認証に適した画像が取得できない可能性があるため、認証しきい値を低い値に設定する。顔認証部101が低い認証しきい値を用いて顔認証を実施する場合、車両の走行中に光環境が変化したことに起因して顔認証に失敗する可能性を低下させることができる。車両の乗員は、頻繁に顔認証の失敗が通知されることが抑制されることで、わずらわしさを感じることなく、車両に乗車できる。一方、決定部102は、停車中などの光環境が変化しない状況下では、認証しきい値を高めの値に設定する。この場合、顔認証部101は、顔認証をより厳密な条件で実施することができ、停車中の運転者の入れ替わりなどを、厳しい条件でチェックすることができる。
 次いで、本開示の第2実施形態を説明する。図5は、本開示の第2実施形態に係る乗員認証装置を含むシステムを示す。本実施形態において、乗員認証装置100の構成は、図2に示される第1実施形態で説明した乗員認証装置100の構成と同様でよい。本実施形態において、乗員認証装置100は、顔認証部101が顔認証に失敗する場合、顔認証に失敗していることを車両制御装置150に通知する。乗員認証装置100は、所定回数連続して顔認証部101が顔認証に失敗する場合に、顔認証に失敗していることを車両制御装置150に通知してもよい。なお、本実施形態において、乗員認証装置100は、警告部104を有していなくてもよい。
 車両制御装置150は、車両の走行制御などを行う車両制御ECUを含む。車両制御ECUは、プロセッサ、メモリ、I/O(Input / Output)、及びこれらを接続するバスを有する。車両制御ECUは、車両センサからセンサ情報を取得し、車両の走行制御などを行う。車両センサは、移動体の各種状態を検出するためのセンサである。車両センサは、例えば、車速を検出する車速センサ、操舵角を検出する操舵センサ、アクセルペダルの開度を検出するアクセル開度センサ、及びブレーキペダルの踏み込み量を検出するブレーキ踏力センサなどのセンサを含む。車両制御ECUは、車両センサが出力するセンサ情報に基づいて、例えば、燃料噴射量の制御、エンジン点火時期の制御、及びパワーステアリングのアシスト量の制御などの各種制御を実施する。
 車両制御装置150は、車両の自動運転を制御する自動運転ECUを含んでいてもよい。自動運転ECUは、プロセッサ、メモリ、I/O、及びこれらを接続するバスを有する。自動運転ECUは、周辺監視センサ及び車両センサからセンサ情報を取得し、取得したセンサ情報に基づいて車両の自律走行を制御する。周辺監視センサは、移動体の周辺状況を監視するセンサである。周辺監視センサは、例えばカメラ、レーダ、及びLiDAR(Light Detection and Ranging)などを含む。周辺監視センサは、例えば車両の前方、後方、右側方、及び左側方を撮影する複数のカメラを含んでいてもよい。
 車両制御装置150は、例えば乗員認証装置100から顔認証に失敗したことを示す通知を受信した場合、車両を路肩に停車させる。例えば、車両制御装置150は、自動運転ECUに対して停車を指示し、自動運転ECUは、車両を自動的に路肩に停車させる。車両制御装置150は、車両が自動運転で走行している場合、自動運転を終了し、車両の運転モードを自動運転から手動運転に切り替えてもよい。車両制御装置150は、車両を路肩に停車させた後、又は手動運転への切り替え後、乗員認証装置100から顔認証に成功したことを示す通知を受信した場合、車両を自動運転に切り替え、車両を自動運転で走行させてもよい
 本実施形態では、車両制御装置150は、乗員認証装置100において顔認証に失敗した場合、車両を路肩に停車させる。あるいは、車両制御装置150は、車両が自動運転で走行していた場合、自動運転を終了する。このようにすることで、登録された人物、つまり正当な利用者以外の人間が、車両を不正に利用することを抑制できる。他の効果は、第1実施形態における効果と同様である。
 なお、上記実施形態では、乗員認証装置100が車両に搭載される例が説明された。しかしながら、本開示はこれには限定されない。本開示において、乗員認証装置100は、必ずしも車両に搭載されている必要はない。乗員認証装置100は、車両の外部に設置された装置であってもよい。その場合、乗員認証装置100は、カメラ130が撮影した画像を、無線通信ネットワークを介して取得してもよい。
 本開示において、乗員認証装置100は、必ずしも単一の装置である必要はない。乗員認証装置100は、物理的に分離された複数の装置を用いて構成されていてもよい。また、乗員認証装置100は、必ずしも全ての機能が車両に搭載され、或いは車両の外部に配置されている必要はない。例えば、乗員認証装置100の機能のうち、一部の機能が車両の外部に配置され、残りの機能が車両に搭載されていてもよい。
 続いて、乗員認証装置100のハードウェア構成を説明する。図6は、乗員認証装置100のハードウェア構成を示す。乗員認証装置100は、プロセッサ(CPU:Central Processing Unit)501、ROM(read only memory)502、及びRAM(random access memory)503を有する。乗員認証装置100において、プロセッサ501、ROM502、及びRAM503は、バス504を介して相互に接続される。乗員認証装置100は、図示は省略するが、周辺回路、通信回路、及びインタフェース回路などの他の回路を含み得る。
 ROM502は、不揮発性の記憶装置である。ROM502には、例えば比較的容量が少ないフラッシュメモリなどの半導体記憶装置が用いられる。ROM502は、プロセッサ501が実行するプログラムを格納する。
 上記プログラムは、コンピュータに読み込まれた場合に、実施形態で説明された1又はそれ以上の機能をコンピュータに行わせるための命令群(又はソフトウェアコード)を含む。プログラムは、非一時的なコンピュータ可読媒体又は実体のある記憶媒体に格納されてもよい。限定ではなく例として、コンピュータ可読媒体又は実体のある記憶媒体は、RAM、ROM、フラッシュメモリ、solid-state drive(SSD)又はその他のメモリ技術、Compact Disc (CD)、digital versatile disc(DVD)、Blu-ray(登録商標)ディスク又はその他の光ディスクストレージ、磁気カセット、磁気テープ、磁気ディスクストレージ又はその他の磁気ストレージデバイスを含む。プログラムは、一時的なコンピュータ可読媒体又は通信媒体上で送信されてもよい。限定ではなく例として、一時的なコンピュータ可読媒体又は通信媒体は、電気的、光学的、音響的、またはその他の形式の伝搬信号を含む。
 RAM503は、揮発性の記憶装置である。RAM503には、DRAM(Dynamic Random Access Memory)又はSRAM(Static Random Access Memory)などの各種半導体メモリデバイスが用いられる。RAM503は、データなどを一時的に格納する内部バッファとして用いられ得る。
 プロセッサ501は、ROM502に格納されたプログラムをRAM503に展開し、プログラムを実行する。CPU501がプログラムを実行することで、乗員認証装置100内の各部の機能が実現され得る。
 以上、本開示の実施形態を詳細に説明したが、本開示は、上記した実施形態に限定されるものではなく、本開示の趣旨を逸脱しない範囲で上記実施形態に対して変更や修正を加えたものも、本開示に含まれる。
 例えば、上記の実施形態の一部又は全部は、以下の付記のようにも記載され得るが、以下には限られない。
[付記1]
 車両の乗員を顔認証で認証する認証部と、
 前記車両の走行状態に応じて前記顔認証における認証成功及び失敗の判定の基準を変更する決定部とを備える乗員認証装置。
[付記2]
 前記決定部は、前記車両が走行中か、停車中かに応じて、前記判定の基準を変更する、付記1に記載の乗員認証装置。
[付記3]
 前記決定部は、前記車両が走行中の場合、前記車両が停車中の場合に比べて、前記判定の基準を下げる、付記1又は2に記載の乗員認証装置。
[付記4]
 前記決定部は、前記車両の周囲環境情報に更に応じて前記判定の基準を変更する、付記1から3何れか1項に記載の乗員認証装置。
[付記5]
 前記認証部は、前記乗員が前記車両に乗車してから、前記乗員が前記車両から降車するまでの間において、前記顔認証を繰り返し実施する、付記1から4何れか1項に記載の乗員認証装置。
[付記6]
 前記決定部は、前記車両が停止している場合において、前記車両が駐車中か、又は前記車両が一時的に停車しているかに応じて、前記判定の基準を変更する、付記1から5何れか1項に記載の乗員認証装置。
[付記7]
 前記認証部が前記顔認証に失敗した場合、アラートを発生する警告部を更に有する、付記1から6何れか1項に記載の乗員認証装置。
[付記8]
 前記認証部は、前記乗員の顔画像又は該顔画像から抽出された特徴量と、登録者の登録画像又は該登録画像から抽出された特徴量とを照合し、前記乗員と前記登録者との一致度を示す照合スコアを計算し、該計算した照合スコアと前記判定の基準とを比較し、該比較の結果に基づいて、前記顔認証に成功したか否かを判定する、付記1から7何れか1項に記載の乗員認証装置。
[付記9]
 前記決定部は、前記照合スコアに対するしきい値を前記判定の基準として決定し、
 前記認証部は、前記照合スコアが前記しきい値以上であるか否かに応じて、前記顔認証に成功したか否かを判定する、付記8に記載の乗員認証装置。
[付記10]
 車両の乗員を顔認証で認証し、
 前記車両の走行状態に応じて前記顔認証における認証成功及び失敗の判定の基準を変更することを有する乗員認証方法。
[付記11]
 車両の乗員を顔認証で認証し、
 前記車両の走行状態に応じて前記顔認証における認証成功及び失敗の判定の基準を変更することを含む処理をプロセッサに実行させるためのプログラム。
 この出願は、2022年08月31日に出願された日本出願特願2022-138697を基礎とする優先権を主張し、その開示の全てをここに取り込む。
10:乗員認証装置
11:認証部
12:決定部
100:乗員認証装置
101:顔認証部
102:決定部
103:状況情報取得部
104:警告部
130:カメラ
150:車両制御装置

Claims (11)

  1.  車両の乗員を顔認証で認証する認証部と、
     前記車両の走行状態に応じて前記顔認証における認証成功及び失敗の判定の基準を変更する決定部とを備える乗員認証装置。
  2.  前記決定部は、前記車両が走行中か、停車中かに応じて、前記判定の基準を変更する、請求項1に記載の乗員認証装置。
  3.  前記決定部は、前記車両が走行中の場合、前記車両が停車中の場合に比べて、前記判定の基準を下げる、請求項1又は2に記載の乗員認証装置。
  4.  前記決定部は、前記車両の周囲環境情報に更に応じて前記判定の基準を変更する、請求項1から3何れか1項に記載の乗員認証装置。
  5.  前記認証部は、前記乗員が前記車両に乗車してから、前記乗員が前記車両から降車するまでの間において、前記顔認証を繰り返し実施する、請求項1から4何れか1項に記載の乗員認証装置。
  6.  前記決定部は、前記車両が停止している場合において、前記車両が駐車中か、又は前記車両が一時的に停車しているかに応じて、前記判定の基準を変更する、請求項1から5何れか1項に記載の乗員認証装置。
  7.  前記認証部が前記顔認証に失敗した場合、アラートを発生する警告部を更に有する、請求項1から6何れか1項に記載の乗員認証装置。
  8.  前記認証部は、前記乗員の顔画像又は該顔画像から抽出された特徴量と、登録者の登録画像又は該登録画像から抽出された特徴量とを照合し、前記乗員と前記登録者との一致度を示す照合スコアを計算し、該計算した照合スコアと前記判定の基準とを比較し、該比較の結果に基づいて、前記顔認証に成功したか否かを判定する、請求項1から7何れか1項に記載の乗員認証装置。
  9.  前記決定部は、前記照合スコアに対するしきい値を前記判定の基準として決定し、
     前記認証部は、前記照合スコアが前記しきい値以上であるか否かに応じて、前記顔認証に成功したか否かを判定する、請求項8に記載の乗員認証装置。
  10.  車両の乗員を顔認証で認証し、
     前記車両の走行状態に応じて前記顔認証における認証成功及び失敗の判定の基準を変更することを有する乗員認証方法。
  11.  車両の乗員を顔認証で認証し、
     前記車両の走行状態に応じて前記顔認証における認証成功及び失敗の判定の基準を変更することを含む処理をプロセッサに実行させるためのプログラムを格納する非一時的なコンピュータ可読媒体。
PCT/JP2023/028259 2022-08-31 2023-08-02 乗員認証装置、乗員認証方法、及びコンピュータ可読媒体 WO2024048185A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022138697 2022-08-31
JP2022-138697 2022-08-31

Publications (1)

Publication Number Publication Date
WO2024048185A1 true WO2024048185A1 (ja) 2024-03-07

Family

ID=90099226

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/028259 WO2024048185A1 (ja) 2022-08-31 2023-08-02 乗員認証装置、乗員認証方法、及びコンピュータ可読媒体

Country Status (1)

Country Link
WO (1) WO2024048185A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000142164A (ja) * 1998-11-02 2000-05-23 Nissan Motor Co Ltd 眼の状態検出装置及び居眠り運転警報装置
JP2000215308A (ja) * 1999-01-27 2000-08-04 Toshiba Corp 生体情報認証装置およびその方法
JP2005157648A (ja) * 2003-11-25 2005-06-16 Toyota Motor Corp 運転者認識装置
JP2006306191A (ja) * 2005-04-27 2006-11-09 Denso Corp 車両用個人認証システム
JP2007226327A (ja) * 2006-02-21 2007-09-06 Oki Electric Ind Co Ltd 個人識別装置,個人識別方法
WO2018043100A1 (ja) * 2016-08-29 2018-03-08 京セラ株式会社 判定装置、撮像装置、運転者確認システム、移動体及び判定方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000142164A (ja) * 1998-11-02 2000-05-23 Nissan Motor Co Ltd 眼の状態検出装置及び居眠り運転警報装置
JP2000215308A (ja) * 1999-01-27 2000-08-04 Toshiba Corp 生体情報認証装置およびその方法
JP2005157648A (ja) * 2003-11-25 2005-06-16 Toyota Motor Corp 運転者認識装置
JP2006306191A (ja) * 2005-04-27 2006-11-09 Denso Corp 車両用個人認証システム
JP2007226327A (ja) * 2006-02-21 2007-09-06 Oki Electric Ind Co Ltd 個人識別装置,個人識別方法
WO2018043100A1 (ja) * 2016-08-29 2018-03-08 京セラ株式会社 判定装置、撮像装置、運転者確認システム、移動体及び判定方法

Similar Documents

Publication Publication Date Title
US11492011B2 (en) Autonomous driving control device and method for autonomous driving control of vehicles
CN110494340B (zh) 车辆的数据存储装置
US11120283B2 (en) Occupant monitoring device for vehicle and traffic system
KR20190124131A (ko) 차량의 제어권 이양 관리 장치 및 방법
Morando et al. Drivers anticipate lead-vehicle conflicts during automated longitudinal control: Sensory cues capture driver attention and promote appropriate and timely responses
US20180186349A1 (en) Posture information based pedestrian detection and pedestrian collision prevention apparatus and method
US10262219B2 (en) Apparatus and method to determine drowsiness of a driver
US20230415735A1 (en) Driving support apparatus, control method of vehicle, and non-transitory computer-readable storage medium
KR102050466B1 (ko) 차량 내에 위치하는 차량 탑승자를 지원하는 방법 및 장치
US11305649B2 (en) Apparatus and method for controlling alcohol interlock
JP7298255B2 (ja) 車両制御システム
US20210049385A1 (en) Security features using vehicle personalization
US20200007792A1 (en) On-vehicle display control device, on-vehicle display system, on-vehicle display control method, and non-transitory storage medium
KR20200072897A (ko) 차량 침입 관리 장치, 그를 포함한 시스템 및 그 방법
CN110239539B (zh) 车辆用控制装置以及车辆
WO2024048185A1 (ja) 乗員認証装置、乗員認証方法、及びコンピュータ可読媒体
CN116279473A (zh) 车辆的跟车时距校验方法、装置、车辆及存储介质
WO2022185653A1 (ja) 車両用記録制御装置および記録制御方法
CN116552560A (zh) 用于在自动驾驶系统处检测异常行为的系统和方法
JP2021111152A (ja) 車両制御システム
WO2023132041A1 (ja) 機器操作制御システム、装置、方法、及びコンピュータ可読媒体
CN115520201B (zh) 车辆主驾驶位功能动态响应方法及相关装置
US20240174247A1 (en) Vehicle notification device
WO2024095318A1 (ja) パラメータ制御装置、物体検知装置、機器制御装置、方法、及びコンピュータ可読媒体
US11560093B2 (en) Vehicular mirror system and vehicular mirror control method

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23859954

Country of ref document: EP

Kind code of ref document: A1