WO2019003826A1 - 撮像装置、車両利用システム、および車両監視システム - Google Patents

撮像装置、車両利用システム、および車両監視システム Download PDF

Info

Publication number
WO2019003826A1
WO2019003826A1 PCT/JP2018/021545 JP2018021545W WO2019003826A1 WO 2019003826 A1 WO2019003826 A1 WO 2019003826A1 JP 2018021545 W JP2018021545 W JP 2018021545W WO 2019003826 A1 WO2019003826 A1 WO 2019003826A1
Authority
WO
WIPO (PCT)
Prior art keywords
operation mode
unit
vehicle
imaging
imaging device
Prior art date
Application number
PCT/JP2018/021545
Other languages
English (en)
French (fr)
Inventor
武笠 智治
昭寿 一色
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Priority to US16/615,881 priority Critical patent/US11279321B2/en
Priority to EP18823367.0A priority patent/EP3648449B1/en
Priority to CN201880033798.6A priority patent/CN110663247A/zh
Priority to JP2019526748A priority patent/JP7193453B2/ja
Publication of WO2019003826A1 publication Critical patent/WO2019003826A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R25/00Fittings or systems for preventing or indicating unauthorised use or theft of vehicles
    • B60R25/20Means to switch the anti-theft system on or off
    • B60R25/25Means to switch the anti-theft system on or off using biometry
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • EFIXED CONSTRUCTIONS
    • E05LOCKS; KEYS; WINDOW OR DOOR FITTINGS; SAFES
    • E05BLOCKS; ACCESSORIES THEREFOR; HANDCUFFS
    • E05B49/00Electric permutation locks; Circuits therefor ; Mechanical aspects of electronic locks; Mechanical keys therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/00174Electronically operated locks; Circuits therefor; Nonmechanical keys therefor, e.g. passive or active electrical keys or other data carriers without mechanical keys
    • G07C9/00309Electronically operated locks; Circuits therefor; Nonmechanical keys therefor, e.g. passive or active electrical keys or other data carriers without mechanical keys operated with bidirectional data transmission between data carrier and locks
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/65Control of camera operation in relation to power supply
    • H04N23/651Control of camera operation in relation to power supply for reducing power consumption by affecting camera operations, e.g. sleep mode, hibernation mode or power off of selective parts of the camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/665Control of cameras or camera modules involving internal camera communication with the image sensor, e.g. synchronising or multiplexing SSIS control signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/00174Electronically operated locks; Circuits therefor; Nonmechanical keys therefor, e.g. passive or active electrical keys or other data carriers without mechanical keys
    • G07C9/00309Electronically operated locks; Circuits therefor; Nonmechanical keys therefor, e.g. passive or active electrical keys or other data carriers without mechanical keys operated with bidirectional data transmission between data carrier and locks
    • G07C2009/00507Electronically operated locks; Circuits therefor; Nonmechanical keys therefor, e.g. passive or active electrical keys or other data carriers without mechanical keys operated with bidirectional data transmission between data carrier and locks keyless data carrier having more than one function
    • G07C2009/00539Electronically operated locks; Circuits therefor; Nonmechanical keys therefor, e.g. passive or active electrical keys or other data carriers without mechanical keys operated with bidirectional data transmission between data carrier and locks keyless data carrier having more than one function anti-theft

Definitions

  • the present disclosure relates to an imaging device that captures an image, a vehicle utilization system including the imaging device, and a vehicle monitoring system including the imaging device.
  • biometric information of a user is acquired using a camera, and an authentication process is performed based on the biometric information.
  • biometric information of a user is acquired using a portable information terminal, authentication processing is performed based on the biometric information, and installed at the user's home based on the result of the authentication processing.
  • An electronic lock control system is disclosed for controlling the unlocking and locking of the electronic lock.
  • An imaging apparatus includes an imaging unit and an operation mode setting unit.
  • the imaging unit has a plurality of operation modes including a first operation mode capable of reducing power consumption and a second operation mode for generating a captured image.
  • the operation mode setting unit selects any one of the plurality of operation modes.
  • a vehicle utilization system includes a vehicle and a server.
  • the vehicle has an imaging device.
  • the imaging device includes an imaging unit, an operation mode setting unit, and a communication unit.
  • the imaging unit has a plurality of operation modes including a first operation mode capable of reducing power consumption and a second operation mode for generating a captured image.
  • the operation mode setting unit selects any one of the plurality of operation modes.
  • the communication unit receives usage reservation information of the vehicle from the server.
  • a vehicle monitoring system includes a vehicle and a server.
  • the vehicle has an imaging device.
  • the imaging device includes an imaging unit, an operation mode setting unit, and a communication unit.
  • the imaging unit has a plurality of operation modes including a first operation mode capable of reducing power consumption and a second operation mode for generating a captured image.
  • the operation mode setting unit selects any one of the plurality of operation modes.
  • the communication unit is capable of supplying a captured image to the server.
  • the imaging unit performs an operation to reduce power consumption in the first operation mode, and the second operation mode , A captured image is generated.
  • the operation mode of the imaging unit is set by the operation mode setting unit.
  • the imaging unit having a plurality of operation modes including the first operation mode and the second operation mode is used. Power consumption can be reduced. Note that the effects described herein are not necessarily limited, and any of the effects described in the present disclosure may be present.
  • FIG. 1 is a configuration diagram illustrating a configuration example of a car sharing system according to a first embodiment of the present disclosure. It is a block diagram showing one structural example of the imaging device in the vehicle shown in FIG. It is a flowchart showing one operation example of the car sharing system shown in FIG. 5 is another flowchart showing an operation example of the car sharing system shown in FIG. It is a block diagram showing the example of 1 composition of the car sharing system concerning the modification of a 1st embodiment. It is a block diagram showing one structural example of the imaging device in the vehicle shown in FIG. It is a flowchart showing one operation example of the car sharing system shown in FIG. FIG. 18 is an explanatory view showing an arrangement example of imaging units according to another modification of the first embodiment.
  • FIG. 1 is a configuration diagram illustrating a configuration example of a car sharing system according to a first embodiment of the present disclosure. It is a block diagram showing one structural example of the imaging device in the vehicle shown in FIG. It is a flowchart showing one operation example of the car sharing
  • FIG. 18 is an explanatory diagram illustrating an example of an imaging region in an imaging unit according to another modification of the first embodiment. It is a flowchart showing one operation example of the car sharing system which has an imaging part shown in FIG.
  • FIG. 18 is a block diagram illustrating an example of a configuration of an imaging device according to another modification of the first embodiment. It is an explanatory view showing an example of a non-selection field. It is a flowchart showing one operation example of the car sharing system which has an imaging device shown in FIG.
  • FIG. 18 is a block diagram illustrating an example of a configuration of an imaging device according to another modification of the first embodiment. It is explanatory drawing showing an example of a captured image.
  • FIG. 21 is a block diagram showing an example of configuration of an imaging device in the vehicle shown in FIG. 19.
  • FIG. 18 is a block diagram illustrating an example of a configuration of an imaging device according to another modification of the first embodiment.
  • FIG. 18 is a block diagram illustrating an example of a configuration of an imaging device according to another modification of the first embodiment. It is a flowchart showing one operation example of the car sharing system which has an imaging device shown in FIG. It is a block diagram showing the example of 1 composition of the vehicles surveillance system concerning a 2nd embodiment. It is a block diagram showing one structural example of the imaging device in the vehicle shown in FIG. It is a flowchart showing one operation example of the vehicle monitoring system shown in FIG. It is a block diagram showing the example of 1 composition of the vehicle surveillance system concerning the modification of a 2nd embodiment. It is a block diagram showing one structural example of the imaging device in the vehicle shown in FIG.
  • FIG. 18 is a block diagram illustrating an exemplary configuration of an imaging device according to another modification of the second embodiment. It is a flowchart showing one operation example of the vehicle monitoring system which has an imaging device shown in FIG.
  • FIG. 18 is a block diagram illustrating an exemplary configuration of an imaging device according to another modification of the second embodiment. It is a flowchart showing one operation example of the vehicle monitoring system concerning the other modification of a 2nd embodiment. It is a flowchart showing one operation example of the vehicle monitoring system concerning the other modification of a 2nd embodiment.
  • FIG. 18 is a block diagram illustrating an exemplary configuration of an imaging device according to another modification of the second embodiment. It is a flowchart showing one operation example of the vehicle monitoring system which has an imaging device shown in FIG. It is a flowchart showing one operation example of the vehicle monitoring system concerning the other modification of a 2nd embodiment.
  • FIG. 1 shows a configuration example of a car sharing system 1 provided with an imaging device according to the first embodiment.
  • the car sharing system 1 will be described as an example, the present invention is not limited to this, and may be applied to, for example, a system for managing a rental car.
  • the car sharing system 1 includes a personal computer 7, a server 10, and a vehicle 8.
  • the personal computer 7 and the server 10 are each connected to the Internet NET.
  • an imaging device 20 (described later) mounted on the vehicle 8 is connected to the Internet NET, for example, via a mobile phone network.
  • the imaging device 20 may be connected to the internet NET via wireless LAN (Local Area Network).
  • the user U operates the personal computer 7, for example, to reserve the use of the vehicle 8.
  • the server 10 performs reservation processing based on the information (reservation information INF3) about the usage reservation supplied from the personal computer 7, and information (authentication information INF2) for authenticating the user U using the face image of the user U Together with the reservation information INF3 to the imaging device 20 (described later) of the reserved vehicle 8.
  • the imaging device 20 of the vehicle 8 captures an image of the face of the user U when the user U uses the vehicle 8, and performs an authentication process using the authentication information INF2 based on the captured image. Then, when the authentication processing is successful, the vehicle 8 unlocks the door.
  • the personal computer 7 is, for example, a computer owned by a user U who uses the car sharing system 1.
  • the personal computer 7 receives an operation of the user U and communicates with the server 10. Accordingly, the user U performs user registration and makes a reservation for using the vehicle 8.
  • the car sharing system 1 creates an account of the user U, and the user U inputs user information INF1 such as an address and a name, and registers a face image of the user U. . Then, the personal computer 7 supplies the server 10 with the user information INF1 and the face image of the user U.
  • the user U when the user U makes a reservation for using the vehicle 8, the user U inputs reservation information INF3 such as a place, a vehicle type, and a time that he / she wants to use. Then, the personal computer 7 supplies the reservation information INF3 to the server 10.
  • the personal computer 7 is used.
  • the present invention is not limited to this. Instead, for example, a smartphone or a tablet terminal may be used.
  • the server 10 is, for example, an apparatus managed by a vendor operating the car sharing system 1.
  • the server 10 has a registration processing unit 11, a reservation processing unit 12, and a database 13.
  • the registration processing unit 11 performs registration processing for registering the user U based on an instruction from the personal computer 7. Specifically, the registration processing unit 11 creates an account of the user U based on an instruction from the personal computer 7. Then, based on the face image of the user U supplied from the personal computer 7, the registration processing unit 11 generates authentication information INF2 including various feature amounts related to the face image of the user U. Then, the registration processing unit 11 registers the user information INF1 supplied from the personal computer 7 and the generated authentication information INF2 in the database 13 in association with the account of the user U.
  • the reservation processing unit 12 performs reservation processing of the vehicle 8 based on the reservation information INF3 supplied from the personal computer 7. Then, the reservation processing unit 12 registers the reservation information INF3 related to the reservation processing in the database 13 in association with the account of the user U.
  • the database 13 stores the user information INF1, the authentication information INF2, and the reservation information INF3 in association with the account of the user U.
  • the server 10 receives a reservation for using the vehicle 8. Then, the server 10 is configured to supply the authentication information INF2 and the reservation information INF3 to the imaging device 20 (described later) of the reserved vehicle 8.
  • the vehicle 8 is, for example, a vehicle managed by a company that operates the car sharing system 1.
  • FIG. 2 shows one configuration example of the imaging device 20 mounted on the vehicle 8.
  • the imaging device 20 includes an imaging unit 21, a communication unit 22, a storage unit 23, and a control unit 30.
  • the imaging unit 21 images the periphery of the vehicle 8 and is configured using, for example, a CIS (CMOS Image Sensor).
  • the imaging unit 21 may capture a color image or may capture a black and white image.
  • the imaging unit 21 is mounted, for example, in the car of the vehicle 8 and, as shown in FIG. 1, is arranged to image the forward direction of the vehicle 8.
  • the present invention is not limited to this, and may be mounted, for example, outside the vehicle 8, or may be arranged to image the back or side of the vehicle 8.
  • the imaging unit 21 is configured to acquire a face image of the user U, for example, by imaging the user U who has approached the vehicle 8.
  • the imaging unit 21 has two operation modes M (operation modes M1 and M2).
  • the operation mode M1 is to obtain an image with a low resolution (low resolution image PIC1).
  • the operation mode M1 is, for example, a mode in which some of the plurality of imaging pixels included in the imaging unit 21 are thinned and operated, and the imaging device 20 operates in the operation mode M1 to reduce power consumption. can do.
  • the present invention is not limited to this.
  • the low resolution image PIC1 may be acquired by combining and operating a plurality of imaging pixels.
  • the imaging device 20 is configured to perform moving object detection based on the low resolution image PIC1.
  • the operation mode M2 is to obtain an image with a high resolution (high resolution image PIC2).
  • the operation mode M2 is, for example, a mode in which all the plurality of imaging pixels included in the imaging unit 21 are operated.
  • the imaging device 20 performs authentication processing based on the high resolution image PIC2.
  • the communication unit 22 communicates with the server 10 via a mobile phone network in this example.
  • the communication unit 22 is configured to receive, for example, the authentication information INF2 and the reservation information INF3 supplied from the server 10.
  • the storage unit 23 stores the authentication information INF2 and the reservation information INF3 supplied from the server 10.
  • the control unit 30 controls the operation of the imaging device 20.
  • the control unit 30 is configured using, for example, a central processing unit (CPU), a random access memory (RAM), and the like.
  • the control unit 30 includes a moving body detection unit 31, an authentication processing unit 32, and an operation mode setting unit 33.
  • the moving body detection unit 31 performs moving body detection by detecting the presence or absence of a moving body based on the low resolution image PIC1.
  • the authentication processing unit 32 performs an authentication process using the authentication information INF2 based on the high resolution image PIC2.
  • the operation mode setting unit 33 sets the operation mode M of the imaging unit 21.
  • the control unit 30 also has a function of instructing the unlocking control unit 6 (described later) to unlock the door of the vehicle 8 when the authentication process performed in the authentication processing unit 32 is successful. ing.
  • the vehicle 8 has a battery 5 and an unlock control unit 6 in addition to the imaging device 20 as shown in FIG.
  • the battery 5 is a so-called car battery that supplies power to the imaging device 20 and various electronic devices of the vehicle 8.
  • the unlocking control unit 6 controls the unlocking and locking of the door of the vehicle 8.
  • the unlocking control unit 6 is configured using, for example, an ECU (Engine Control Unit) that controls the operation of various devices of the vehicle 8, such as an engine and an air conditioner.
  • ECU Engine Control Unit
  • the imaging unit 21 operates in the operation mode M1 to acquire the low resolution image PIC1.
  • the moving body detection unit 31 performs moving body detection based on the low resolution image PIC1.
  • the imaging unit 21 operates in the operation mode M2 to acquire the high resolution image PIC2.
  • the authentication processing unit 32 performs an authentication process using the authentication information INF2 based on the high resolution image PIC2.
  • the control unit 30 instructs the unlock control unit 6 to unlock the door of the vehicle 8.
  • the car sharing system 1 corresponds to one specific example of the “vehicle use system” in the present disclosure.
  • the imaging unit 21 corresponds to a specific example of the “imaging unit” in the present disclosure.
  • Operation mode M1 corresponds to a specific example of the “first operation mode” in the present disclosure.
  • Operation mode M2 corresponds to a specific example of the “second operation mode” in the present disclosure.
  • the high resolution image PIC2 corresponds to one specific example of the “captured image” in the present disclosure.
  • Operation mode setting unit 33 corresponds to one specific example of the “operation mode setting unit” in the present disclosure.
  • the moving body detection unit 31 corresponds to one specific example of the “detection processing unit” in the present disclosure.
  • the server 10 corresponds to one specific example of the “second device” in the present disclosure.
  • the registration processing unit 11 of the server 10 performs registration processing based on an instruction from the personal computer 7. Specifically, the registration processing unit 11 creates an account of the user U based on an instruction from the personal computer 7. Then, based on the face image of the user U supplied from the personal computer 7, the registration processing unit 11 generates authentication information INF2 including various feature amounts related to the face image of the user U. Then, the registration processing unit 11 registers the user information INF1 and the authentication information INF2 in the database 13 in association with the account of the user U.
  • the reservation processing unit 12 performs reservation processing of the vehicle 8 based on the reservation information INF3 supplied from the personal computer 7.
  • the reservation processing unit 12 registers the reservation information INF3 related to the reservation process in the database 13 in association with the account of the user U. Then, the server 10 supplies the authentication information INF2 and the reservation information INF3 to the imaging device 20 of the reserved vehicle 8.
  • the communication unit 22 of the imaging device 20 receives the authentication information INF2 and the reservation information INF3 supplied from the server 10, and the storage unit 23 stores the authentication information INF2 and the reservation information INF3.
  • the imaging unit 21 operates in the operation mode M1 to acquire the low resolution image PIC1.
  • the moving body detection unit 31 performs moving body detection based on the low resolution image PIC1.
  • the imaging unit 21 operates in the operation mode M2 to acquire the high resolution image PIC2.
  • the authentication processing unit 32 performs an authentication process using the authentication information INF2 based on the high resolution image PIC2. If the authentication process is successful, the control unit 30 instructs the unlock control unit 6 to unlock the door of the vehicle 8.
  • FIG. 3 shows an operation example of the car sharing system 1 when the user U reserves the use of the vehicle 8.
  • the personal computer 7 generates the reservation information INF3 based on the operation of the user U, and supplies the generated reservation information INF3 to the server 10 (step S101).
  • the reservation processing unit 12 of the server 10 registers the received reservation information INF3 in the database 13 in association with the account of the user U (step S102).
  • the server 10 supplies the reservation information INF3 and the authentication information INF2 related to the user U who made the use reservation of the vehicle 8 to the imaging device 20 of the reserved vehicle 8 (step S103).
  • FIG. 4 shows an operation example of the car sharing system 1 when the user U who made the use reservation of the vehicle 8 starts using the vehicle 8.
  • the operation mode setting unit 33 sets the operation mode M of the imaging unit 21 to the operation mode M1 (step S111). Thereby, the imaging unit 21 starts acquisition of the low resolution image PIC1.
  • the operation mode setting unit 33 may set the operation mode M to the operation mode M1 when the user in front of the vehicle 8 parks the vehicle 8 at the station of the car sharing system 1 or the reservation information
  • the operation mode M may be set to the operation mode M1 at the use start time indicated by the INF 3.
  • the moving object detection unit 31 performs moving object detection based on the low resolution image PIC1 (step S112).
  • the moving body detection unit 31 confirms whether or not the moving body has been detected (step S113). If a moving object is not detected ("N" in step S113), the process returns to step S112, and steps S112 and S113 are repeated until a moving object is detected. Specifically, for example, steps S112 and S113 are repeated until the user U approaches the vehicle 8 at a time corresponding to the reservation information INF3 and the moving body detection unit 31 detects the user U as a moving body.
  • the operation mode setting unit 33 sets the operation mode M of the imaging unit 21 to the operation mode M2 (step S114). Thereby, the imaging unit 21 acquires the high resolution image PIC2.
  • the high resolution image PIC2 includes, for example, a face image of the user U.
  • the authentication processing unit 32 performs an authentication process using the authentication information INF2 stored in the storage unit 23 based on the high resolution image PIC2 (step S115). That is, since the high resolution image PIC2 includes, for example, the face image of the user U, the authentication processing unit 32 performs the authentication process using the authentication information INF2 based on the high resolution image PIC2.
  • the authentication processing unit 32 confirms whether the authentication process has succeeded (step S116). If the authentication process fails (“N” in step S116), the process returns to step S111, and the operation mode setting unit 33 sets the operation mode M to the operation mode M1. That is, in this case, for example, another person unrelated to the user U who made the usage reservation happens to approach the vehicle 8 and the operation mode setting unit 33 sets the operation mode M to the operation mode M2, so the operation mode setting unit 33 returns the operation mode M to the operation mode M1.
  • step S116 when the authentication process is successful ("Y" in step S116), control unit 30 instructs unlock control unit 6 to unlock the door of vehicle 8 (step S117).
  • the unlocking control unit 6 unlocks the door of the vehicle 8. Then, the user U can use the vehicle 8.
  • the authentication process is performed based on the captured image (high resolution image PIC2), and when the authentication process is successful, the door of the vehicle 8 is unlocked.
  • Convenience can be enhanced. That is, for example, when a reader / writer for near field communication (NFC; Near Field Communication) is mounted on a vehicle and the vehicle card is used by holding the member card of the car sharing system over the reader / writer, for example, the member card It is inconvenient as it can not use the car sharing system when it is left at home. Also, for example, when a membership card is lost, there is a possibility that a person who has picked up the membership card may illegally use it.
  • the car sharing system 1 since the authentication process is performed based on the captured image, the user U can use the car sharing system 1 only by capturing an image, thus enhancing the convenience of the user. it can.
  • the imaging device 20 since the imaging device 20 is configured using the imaging unit 21 having the operation modes M1 and M2, power consumption can be reduced. That is, although it is necessary to use the high resolution image PIC2 to perform the authentication process, power consumption may increase if the imaging unit 21 constantly acquires the high resolution image PIC2. As a result, in the vehicle 8, the battery level in the battery 5 may be lowered.
  • the low resolution image PIC1 is acquired by first setting the operation mode M of the imaging unit 21 to the operation mode M1. Then, when a moving object is detected based on the low resolution image PIC1, the high resolution image PIC2 is obtained by setting the operation mode M of the imaging unit 21 to the operation mode M2.
  • power consumption can be effectively reduced.
  • the authentication process is performed based on the imaging result by the imaging unit 21, so the introduction cost can be suppressed. That is, in recent years, the installation of drive recorders and advanced driver assistance systems (ADAS) has progressed in vehicles. An imaging unit is mounted on the vehicle into which these are introduced. Therefore, the introduction cost can be suppressed by configuring the imaging device 20 using the imaging unit already mounted as described above.
  • ADAS advanced driver assistance systems
  • the authentication process is performed based on the captured image, and when the authentication process is successful, the door of the vehicle is unlocked, so the convenience of the user can be enhanced.
  • the imaging device since the imaging device is configured using the imaging unit having the operation modes M1 and M2, power consumption can be reduced.
  • the introduction cost can be suppressed.
  • FIG. 5 shows one configuration example of the car sharing system 1A.
  • the car sharing system 1A includes a server 10A and a vehicle 8A.
  • the server 10A has an authentication processing unit 14A.
  • the authentication processing unit 14A performs an authentication process using the authentication information INF2 stored in the database 13 based on the high resolution image PIC2 supplied from the imaging device 20A (described later) of the vehicle 8A.
  • the server 10A also has a function of notifying the imaging device 20A (described later) of the vehicle 8A of the processing result of the authentication processing by the authentication processing unit 14A.
  • the server 10A corresponds to a specific example of the "third device" in the present disclosure.
  • FIG. 6 shows one configuration example of the imaging device 20A mounted on the vehicle 8A.
  • the imaging device 20A includes a control unit 30A.
  • the control unit 30A includes a moving object detection unit 31 and an operation mode setting unit 33. That is, the control unit 30A is obtained by omitting the authentication processing unit 32 from the control unit 30 according to the first embodiment. Further, the control unit 30A supplies the high resolution image PIC2 acquired by the imaging unit 21 when the operation mode M of the imaging unit 21 is set to the operation mode M2 to the server 10A using the communication unit 22, and the server 10A There is also a function of instructing the unlocking control unit 6 to unlock the door of the vehicle 8A when receiving a notification that the authentication process has succeeded.
  • FIG. 7 shows an operation example of the car sharing system 1A when the user U who made the use reservation of the vehicle 8A starts using the vehicle 8A.
  • the operation mode setting unit 33 sets the operation mode M of the imaging unit 21 to the operation mode M1 (step S111). Thereby, the imaging unit 21 starts acquisition of the low resolution image PIC1.
  • the moving object detection unit 31 performs moving object detection based on the low resolution image PIC1 (step S112). Then, the moving object detection unit 31 confirms whether or not the moving object has been detected (step S113). If no moving body is detected ("N" in step S113), the process returns to step S112.
  • the operation mode setting unit 33 sets the operation mode M of the imaging unit 21 to the operation mode M2 (step S114). Thereby, the imaging unit 21 acquires the high resolution image PIC2.
  • the communication unit 22 of the imaging device 20A supplies the high resolution image PIC2 to the server 10A (step S121).
  • the authentication processing unit 14A of the server 10A performs an authentication process using the authentication information INF2 stored in the database 13 based on the high resolution image PIC2 supplied from the imaging device 20A (step S122).
  • the authentication processing unit 14A confirms whether the authentication process has succeeded (step S123). If the authentication process fails (“N” in step S123), the server 10A notifies the imaging device 20A that the authentication process has failed (step S124). The communication unit 22 of the imaging device 20A receives this notification. Then, the process returns to step S111.
  • step S123 when the authentication process is successful ("Y" in step S123), the server 10A notifies the imaging device 20A that the authentication process is successful (step S125).
  • the communication unit 22 of the imaging device 20A receives this notification.
  • control unit 30A instructs the unlocking control unit 6 to unlock the door of the vehicle 8A (step S116). This is the end of the flow.
  • the present invention is not limited to this.
  • one imaging unit 21B1 may be provided as in the above embodiment.
  • the imaging unit 21B is disposed to image the front of the vehicle 8B1.
  • two imaging units 21B1 and 21B2 may be provided.
  • the imaging unit 21B2 is disposed to image the right direction of the vehicle 8B2. That is, in the vehicle 8B2, the driver's seat is on the right side and the user U approaches the right side of the vehicle 8B2, so the imaging unit 21B2 captures an image of the vehicle 8B2 in the right direction.
  • the imaging unit 21B3 is disposed to capture the left front of the vehicle 8B3, the imaging unit 21B4 is disposed to capture the right front of the vehicle 8B3, and the imaging unit 21B5 is disposed to capture the left rear of the vehicle 8B3.
  • the imaging unit 21B6 is disposed to image the right rear direction of the vehicle 8B3.
  • each of the five imaging units 21B1 and 21B3 to 21B6 has two operation modes M (operation modes M1 and M2).
  • the operation mode setting unit 33B according to the present modification may set together the operation modes M of the five imaging units 21B1 and 21B3 to 21B6.
  • the moving object detection unit 31B according to the present modification is based on, for example, the low resolution image PIC1 acquired by the imaging unit 21B4.
  • the operation mode setting unit 33B can set the operation mode M of the five imaging units 21B1 and 21B3 to 21B6 to the operation mode M2.
  • the operation mode setting unit 33B may individually set the operation mode M of the five imaging units 21B1 and 21B3 to 21B6. Specifically, when the five imaging units 21B1 and 21B3 to 21B6 are operating in the operation mode M1, the moving object detection unit 31B detects a moving object based on, for example, the low resolution image PIC1 acquired by the imaging unit 21B4. In this case, the operation mode setting unit 33B can set the operation mode M of the imaging unit 21B4 to the operation mode M2.
  • the imaging unit 21 operates all of the plurality of imaging pixels of the imaging unit 21.
  • the present invention is not limited to this. Instead of this, for example, some of the imaging pixels among the plurality of imaging pixels included in the imaging unit 21 may be operated.
  • the car sharing system 1C according to the present modification will be described in detail.
  • the car sharing system 1C includes a vehicle 8C.
  • the vehicle 8C has an imaging device 20C.
  • the imaging device 20C includes an imaging unit 21C and a control unit 30C.
  • FIG. 9 illustrates an example of the imaging region 100 in the imaging unit 21C.
  • the imaging area 100 of the imaging unit 21C is divided into a plurality of areas 101. In each of the plurality of areas 101, although not shown, a plurality of imaging pixels are arranged in parallel.
  • the imaging unit 21C is configured to be able to perform an imaging operation in units of the area 101.
  • the imaging unit 21C has two operation modes M (operation modes M1 and M3).
  • the operation mode M3 is for acquiring an image with a high resolution (high resolution image PIC3), and is a mode for performing an imaging operation in units of the area 101. That is, the operation mode M3 is a so-called ROI (Region of Interest) mode in which only imaging pixels of one or a plurality of regions 101 where imaging operation is desired to be performed in the imaging region 100 can be operated.
  • ROI Region of Interest
  • the control unit 30C has an operation mode setting unit 33C.
  • the operation mode setting unit 33C sets an operation mode M of the imaging unit 21C.
  • the operation mode setting unit 33C selectively operates one or more regions 101 in the imaging region 100 in which a moving object is detected in moving object detection. It has become.
  • FIG. 10 shows an operation example of the car sharing system 1C when the user U who made the use reservation of the vehicle 8C starts using the vehicle 8C.
  • the operation mode setting unit 33C sets the operation mode M of the imaging unit 21 to the operation mode M1 (step S111). Thereby, the imaging unit 21C starts acquisition of the low resolution image PIC1.
  • the moving object detection unit 31 performs moving object detection based on the low resolution image PIC1 (step S112). Then, the moving object detection unit 31 confirms whether or not the moving object has been detected (step S113). If no moving body is detected ("N" in step S113), the process returns to step S112.
  • step S113 when a moving object is detected ("Y" in step S113), the operation mode setting unit 33C sets the operation mode M of the imaging unit 21C to the operation mode M3 and the operation of the imaging area 100 An area 101 to be set is set (step S134). At this time, the operation mode setting unit 33C sets one or more areas 101 in the imaging area 100 in which a moving object is detected in moving object detection as the operation area 101. Thereby, the imaging unit 21C acquires the high resolution image PIC3.
  • the authentication processing unit 32 performs an authentication process using the authentication information INF2 stored in the storage unit 23 based on the high resolution image PIC3 (step S135).
  • step S136 the authentication processing unit 32 confirms whether the authentication process has succeeded (step S136). If the authentication process fails ("N” in step S136), the process returns to step S111. If the authentication process is successful (“Y” in step S136), the control unit 30C instructs the unlock control unit 6 to unlock the door of the vehicle 8C (step S117). This is the end of the flow.
  • the car sharing system 1C in the operation mode M3 for acquiring the high resolution image PIC3, one or more regions 101 in which the moving object is detected in the moving object detection are operated in the imaging region 100.
  • the car sharing system 1C for example, only the plurality of areas 101 including the face image of the user can be operated, and the operation of the other areas 101 can be stopped, so the power consumption can be effectively reduced. can do.
  • the imaging unit 21C has two operation modes M1 and M3.
  • the imaging unit 21C may further have an operation mode M2 for acquiring the high resolution image PIC2. It is also good.
  • the imaging unit 21C may further have an operation mode M2 for acquiring the high resolution image PIC2. It is also good.
  • it may be operated in the operation mode M2.
  • the imaging device 20C operates in the operation mode M when the position of the moving body is shifted.
  • the operation mode M2 may be set to operate all the areas 101.
  • the operation mode M is set to the operation mode M2, but the present invention is not limited to this. Instead of this, for example, when a moving object is detected in a predetermined area of the imaging area 100 of the imaging unit 21, the operation mode M may be set to the operation mode M2.
  • the car sharing system 1D includes a vehicle 8D.
  • the vehicle 8D has an imaging device 20D.
  • FIG. 11 shows one configuration example of the imaging device 20D.
  • the imaging device 20D includes a non-detection area setting unit 24D, a non-detection area storage unit 25D, and a control unit 30D.
  • the non-detection area setting unit 24D sets the non-detection area 102 based on, for example, an operation of a person in charge of a vendor who operates the car sharing system 1D.
  • the non-detection area 102 is an area excluded from the target area for moving object detection in the imaging area 100. That is, as described later, the imaging device 20D is configured to confirm whether or not a moving body has been detected in an area other than the non-detection area 102 in the imaging area 100.
  • the non-detection area storage unit 25D stores the non-detection area 102 set by the non-detection area setting unit 24D.
  • FIG. 12 shows an example of the non-detection area 102.
  • the road is shown in the captured image of the imaging unit 21. Vehicles and people are passing on this road.
  • the non-detection area setting unit 24D sets an area including the road as the non-detection area 102. That is, when the non-detection area 102 is not set, there is a possibility that a moving body may be detected every time a car or person travels on a road near the vehicle 8D. In this example, the area including the road is not The detection area 102 is set.
  • Control part 30D has moving body detection part 31D.
  • the moving body detection unit 31D performs moving body detection based on the low resolution image PIC1.
  • the moving body detection unit 31D has a function of confirming whether a moving body has been detected in an area other than the non-detection area 102.
  • FIG. 13 shows an operation example of the car sharing system 1D when the user U who made the use reservation of the vehicle 8D starts using the vehicle 8D.
  • the operation mode setting unit 33 sets the operation mode M of the imaging unit 21 to the operation mode M1 (step S111). Thereby, the imaging unit 21 starts acquisition of the low resolution image PIC1.
  • the moving object detection unit 31D performs moving object detection based on the low resolution image PIC1 (step S112). Then, the moving body detection unit 31D confirms whether or not the moving body has been detected (step S113). If no moving body is detected ("N" in step S113), the process returns to step S112.
  • step S113 If a moving object is detected in step S113 ("Y" in step S113), the moving object detection unit 31D checks whether a moving object has been detected in an area other than the non-detection area 102 (step S143). If no moving object is detected in an area other than the non-detection area 102 ("N" in step S143), the process returns to step S112.
  • step S143 when a moving body is detected in an area other than the non-detection area 102 ("Y" in step S143), the operation mode setting unit 33 sets the operation mode M of the imaging unit 21 to the operation mode M2 Step S114). Thereby, the imaging unit 21 acquires the high resolution image PIC2. Then, the authentication processing unit 32 performs an authentication process using the authentication information INF2 stored in the storage unit 23 based on the high resolution image PIC2 (step S115).
  • step S116 the authentication processing unit 32 confirms whether the authentication process has succeeded (step S116). If the authentication process fails ("N” in step S116), the process returns to step S111. If the authentication process is successful ("Y" in step S116), the control unit 30D instructs the unlock control unit 6 to unlock the door of the vehicle 8D (step S117). This is the end of the flow.
  • the operation mode M is set to the operation mode M2.
  • the possibility that the operation mode M is set to the operation mode M2 can be reduced, so that the power consumption can be effectively reduced.
  • the non-detection area setting unit 24D can set the non-detection area 102 based on, for example, an operation of a person in charge of a vendor who operates the car sharing system 1D. Specifically, for example, when the vehicle 8D is parked at the station of the car sharing system 1D, the person in charge may set the non-detection area 102 while checking the captured image captured by the imaging unit 21. it can. For example, when the station location of the car sharing system 1D is changed, the person in charge can set the non-detection area 102 again in the same manner.
  • a plurality of non-detection areas 102 may be set in advance, and one of the plurality of non-detection areas 102 may be selected.
  • the imaging device 20E includes a non-detection area setting unit 24E, a non-detection area storage unit 25E, a position detection unit 26E, and a control unit 30E.
  • the non-detection area setting unit 24E can set a plurality of non-detection areas 102.
  • the non-detection area storage unit 25E stores the plurality of non-detection areas 102 set by the non-detection area setting unit 24E.
  • the position detection unit 26E detects the position and the direction of the vehicle 8E on which the imaging device 20E is mounted, and is configured using, for example, a GPS (Global Positioning System) receiver, a geomagnetic sensor, or the like.
  • the control unit 30E has a moving body detection unit 31E.
  • the moving body detection unit 31E selects one of the plurality of non-detection areas 102 stored in the non-detection area storage unit 25E based on the detection result of the position detection unit 26E, and the selected non-detection area 102. Is used to perform moving object detection based on the low resolution image PIC1.
  • the non-detection area 102 can be selected according to the station where the vehicle 8E is parked.
  • the non-detection area setting unit 24D sets the non-detection area 102 based on the operation of the person in charge, but the present invention is not limited to this.
  • the non-detection area setting unit may automatically set the non-detection area 102.
  • the imaging unit 21 performs an imaging operation for a predetermined length of time, and the non-detection area setting unit 24F according to the present modification does not perform an area where a moving object is detected in the imaging area 100.
  • the detection area 102 may be set.
  • the non-detection area setting unit 24F may set the non-detection area 102 using, for example, a method of machine learning.
  • the present invention is not limited to this, and the non-detection area setting unit 24F detects a road by performing image recognition processing based on, for example, a captured image, and detects the non-detection area 102 based on the detection result.
  • map data may be acquired via the Internet NET, and the non-detection area 102 may be set using the map data.
  • the operation mode M is set to the operation mode M2, but the present invention is not limited to this. Instead of this, for example, the operation mode M may be set to the operation mode M2 based on the size of the image of the moving object detected by the moving object detection or the position of the image of the detected moving object.
  • the present modification will be described in detail by taking some examples.
  • a car sharing system 1G includes a vehicle 8G.
  • the vehicle 8G includes an imaging device 20G.
  • the imaging device 20G includes a control unit 30G.
  • the control unit 30G includes a moving body detection unit 31G.
  • the moving body detection unit 31G performs moving body detection based on the low resolution image PIC1.
  • the moving body detection unit 31G also has a function of determining the size of the image of the moving body detected by the moving body detection and determining whether the size is larger than a predetermined size. That is, as shown in FIG. 15, the captured image may include images of various subjects, but when the imaging device 20G performs an authentication process, it is expected that the face of the user U is displayed large. Therefore, the moving body detection unit 31G determines the size of the image of the detected moving body, and determines whether the size is larger than a predetermined size.
  • FIG. 16 shows an operation example of the car sharing system 1G when the user U who made the use reservation of the vehicle 8G starts using the vehicle 8G.
  • the operation mode setting unit 33 sets the operation mode M of the imaging unit 21 to the operation mode M1 (step S111). Thereby, the imaging unit 21 starts acquisition of the low resolution image PIC1.
  • the moving object detection unit 31G performs moving object detection based on the low resolution image PIC1 (step S112). Then, the moving object detection unit 31G confirms whether or not the moving object has been detected (step S113). If no moving body is detected ("N" in step S113), the process returns to step S112.
  • step S113 when a moving object is detected ("Y" in step S113), the moving object detection unit 31G checks whether the size of the image of the detected moving object is larger than a predetermined size (step S153). Specifically, the moving body detection unit 31G obtains the area of the image of the detected moving body, and checks whether the area of the image is larger than a predetermined area. If the size of the detected moving object image is not larger than the predetermined size (“N” in step S153), the process returns to step S112.
  • the operation mode setting unit 33 sets the operation mode M of the imaging unit 21 to the operation mode M2 (Step S114). Thereby, the imaging unit 21 acquires the high resolution image PIC2. Then, the authentication processing unit 32 performs an authentication process using the authentication information INF2 stored in the storage unit 23 based on the high resolution image PIC2 (step S115).
  • the authentication processing unit 32 confirms whether the authentication process has succeeded (step S116). If the authentication process fails ("N” in step S116), the process returns to step S111. If the authentication process is successful ("Y" in step S116), the control unit 30G instructs the unlock control unit 6 to unlock the door of the vehicle 8G (step S117). This is the end of the flow.
  • the operation mode M is set to the operation mode M2 when the size of the image of the moving object detected by the moving object detection unit 31G is larger than the predetermined size.
  • the operation mode setting unit 33 does not change the operation mode M because the size of the image of such a person or an animal is small.
  • the car sharing system 1H includes a vehicle 8H.
  • the vehicle 8H includes an imaging device 20H.
  • the imaging device 20H includes a control unit 30H.
  • the control unit 30H has a moving body detection unit 31H.
  • the moving body detection unit 31H performs moving body detection based on the low resolution image PIC1.
  • the moving body detection unit 31H also has a function of determining whether the image of the moving body detected by the moving body detection is in contact with the end of the low resolution image PIC1. That is, as shown in FIG. 15, the captured image may include images of various subjects, but when the imaging device 20H performs the authentication process, it is expected that the face of the user U appears large.
  • the moving body detection unit 31H is configured to determine whether the image of the detected moving body (in this example, the user U) is in contact with the end of the low resolution image PIC1.
  • FIG. 17 shows an operation example of the car sharing system 1H when the user U who made the use reservation of the vehicle 8H starts using the vehicle 8H.
  • This flowchart is obtained by replacing step S153 in the flowchart (FIG. 16) of the car sharing system 1G with step S163.
  • step S113 when a moving object is detected ("Y" in step S113), the moving object detection unit 31H checks whether the detected image of the moving object is in contact with the end of the low resolution image PIC1 ( Step S163). If the detected image of the moving object is not in contact with the end of the low resolution image PIC1 ("N" in step S163), the process returns to step S112.
  • step S163 when the detected image of the moving object is in contact with the end of the low resolution image PIC1 (“Y” in step S163), the operation mode setting unit 33 sets the operation mode M of the imaging unit 21.
  • the operation mode M2 is set (step S114).
  • the operation mode M is set to the operation mode M2 when the image of the moving object detected by the moving object detection unit 31H is in contact with the end of the low resolution image PIC1.
  • the possibility that the operation mode M is set to the operation mode M2 can be reduced each time a person or an animal passes near the vehicle 8H, so that the power consumption can be effectively reduced.
  • these car sharing systems 1G and 1H may be combined.
  • the size of the image of the moving object detected by the moving object detection is larger than a predetermined size, and the moving object detected by the moving object detection has low resolution
  • the operation mode M may be set to the operation mode M2. Also in this case, the power consumption can be effectively reduced.
  • the registration processing unit 11 of the server 10 generates the authentication information INF2 based on the face image of the user U.
  • the authentication information INF2 may be generated based on the face image of the user U.
  • the car sharing system 1K according to the present modification will be described in detail.
  • FIG. 19 shows one configuration example of the car sharing system 1K.
  • the car sharing system 1K includes a server 10K and a vehicle 8K.
  • the server 10K has a registration processing unit 11K and a database 13K.
  • the registration processing unit 11K performs registration processing for registering a user based on an instruction from the personal computer 7. Specifically, the registration processing unit 11 creates an account of the user U based on an instruction from the personal computer 7. Then, the registration processing unit 11K registers the user information INF1 and the face image of the user U in the database 13K in association with the account of the user U.
  • the database 13K stores the user information INF1, the face image of the user U, and the reservation information INF3 in association with the account of the user U.
  • the server 10K receives a reservation for using the vehicle 8K. Then, the server 10K supplies the face image of the user U and the reservation information INF3 to the imaging device 20K (described later) of the reserved vehicle 8K.
  • FIG. 20 shows a configuration example of an imaging device 20K mounted on a vehicle 8K.
  • the imaging device 20K includes a control unit 30K.
  • the control unit 30K includes an authentication information generation unit 34K.
  • the authentication information generation unit 34K generates authentication information INF2 including various feature quantities related to the face image of the user U based on the face image of the user U supplied from the server 10K.
  • the storage unit 23 is configured to store the authentication information INF2 generated by the authentication information generation unit 34K and the reservation information INF3 supplied from the server 10K.
  • the car sharing system 1L includes a vehicle 8L.
  • the vehicle 8L has an imaging device 20L.
  • FIG. 21 shows one configuration example of the imaging device 20L.
  • the imaging device 20L includes an imaging unit 21L, a pyroelectric sensor 27L, and a control unit 30L.
  • the imaging unit 21L has two operation modes M (operation modes M0 and M2).
  • the operation mode M0 is a mode in which the imaging operation is stopped.
  • the imaging device 20L can reduce power consumption by setting the operation mode M of the imaging unit 21L to the operation mode M0.
  • the pyroelectric sensor 27L is, for example, an infrared sensor, and detects a moving body (for example, a user U).
  • the control unit 30L includes an operation mode setting unit 33L.
  • the operation mode setting unit 33L sets an operation mode M of the imaging unit 21L. For example, when the operation mode M of the imaging unit 21L is the operation mode M0, the operation mode setting unit 33L sets the operation mode M to the operation mode M2 when the pyroelectric sensor 27L detects a moving object. ing.
  • the pyroelectric sensor 27L corresponds to one specific example of the "sensor" in the present disclosure.
  • FIG. 22 shows an operation example of the car sharing system 1L when the user U who made the use reservation of the vehicle 8L starts using the vehicle 8L.
  • the operation mode setting unit 33L sets the operation mode M of the imaging unit 21L to the operation mode M0 (step S171). Thereby, the imaging unit 21L stops the imaging operation. Then, the pyroelectric sensor 27L performs moving object detection (step S172).
  • control unit 30L checks whether the pyroelectric sensor 27L has detected a moving object (step S173). If no moving body is detected ("N" in step S173), the process returns to step S172.
  • step S173 when a moving object is detected ("Y" in step S173), the operation mode setting unit 33L sets the operation mode M of the imaging unit 21L to the operation mode M2 (step S114). Thereby, the imaging unit 21L acquires the high resolution image PIC2. Then, the authentication processing unit 32 performs an authentication process using the authentication information INF2 stored in the storage unit 23 based on the high resolution image PIC2 (step S115).
  • the authentication processing unit 32 confirms whether the authentication process has succeeded (step S116). If the authentication process fails ("N” in step S116), the process returns to step S171. If the authentication process is successful (“Y” in step S116), the control unit 30L instructs the unlock control unit 6 to unlock the door of the vehicle 8L (step S117). This is the end of the flow.
  • the imaging device 20 is configured using the imaging unit 21L having the operation mode M0 for stopping the imaging operation and the operation mode M2 for acquiring the high resolution image PIC2, and the pyroelectric sensor 27L Since the operation mode M is set to the operation mode M2 when a moving object is detected, power consumption can be reduced.
  • the car sharing system 1M includes a vehicle 8M.
  • the vehicle 8M has an imaging device 20M.
  • FIG. 23 shows one configuration example of the imaging device 20M.
  • the imaging device 20M includes an imaging unit 21L, a switch 28M, and a control unit 30M.
  • the switch 28M is operated by, for example, the user U.
  • the control unit 30M has an operation mode setting unit 33M.
  • the operation mode setting unit 33M sets an operation mode M of the imaging unit 21L. For example, when the operation mode M of the imaging unit 21L is the operation mode M0, the operation mode setting unit 33M sets the operation mode M to the operation mode M2 when the switch 28M is operated.
  • FIG. 24 shows an operation example of the car sharing system 1M when the user U who made the use reservation of the vehicle 8M starts using the vehicle 8M.
  • the operation mode setting unit 33M sets the operation mode M of the imaging unit 21L to the operation mode M0 (step S171). Thereby, the imaging unit 21L stops the imaging operation.
  • step S183 the control unit 30M confirms whether the switch 28M has been operated (step S183). If the switch 28M is not operated (“N” in step S183), the process returns to step S183, and this step S183 is repeated until the switch 28M is operated. Specifically, for example, step S183 is repeated until the user U approaches the vehicle 8M at a time corresponding to the reservation information INF3 and operates the switch 28M.
  • step S183 when the switch 28M is operated ("Y" in step S183), the operation mode setting unit 33M sets the operation mode M of the imaging unit 21L to the operation mode M2 (step S114). Thereby, the imaging unit 21L acquires the high resolution image PIC2. Then, the authentication processing unit 32 performs an authentication process using the authentication information INF2 stored in the storage unit 23 based on the high resolution image PIC2 (step S115).
  • the authentication processing unit 32 confirms whether the authentication process has succeeded (step S116). If the authentication process fails ("N” in step S116), the process returns to step S171. If the authentication process is successful ("Y" in step S116), the control unit 30M instructs the unlocking control unit 6 to unlock the door of the vehicle 8M (step S117). This is the end of the flow.
  • the imaging device 20 is configured using the imaging unit 21L having the operation mode M0 for stopping the imaging operation and the operation mode M2 for acquiring the high resolution image PIC2, and the user U Since the operation mode M is set to the operation mode M2 when the switch 28M is operated, power consumption can be reduced.
  • Second embodiment> a vehicle monitoring system 2 provided with an imaging device according to the second embodiment will be described.
  • symbol is attached
  • FIG. 25 shows a configuration example of the vehicle monitoring system 2.
  • the vehicle monitoring system 2 includes a vehicle 9, a server 40, and a smartphone 4.
  • the server 40 is connected to the Internet NET.
  • the smartphone 4 and an imaging device 50 (described later) mounted on the vehicle 9 are connected to the Internet NET, for example, via a mobile phone network.
  • an imaging device 50 (described later) of the vehicle 9 images a person approaching the vehicle 9, and performs an authentication process using the authentication information INF2 based on the captured image. Then, when the authentication process fails, the imaging device 50 supplies a captured image to the server 40. Then, the server 40 notifies the smartphone 4 that a person other than the registered user U has approached the vehicle 9, and supplies a captured image to the smartphone 4.
  • the vehicle 9 is, for example, a vehicle owned by a user U who uses the vehicle monitoring system 2.
  • FIG. 26 shows one configuration example of the imaging device 50 mounted on the vehicle 9.
  • the imaging device 50 includes an imaging unit 21, a communication unit 22, a control unit 60, and a storage unit 53.
  • the control unit 60 includes an authentication information generation unit 61, a moving object detection unit 31, an authentication processing unit 32, and an operation mode setting unit 33.
  • the authentication information generation unit 61 generates authentication information INF2 including various feature amounts related to the face image of the user U based on the face image of the user U captured by the imaging unit 21. That is, the user U causes the imaging unit 21 to image itself prior to use of the vehicle monitoring system 2. The authentication information generation unit 61 generates authentication information INF2 based on the face image of the user U captured in this manner.
  • the moving body detection unit 31 performs moving body detection by detecting the presence or absence of a moving body based on the low resolution image PIC1 as in the case of the first embodiment.
  • the authentication processing unit 32 performs an authentication process using the authentication information INF2 based on the high resolution image PIC2 as in the case of the first embodiment.
  • the operation mode setting unit 33 sets the operation mode M of the imaging unit 21 as in the case of the first embodiment.
  • the control unit 60 also has a function of instructing the communication unit 22 to supply the high resolution image PIC2 to the server 40 when the authentication processing performed in the authentication processing unit 32 fails. There is.
  • the storage unit 53 stores the authentication information INF2 generated by the authentication information generation unit 61.
  • the authentication information INF2 of one user U is stored, the present invention is not limited to this, and a plurality of authentication information INF2 respectively corresponding to a plurality of users U who can use the vehicle 9 May be stored.
  • the imaging unit 21 operates in the operation mode M1 to acquire the low resolution image PIC1. Then, the moving body detection unit 31 performs moving body detection based on the low resolution image PIC1. When a moving object is detected, the imaging unit 21 operates in the operation mode M2 to acquire the high resolution image PIC2. Then, the authentication processing unit 32 performs an authentication process using the authentication information INF2 based on the high resolution image PIC2. When the authentication process fails, the communication unit 22 supplies the high resolution image PIC2 to the server 40.
  • the smartphone 4 (FIG. 25) is, for example, a multifunctional mobile phone owned by the user U who uses the vehicle monitoring system 2.
  • the smartphone 4 communicates with the server 40 while accepting an operation of the user U.
  • the vehicle monitoring system 2 creates an account of the user U, and the user U inputs user information INF1 such as an address and a name.
  • the smartphone 4 supplies the user information INF1 to the server 40.
  • the smartphone 4 receives a notification from the server 40 that a person other than the registered user U has approached the vehicle 9, the smartphone 4 displays that effect and the high resolution image PIC2 on the display unit. ing.
  • the server 40 is, for example, an apparatus managed by a company that operates the vehicle monitoring system 2.
  • the server 40 has a registration processing unit 41, a notification unit 42, and a database 43.
  • the registration processing unit 41 performs registration processing for registering a user based on an instruction from the smartphone 4. Specifically, the registration processing unit 41 creates an account of the user U based on an instruction from the smartphone 4. Then, the registration processing unit 41 registers the user information INF1 supplied from the smartphone 4 in the database 43 in association with the account of the user U.
  • the notification unit 42 When the server 40 receives the high resolution image PIC2 from the imaging device 50, the notification unit 42 notifies the smartphone 4 that a person other than the registered user U has approached the vehicle 9, and the high resolution image PIC2 Is supplied to the smartphone 4.
  • the database 43 stores the user information INF1, the high resolution image PIC2, and the history of notifications in association with the account of the user U.
  • the vehicle monitoring system 2 corresponds to one specific example of the “vehicle monitoring system” in the present disclosure.
  • the server 40 corresponds to one specific example of the “first device” in the present disclosure.
  • FIG. 27 shows an operation example of the vehicle monitoring system 2 when the user U stops the vehicle 9 in the parking lot.
  • the vehicle 9 stops the engine based on the operation of the user U (step S211).
  • the operation mode setting unit 33 sets the operation mode M of the imaging unit 21 to the operation mode M1 (step S212). Thereby, the imaging unit 21 starts acquisition of the low resolution image PIC1. Then, the moving body detection unit 31 performs moving body detection based on the low resolution image PIC1 (step S213).
  • step S214 the moving object detection unit 31 confirms whether or not the moving object has been detected. If a moving object is not detected ("N" in step S214), the process returns to step S213, and steps S213 and S214 are repeated until a moving object is detected.
  • step S214 when a moving object is detected ("Y" in step S214), the operation mode setting unit 33 sets the operation mode M of the imaging unit 21 to the operation mode M2 (step S215). Thereby, the imaging unit 21 acquires the high resolution image PIC2. Then, the authentication processing unit 32 performs an authentication process using the authentication information INF2 stored in the storage unit 53 based on the high resolution image PIC2 (step S216).
  • the authentication processing unit 32 confirms whether the authentication process has succeeded (step S217). If the authentication process is successful ("Y" in step S217), the process returns to step S212, and the operation mode setting unit 33 sets the operation mode M to the operation mode M1. That is, in this case, for example, since the user U who owns the vehicle 9 has approached the vehicle 9, there is no need to notify the user U. Therefore, the operation mode setting unit 33 returns the operation mode M to the operation mode M1. .
  • step S217 when the authentication process fails ("N" in step S217), the communication unit 22 supplies the high resolution image PIC2 to the server 40 based on an instruction from the control unit 60 (step S218). . That is, in this case, for example, since a person other than the user U who owns the vehicle 9 has approached the vehicle 9, the imaging device 50 notifies the server U of the high resolution image PIC2 to the server 40 in order to notify the user U to that effect. Supply.
  • the notification unit 42 of the server 40 notifies the smartphone 4 that a person other than the registered user U has approached the vehicle 9, and supplies the high resolution image PIC2 to the smartphone 4 (step S219).
  • the authentication process is performed based on the captured image (high resolution image PIC2), and the captured image is supplied to the smartphone 4 when the authentication process fails.
  • Convenience can be enhanced. That is, for example, when the imaging device is mounted on a vehicle and a captured image is stored in the imaging device, the user U is timely approaching that a person other than the registered user U is approaching the vehicle. I can not know. Also, in this case, when the vehicle is stolen, the user U can not confirm the captured image because the image is stolen including the captured image stored in the imaging device.
  • the authentication process is performed based on the captured image, and the captured image is supplied to the smartphone 4 when the authentication process fails.
  • the user U can know in a timely manner that a person other than the registered user U is approaching the vehicle, and can check the captured image, thereby enhancing the convenience of the user. it can. As a result, the possibility of the vehicle 9 being stolen can be reduced.
  • the authentication process is performed based on the captured image, and when the authentication process fails, the captured image is supplied to the smartphone, so the convenience of the user U can be enhanced. In addition, the risk of the vehicle being stolen can be reduced.
  • the other effects are similar to those of the first embodiment.
  • the imaging device 50 performs the authentication process.
  • the present invention is not limited to this. Instead, for example, the same as in the modification 1-1 of the first embodiment.
  • the server may perform the authentication process.
  • the vehicle monitoring system 2A according to the present modification will be described in detail.
  • FIG. 28 shows one configuration example of the vehicle monitoring system 2A.
  • the vehicle monitoring system 2A includes a vehicle 9A and a server 40A.
  • FIG. 29 shows an example of the configuration of an imaging device 50A mounted on a vehicle 9A.
  • the imaging device 50A includes a control unit 60A.
  • the control unit 60A includes a moving body detection unit 31 and an operation mode setting unit 33. That is, the control unit 60A is obtained by omitting the authentication information generation unit 61 and the authentication processing unit 32 from the control unit 60 according to the second embodiment. Also, prior to the use of the vehicle monitoring system 2A by the user U, the control unit 60A supplies the face image of the user U captured by the imaging unit 21 to the server 40A using the communication unit 22.
  • the control unit 60A also has a function of supplying the high resolution image PIC2 acquired by the imaging unit 21 when the operation mode M of the imaging unit 21 is set to the operation mode M2 to the server 40A using the communication unit 22. doing.
  • the server 40A includes an authentication information generation unit 44A, an authentication processing unit 45A, and a database 43A.
  • the authentication information generation unit 44A is an authentication information INF2 including various feature quantities related to the face image of the user U based on the face image of the user U captured by the imaging unit 21 prior to the use of the vehicle monitoring system 2A by the user U. To generate Then, the authentication information generation unit 44A registers the authentication information INF2 in the database 43A in association with the account of the user U.
  • the authentication processing unit 45A performs an authentication process using the authentication information INF2 stored in the database 43A based on the high resolution image PIC2 supplied from the imaging device 50A of the vehicle 9A.
  • the database 43A stores the user information INF1, the authentication information INF2, the high resolution image PIC2, and the history of notifications in association with the account of the user U.
  • the server 40A corresponds to a specific example of the "third device" in the present disclosure.
  • FIG. 30 shows an operation example of the vehicle monitoring system 2A when the user U stops the vehicle 9A at the parking lot.
  • the vehicle 9A stops the engine based on the operation of the user U (step S211), and the operation mode setting unit 33
  • the operation mode M is set to the operation mode M1 (step S212).
  • the imaging unit 21 starts acquisition of the low resolution image PIC1.
  • the moving body detection unit 31 performs moving body detection based on the low resolution image PIC1 (step S213).
  • the moving object detection unit 31 confirms whether or not the moving object has been detected (step S214). If no moving object is detected ("N" in step S214), the process returns to step S213.
  • step S214 when a moving object is detected ("Y" in step S214), the operation mode setting unit 33 sets the operation mode M of the imaging unit 21 to the operation mode M2 (step S215). Thereby, the imaging unit 21 acquires the high resolution image PIC2.
  • the communication unit 22 of the imaging device 50A supplies the high resolution image PIC2 to the server 40A (step S221).
  • the authentication processing unit 45A of the server 40A performs an authentication process using the authentication information INF2 stored in the database 43A based on the high resolution image PIC2 supplied from the imaging device 50A (step S222).
  • the authentication processing unit 45A confirms whether the authentication process has succeeded (step S223). If the authentication process is successful (“Y” in step S223), the server 40A notifies the imaging device 20A that the authentication process is successful (step S224). The communication unit 22 of the imaging device 50A receives this notification. Then, the process returns to step S212.
  • step S223 when the authentication process fails (“N” in step S223), the notification unit 42 of the server 40A notifies the smartphone 4 that a person other than the registered user U has approached the vehicle 9A. At the same time, the high resolution image PIC2 is supplied to the smartphone 4 (step S219). This is the end of the flow.
  • Mode 2-2 Although one imaging unit 21 is provided in the above embodiment, the present invention is not limited to this, and instead, for example, a modification 1-2 of the first embodiment (FIG. 8) and Similarly, a plurality of imaging units may be provided. In particular, as shown in FIG. 8C, when five imaging units are provided, the person can be detected regardless of the direction from which a person other than the registered user U approaches the vehicle. .
  • the imaging unit 21 operates all of the plurality of imaging pixels of the imaging unit 21 in the operation mode M2 for acquiring the high resolution image PIC2 in the above embodiment, the present invention is not limited to this. Instead of this, for example, as in the case of the modification 1-3 of the first embodiment, some of the imaging pixels of the plurality of imaging pixels of the imaging unit 21 may be operated.
  • a vehicle monitoring system 2C according to the present modification will be described in detail.
  • the vehicle monitoring system 2C includes a vehicle 9C.
  • the vehicle 9C has an imaging device 50C.
  • the imaging device 50C includes an imaging unit 21C and a control unit 60C.
  • the imaging unit 21C is configured to be able to perform an imaging operation in units of the area 101.
  • the imaging unit 21C has two operation modes M (operation modes M1 and M3).
  • the operation mode M3 is for acquiring an image with a high resolution (high resolution image PIC3), and is a mode for performing an imaging operation in units of the area 101.
  • the control unit 60C has an operation mode setting unit 33C.
  • the operation mode setting unit 33C sets an operation mode M of the imaging unit 21C.
  • the operation mode setting unit 33C selectively operates one or more regions 101 in the imaging region 100 in which a moving object is detected in moving object detection. It has become.
  • FIG. 31 shows an operation example of the vehicle monitoring system 2C when the user U stops the vehicle 9C in the parking lot.
  • the vehicle 9C stops the engine based on the operation of the user U (step S211), and the operation mode setting unit 33C controls the operation of the imaging unit 21C.
  • the operation mode M is set to the operation mode M1 (step S212).
  • the imaging unit 21C starts acquisition of the low resolution image PIC1.
  • the moving body detection unit 31 performs moving body detection based on the low resolution image PIC1 (step S213).
  • the moving object detection unit 31 confirms whether or not the moving object has been detected (step S214). If no moving object is detected ("N" in step S214), the process returns to step S213.
  • step S214 when a moving object is detected ("Y" in step S214), the operation mode setting unit 33C sets the operation mode M of the imaging unit 21C to the operation mode M3 and operates the operation of the imaging region 100.
  • An area 101 to be set is set (step S235).
  • the operation mode setting unit 33C sets one or more areas 101 in the imaging area 100 in which a moving object is detected in moving object detection as the operation area 101. Thereby, the imaging unit 21C acquires the high resolution image PIC3.
  • the authentication processing unit 32 performs an authentication process using the authentication information INF2 stored in the storage unit 53 based on the high resolution image PIC3 (step S236).
  • the authentication processing unit 32 checks whether the authentication process has succeeded (step S237). If the authentication process is successful ("Y” in step S237), the process returns to step S212. If the authentication process fails (“N” in step S237), the communication unit 22 supplies the high resolution image PIC3 to the server 40 based on the instruction from the control unit 60C (step S238).
  • the notification unit 42 of the server 40 notifies the smartphone 4 that a person other than the registered user U has approached the vehicle 9C, and supplies the high resolution image PIC3 to the smartphone 4 (step S239). This is the end of the flow.
  • one or more areas 101 in which the moving object is detected in the moving object detection are operated in the imaging area 100. Power consumption can be effectively reduced.
  • the imaging unit 21C has two operation modes M1 and M3.
  • the imaging unit 21C may further have an operation mode M2.
  • the imaging apparatus operates one or more areas 101 of the imaging area 100 in the operation mode M3, and sets the operation mode M to the operation mode M2 when the authentication process fails. All areas 101 may be operated. That is, in this case, since persons other than the registered user U are approaching the vehicle 9C, the operation mode M may be set to the operation mode M2 in order to image the situation around the vehicle 9C. .
  • the operation mode M is set to the operation mode M2, but the present invention is not limited to this. Instead of this, for example, as in the case of the modification 1-4 of the first embodiment, when a moving object is detected in a predetermined area of the imaging area 100 of the imaging unit 21, the operation mode M May be set to the operation mode M2.
  • the vehicle monitoring system 2D includes a vehicle 9D.
  • the vehicle 9D has an imaging device 50D.
  • FIG. 32 shows one configuration example of the imaging device 50D.
  • the imaging device 50D includes a non-detection area setting unit 24D, a non-detection area storage unit 25D, and a control unit 60D.
  • the non-detection area setting unit 24D sets the non-detection area 102 based on the operation of the user U, for example.
  • the non-detection area storage unit 25D stores the non-detection area 102 set by the non-detection area setting unit 24D.
  • the control unit 60D has a moving body detection unit 31D.
  • the moving body detection unit 31D performs moving body detection based on the low resolution image PIC1.
  • the moving body detection unit 31D has a function of confirming whether or not a moving body has been detected in an area other than the non-detection area 102.
  • FIG. 33 shows an operation example of the vehicle monitoring system 2D when the user U stops the vehicle 9D in the parking lot.
  • the vehicle 9D stops the engine based on the operation of the user U (step S211), and the operation mode setting unit 33
  • the operation mode M is set to the operation mode M1 (step S212).
  • the imaging unit 21 starts acquisition of the low resolution image PIC1.
  • the moving object detection unit 31D performs moving object detection based on the low resolution image PIC1 (step S213).
  • the moving object detection unit 31D confirms whether or not a moving object has been detected (step S214). If no moving object is detected ("N" in step S214), the process returns to step S213.
  • step S214 when a moving object is detected ("Y" in step S214), the moving object detection unit 31D checks whether the moving object has been detected in an area other than the non-detection area 102 (step S244). If no moving object is detected in an area other than the non-detection area 102 ("N" in step S244), the process returns to step S213.
  • step S244 when a moving body is detected in an area other than the non-detection area 102 ("Y" in step S244), the operation mode setting unit 33 sets the operation mode M of the imaging unit 21 to the operation mode M2 Step S215). Thereby, the imaging unit 21 acquires the high resolution image PIC2. Then, the authentication processing unit 32 performs an authentication process using the authentication information INF2 stored in the storage unit 53 based on the high resolution image PIC2 (step S216).
  • the authentication processing unit 32 confirms whether the authentication process has succeeded (step S217). If the authentication process is successful ("Y” in step S217), the process returns to step S212. If the authentication process fails (“N” in step S217), the communication unit 22 supplies the high resolution image PIC2 to the server 40 based on the instruction from the control unit 60D (step S218).
  • the notification unit 42 of the server 40 notifies the smartphone 4 that a person other than the registered user U has approached the vehicle 9D, and supplies the high resolution image PIC2 to the smartphone 4 (step S219). This is the end of the flow.
  • the operation mode M is set to the operation mode M2.
  • the possibility that the operation mode M is set to the operation mode M2 can be reduced, so that the power consumption can be effectively reduced.
  • the non-detection area setting unit 24D can set the non-detection area 102 based on, for example, the operation of the user U. Specifically, for example, the user U can set the non-detection area 102 while checking the captured image captured by the imaging unit 21 when the vehicle 9D is parked in a parking lot at home. For example, when the vehicle 9D is parked at a place different from the parking lot at home, the user U can similarly set the non-detection area 102 again.
  • a plurality of non-detection areas 102 may be set in advance, and one of the plurality of non-detection areas 102 may be selected.
  • the imaging device 50E includes a non-detection area setting unit 24E, a non-detection area storage unit 25E, a position detection unit 26E, and a control unit 60E.
  • the non-detection area setting unit 24E can set a plurality of non-detection areas 102.
  • the non-detection area storage unit 25E stores the plurality of non-detection areas 102 set by the non-detection area setting unit 24E.
  • the position detection unit 26E detects the position and direction of the vehicle 9E on which the imaging device 50E is mounted, and is configured using, for example, a GPS receiver, a geomagnetic sensor, or the like.
  • the control unit 60E has a moving body detection unit 31E.
  • the moving body detection unit 31E selects one of the plurality of non-detection areas 102 stored in the non-detection area storage unit 25E based on the detection result of the position detection unit 26E, and the selected non-detection area 102. Is used to perform moving object detection based on the low resolution image PIC1.
  • the non-detection area 102 can be selected according to the place.
  • the non-detection area setting unit 24D sets the non-detection area 102 based on the operation of the user U.
  • the present invention is not limited to this. Instead of this, for example, the non-detection area setting unit may automatically set the non-detection area 102 as in the case of the modification 1-4 of the first embodiment.
  • the operation mode M is set to the operation mode M2, but the present invention is not limited to this. Instead of this, for example, the operation mode M may be set to the operation mode M2 based on the size of the image of the moving object detected by the moving object detection, and the time that has been continuously detected.
  • the present modification will be described in detail by taking some examples.
  • a vehicle monitoring system 2G includes a vehicle 9G.
  • the vehicle 9G has an imaging device 50G.
  • the imaging device 50G includes a control unit 60G.
  • the control unit 60G includes a moving body detection unit 31G.
  • the moving subject detection unit 31 G performs moving subject detection based on the low resolution image PIC 1.
  • the moving body detection unit 31G also has a function of determining the size of the image of the moving body detected by the moving body detection and determining whether the size is larger than a predetermined size.
  • FIG. 35 shows an operation example of the vehicle monitoring system 2G when the user U stops the vehicle 9G in the parking lot.
  • the vehicle 9G stops the engine based on the operation of the user U (step S211), and the operation mode setting unit 33
  • the operation mode M is set to the operation mode M1 (step S212).
  • the imaging unit 21 starts acquisition of the low resolution image PIC1.
  • the moving object detection unit 31G performs moving object detection based on the low resolution image PIC1 (step S213).
  • the moving object detection unit 31G confirms whether or not the moving object has been detected (step S214). If no moving object is detected ("N" in step S214), the process returns to step S213.
  • step S214 when a moving object is detected ("Y" in step S214), the moving object detection unit 31G checks whether the size of the detected moving object image is larger than a predetermined size (step S254). ). If the size of the detected moving object image is not larger than the predetermined size ("N" in step S254), the process returns to step S213.
  • step S254 when the size of the detected moving object image is larger than the predetermined size (“Y” in step S254), the operation mode setting unit 33 sets the operation mode M of the imaging unit 21 to the operation mode M2. (Step S215). Thereby, the imaging unit 21 acquires the high resolution image PIC2. Then, the authentication processing unit 32 performs an authentication process using the authentication information INF2 stored in the storage unit 53 based on the high resolution image PIC2 (step S216).
  • the authentication processing unit 32 confirms whether the authentication process has succeeded (step S217). If the authentication process is successful ("Y” in step S217), the process returns to step S212. If the authentication process fails (“N” in step S217), the communication unit 22 supplies the high resolution image PIC2 to the server 40 based on the instruction from the control unit 60G (step S218).
  • the notification unit 42 of the server 40 notifies the smartphone 4 that a person other than the registered user U has approached the vehicle 9G, and supplies the high resolution image PIC2 to the smartphone 4 (step S219). This is the end of the flow.
  • the operation mode M is set to the operation mode M2 when the size of the image of the moving object detected by the moving object detection unit 31G is larger than a predetermined size.
  • a predetermined size for example, the size of the image of a person or animal who happens to be near the vehicle 9G is small, so the operation mode M is not changed.
  • the possibility that the operation mode M is set to the operation mode M2 can be reduced, so that the power consumption can be effectively reduced.
  • the vehicle monitoring system 2H includes a vehicle 9H.
  • the vehicle 9H has an imaging device 50H.
  • the imaging device 50H includes a control unit 60H.
  • the control unit 60H includes a moving body detection unit 62H.
  • the moving body detection unit 62H performs moving body detection based on the low resolution image PIC1.
  • the moving body detection unit 62H also has a function of determining whether the moving body has been detected for a predetermined time or more. As a result, the imaging device 50H can detect, for example, a person moving back and forth around the vehicle 9H.
  • FIG. 36 shows an operation example of the vehicle monitoring system 2H when the user U stops the vehicle 9H in the parking lot. This flowchart is obtained by replacing step S254 in the flowchart (FIG. 35) of the vehicle monitoring system 2G with step S264.
  • step S214 when a moving object is detected ("Y" in step S214), the moving object detection unit 62H confirms whether or not the moving object has been detected for a predetermined time or more (step S264). If the moving object has not been detected for a predetermined time or more ("N" in step S264), the process returns to step S213.
  • step S264 when the moving object is continuously detected for a predetermined time or more ("Y" in step S264), operation mode setting unit 33 sets operation mode M of imaging unit 21 to operation mode M2 (step S215). ).
  • the operation mode M is set to the operation mode M2 when the moving object detection unit 62H continues detecting the moving object for a predetermined time or more.
  • the possibility that the operation mode M is set to the operation mode M2 can be reduced each time a person or an animal passes near the vehicle 9H, so that the power consumption can be effectively reduced.
  • vehicle monitoring systems 2G and 2H may be combined. Specifically, as in the vehicle monitoring system 2J shown in FIG. 37, the size of the image of the moving object detected by the moving object detection is larger than a predetermined size, and such a moving object is detected for a predetermined time or more. If it continues (steps S254 and S264), the operation mode M may be set to the operation mode M2. Also in this case, the power consumption can be effectively reduced, and the possibility of notifying the user U each time a person or an animal passes near the vehicle 9J can be reduced.
  • the user U prior to the use of the vehicle monitoring system 2, the user U causes the imaging unit 21 to capture an image of the user U, and the authentication information generation unit 61 uses the face image of the user U captured in this manner.
  • the authentication information INF2 is generated, but the present invention is not limited to this.
  • the smartphone 4 may supply the server 40 with the user information INF1 and the face image of the user U.
  • the server 40 may generate the authentication information INF2 based on the face image of the user U and supply the authentication information INF2 to the imaging device 50, or the server 40 may generate the face image of the user U.
  • the image capturing device 50 may supply the image capturing device 50, and may generate the authentication information INF2 based on the face image of the user U supplied from the server 40.
  • the vehicle monitoring system 2L includes a vehicle 9L.
  • the vehicle 9L has an imaging device 50L.
  • FIG. 38 shows one configuration example of the imaging device 50L.
  • the imaging device 50L includes an imaging unit 21L, a pyroelectric sensor 27L, and a control unit 60L.
  • the imaging unit 21L has two operation modes M (operation modes M0 and M2).
  • the operation mode M0 is a mode in which the imaging operation is stopped.
  • the pyroelectric sensor 27L is, for example, an infrared sensor, and detects a moving body (for example, a user U).
  • the control unit 60L includes an operation mode setting unit 33L.
  • the operation mode setting unit 33L sets an operation mode M of the imaging unit 21L.
  • FIG. 39 shows an operation example of the vehicle monitoring system 2L when the user U stops the vehicle 9L in the parking lot.
  • the vehicle 9L stops the engine based on the operation of the user U (step S211), and the operation mode setting unit 33L sets the operation mode M of the imaging unit 21L to the operation mode M0 (step S272). Thereby, the imaging unit 21L stops the imaging operation. Then, the pyroelectric sensor 27L performs moving object detection (step S273).
  • control unit 60L confirms whether the pyroelectric sensor 27L has detected a moving body (step S274). If no moving body is detected ("N" in step S274), the process returns to step S273.
  • step S274 when a moving object is detected ("Y" in step S274), the operation mode setting unit 33L sets the operation mode M of the imaging unit 21L to the operation mode M2 (step S215). Thereby, the imaging unit 21L acquires the high resolution image PIC2. Then, the authentication processing unit 32 performs an authentication process using the authentication information INF2 stored in the storage unit 53 based on the high resolution image PIC2 (step S216).
  • the authentication processing unit 32 confirms whether the authentication process has succeeded (step S217). If the authentication process is successful ("Y” in step S217), the process returns to step S272. If the authentication process fails (“N” in step S217), the communication unit 22 supplies the high resolution image PIC2 to the server 40 based on the instruction from the control unit 60L (step S218).
  • the notification unit 42 of the server 40 notifies the smartphone 4 that a person other than the registered user U has approached the vehicle 9L, and supplies the high resolution image PIC2 to the smartphone 4 (step S219). This is the end of the flow.
  • the imaging device 20 is configured using the imaging unit 21L having the operation mode M0 for stopping the imaging operation and the operation mode M2 for acquiring the high resolution image PIC2, and the pyroelectric sensor 27L Since the operation mode M is set to the operation mode M2 when a moving object is detected, power consumption can be reduced.
  • the operation mode M of the imaging unit 21 is set to the operation mode M1 after stopping the engine in the above embodiment, the present invention is not limited to this. Instead of this, for example, as in the vehicle monitoring system 2M shown in FIG. 40, after stopping the engine, it is confirmed whether the user U has left the vehicle 9M based on the image captured by the imaging unit 21 (step S281 When the user U leaves the vehicle 9M, the operation mode M of the imaging unit 21 may be set to the operation mode M1.
  • the imaging part 21 which images the exterior of the vehicle 9 was provided in the said embodiment, it is not limited to this, in addition to this, for example, the imaging part 21N which images the inside of the vehicle 9 is further provided May be
  • the imaging unit 21N may capture a color image or may capture a black and white image.
  • the imaging unit 21N may be a near infrared camera.
  • the imaging unit 21N may be arranged, for example, to image the driver of the vehicle 9.
  • the imaging device 50N having the imaging unit 21N may image the driver of the vehicle 9.
  • the person other than the registered user U starts the engine of the vehicle 9
  • the driver of the vehicle 9 may be imaged.
  • the driver of the vehicle 9 may be imaged.
  • the imaging device 50N may supply, for example, the server 40 with the captured image captured in this manner.
  • the high resolution image PIC2 is supplied to the server 40 managed by the vendor operating the vehicle monitoring system 2. Thereby, this trader may provide a security service for rushing security guards to the place where the vehicle 9 is parked.
  • authentication processing is performed based on the high resolution image PIC2.
  • the security service cost can be reduced by rushing security guards. It can be further reduced.
  • the insurance rate of automobile insurance may be lowered.
  • the imaging device 50 temporarily supplies the high resolution image PIC2 to the server 40.
  • the present invention is not limited to this.
  • the imaging device 50 may be a smartphone
  • the high resolution image PIC2 may be directly supplied to 4.
  • the present technology can be configured as follows.
  • an imaging unit having a plurality of operation modes including a first operation mode capable of reducing power consumption and a second operation mode for generating a captured image;
  • An operation mode setting unit configured to select any one of the plurality of operation modes.
  • It further comprises a detection processing unit that performs moving object detection processing,
  • the first operation mode is an operation mode for generating a low resolution image,
  • the detection processing unit performs the moving object detection processing based on the low resolution image,
  • the imaging device according to (1), wherein the operation mode setting unit selects the second operation mode based on a processing result of the moving object detection processing.
  • the second operation mode is an operation mode capable of changing a first area in which an imaging operation is performed among imaging areas of the imaging unit,
  • the operation mode setting unit selects the second operation mode when the detection processing unit detects a moving body in an area other than the second area in the imaging area of the imaging unit.
  • the operation mode setting unit selects the second operation mode when the size of the image of the moving object detected by the detection processing unit is larger than a predetermined size.
  • the imaging device according to any one of the above. (7)
  • the operation mode setting unit selects the second operation mode when the image of the moving object detected by the detection processing unit is in contact with the end of the low resolution image.
  • the imaging device according to any one of (4).
  • the operation mode setting unit selects the second operation mode when the detection processing unit continues to detect a moving object for a predetermined time or more, according to any one of (2) to (4).
  • the first operation mode is an operation mode for stopping the imaging operation,
  • the imaging device according to (1), wherein the operation mode setting unit selects the second operation mode based on a detection result by the sensor.
  • the switch further comprises a user's operation, The imaging device according to (1), wherein the operation mode setting unit selects the second operation mode based on an instruction from the switch.
  • (11) further comprising an authentication unit;
  • the captured image includes a face image, The imaging unit according to any one of (1) to (10), wherein the authentication unit performs an authentication process based on the captured image.
  • (12) The imaging device according to (11), further including: a communication unit that supplies the captured image to the first device when the authentication process fails.
  • (14) The imaging device according to (13), wherein the authentication information generation unit generates the authentication information based on an image captured by the imaging unit.
  • the communication device further includes a communication unit that receives the authentication information supplied from the second device, The imaging device according to (11) or (12), wherein the authentication unit performs the authentication process based on the captured image using the authentication information.
  • the information processing apparatus further includes a communication unit that supplies the captured image to a third device that performs authentication processing based on the captured image, The imaging device according to any one of (1) to (10), wherein the captured image includes a face image.
  • the imaging device according to (16), wherein the communication unit further receives a processing result of the authentication process supplied from the third device.
  • a vehicle having an imaging device With server and The imaging device is An imaging unit having a plurality of operation modes including a first operation mode capable of reducing power consumption and a second operation mode for generating a captured image; An operation mode setting unit that selects any one of the plurality of operation modes; A communication unit that receives usage reservation information of the vehicle from the server.
  • the imaging device further includes an authentication unit, The captured image includes a face image, The vehicle further includes a door and an unlock control unit that controls unlocking of the door, The authentication unit performs an authentication process based on the captured image, The said unlocking control part unlocks the said door based on the process result of the said authentication process.
  • the vehicle utilization system as described in said (18).
  • the vehicle further includes a door and an unlocking control unit that controls unlocking of the door
  • the captured image includes a face image
  • the server performs an authentication process based on the captured image
  • the communication unit supplies the captured image to the server and receives a processing result of the authentication process.
  • the said unlocking control part unlocks the said door based on the process result of the said authentication process.
  • the vehicle utilization system as described in said (18).
  • a vehicle having an imaging device With server and The imaging device is An imaging unit having a plurality of operation modes including a first operation mode capable of reducing power consumption and a second operation mode for generating a captured image; An operation mode setting unit that selects any one of the plurality of operation modes; And a communication unit capable of supplying the captured image to the server.
  • the imaging device further includes an authentication unit.
  • the captured image includes a face image
  • the authentication unit performs an authentication process based on the captured image
  • the vehicle monitoring system according to (21) wherein the communication unit supplies the captured image to the server when the authentication process fails.
  • the captured image includes a face image
  • the server performs an authentication process based on the captured image
  • the vehicle monitoring system according to (21) wherein the communication unit supplies the captured image to the server and receives a processing result of the authentication process.
  • (24) further equipped with a mobile terminal, The vehicle monitoring system according to (22) or (23), wherein the server supplies the captured image to the portable terminal when the authentication process fails.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Mechanical Engineering (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Studio Devices (AREA)

Abstract

本開示の撮像装置は、消費電力を低減可能な第1の動作モードと、撮像画像を生成する第2の動作モードとを含む複数の動作モードを有する撮像部と、複数の動作モードのうちのいずれか1つを選択する動作モード設定部とを備える。

Description

撮像装置、車両利用システム、および車両監視システム
 本開示は、画像を撮像する撮像装置、撮像装置を備えた車両利用システム、および撮像装置を備えた車両監視システムに関する。
 近年、しばしば、カメラを用いてユーザの生体情報が取得され、その生体情報に基づいて認証処理が行われる。例えば、特許文献1には、携帯情報端末を用いてユーザの生体情報を取得し、その生体情報に基づいて認証処理を行い、認証処理の結果に基づいて、そのユーザの自宅に設置されている電子ロックの解錠および施錠の制御を行う電子ロック制御システムが開示されている。
特開2005-36523号公報
 ところで、一般に、電子機器では、消費電力の低減が望まれており、撮像装置においても、さらなる消費電力の低減が期待されている。
 消費電力を低減することができる撮像装置、車両利用システム、および車両監視システムを提供することが望ましい。
 本開示の一実施の形態における撮像装置は、撮像部と、動作モード設定部とを備えている。撮像部は、消費電力を低減可能な第1の動作モードと、撮像画像を生成する第2の動作モードとを含む複数の動作モードを有するものである。動作モード設定部は、複数の動作モードのうちのいずれか1つを選択するものである。
 本開示の一実施の形態における車両利用システムは、車両と、サーバとを備えている。車両は、撮像装置を有している。撮像装置は、撮像部と、動作モード設定部と、通信部とを有している。撮像部は、消費電力を低減可能な第1の動作モードと、撮像画像を生成する第2の動作モードとを含む複数の動作モードを有するものである。動作モード設定部は、複数の動作モードのうちのいずれか1つを選択するものである。通信部は、サーバから、車両の利用予約情報を受け取るものである。
 本開示の一実施の形態における車両監視システムは、車両と、サーバとを備えている。車両は、撮像装置を有している。撮像装置は、撮像部と、動作モード設定部と、通信部とを有している。撮像部は、消費電力を低減可能な第1の動作モードと、撮像画像を生成する第2の動作モードとを含む複数の動作モードを有するものである。動作モード設定部は、複数の動作モードのうちのいずれか1つを選択するものである。通信部は、サーバに撮像画像を供給可能なものである。
 本開示の一実施の形態における撮像装置、車両利用システム、および車両監視システムでは、撮像部では、第1の動作モードにおいて、消費電力を低減するような動作が行われ、第2の動作モードにおいて、撮像画像が生成される。この撮像部の動作モードは、動作モード設定部により設定される。
 本開示の一実施の形態における撮像装置、車両利用システム、および監視システムによれば、第1の動作モードと第2の動作モードとを含む複数の動作モードを有する撮像部を用いるようにしたので、消費電力を低減することができる。なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれの効果があってもよい。
本開示の第1の実施の形態に係るカーシェアリングシステムの一構成例を表す構成図である。 図1に示した車両における撮像装置の一構成例を表すブロック図である。 図1に示したカーシェアリングシステムの一動作例を表すフローチャートである。 図1に示したカーシェアリングシステムの一動作例を表す他のフローチャートである。 第1の実施の形態の変形例に係るカーシェアリングシステムの一構成例を表す構成図である。 図5に示した車両における撮像装置の一構成例を表すブロック図である。 図5に示したカーシェアリングシステムの一動作例を表すフローチャートである。 第1の実施の形態の他の変形例に係る撮像部の配置例を表す説明図である。 第1の実施の形態の他の変形例に係る撮像部における撮像領域の一例を表す説明図である。 図9に示した撮像部を有するカーシェアリングシステムの一動作例を表すフローチャートである。 第1の実施の形態の他の変形例に係る撮像装置の一構成例を表すブロック図である。 非選択領域の一例を表す説明図である。 図11に示した撮像装置を有するカーシェアリングシステムの一動作例を表すフローチャートである。 第1の実施の形態の他の変形例に係る撮像装置の一構成例を表すブロック図である。 撮像画像の一例を表す説明図である。 第1の実施の形態の他の変形例に係るカーシェアリングシステムの一動作例を表すフローチャートである。 第1の実施の形態の他の変形例に係るカーシェアリングシステムの一動作例を表すフローチャートである。 第1の実施の形態の他の変形例に係るカーシェアリングシステムの一動作例を表すフローチャートである。 第1の実施の形態の他の変形例に係るカーシェアリングシステムの一構成例を表す構成図である。 図19に示した車両における撮像装置の一構成例を表すブロック図である。 第1の実施の形態の他の変形例に係る撮像装置の一構成例を表すブロック図である。 図21に示した撮像装置を有するカーシェアリングシステムの一動作例を表すフローチャートである。 第1の実施の形態の他の変形例に係る撮像装置の一構成例を表すブロック図である。 図23に示した撮像装置を有するカーシェアリングシステムの一動作例を表すフローチャートである。 第2の実施の形態に係る車両監視システムの一構成例を表す構成図である。 図25に示した車両における撮像装置の一構成例を表すブロック図である。 図25に示した車両監視システムの一動作例を表すフローチャートである。 第2の実施の形態の変形例に係る車両監視システムの一構成例を表す構成図である。 図28に示した車両における撮像装置の一構成例を表すブロック図である。 図28に示した車両監視システムの一動作例を表すフローチャートである。 第2の実施の形態の他の変形例に係る車両監視システムの一動作例を表すフローチャートである。 第2の実施の形態の他の変形例に係る撮像装置の一構成例を表すブロック図である。 図32に示した撮像装置を有する車両監視システムの一動作例を表すフローチャートである。 第2の実施の形態の他の変形例に係る撮像装置の一構成例を表すブロック図である。 第2の実施の形態の他の変形例に係る車両監視システムの一動作例を表すフローチャートである。 第2の実施の形態の他の変形例に係る車両監視システムの一動作例を表すフローチャートである。 第2の実施の形態の他の変形例に係る車両監視システムの一構成例を表す構成図である。 第2の実施の形態の他の変形例に係る撮像装置の一構成例を表すブロック図である。 図38に示した撮像装置を有する車両監視システムの一動作例を表すフローチャートである。 第2の実施の形態の他の変形例に係る車両監視システムの一動作例を表すフローチャートである。
 以下、本開示の実施の形態について、図面を参照して詳細に説明する。なお、説明は以下の順序で行う。
1.第1の実施の形態(カーシェアリングシステムの例)
2.第2の実施の形態(車両監視システムの例)
<1.第1の実施の形態>
[構成例]
 図1は、第1の実施の形態に係る撮像装置を備えたカーシェアリングシステム1の一構成例を表すものである。なお、カーシェアリングシステム1を例に挙げて説明するが、これに限定されるものではなく、例えば、レンタカーを管理するシステムに適用してもよい。
 カーシェアリングシステム1は、パーソナルコンピュータ7と、サーバ10と、車両8とを備えている。パーソナルコンピュータ7およびサーバ10は、それぞれインターネットNETに接続されている。また、車両8に搭載された撮像装置20(後述)は、例えば携帯電話網を介してインターネットNETに接続されている。なお、これに限定されるものではなく、撮像装置20は、例えば無線LAN(Local Area Network)を介してインターネットNETに接続されていてもよい。
 このカーシェアリングシステム1では、ユーザUが例えばパーソナルコンピュータ7を操作することにより、車両8の利用予約を行う。サーバ10は、パーソナルコンピュータ7から供給された利用予約についての情報(予約情報INF3)に基づいて予約処理を行い、ユーザUの顔画像を用いてユーザUを認証するための情報(認証情報INF2)を、予約情報INF3とともに、予約された車両8の撮像装置20(後述)に供給する。車両8の撮像装置20は、ユーザUが車両8を利用するときにユーザUの顔を撮像し、その撮像画像に基づいて、認証情報INF2を用いて認証処理を行う。そして、認証処理が成功した場合には、車両8は、ドアを解錠するようになっている。
 パーソナルコンピュータ7は、例えば、カーシェアリングシステム1を利用するユーザUが所有するコンピュータである。パーソナルコンピュータ7は、ユーザUの操作を受け付けるとともにサーバ10と通信を行う。これにより、ユーザUは、ユーザ登録を行い、車両8の利用予約を行う。ユーザUがユーザ登録を行う場合には、カーシェアリングシステム1は、ユーザUのアカウントを作成し、ユーザUは、住所、氏名などのユーザ情報INF1を入力するとともに、ユーザUの顔画像を登録する。そして、パーソナルコンピュータ7は、ユーザ情報INF1およびユーザUの顔画像をサーバ10に供給する。また、ユーザUが車両8の利用予約を行う場合には、ユーザUは、利用したい場所、車種、時間などの予約情報INF3を入力する。そして、パーソナルコンピュータ7は、この予約情報INF3をサーバ10に供給する。なお、この例では、パーソナルコンピュータ7を用いたが、これに限定されるものではなく、これに代えて、例えばスマートフォンであってもよいし、タブレット端末であってもよい。
 サーバ10は、例えば、カーシェアリングシステム1を運営する業者が管理する装置である。サーバ10は、登録処理部11と、予約処理部12と、データベース13とを有している。
 登録処理部11は、パーソナルコンピュータ7からの指示に基づいて、ユーザUを登録する登録処理を行うものである。具体的には、登録処理部11は、パーソナルコンピュータ7からの指示に基づいて、ユーザUのアカウントを作成する。そして、登録処理部11は、パーソナルコンピュータ7から供給されたユーザUの顔画像に基づいて、ユーザUの顔画像に係る様々な特徴量を含む認証情報INF2を生成する。そして、登録処理部11は、パーソナルコンピュータ7から供給されたユーザ情報INF1、および生成した認証情報INF2を、そのユーザUのアカウントと関連づけてデータベース13に登録するようになっている。
 予約処理部12は、パーソナルコンピュータ7から供給された予約情報INF3に基づいて、車両8の予約処理を行うものである。そして、予約処理部12は、予約処理に係る予約情報INF3を、そのユーザUのアカウントと関連づけてデータベース13に登録するようになっている。
 データベース13は、ユーザ情報INF1、認証情報INF2、および予約情報INF3を、ユーザUのアカウントと関連づけて記憶するものである。
 この構成により、サーバ10は、車両8の利用予約を受け付ける。そして、サーバ10は、認証情報INF2および予約情報INF3を、予約された車両8の撮像装置20(後述)に供給するようになっている。
 車両8は、例えば、カーシェアリングシステム1を運営する業者が管理する車両である。
 図2は、車両8に搭載された撮像装置20の一構成例を表すものである。撮像装置20は、撮像部21と、通信部22と、記憶部23と、制御部30とを有している。
 撮像部21は、車両8の周囲を撮像するものであり、例えば、CIS(CMOS Image Sensor)を用いて構成される。撮像部21は、カラー画像を撮像してもよいし、白黒画像を撮像してもよい。撮像部21は、例えば、車両8の車内に搭載され、図1に示したように、車両8の前方向を撮像するように配置される。なお、これに限定されるものではなく、これに代えて、例えば車両8の車外に搭載されてもよいし、車両8の後方向または横方向を撮像するように配置してもよい。撮像部21は、例えば、車両8に近づいたユーザUを撮像することにより、ユーザUの顔画像を取得するようになっている。撮像部21は、2つの動作モードM(動作モードM1,M2)を有している。
 動作モードM1は、解像度が低い画像(低解像度画像PIC1)を取得するものである。この動作モードM1は、例えば、撮像部21が有する複数の撮像画素のうちの一部を間引いて動作させるモードであり、撮像装置20は、この動作モードM1で動作することにより、消費電力を低減することができる。なお、これに限定されるものではなく、動作モードM1において、複数の撮像画素を結合させて動作させることにより、低解像度画像PIC1を取得してもよい。撮像装置20は、この低解像度画像PIC1に基づいて、動体検出を行うようになっている。
 動作モードM2は、解像度が高い画像(高解像度画像PIC2)を取得するものである。この動作モードM2は、例えば、撮像部21が有する複数の撮像画素の全てを動作させるモードである。撮像装置20は、この高解像度画像PIC2に基づいて、認証処理を行うようになっている。
 通信部22は、この例では、携帯電話網を介して、サーバ10と通信を行うものである。通信部22は、例えば、サーバ10から供給された認証情報INF2および予約情報INF3を受け取るようになっている。
 記憶部23は、サーバ10から供給された認証情報INF2および予約情報INF3を記憶するものである。
 制御部30は、撮像装置20の動作を制御するものである。制御部30は、例えば、CPU(Central Processing Unit)、RAM(Random Access Memory)などを用いて構成される。制御部30は、動体検出部31と、認証処理部32と、動作モード設定部33とを有している。動体検出部31は、低解像度画像PIC1に基づいて、動体の有無を検出することにより動体検出を行うものである。認証処理部32は、高解像度画像PIC2に基づいて、認証情報INF2を利用して認証処理を行うものである。動作モード設定部33は、撮像部21の動作モードMを設定するものである。また、制御部30は、認証処理部32において行われる認証処理が成功した場合には、解錠制御部6(後述)に対して、車両8のドアの解錠を指示する機能をも有している。
 車両8は、図2に示したように、撮像装置20に加えて、バッテリ5と、解錠制御部6とを有している。バッテリ5は、撮像装置20や、車両8の様々な電子機器に対して電力を供給する、いわゆるカーバッテリである。解錠制御部6は、車両8のドアの解錠および施錠を制御するものである。解錠制御部6は、例えば、エンジンや空調設備など、車両8の様々な装置の動作を制御するECU(Engine Control Unit)を用いて構成される。
 この構成により、まず、撮像部21は、動作モードM1で動作することにより、低解像度画像PIC1を取得する。そして、動体検出部31は、この低解像度画像PIC1に基づいて動体検出を行う。動体を検出した場合には、撮像部21は、動作モードM2で動作することにより、高解像度画像PIC2を取得する。そして、認証処理部32は、この高解像度画像PIC2に基づいて、認証情報INF2を利用して認証処理を行う。認証処理が成功した場合には、制御部30は、解錠制御部6に対して、車両8のドアの解錠を指示するようになっている。
 ここで、カーシェアリングシステム1は、本開示における「車両利用システム」の一具体例に対応する。撮像部21は、本開示における「撮像部」の一具体例に対応する。動作モードM1は、本開示における「第1の動作モード」の一具体例に対応する。動作モードM2は、本開示における「第2の動作モード」の一具体例に対応する。高解像度画像PIC2は、本開示における「撮像画像」の一具体例に対応する。動作モード設定部33は、本開示における「動作モード設定部」の一具体例に対応する。動体検出部31は、本開示における「検出処理部」の一具体例に対応する。サーバ10は、本開示における「第2の装置」の一具体例に対応する。
[動作および作用]
 続いて、本実施の形態のカーシェアリングシステム1の動作および作用について説明する。
(全体動作概要)
 まず、図1,2を参照して、カーシェアリングシステム1の全体動作概要を説明する。サーバ10の登録処理部11は、パーソナルコンピュータ7からの指示に基づいて、登録処理を行う。具体的には、登録処理部11は、パーソナルコンピュータ7からの指示に基づいて、ユーザUのアカウントを作成する。そして、登録処理部11は、パーソナルコンピュータ7から供給されたユーザUの顔画像に基づいて、ユーザUの顔画像に係る様々な特徴量を含む認証情報INF2を生成する。そして、登録処理部11は、ユーザ情報INF1および認証情報INF2を、そのユーザUのアカウントと関連づけてデータベース13に登録する。予約処理部12は、パーソナルコンピュータ7から供給された予約情報INF3に基づいて、車両8の予約処理を行う。そして、予約処理部12は、予約処理に係る予約情報INF3を、そのユーザUのアカウントと関連づけてデータベース13に登録する。そして、サーバ10は、認証情報INF2および予約情報INF3を、予約された車両8の撮像装置20に供給する。
 撮像装置20の通信部22は、サーバ10から供給された認証情報INF2および予約情報INF3を受け取り、記憶部23は、この認証情報INF2および予約情報INF3を記憶する。撮像部21は、まず、動作モードM1で動作することにより、低解像度画像PIC1を取得する。そして、動体検出部31は、この低解像度画像PIC1に基づいて動体検出を行う。動体を検出した場合には、撮像部21は、動作モードM2で動作することにより、高解像度画像PIC2を取得する。そして、認証処理部32は、この高解像度画像PIC2に基づいて、認証情報INF2を利用して認証処理を行う。認証処理が成功した場合には、制御部30は、解錠制御部6に対して、車両8のドアの解錠を指示する。
(詳細動作)
 図3は、ユーザUが車両8の利用予約を行う際の、カーシェアリングシステム1の一動作例を表すものである。
 まず、パーソナルコンピュータ7は、ユーザUの操作に基づいて、予約情報INF3を生成し、生成した予約情報INF3をサーバ10に供給する(ステップS101)。
 次に、サーバ10の予約処理部12は、受け取った予約情報INF3を、ユーザUのアカウントと関連づけてデータベース13に登録する(ステップS102)。
 次に、サーバ10は、予約情報INF3、および車両8の利用予約を行ったユーザUに係る認証情報INF2を、予約された車両8の撮像装置20に供給する(ステップS103)。
 以上でこのフローは終了する。
 図4は、車両8の利用予約を行ったユーザUが車両8の利用を開始する際の、カーシェアリングシステム1の一動作例を表すものである。
 まず、動作モード設定部33は、撮像部21の動作モードMを動作モードM1に設定する(ステップS111)。これにより、撮像部21は、低解像度画像PIC1の取得を開始する。なお、動作モード設定部33は、車両8の前の利用者が、カーシェアリングシステム1のステーションに車両8を駐車したときに、動作モードMを動作モードM1に設定してもよいし、予約情報INF3が示す利用開始時間に、動作モードMを動作モードM1に設定してもよい。
 次に、動体検出部31は、低解像度画像PIC1に基づいて動体検出を行う(ステップS112)。
 次に、動体検出部31は、動体を検出したかどうかを確認する(ステップS113)。動体を検出しなかった場合(ステップS113において“N”)には、ステップS112に戻り、動体を検出するまでこのステップS112,S113を繰り返す。具体的には、例えば、予約情報INF3に応じた時間にユーザUが車両8に近づき、動体検出部31がユーザUを動体として検出するまで、このステップS112,S113を繰り返す。
 ステップS113において、動体を検出した場合(ステップS113において“Y”)には、動作モード設定部33は、撮像部21の動作モードMを動作モードM2に設定する(ステップS114)。これにより、撮像部21は、高解像度画像PIC2を取得する。この高解像度画像PIC2は、例えばユーザUの顔画像を含んでいる。
 次に、認証処理部32は、高解像度画像PIC2に基づいて、記憶部23に記憶された認証情報INF2を利用して認証処理を行う(ステップS115)。すなわち、高解像度画像PIC2は、例えばユーザUの顔画像を含んでいるので、認証処理部32は、高解像度画像PIC2に基づいて、認証情報INF2を利用して認証処理を行う。
 次に、認証処理部32は、認証処理が成功したかどうかを確認する(ステップS116)。認証処理が失敗した場合(ステップS116において“N”)には、ステップS111に戻り、動作モード設定部33は動作モードMを動作モードM1に設定する。すなわち、この場合には、例えば、利用予約を行ったユーザUとは無関係の他人がたまたま車両8に近づき、動作モード設定部33が動作モードMを動作モードM2に設定したので、動作モード設定部33は、動作モードMを動作モードM1に戻す。
 ステップS116において、認証処理が成功した場合(ステップS116において“Y”)には、制御部30は、解錠制御部6に対して、車両8のドアの解錠を指示する(ステップS117)。
 以上で、このフローは終了する。これにより、解錠制御部6は、車両8のドアを解錠する。そして、ユーザUは、車両8を利用することができる。
 このように、カーシェアリングシステム1では、撮像画像(高解像度画像PIC2)に基づいて認証処理を行い、認証処理が成功したときに、車両8のドアを解錠するようにしたので、ユーザUの利便性を高めることができる。すなわち、例えば、近距離無線通信(NFC;Near Field Communication)のリーダライタを車両に搭載し、カーシェアリングシステムの会員カードをリーダライタにかざすことにより車両を利用する場合には、例えば、会員カードを家に置いてきた場合にカーシェアリングシステムを利用することができないなど、不便である。また、例えば、会員カードを紛失した場合には、その会員カードを拾った者に不正に利用されるおそれがある。一方、カーシェアリングシステム1では、撮像画像に基づいて認証処理を行うようにしたので、ユーザUは撮像されるだけでカーシェアリングシステム1を利用することができるため、ユーザの利便性を高めることができる。
 また、カーシェアリングシステム1では、動作モードM1,M2を有する撮像部21を用いて撮像装置20を構成したので、消費電力を低減することができる。すなわち、認証処理を行うためには高解像度画像PIC2を用いる必要があるが、撮像部21が常に高解像度画像PIC2を取得する場合には、消費電力が増大するおそれがある。その結果、車両8では、バッテリ5におけるバッテリレベルが低くなるおそれがある。一方、カーシェアリングシステム1では、まず、撮像部21の動作モードMを動作モードM1に設定することにより、低解像度画像PIC1を取得するようにした。そして、この低解像度画像PIC1に基づいて動体が検出された場合に、撮像部21の動作モードMを動作モードM2に設定することにより、高解像度画像PIC2を取得するようにした。これにより、カーシェアリングシステム1では、効果的に消費電力を低減することができる。
 また、カーシェアリングシステム1では、撮像部21による撮像結果に基づいて認証処理を行うように構成したので、導入コストを抑えることができる。すなわち、近年、車両には、ドライブレコーダや、先進運転支援システム(ADAS;advanced driver assistance system)の搭載が進んでいる。これらが導入された車両には撮像部が搭載される。よって、このように、すでに搭載されている撮像部を用いて撮像装置20を構成することにより、導入コストを抑えることができる。
[効果]
 以上のように本実施の形態では、撮像画像に基づいて認証処理を行い、認証処理が成功したときに、車両のドアを解錠するようにしたので、ユーザの利便性を高めることができる。
 本実施の形態では、動作モードM1,M2を有する撮像部を用いて撮像装置を構成したので、消費電力を低減することができる。
 本実施の形態では、撮像部による撮像結果に基づいて認証処理を行うように構成したので、導入コストを抑えることができる。
[変形例1-1]
 上記実施の形態では、撮像装置20が認証処理を行ったが、これに限定されるものではなく、これに代えて、例えば、サーバが認証処理を行ってもよい。以下に、本変形例に係るカーシェアリングシステム1Aについて詳細に説明する。
 図5は、カーシェアリングシステム1Aの一構成例を表すものである。カーシェアリングシステム1Aは、サーバ10Aと、車両8Aとを備えている。
 サーバ10Aは、認証処理部14Aを有している。認証処理部14Aは、車両8Aの撮像装置20A(後述)から供給された高解像度画像PIC2に基づいて、データベース13に記憶された認証情報INF2を用いて認証処理を行うものである。また、サーバ10Aは、認証処理部14Aによる認証処理の処理結果を、車両8Aの撮像装置20A(後述)に通知する機能をも有している。
 ここで、サーバ10Aは、本開示における「第3の装置」の一具体例に対応する。
 図6は、車両8Aに搭載された撮像装置20Aの一構成例を表すものである。撮像装置20Aは、制御部30Aを有している。制御部30Aは、動体検出部31と、動作モード設定部33とを有している。すなわち、制御部30Aは、上記第1の実施の形態に係る制御部30から、認証処理部32を省いたものである。また、制御部30Aは、撮像部21の動作モードMを動作モードM2に設定したときに撮像部21が取得した高解像度画像PIC2を、通信部22を用いてサーバ10Aに供給するとともに、サーバ10Aから、認証処理が成功した旨の通知を受け取った場合に、解錠制御部6に対して、車両8Aのドアの解錠を指示する機能をも有している。
 図7は、車両8Aの利用予約を行ったユーザUが車両8Aの利用を開始する際の、カーシェアリングシステム1Aの一動作例を表すものである。
 上記第1の実施の形態の場合(図4)と同様に、まず、動作モード設定部33は、撮像部21の動作モードMを動作モードM1に設定する(ステップS111)。これにより、撮像部21は、低解像度画像PIC1の取得を開始する。次に、動体検出部31は、低解像度画像PIC1に基づいて動体検出を行う(ステップS112)。そして、動体検出部31は、動体を検出したかどうかを確認する(ステップS113)。動体を検出しなかった場合(ステップS113において“N”)には、ステップS112に戻る。動体を検出した場合(ステップS113において“Y”)には、動作モード設定部33は、撮像部21の動作モードMを動作モードM2に設定する(ステップS114)。これにより、撮像部21は、高解像度画像PIC2を取得する。
 次に、撮像装置20Aの通信部22は、高解像度画像PIC2をサーバ10Aに供給する(ステップS121)。
 次に、サーバ10Aの認証処理部14Aは、撮像装置20Aから供給された高解像度画像PIC2に基づいて、データベース13に記憶された認証情報INF2を利用して認証処理を行う(ステップS122)。
 次に、認証処理部14Aは、認証処理が成功したかどうかを確認する(ステップS123)。認証処理が失敗した場合(ステップS123において“N”)には、サーバ10Aは、撮像装置20Aに対して認証処理が失敗した旨を通知する(ステップS124)。撮像装置20Aの通信部22は、この通知を受け取る。そして、ステップS111に戻る。
 ステップS123において、認証処理が成功した場合(ステップS123において“Y”)には、サーバ10Aは、撮像装置20Aに対して認証処理が成功した旨を通知する(ステップS125)。撮像装置20Aの通信部22は、この通知を受け取る。
 次に、制御部30Aは、解錠制御部6に対して、車両8Aのドアの解錠を指示する(ステップS116)。以上で、このフローは終了する。
[変形例1-2]
 上記実施の形態では、1つの撮像部21を設けたが、これに限定されるものではない。例えば、図8(A)に示す車両8B1のように、上記実施の形態と同様に、1つの撮像部21B1を設けてもよい。この撮像部21Bは、車両8B1の前方向を撮像するように配置されている。また、例えば、図8(B)に示す車両8B2のように、2つの撮像部21B1,21B2を設けてもよい。この撮像部21B2は、車両8B2の右方向を撮像するように配置されている。すなわち、この車両8B2では、ドライバの座席は右側にあり、ユーザUは車両8B2の右側に近づくので、撮像部21B2は車両8B2の右方向を撮像している。
 また、図8(C)に示す車両8B3のように、5つの撮像部21B1,21B3~21B6を設けてもよい。撮像部21B3は車両8B3の左前方向を撮像するように配置され、撮像部21B4は車両8B3の右前方向を撮像するように配置され、撮像部21B5は車両8B3の左後方向を撮像するように配置され、撮像部21B6は車両8B3の右後方向を撮像するように配置されている。このように構成することにより、ユーザUがどの方向から車両8B3に近づいても、ユーザUを認識することができる。5つの撮像部21B1,21B3~21B6は、例えば、駐車用のカメラシステムを構成している。このようなカメラシステムの撮像部を利用して、本変形例に係る撮像装置20Bを構成することにより、導入コストを抑えることができる。
 例えば、これらの5つの撮像部21B1,21B3~21B6のそれぞれは、2つの動作モードM(動作モードM1,M2)を有している。本変形例に係る動作モード設定部33Bは、これらの5つの撮像部21B1,21B3~21B6の動作モードMをまとめて設定してもよい。具体的には、5つの撮像部21B1,21B3~21B6が動作モードM1で動作している場合において、本変形例に係る動体検出部31Bが、例えば撮像部21B4が取得した低解像度画像PIC1に基づいて動体を検出した場合には、動作モード設定部33Bが5つの撮像部21B1,21B3~21B6の動作モードMを動作モードM2に設定することができる。
 また、動作モード設定部33Bは、これらの5つの撮像部21B1,21B3~21B6の動作モードMを個別に設定するようにしてもよい。具体的には、5つの撮像部21B1,21B3~21B6が動作モードM1で動作している場合において、動体検出部31Bが、例えば撮像部21B4が取得した低解像度画像PIC1に基づいて動体を検出した場合には、動作モード設定部33Bがこの撮像部21B4の動作モードMを動作モードM2に設定することができる。
[変形例1-3]
 上記実施の形態では、撮像部21は、高解像度画像PIC2を取得する動作モードM2において、撮像部21が有する複数の撮像画素の全てを動作させたが、これに限定されるものではなく、これに代えて、例えば、撮像部21が有する複数の撮像画素のうちの一部の撮像画素を動作させてもよい。以下に、本変形例に係るカーシェアリングシステム1Cについて詳細に説明する。カーシェアリングシステム1Cは、車両8Cを備えている。車両8Cは、撮像装置20Cを有している。撮像装置20Cは、撮像部21Cと、制御部30Cとを有している。
 図9は、撮像部21Cにおける撮像領域100の一例を表すものである。撮像部21Cの撮像領域100は、複数の領域101に区分されている。複数の領域101のそれぞれには、図示していないが、複数の撮像画素が並設されている。撮像部21Cは、領域101を単位として撮像動作を行うことができるように構成されている。
 撮像部21Cは、2つの動作モードM(動作モードM1,M3)を有している。動作モードM3は、解像度が高い画像(高解像度画像PIC3)を取得するものであり、領域101を単位として撮像動作を行うモードである。すなわち、動作モードM3は、撮像領域100のうち、撮像動作を行いたい1または複数の領域101の撮像画素のみを動作させることができる、いわゆるROI(Region of Interest)モードである。
 制御部30Cは、動作モード設定部33Cを有している。動作モード設定部33Cは、撮像部21Cの動作モードMを設定するものである。動作モード設定部33Cは、撮像部21Cの動作モードMを動作モードM3に設定する際、撮像領域100のうち、動体検出において動体が検出された1または複数の領域101を選択的に動作させるようになっている。
 図10は、車両8Cの利用予約を行ったユーザUが車両8Cの利用を開始する際の、カーシェアリングシステム1Cの一動作例を表すものである。
 上記第1の実施の形態の場合(図4)と同様に、まず、動作モード設定部33Cは、撮像部21の動作モードMを動作モードM1に設定する(ステップS111)。これにより、撮像部21Cは、低解像度画像PIC1の取得を開始する。次に、動体検出部31は、低解像度画像PIC1に基づいて動体検出を行う(ステップS112)。そして、動体検出部31は、動体を検出したかどうかを確認する(ステップS113)。動体を検出しなかった場合(ステップS113において“N”)には、ステップS112に戻る。
 ステップS113において、動体を検出した場合(ステップS113において“Y”)には、動作モード設定部33Cは、撮像部21Cの動作モードMを動作モードM3に設定するとともに、撮像領域100のうちの動作させる領域101を設定する(ステップS134)。その際、動作モード設定部33Cは、撮像領域100のうち、動体検出において動体が検出された1または複数の領域101を、動作させる領域101として設定する。これにより、撮像部21Cは、高解像度画像PIC3を取得する。
 次に、認証処理部32は、高解像度画像PIC3に基づいて、記憶部23に記憶された認証情報INF2を利用して認証処理を行う(ステップS135)。
 次に、認証処理部32は、認証処理が成功したかどうかを確認する(ステップS136)。認証処理が失敗した場合(ステップS136において“N”)には、ステップS111に戻る。認証処理が成功した場合(ステップS136において“Y”)には、制御部30Cは、解錠制御部6に対して、車両8Cのドアの解錠を指示する(ステップS117)。以上で、このフローは終了する。
 このように、カーシェアリングシステム1Cでは、高解像度画像PIC3を取得する動作モードM3において、撮像領域100のうち、動体検出において動体が検出された1または複数の領域101を動作させるようにした。これにより、カーシェアリングシステム1Cでは、例えば、ユーザの顔画像を含む複数の領域101のみを動作させ、それ以外の複数の領域101の動作を停止させることができるので、消費電力を効果的に低減することができる。
 この例では、撮像部21Cは、2つの動作モードM1,M3を有するようにしたが、これに限定されるものではなく、例えば、さらに高解像度画像PIC2を取得する動作モードM2を有するようにしてもよい。この場合には、例えば、動作モードM3で動作した後、必要に応じて、動作モードM2で動作するようにしてもよい。具体的には、撮像装置20Cは、例えば、動作モードM3において撮像領域100のうちの1または複数の領域101を動作させているときに、動体の位置がずれた場合には、動作モードMを動作モードM2に設定し、すべての領域101を動作させるようにしてもよい。
[変形例1-4]
 上記実施の形態では、撮像部21は、撮像部21の撮像領域100において動体を検出した場合に、動作モードMを動作モードM2に設定したが、これに限定されるものではない。これに代えて、例えば、撮像部21の撮像領域100のうちの所定の領域において動体を検出した場合に、動作モードMを動作モードM2に設定してもよい。以下に、本変形例に係るカーシェアリングシステム1Dについて詳細に説明する。カーシェアリングシステム1Dは、車両8Dを備えている。車両8Dは、撮像装置20Dを有している。
 図11は、撮像装置20Dの一構成例を表すものである。撮像装置20Dは、非検出領域設定部24Dと、非検出領域記憶部25Dと、制御部30Dとを有している。
 非検出領域設定部24Dは、例えば、カーシェアリングシステム1Dを運営する業者の担当者の操作に基づいて、非検出領域102を設定するものである。非検出領域102は、撮像領域100のうち、動体検出の対象領域から除外する領域である。すなわち、撮像装置20Dは、後述するように、撮像領域100のうち非検出領域102以外の領域において動体を検出したかどうかを確認するようになっている。非検出領域記憶部25Dは、非検出領域設定部24Dが設定した非検出領域102を記憶するものである。
 図12は、非検出領域102の一例を表すものである。この例では、撮像部21の撮像画像に、道路が映っている。この道路には、車両や人が通行している。この例では、非検出領域設定部24Dは、この道路を含む領域を非検出領域102として設定する。すなわち、非検出領域102を設定しない場合には、車両8Dの近くの道路を車や人が通行する度に、動体が検出されるおそれがあるので、この例では、この道路を含む領域を非検出領域102として設定する。
 制御部30Dは、動体検出部31Dを有している。動体検出部31Dは、低解像度画像PIC1に基づいて、動体検出を行うものである。この動体検出部31Dは、非検出領域102以外の領域において動体を検出したかどうかを確認する機能を有している。
 図13は、車両8Dの利用予約を行ったユーザUが車両8Dの利用を開始する際の、カーシェアリングシステム1Dの一動作例を表すものである。
 上記第1の実施の形態の場合(図4)と同様に、まず、動作モード設定部33は、撮像部21の動作モードMを動作モードM1に設定する(ステップS111)。これにより、撮像部21は、低解像度画像PIC1の取得を開始する。次に、動体検出部31Dは、低解像度画像PIC1に基づいて動体検出を行う(ステップS112)。そして、動体検出部31Dは、動体を検出したかどうかを確認する(ステップS113)。動体を検出しなかった場合(ステップS113において“N”)には、ステップS112に戻る。
 ステップS113において、動体を検出した場合(ステップS113において“Y”)には、動体検出部31Dは、非検出領域102以外の領域で動体を検出したかどうかを確認する(ステップS143)。非検出領域102以外の領域で動体を検出しなかった場合(ステップS143において“N”)には、ステップS112に戻る。
 ステップS143において、非検出領域102以外の領域で動体を検出した場合(ステップS143において“Y”)には、動作モード設定部33は、撮像部21の動作モードMを動作モードM2に設定する(ステップS114)。これにより、撮像部21は、高解像度画像PIC2を取得する。そして、認証処理部32は、高解像度画像PIC2に基づいて、記憶部23に記憶された認証情報INF2を利用して認証処理を行う(ステップS115)。
 次に、認証処理部32は、認証処理が成功したかどうかを確認する(ステップS116)。認証処理が失敗した場合(ステップS116において“N”)には、ステップS111に戻る。認証処理が成功した場合(ステップS116において“Y”)には、制御部30Dは、解錠制御部6に対して、車両8Dのドアの解錠を指示する(ステップS117)。以上で、このフローは終了する。
 このように、カーシェアリングシステム1Dでは、非検出領域102以外の領域で動体を検出した場合に、動作モードMを動作モードM2に設定した。これにより、例えば、車両8Dの近くの道路を車や人が通行する度に、動作モードMが動作モードM2に設定されるおそれを低減することができるので、消費電力を効果的に低減することができる。
 非検出領域設定部24Dは、例えば、カーシェアリングシステム1Dを運営する業者の担当者の操作に基づいて、非検出領域102を設定することができる。具体的には、例えば、担当者は、車両8Dがカーシェアリングシステム1Dのステーションに駐車されているときに、撮像部21が撮影した撮像画像を確認しながら、非検出領域102を設定することができる。例えば、カーシェアリングシステム1Dのステーションの場所が変更された場合には、担当者は、同様にして、非検出領域102を再度設定することができる。
 また、例えば、図14に示した撮像装置20Eのように、非検出領域102をあらかじめ複数設定しておき、その複数の非検出領域102のうちの1つを選択するようにしてもよい。撮像装置20Eは、非検出領域設定部24Eと、非検出領域記憶部25Eと、位置検出部26Eと、制御部30Eとを有している。非検出領域設定部24Eは、複数の非検出領域102を設定可能なものである。非検出領域記憶部25Eは、非検出領域設定部24Eが設定した複数の非検出領域102を記憶するものである。位置検出部26Eは、撮像装置20Eを搭載した車両8Eの位置や向きを検出するものであり、例えば、GPS(Global Positioning System)受信機や、地磁気センサなどを用いて構成される。制御部30Eは、動体検出部31Eを有している。動体検出部31Eは、位置検出部26Eの検出結果に基づいて、非検出領域記憶部25Eに記憶された複数の非検出領域102のうちの1つを選択し、この選択された非検出領域102を用いて、低解像度画像PIC1に基づいて動体検出を行うものである。これにより、例えば、カーシェアリングシステム1Eのステーションが複数ある場合に、車両8Eを駐車するステーションに応じて、非検出領域102を選択することができる。
 また、図11の例では、非検出領域設定部24Dは、担当者の操作に基づいて、非検出領域102を設定するようにしたが、これに限定されるものではない。これに代えて、例えば、非検出領域設定部が、自動で非検出領域102を設定してもよい。具体的には、例えば、撮像部21が、ある所定の長さの時間において撮像動作を行い、本変形例に係る非検出領域設定部24Fが、撮像領域100における動体が検出された領域を非検出領域102として設定してもよい。すなわち、例えば、本変形例に係る車両8F近くに道路がある場合には、車や人が通行することが予想されるので、撮像領域100における動体が検出された領域を検出することにより、その道路を含む領域を非検出領域102として設定することができる。また、非検出領域設定部24Fは、例えば、機械学習の手法を用いて、非検出領域102を設定してもよい。なお、これに限定されるものではなく、非検出領域設定部24Fは、例えば、撮像画像に基づいて、画像認識処理を行うことにより道路を検出し、その検出結果に基づいて非検出領域102を設定してもよいし、例えばインターネットNETを介して地図データを取得し、その地図データを利用して非検出領域102を設定してもよい。
[変形例1-5]
 上記実施の形態では、撮像部21は、撮像部21の撮像領域100において動体を検出した場合に、動作モードMを動作モードM2に設定したが、これに限定されるものではない。これに代えて、例えば、動体検出により検出された動体の画像の大きさや、検出された動体の画像の位置に基づいて、動作モードMを動作モードM2に設定してもよい。以下に、いくつか例を挙げて、本変形例について詳細に説明する。
 本変形例に係るカーシェアリングシステム1Gは、車両8Gを備えている。車両8Gは、撮像装置20Gを有している。撮像装置20Gは、制御部30Gを有している。制御部30Gは、動体検出部31Gを有している。動体検出部31Gは、低解像度画像PIC1に基づいて、動体検出を行うものである。また、動体検出部31Gは、動体検出により検出された動体の画像の大きさを求め、その大きさが所定の大きさよりも大きいかどうかを判断する機能をも有している。すなわち、図15に示したように、撮像画像は様々な被写体の画像を含みうるが、撮像装置20Gが認証処理を行う場合には、ユーザUの顔が大きく映ることが期待される。よって、動体検出部31Gは、検出された動体の画像の大きさを求め、その大きさが所定の大きさよりも大きいかどうかを判断するようになっている。
 図16は、車両8Gの利用予約を行ったユーザUが車両8Gの利用を開始する際の、カーシェアリングシステム1Gの一動作例を表すものである。
 上記第1の実施の形態の場合(図4)と同様に、まず、動作モード設定部33は、撮像部21の動作モードMを動作モードM1に設定する(ステップS111)。これにより、撮像部21は、低解像度画像PIC1の取得を開始する。次に、動体検出部31Gは、低解像度画像PIC1に基づいて動体検出を行う(ステップS112)。そして、動体検出部31Gは、動体を検出したかどうかを確認する(ステップS113)。動体を検出しなかった場合(ステップS113において“N”)には、ステップS112に戻る。
 ステップS113において、動体を検出した場合(ステップS113において“Y”)には、動体検出部31Gは、検出された動体の画像の大きさが所定の大きさよりも大きいかどうかを確認する(ステップS153)。具体的には、動体検出部31Gは、検出された動体の画像の面積を求め、その画像の面積が所定の面積よりも大きいかどうかを確認する。検出された動体の画像の大きさが所定の大きさよりも大きくない場合(ステップS153において“N”)には、ステップS112に戻る。
 ステップS153において、検出された動体の画像の大きさが所定の大きさよりも大きい場合(ステップS153において“Y”)には、動作モード設定部33は、撮像部21の動作モードMを動作モードM2に設定する(ステップS114)。これにより、撮像部21は、高解像度画像PIC2を取得する。そして、認証処理部32は、高解像度画像PIC2に基づいて、記憶部23に記憶された認証情報INF2を利用して認証処理を行う(ステップS115)。
 次に、認証処理部32は、認証処理が成功したかどうかを確認する(ステップS116)。認証処理が失敗した場合(ステップS116において“N”)には、ステップS111に戻る。認証処理が成功した場合(ステップS116において“Y”)には、制御部30Gは、解錠制御部6に対して、車両8Gのドアの解錠を指示する(ステップS117)。以上で、このフローは終了する。
 このように、カーシェアリングシステム1Gでは、動体検出部31Gにより検出された動体の画像の大きさが所定の大きさよりも大きい場合に、動作モードMを動作モードM2に設定した。これにより、例えば、たまたま車両8Gの近くに人や動物がいた場合でも、このような人や動物の画像の大きさは小さいので、動作モード設定部33は動作モードMを変更しない。その結果、カーシェアリングシステム1Gでは、車両8Gの近くを人や動物が通行する度に、動作モードMが動作モードM2に設定されるおそれを低減することができるので、消費電力を効果的に低減することができる。
 次に、本変形例に係る他のカーシェアリングシステム1Hについて説明する。カーシェアリングシステム1Hは、車両8Hを備えている。車両8Hは、撮像装置20Hを有している。撮像装置20Hは、制御部30Hを有している。制御部30Hは、動体検出部31Hを有している。動体検出部31Hは、低解像度画像PIC1に基づいて、動体検出を行うものである。また、動体検出部31Hは、動体検出により検出された動体の画像が、低解像度画像PIC1の端部に接しているかどうかを判断する機能をも有している。すなわち、図15に示したように、撮像画像には様々な被写体の画像を含みうるが、撮像装置20Hが認証処理を行う場合には、ユーザUの顔が大きく映ることが期待されている。この場合、撮像画像には、ユーザUの全身画像は収まりきらないので、ユーザUの画像は撮像画像の端部に接することとなる。よって、動体検出部31Hは、検出された動体(この例ではユーザU)の画像が、低解像度画像PIC1の端部に接しているかどうかを判断するようになっている。
 図17は、車両8Hの利用予約を行ったユーザUが車両8Hの利用を開始する際の、カーシェアリングシステム1Hの一動作例を表すものである。このフローチャートは、カーシェアリングシステム1Gのフローチャート(図16)におけるステップS153をステップS163に置き換えたものである。
 ステップS113において、動体を検出した場合(ステップS113において“Y”)には、動体検出部31Hは、検出された動体の画像が、低解像度画像PIC1の端部に接しているかどうかを確認する(ステップS163)。検出された動体の画像が、低解像度画像PIC1の端部に接していない場合(ステップS163において“N”)には、ステップS112に戻る。
 ステップS163において、検出された動体の画像が、低解像度画像PIC1の端部に接している場合(ステップS163において“Y”)には、動作モード設定部33は、撮像部21の動作モードMを動作モードM2に設定する(ステップS114)。
 このように、カーシェアリングシステム1Hでは、動体検出部31Hにより検出された動体の画像が低解像度画像PIC1の端部に接している場合に、動作モードMを動作モードM2に設定した。これにより、車両8Hの近くを人や動物が通行する度に、動作モードMが動作モードM2に設定されるおそれを低減することができるので、消費電力を効果的に低減することができる。
 また、これらのカーシェアリングシステム1G,1Hを組み合わせてもよい。具体的には、図18に示したカーシェアリングシステム1Jのように、動体検出により検出された動体の画像の大きさが所定の大きさよりも大きく、かつ、動体検出により検出された動体が低解像度画像PIC1の端部に接している場合(ステップS153,S163)に、動作モードMを動作モードM2に設定してもよい。この場合も、消費電力を効果的に低減することができる。
[変形例1-6]
 上記実施の形態では、サーバ10の登録処理部11が、ユーザUの顔画像に基づいて認証情報INF2を生成したが、これに限定されるものではなく、これに代えて、例えば、撮像装置がユーザUの顔画像に基づいて認証情報INF2を生成してもよい。以下に、本変形例に係るカーシェアリングシステム1Kについて詳細に説明する。
 図19は、カーシェアリングシステム1Kの一構成例を表すものである。カーシェアリングシステム1Kは、サーバ10Kと、車両8Kとを備えている。
 サーバ10Kは、登録処理部11Kと、データベース13Kとを有している。
 登録処理部11Kは、パーソナルコンピュータ7からの指示に基づいて、ユーザを登録する登録処理を行うものである。具体的には、登録処理部11は、パーソナルコンピュータ7からの指示に基づいて、ユーザUのアカウントを作成する。そして、登録処理部11Kは、ユーザ情報INF1およびユーザUの顔画像を、そのユーザUのアカウントと関連づけてデータベース13Kに登録するようになっている。
 データベース13Kは、ユーザ情報INF1、ユーザUの顔画像、および予約情報INF3を、ユーザUのアカウントと関連づけて記憶するものである。
 サーバ10Kは、上記第1の実施の形態に係るサーバ10と同様に、車両8Kの利用予約を受け付ける。そして、サーバ10Kは、ユーザUの顔画像および予約情報INF3を、予約された車両8Kの撮像装置20K(後述)に供給するようになっている。
 図20は、車両8Kに搭載された撮像装置20Kの一構成例を表すものである。撮像装置20Kは、制御部30Kを有している。制御部30Kは、認証情報生成部34Kを有している。認証情報生成部34Kは、サーバ10Kから供給されたユーザUの顔画像に基づいて、ユーザUの顔画像に係る様々な特徴量を含む認証情報INF2を生成するものである。そして、記憶部23は、認証情報生成部34Kが生成した認証情報INF2、およびサーバ10Kから供給された予約情報INF3を記憶するようになっている。
[変形例1-7]
 上記実施の形態では、撮像部21が取得した低解像度画像PIC1に基づいて動体検出を行うようにしたが、これに限定されるものではない。以下に、いくつか例を挙げて、本変形例について詳細に説明する。
 本変形例に係るカーシェアリングシステム1Lは、車両8Lを備えている。車両8Lは、撮像装置20Lを有している。
 図21は、撮像装置20Lの一構成例を表すものである。撮像装置20Lは、撮像部21Lと、焦電センサ27Lと、制御部30Lとを有している。撮像部21Lは、2つの動作モードM(動作モードM0,M2)を有している。動作モードM0は、撮像動作を停止するモードである。撮像装置20Lは、撮像部21Lの動作モードMを動作モードM0に設定することにより、消費電力を低減することができるようになっている。焦電センサ27Lは、例えば赤外線センサであり、動体(例えばユーザU)を検出するものである。制御部30Lは、動作モード設定部33Lを有している。動作モード設定部33Lは、撮像部21Lの動作モードMを設定するものである。動作モード設定部33Lは、例えば、撮像部21Lの動作モードMが動作モードM0である場合において、焦電センサ27Lが動体を検出したときに、動作モードMを動作モードM2に設定するようになっている。
 ここで、焦電センサ27Lは、本開示における「センサ」の一具体例に対応する。
 図22は、車両8Lの利用予約を行ったユーザUが車両8Lの利用を開始する際の、カーシェアリングシステム1Lの一動作例を表すものである。
 まず、動作モード設定部33Lは、撮像部21Lの動作モードMを動作モードM0に設定する(ステップS171)。これにより、撮像部21Lは、撮像動作を停止する。そして、焦電センサ27Lは、動体検出を行う(ステップS172)。
 次に、制御部30Lは、焦電センサ27Lが動体を検出したかどうかを確認する(ステップS173)。動体を検出しなかった場合(ステップS173において“N”)には、ステップS172に戻る。
 ステップS173において、動体を検出した場合(ステップS173において“Y”)には、動作モード設定部33Lは、撮像部21Lの動作モードMを動作モードM2に設定する(ステップS114)。これにより、撮像部21Lは、高解像度画像PIC2を取得する。そして、認証処理部32は、高解像度画像PIC2に基づいて、記憶部23に記憶された認証情報INF2を利用して認証処理を行う(ステップS115)。
 次に、認証処理部32は、認証処理が成功したかどうかを確認する(ステップS116)。認証処理が失敗した場合(ステップS116において“N”)には、ステップS171に戻る。認証処理が成功した場合(ステップS116において“Y”)には、制御部30Lは、解錠制御部6に対して、車両8Lのドアの解錠を指示する(ステップS117)。以上で、このフローは終了する。
 このように、カーシェアリングシステム1Lでは、撮像動作を停止する動作モードM0、および高解像度画像PIC2を取得する動作モードM2を有する撮像部21Lを用いて撮像装置20を構成し、焦電センサ27Lが動体を検出したときに、動作モードMを動作モードM2に設定するようにしたので、消費電力を低減することができる。
 次に、本変形例に係る他のカーシェアリングシステム1Mについて説明する。カーシェアリングシステム1Mは、車両8Mを備えている。車両8Mは、撮像装置20Mを有している。
 図23は、撮像装置20Mの一構成例を表すものである。撮像装置20Mは、撮像部21Lと、スイッチ28Mと、制御部30Mとを有している。スイッチ28Mは、例えばユーザUにより操作されるものである。制御部30Mは、動作モード設定部33Mを有している。動作モード設定部33Mは、撮像部21Lの動作モードMを設定するものである。動作モード設定部33Mは、例えば、撮像部21Lの動作モードMが動作モードM0である場合において、スイッチ28Mが操作されたときに、動作モードMを動作モードM2に設定するようになっている。
 図24は、車両8Mの利用予約を行ったユーザUが車両8Mの利用を開始する際の、カーシェアリングシステム1Mの一動作例を表すものである。
 まず、動作モード設定部33Mは、撮像部21Lの動作モードMを動作モードM0に設定する(ステップS171)。これにより、撮像部21Lは、撮像動作を停止する。
 次に、制御部30Mは、スイッチ28Mが操作されたかどうかを確認する(ステップS183)。スイッチ28Mが操作されなかった場合(ステップS183において“N”)には、ステップS183に戻り、スイッチ28Mが操作されるまでこのステップS183を繰り返す。具体的には、例えば、予約情報INF3に応じた時間にユーザUが車両8Mに近づき、スイッチ28Mを操作するまで、このステップS183を繰り返す。
 ステップS183において、スイッチ28Mが操作された場合(ステップS183において“Y”)には、動作モード設定部33Mは、撮像部21Lの動作モードMを動作モードM2に設定する(ステップS114)。これにより、撮像部21Lは、高解像度画像PIC2を取得する。そして、認証処理部32は、高解像度画像PIC2に基づいて、記憶部23に記憶された認証情報INF2を利用して認証処理を行う(ステップS115)。
 次に、認証処理部32は、認証処理が成功したかどうかを確認する(ステップS116)。認証処理が失敗した場合(ステップS116において“N”)には、ステップS171に戻る。認証処理が成功した場合(ステップS116において“Y”)には、制御部30Mは、解錠制御部6に対して、車両8Mのドアの解錠を指示する(ステップS117)。以上で、このフローは終了する。
 このように、カーシェアリングシステム1L,1Mでは、撮像動作を停止する動作モードM0、および高解像度画像PIC2を取得する動作モードM2を有する撮像部21Lを用いて撮像装置20を構成し、ユーザUがスイッチ28Mを操作したときに、動作モードMを動作モードM2に設定するようにしたので、消費電力を低減することができる。
[その他の変形例]
 また、これらの変形例のうちの2以上を組み合わせてもよい。
<2.第2の実施の形態>
 次に、第2の実施の形態に係る撮像装置を備えた車両監視システム2について説明する。なお、上記第1の実施の形態に係るカーシェアリングシステム1の撮像装置20と実質的に同一の構成部分には同一の符号を付し、適宜説明を省略する。
 図25は、車両監視システム2の一構成例を表すものである。車両監視システム2は、車両9と、サーバ40と、スマートフォン4とを備えている。サーバ40は、インターネットNETに接続されている。また、スマートフォン4、および車両9に搭載された撮像装置50(後述)は、例えば携帯電話網を介してインターネットNETに接続されている。
 この車両監視システム2では、車両9の撮像装置50(後述)は、車両9に近づいた人を撮像し、その撮像画像に基づいて、認証情報INF2を用いて認証処理を行う。そして、認証処理が失敗した場合には、撮像装置50は撮像画像をサーバ40に供給する。そして、サーバ40は、登録されたユーザU以外の人が車両9に近づいた旨をスマートフォン4に通知するとともに、撮像画像をスマートフォン4に供給するようになっている。
 車両9は、例えば、車両監視システム2を利用するユーザUが所有する車両である。
 図26は、車両9に搭載された撮像装置50の一構成例を表すものである。撮像装置50は、撮像部21と、通信部22と、制御部60と、記憶部53とを有している。
 制御部60は、認証情報生成部61と、動体検出部31と、認証処理部32と、動作モード設定部33とを有している。
 認証情報生成部61は、撮像部21により撮像されたユーザUの顔画像に基づいて、ユーザUの顔画像に係る様々な特徴量を含む認証情報INF2を生成するものである。すなわち、ユーザUは、この車両監視システム2の利用に先立ち、自らを撮像部21に撮像させる。認証情報生成部61は、このようにして撮像したユーザUの顔画像に基づいて、認証情報INF2を生成するようになっている。
 動体検出部31は、上記第1の実施の形態の場合と同様に、低解像度画像PIC1に基づいて、動体の有無を検出することにより動体検出を行うものである。認証処理部32は、上記第1の実施の形態の場合と同様に、高解像度画像PIC2に基づいて、認証情報INF2を利用して認証処理を行うものである。動作モード設定部33は、上記第1の実施の形態の場合と同様に、撮像部21の動作モードMを設定するものである。
 また、制御部60は、認証処理部32において行われる認証処理が失敗した場合には、通信部22に対して、高解像度画像PIC2をサーバ40に供給するように指示する機能をも有している。
 記憶部53は、認証情報生成部61が生成した認証情報INF2を記憶するものである。なお、この例では、一人のユーザUの認証情報INF2を記憶するようにしたが、これに限定されるものではなく、車両9を利用し得る複数のユーザUにそれぞれ対応する複数の認証情報INF2を記憶してもよい。
 この構成により、まず、撮像部21は、動作モードM1で動作することにより、低解像度画像PIC1を取得する。そして、動体検出部31は、この低解像度画像PIC1に基づいて動体検出を行う。動体を検出した場合には、撮像部21は、動作モードM2で動作することにより、高解像度画像PIC2を取得する。そして、認証処理部32は、この高解像度画像PIC2に基づいて、認証情報INF2を利用して認証処理を行う。認証処理が失敗した場合には、通信部22は、高解像度画像PIC2をサーバ40に供給するようになっている。
 スマートフォン4(図25)は、例えば、車両監視システム2を利用するユーザUが所有する多機能携帯電話である。スマートフォン4は、ユーザUの操作を受け付けるとともにサーバ40と通信を行う。ユーザUがユーザ登録を行う場合には、車両監視システム2は、ユーザUのアカウントを作成し、ユーザUは、住所、氏名などのユーザ情報INF1を入力する。そして、スマートフォン4は、ユーザ情報INF1をサーバ40に供給する。また、スマートフォン4は、サーバ40から、登録されたユーザU以外の人が車両9に近づいた旨の通知を受け取った場合には、その旨および高解像度画像PIC2を表示部に表示するようになっている。
 サーバ40は、例えば、車両監視システム2を運営する業者が管理する装置である。サーバ40は、登録処理部41と、通知部42と、データベース43とを有している。
 登録処理部41は、スマートフォン4からの指示に基づいて、ユーザを登録する登録処理を行うものである。具体的には、登録処理部41は、スマートフォン4からの指示に基づいて、ユーザUのアカウントを作成する。そして、登録処理部41は、スマートフォン4から供給されたユーザ情報INF1を、そのユーザUのアカウントと関連づけてデータベース43に登録するようになっている。
 通知部42は、サーバ40が、撮像装置50から高解像度画像PIC2を受け取った場合に、登録されたユーザU以外の人が車両9に近づいた旨をスマートフォン4に通知するとともに、高解像度画像PIC2をスマートフォン4に供給するものである。
 データベース43は、ユーザ情報INF1、高解像度画像PIC2、および通知の履歴を、ユーザUのアカウントと関連づけて記憶するものである。
 ここで、車両監視システム2は、本開示における「車両監視システム」の一具体例に対応する。サーバ40は、本開示における「第1の装置」の一具体例に対応する。
 図27は、ユーザUが車両9を駐車場に停車する際の、車両監視システム2の一動作例を表すものである。
 まず、車両9は、ユーザUの操作に基づいてエンジンを停止する(ステップS211)。
 次に、動作モード設定部33は、撮像部21の動作モードMを動作モードM1に設定する(ステップS212)。これにより、撮像部21は、低解像度画像PIC1の取得を開始する。そして、動体検出部31は、低解像度画像PIC1に基づいて動体検出を行う(ステップS213)。
 次に、動体検出部31は、動体を検出したかどうかを確認する(ステップS214)。動体を検出しなかった場合(ステップS214において“N”)には、ステップS213に戻り、動体を検出するまでこのステップS213,S214を繰り返す。
 ステップS214において、動体を検出した場合(ステップS214において“Y”)には、動作モード設定部33は、撮像部21の動作モードMを動作モードM2に設定する(ステップS215)。これにより、撮像部21は、高解像度画像PIC2を取得する。そして、認証処理部32は、高解像度画像PIC2に基づいて、記憶部53に記憶された認証情報INF2を利用して認証処理を行う(ステップS216)。
 次に、認証処理部32は、認証処理が成功したかどうかを確認する(ステップS217)。認証処理が成功した場合(ステップS217において“Y”)には、ステップS212に戻り、動作モード設定部33は動作モードMを動作モードM1に設定する。すなわち、この場合には、例えば、車両9を所有するユーザUが車両9に近づいたので、ユーザUに通知する必要がないため、動作モード設定部33は、動作モードMを動作モードM1に戻す。
 ステップS217において、認証処理が失敗した場合(ステップS217において“N”)には、通信部22は、制御部60からの指示に基づいて、高解像度画像PIC2をサーバ40に供給する(ステップS218)。すなわち、この場合には、例えば、車両9を所有するユーザU以外の人が車両9に近づいたので、撮像装置50は、その旨をユーザUに通知するため、高解像度画像PIC2をサーバ40に供給する。
 そして、サーバ40の通知部42は、登録されたユーザU以外の人が車両9に近づいた旨をスマートフォン4に通知するとともに、高解像度画像PIC2をスマートフォン4に供給する(ステップS219)。
 以上で、このフローは終了する。
 このように、車両監視システム2では、撮像画像(高解像度画像PIC2)に基づいて認証処理を行い、認証処理が失敗したときに、撮像画像をスマートフォン4に供給するようにしたので、ユーザUの利便性を高めることができる。すなわち、例えば、撮像装置を車両に搭載し、撮像画像を撮像装置に記憶させるようにした場合には、登録されたユーザU以外の人が車両に近づいていることを、ユーザUがタイムリーに知ることができない。また、この場合において、車両が盗難された場合には、撮像装置に記憶された撮像画像も含めて盗難されるため、ユーザUは撮像画像を確認することができない。一方、車両監視システム2では、撮像画像に基づいて認証処理を行い、認証処理が失敗したときに、撮像画像をスマートフォン4に供給するようにした。これにより、ユーザUは、登録されたユーザU以外の人が車両に近づいていることをタイムリーに知ることができるとともに、撮像画像を確認することができるので、ユーザの利便性を高めることができる。その結果、車両9が盗難されるおそれを低減することができる。
 以上のように本実施の形態では、撮像画像に基づいて認証処理を行い、認証処理が失敗したときに、撮像画像をスマートフォンに供給するようにしたので、ユーザUの利便性を高めることができるとともに、車両が盗難されるおそれを低減することができる。その他の効果は、上記第1の実施の形態の場合と同様である。
[変形例2-1]
 上記実施の形態では、撮像装置50が認証処理を行ったが、これに限定されるものではなく、これに代えて、例えば、上記第1の実施の形態の変形例1-1の場合と同様に、サーバが認証処理を行ってもよい。以下に、本変形例に係る車両監視システム2Aについて詳細に説明する。
 図28は、車両監視システム2Aの一構成例を表すものである。車両監視システム2Aは、車両9Aと、サーバ40Aとを備えている。
 図29は、車両9Aに搭載された撮像装置50Aの一構成例を表すものである。撮像装置50Aは、制御部60Aを有している。制御部60Aは、動体検出部31と、動作モード設定部33とを有している。すなわち、制御部60Aは、上記第2の実施の形態に係る制御部60から、認証情報生成部61および認証処理部32を省いたものである。また、制御部60Aは、ユーザUによる車両監視システム2Aの利用に先立ち、撮像部21が撮像したユーザUの顔画像を、通信部22を用いてサーバ40Aに供給する。また、制御部60Aは、撮像部21の動作モードMを動作モードM2に設定したときに撮像部21が取得した高解像度画像PIC2を、通信部22を用いてサーバ40Aに供給する機能をも有している。
 サーバ40Aは、認証情報生成部44Aと、認証処理部45Aと、データベース43Aとを有している。
 認証情報生成部44Aは、ユーザUによる車両監視システム2Aの利用に先立ち、撮像部21が撮像したユーザUの顔画像に基づいて、ユーザUの顔画像に係る様々な特徴量を含む認証情報INF2を生成するものである。そして、認証情報生成部44Aは、その認証情報INF2を、そのユーザUのアカウントと関連づけてデータベース43Aに登録するようになっている。
 認証処理部45Aは、車両9Aの撮像装置50Aから供給された高解像度画像PIC2に基づいて、データベース43Aに記憶された認証情報INF2を用いて認証処理を行うものである。
 データベース43Aは、ユーザ情報INF1、認証情報INF2、高解像度画像PIC2、および通知の履歴を、ユーザUのアカウントと関連づけて記憶するものである。
 ここで、サーバ40Aは、本開示における「第3の装置」の一具体例に対応する。
 図30は、ユーザUが車両9Aを駐車場に停車する際の、車両監視システム2Aの一動作例を表すものである。
 上記第2の実施の形態の場合(図27)と同様に、まず、車両9Aは、ユーザUの操作に基づいてエンジンを停止し(ステップS211)、動作モード設定部33は、撮像部21の動作モードMを動作モードM1に設定する(ステップS212)。これにより、撮像部21は、低解像度画像PIC1の取得を開始する。そして、動体検出部31は、低解像度画像PIC1に基づいて動体検出を行う(ステップS213)。次に、動体検出部31は、動体を検出したかどうかを確認する(ステップS214)。動体を検出しなかった場合(ステップS214において“N”)には、ステップS213に戻る。ステップS214において、動体を検出した場合(ステップS214において“Y”)には、動作モード設定部33は、撮像部21の動作モードMを動作モードM2に設定する(ステップS215)。これにより、撮像部21は、高解像度画像PIC2を取得する。
 次に、撮像装置50Aの通信部22は、高解像度画像PIC2をサーバ40Aに供給する(ステップS221)。
 次に、サーバ40Aの認証処理部45Aは、撮像装置50Aから供給された高解像度画像PIC2に基づいて、データベース43Aに記憶された認証情報INF2を利用して認証処理を行う(ステップS222)。
 次に、認証処理部45Aは、認証処理が成功したかどうかを確認する(ステップS223)。認証処理が成功した場合(ステップS223において“Y”)には、サーバ40Aは、撮像装置20Aに対して認証処理が成功した旨を通知する(ステップS224)。撮像装置50Aの通信部22は、この通知を受け取る。そして、ステップS212に戻る。
 ステップS223において、認証処理が失敗した場合(ステップS223において“N”)には、サーバ40Aの通知部42は、登録されたユーザU以外の人が車両9Aに近づいた旨をスマートフォン4に通知するとともに、高解像度画像PIC2をスマートフォン4に供給する(ステップS219)。以上で、このフローは終了する。
[変形例2-2]
 上記実施の形態では、1つの撮像部21を設けたが、これに限定されるものではなく、これに代えて、例えば、上記第1の実施の形態の変形例1-2(図8)と同様に、複数の撮像部を設けてもよい。特に、図8(C)に示したように、5つの撮像部を設けた場合には、登録されたユーザU以外の人がどの方向から車両に近づいても、その人を検出することができる。
[変形例2-3]
 上記実施の形態では、撮像部21は、高解像度画像PIC2を取得する動作モードM2において、撮像部21が有する複数の撮像画素の全てを動作させたが、これに限定されるものではない。これに代えて、例えば、上記第1の実施の形態の変形例1-3の場合と同様に、撮像部21が有する複数の撮像画素のうちの一部の撮像画素を動作させてもよい。以下に、本変形例に係る車両監視システム2Cについて詳細に説明する。車両監視システム2Cは、車両9Cを備えている。車両9Cは、撮像装置50Cを有している。撮像装置50Cは、撮像部21Cと、制御部60Cとを有している。
 上記第1の実施の形態の変形例1-3の場合と同様に、撮像部21Cは、図9に示したように、領域101を単位として撮像動作を行うことができるように構成されている。撮像部21Cは、2つの動作モードM(動作モードM1,M3)を有している。動作モードM3は、解像度が高い画像(高解像度画像PIC3)を取得するものであり、領域101を単位として撮像動作を行うモードである。
 制御部60Cは、動作モード設定部33Cを有している。動作モード設定部33Cは、撮像部21Cの動作モードMを設定するものである。動作モード設定部33Cは、撮像部21Cの動作モードMを動作モードM3に設定する際、撮像領域100のうち、動体検出において動体が検出された1または複数の領域101を選択的に動作させるようになっている。
 図31は、ユーザUが車両9Cを駐車場に停車する際の、車両監視システム2Cの一動作例を表すものである。
 上記第2の実施の形態の場合(図27)と同様に、まず、車両9Cは、ユーザUの操作に基づいてエンジンを停止し(ステップS211)、動作モード設定部33Cは、撮像部21Cの動作モードMを動作モードM1に設定する(ステップS212)。これにより、撮像部21Cは、低解像度画像PIC1の取得を開始する。そして、動体検出部31は、低解像度画像PIC1に基づいて動体検出を行う(ステップS213)。次に、動体検出部31は、動体を検出したかどうかを確認する(ステップS214)。動体を検出しなかった場合(ステップS214において“N”)には、ステップS213に戻る。
 ステップS214において、動体を検出した場合(ステップS214において“Y”)には、動作モード設定部33Cは、撮像部21Cの動作モードMを動作モードM3に設定するとともに、撮像領域100のうちの動作させる領域101を設定する(ステップS235)。その際、動作モード設定部33Cは、撮像領域100のうち、動体検出において動体が検出された1または複数の領域101を、動作させる領域101として設定する。これにより、撮像部21Cは、高解像度画像PIC3を取得する。
 次に、認証処理部32は、高解像度画像PIC3に基づいて、記憶部53に記憶された認証情報INF2を利用して認証処理を行う(ステップS236)。
 次に、認証処理部32は、認証処理が成功したかどうかを確認する(ステップS237)。認証処理が成功した場合(ステップS237において“Y”)には、ステップS212に戻る。認証処理が失敗した場合(ステップS237において“N”)には、通信部22は、制御部60Cからの指示に基づいて、高解像度画像PIC3をサーバ40に供給する(ステップS238)。
 そして、サーバ40の通知部42は、登録されたユーザU以外の人が車両9Cに近づいた旨をスマートフォン4に通知するとともに、高解像度画像PIC3をスマートフォン4に供給する(ステップS239)。以上で、このフローは終了する。
 このように、車両監視システム2Cでは、高解像度画像PIC3を取得する動作モードM3において、撮像領域100のうち、動体検出において動体が検出された1または複数の領域101を動作させるようにしたので、消費電力を効果的に低減することができる。
 この例では、撮像部21Cは、2つの動作モードM1,M3を有するようにしたが、これに限定されるものではなく、例えば、さらに動作モードM2を有するようにしてもよい。この場合には、例えば、動作モードM3で動作した後、必要に応じて、動作モードM2で動作するようにしてもよい。具体的には、撮像装置は、例えば、動作モードM3において撮像領域100のうちの1または複数の領域101を動作させ、認証処理が失敗した場合に、動作モードMを動作モードM2に設定し、すべての領域101を動作させるようにしてもよい。すなわち、この場合には、登録されたユーザU以外の人が車両9Cに近づいているため、この車両9Cの周囲の状況を撮像するために、動作モードMを動作モードM2に設定してもよい。
[変形例2-4]
 上記実施の形態では、撮像部21は、撮像部21の撮像領域100において動体を検出した場合に、動作モードMを動作モードM2に設定したが、これに限定されるものではない。これに代えて、例えば、上記第1の実施の形態の変形例1-4の場合と同様に、撮像部21の撮像領域100のうちの所定の領域において動体を検出した場合に、動作モードMを動作モードM2に設定してもよい。以下に、本変形例に係る車両監視システム2Dについて詳細に説明する。車両監視システム2Dは、車両9Dを備えている。車両9Dは、撮像装置50Dを有している。
 図32は、撮像装置50Dの一構成例を表すものである。撮像装置50Dは、非検出領域設定部24Dと、非検出領域記憶部25Dと、制御部60Dとを有している。
 上記第1の実施の形態の変形例1-4の場合と同様に、非検出領域設定部24Dは、例えば、ユーザUの操作に基づいて、非検出領域102を設定するものである。非検出領域記憶部25Dは、非検出領域設定部24Dが設定した非検出領域102を記憶するものである。
 制御部60Dは、動体検出部31Dを有している。動体検出部31Dは、低解像度画像PIC1に基づいて、動体検出を行うものである。この動体検出部31Dは、上記第1の実施の形態の変形例1-4の場合と同様に、非検出領域102以外の領域において動体を検出したかどうかを確認する機能を有している。
 図33は、ユーザUが車両9Dを駐車場に停車する際の、車両監視システム2Dの一動作例を表すものである。
 上記第2の実施の形態の場合(図27)と同様に、まず、車両9Dは、ユーザUの操作に基づいてエンジンを停止し(ステップS211)、動作モード設定部33は、撮像部21の動作モードMを動作モードM1に設定する(ステップS212)。これにより、撮像部21は、低解像度画像PIC1の取得を開始する。そして、動体検出部31Dは、低解像度画像PIC1に基づいて動体検出を行う(ステップS213)。次に、動体検出部31Dは、動体を検出したかどうかを確認する(ステップS214)。動体を検出しなかった場合(ステップS214において“N”)には、ステップS213に戻る。
 ステップS214において、動体を検出した場合(ステップS214において“Y”)には、動体検出部31Dは、非検出領域102以外の領域で動体を検出したかどうかを確認する(ステップS244)。非検出領域102以外の領域で動体を検出しなかった場合(ステップS244において“N”)には、ステップS213に戻る。
 ステップS244において、非検出領域102以外の領域で動体を検出した場合(ステップS244において“Y”)には、動作モード設定部33は、撮像部21の動作モードMを動作モードM2に設定する(ステップS215)。これにより、撮像部21は、高解像度画像PIC2を取得する。そして、認証処理部32は、高解像度画像PIC2に基づいて、記憶部53に記憶された認証情報INF2を利用して認証処理を行う(ステップS216)。
 次に、認証処理部32は、認証処理が成功したかどうかを確認する(ステップS217)。認証処理が成功した場合(ステップS217において“Y”)には、ステップS212に戻る。認証処理が失敗した場合(ステップS217において“N”)には、通信部22は、制御部60Dからの指示に基づいて、高解像度画像PIC2をサーバ40に供給する(ステップS218)。
 そして、サーバ40の通知部42は、登録されたユーザU以外の人が車両9Dに近づいた旨をスマートフォン4に通知するとともに、高解像度画像PIC2をスマートフォン4に供給する(ステップS219)。以上で、このフローは終了する。
 このように、車両監視システム2Dでは、非検出領域102以外の領域で動体を検出した場合に、動作モードMを動作モードM2に設定した。これにより、例えば、車両9Dの近くの道路を車や人が通行する度に、動作モードMが動作モードM2に設定されるおそれを低減することができるので、消費電力を効果的に低減することができる。また、車両監視システム2Dでは、車両9Dの近くの道路を車や人が通行する度に、ユーザUに通知を行うおそれを低減することができる。
 非検出領域設定部24Dは、例えば、ユーザUの操作に基づいて、非検出領域102を設定することができる。具体的には、例えば、ユーザUは、車両9Dが自宅の駐車場に駐車されているときに、撮像部21が撮影した撮像画像を確認しながら、非検出領域102を設定することができる。例えば、車両9Dを自宅の駐車場とは別の場所に駐車する場合には、ユーザUは、同様にして、非検出領域102を再度設定することができる。
 また、例えば、図34に示した撮像装置50Eのように、非検出領域102をあらかじめ複数設定しておき、その複数の非検出領域102のうちの1つを選択するようにしてもよい。撮像装置50Eは、非検出領域設定部24Eと、非検出領域記憶部25Eと、位置検出部26Eと、制御部60Eとを有している。上記第1の実施の形態の変形例1-4の場合と同様に、非検出領域設定部24Eは、複数の非検出領域102を設定可能なものである。非検出領域記憶部25Eは、非検出領域設定部24Eが設定した複数の非検出領域102を記憶するものである。位置検出部26Eは、撮像装置50Eを搭載した車両9Eの位置や向きを検出するものであり、例えば、GPS受信機や、地磁気センサなどを用いて構成される。制御部60Eは、動体検出部31Eを有している。動体検出部31Eは、位置検出部26Eの検出結果に基づいて、非検出領域記憶部25Eに記憶された複数の非検出領域102のうちの1つを選択し、この選択された非検出領域102を用いて、低解像度画像PIC1に基づいて動体検出を行うものである。これにより、例えば、車両9Dを頻繁に駐車する場所が複数ある場合に、その場所に応じて、非検出領域102を選択することができる。
 また、図32の例では、非検出領域設定部24Dは、ユーザUの操作に基づいて、非検出領域102を設定するようにしたが、これに限定されるものではない。これに代えて、例えば、非検出領域設定部は、上記第1の実施の形態の変形例1-4の場合と同様に、自動で非検出領域102を設定してもよい。
[変形例2-5]
 上記実施の形態では、撮像部21は、撮像部21の撮像領域100において動体を検出した場合に、動作モードMを動作モードM2に設定したが、これに限定されるものではない。これに代えて、例えば、動体検出により検出された動体の画像の大きさや、検出され続けた時間に基づいて、動作モードMを動作モードM2に設定してもよい。以下に、いくつか例を挙げて、本変形例について詳細に説明する。
 本変形例に係る車両監視システム2Gは、車両9Gを備えている。車両9Gは、撮像装置50Gを有している。撮像装置50Gは、制御部60Gを有している。制御部60Gは、動体検出部31Gを有している。上記第1の実施の形態の変形例1-5の場合と同様に、動体検出部31Gは、低解像度画像PIC1に基づいて、動体検出を行うものである。また、動体検出部31Gは、動体検出により検出された動体の画像の大きさを求め、その大きさが所定の大きさよりも大きいかどうかを判断する機能をも有している。
 図35は、ユーザUが車両9Gを駐車場に停車する際の、車両監視システム2Gの一動作例を表すものである。
 上記第2の実施の形態の場合(図27)と同様に、まず、車両9Gは、ユーザUの操作に基づいてエンジンを停止し(ステップS211)、動作モード設定部33は、撮像部21の動作モードMを動作モードM1に設定する(ステップS212)。これにより、撮像部21は、低解像度画像PIC1の取得を開始する。そして、動体検出部31Gは、低解像度画像PIC1に基づいて動体検出を行う(ステップS213)。次に、動体検出部31Gは、動体を検出したかどうかを確認する(ステップS214)。動体を検出しなかった場合(ステップS214において“N”)には、ステップS213に戻る。
 ステップS214において、動体を検出した場合(ステップS214において“Y”)には、動体検出部31Gは、検出された動体の画像の大きさが所定の大きさよりも大きいかどうかを確認する(ステップS254)。検出された動体の画像の大きさが所定の大きさよりも大きくない場合(ステップS254において“N”)には、ステップS213に戻る。
 ステップS254において、検出された動体の画像の大きさが所定の大きさよりも大きい場合(ステップS254において“Y”)には、動作モード設定部33は、撮像部21の動作モードMを動作モードM2に設定する(ステップS215)。これにより、撮像部21は、高解像度画像PIC2を取得する。そして、認証処理部32は、高解像度画像PIC2に基づいて、記憶部53に記憶された認証情報INF2を利用して認証処理を行う(ステップS216)。
 次に、認証処理部32は、認証処理が成功したかどうかを確認する(ステップS217)。認証処理が成功した場合(ステップS217において“Y”)には、ステップS212に戻る。認証処理が失敗した場合(ステップS217において“N”)には、通信部22は、制御部60Gからの指示に基づいて、高解像度画像PIC2をサーバ40に供給する(ステップS218)。
 そして、サーバ40の通知部42は、登録されたユーザU以外の人が車両9Gに近づいた旨をスマートフォン4に通知するとともに、高解像度画像PIC2をスマートフォン4に供給する(ステップS219)。以上で、このフローは終了する。
 このように、車両監視システム2Gでは、動体検出部31Gにより検出された動体の画像の大きさが所定の大きさよりも大きい場合に、動作モードMを動作モードM2に設定した。これにより、例えば、たまたま車両9Gの近くにいる人や動物の画像の大きさは小さいので、動作モードMを変更しない。その結果、車両9Gの近くを人や動物が通行する度に、動作モードMが動作モードM2に設定されるおそれを低減することができるので、消費電力を効果的に低減することができる。また、車両監視システム2Gでは、車両9Gの近くを人や動物が通行する度に、ユーザUに通知を行うおそれを低減することができる。
 次に、本変形例に係る他の車両監視システム2Hについて説明する。車両監視システム2Hは、車両9Hを備えている。車両9Hは、撮像装置50Hを有している。撮像装置50Hは、制御部60Hを有している。制御部60Hは、動体検出部62Hを有している。動体検出部62Hは、低解像度画像PIC1に基づいて、動体検出を行うものである。また、動体検出部62Hは、動体を所定の時間以上検出し続けたかどうかを判断する機能をも有している。これにより、撮像装置50Hは、例えば、車両9Hの周囲を行ったり来たりする人を検出することができるようになっている。
 図36は、ユーザUが車両9Hを駐車場に停車する際の、車両監視システム2Hの一動作例を表すものである。このフローチャートは、車両監視システム2Gのフローチャート(図35)におけるステップS254をステップS264に置き換えたものである。
 ステップS214において、動体を検出した場合(ステップS214において“Y”)には、動体検出部62Hは、動体を所定の時間以上検出し続けたかどうかどうかを確認する(ステップS264)。動体を所定の時間以上検出し続けていない場合(ステップS264において“N”)には、ステップS213に戻る。
 ステップS264において、動体を所定の時間以上検出し続けた場合(ステップS264において“Y”)には、動作モード設定部33は、撮像部21の動作モードMを動作モードM2に設定する(ステップS215)。
 このように、車両監視システム2Hでは、動体検出部62Hが動体を所定の時間以上検出し続けた場合に、動作モードMを動作モードM2に設定した。これにより、車両9Hの近くを人や動物が通行する度に、動作モードMが動作モードM2に設定されるおそれを低減することができるので、消費電力を効果的に低減することができる。また、車両監視システム2Hでは、車両9Hの近くを人や動物が通行する度に、ユーザUに通知を行うおそれを低減することができる。
 また、これらの車両監視システム2G,2Hを組み合わせてもよい。具体的には、図37に示した車両監視システム2Jのように、動体検出により検出された動体の画像の大きさが所定の大きさよりも大きく、かつ、そのような動体を所定の時間以上検出し続けた場合(ステップS254,S264)に、動作モードMを動作モードM2に設定してもよい。この場合も、消費電力を効果的に低減することができるとともに、車両9Jの近くを人や動物が通行する度に、ユーザUに通知を行うおそれを低減することができる。
[変形例2-6]
 上記実施の形態では、ユーザUは、この車両監視システム2の利用に先立ち、自らを撮像部21に撮像させ、認証情報生成部61は、このようにして撮像したユーザUの顔画像に基づいて、認証情報INF2を生成するようにしたが、これに限定されるものではない。これに代えて、例えば上記第1の実施の形態の場合のように、例えばユーザ登録の際に、ユーザUが、住所、氏名などのユーザ情報INF1を入力するとともに、ユーザUの顔画像を登録し、スマートフォン4が、ユーザ情報INF1およびユーザUの顔画像をサーバ40に供給してもよい。この場合には、サーバ40が、ユーザUの顔画像に基づいて認証情報INF2を生成し、この認証情報INF2を撮像装置50に供給してもよいし、サーバ40が、ユーザUの顔画像を撮像装置50に供給し、撮像装置50が、サーバ40から供給されたユーザUの顔画像に基づいて認証情報INF2を生成してもよい。
[変形例2-7]
 上記実施の形態では、撮像部21が取得した低解像度画像PIC1に基づいて動体検出を行うようにしたが、これに限定されるものではない。これに代えて、例えば、上記第1の実施の形態の変形例1-7の場合と同様に、焦電センサを設けてもよい。以下に、本変形例に係る車両監視システム2Lについて詳細に説明する。車両監視システム2Lは、車両9Lを備えている。車両9Lは、撮像装置50Lを有している。
 図38は、撮像装置50Lの一構成例を表すものである。撮像装置50Lは、撮像部21Lと、焦電センサ27Lと、制御部60Lとを有している。上記第1の実施の形態の変形例1-7の場合と同様に、撮像部21Lは、2つの動作モードM(動作モードM0,M2)を有している。動作モードM0は、撮像動作を停止するモードである。焦電センサ27Lは、例えば赤外線センサであり、動体(例えばユーザU)を検出するものである。制御部60Lは、動作モード設定部33Lを有している。動作モード設定部33Lは、撮像部21Lの動作モードMを設定するものである。
 図39は、ユーザUが車両9Lを駐車場に停車する際の、車両監視システム2Lの一動作例を表すものである。
 まず、車両9Lは、ユーザUの操作に基づいてエンジンを停止し(ステップS211)、動作モード設定部33Lは、撮像部21Lの動作モードMを動作モードM0に設定する(ステップS272)。これにより、撮像部21Lは、撮像動作を停止する。そして、焦電センサ27Lは、動体検出を行う(ステップS273)。
 次に、制御部60Lは、焦電センサ27Lが動体を検出したかどうかを確認する(ステップS274)。動体を検出しなかった場合(ステップS274において“N”)には、ステップS273に戻る。
 ステップS274において、動体を検出した場合(ステップS274において“Y”)には、動作モード設定部33Lは、撮像部21Lの動作モードMを動作モードM2に設定する(ステップS215)。これにより、撮像部21Lは、高解像度画像PIC2を取得する。そして、認証処理部32は、高解像度画像PIC2に基づいて、記憶部53に記憶された認証情報INF2を利用して認証処理を行う(ステップS216)。
 次に、認証処理部32は、認証処理が成功したかどうかを確認する(ステップS217)。認証処理が成功した場合(ステップS217において“Y”)には、ステップS272に戻る。認証処理が失敗した場合(ステップS217において“N”)には、通信部22は、制御部60Lからの指示に基づいて、高解像度画像PIC2をサーバ40に供給する(ステップS218)。
 そして、サーバ40の通知部42は、登録されたユーザU以外の人が車両9Lに近づいた旨をスマートフォン4に通知するとともに、高解像度画像PIC2をスマートフォン4に供給する(ステップS219)。以上で、このフローは終了する。
 このように、車両監視システム2Lでは、撮像動作を停止する動作モードM0、および高解像度画像PIC2を取得する動作モードM2を有する撮像部21Lを用いて撮像装置20を構成し、焦電センサ27Lが動体を検出したときに、動作モードMを動作モードM2に設定するようにしたので、消費電力を低減することができる。
[変形例2-8]
 上記実施の形態では、エンジンを停止した後に撮像部21の動作モードMを動作モードM1に設定したが、これに限定されるものではない。これに代えて、例えば、図40に示す車両監視システム2Mのように、エンジンを停止した後に、撮像部21の撮像画像に基づいて、ユーザUが車両9Mから離れたかどうかを確認し(ステップS281)、ユーザUが車両9Mから離れた場合に、撮像部21の動作モードMを動作モードM1に設定してもよい。
[変形例2-9]
 上記実施の形態では、車両9の車外を撮像する撮像部21を設けたが、これに限定されるものではなく、これに加えて、例えば、車両9の車内を撮像する撮像部21Nをさらに設けてもよい。この撮像部21Nは、例えば、カラー画像を撮像してもよいし、白黒画像を撮像してもよい。また、撮像部21Nは、近赤外線カメラであってもよい。撮像部21Nは、例えば、車両9の運転者を撮像するように配置してもよい。この撮像部21Nを有する撮像装置50Nは、例えば、登録されたユーザU以外の人が車両9のドアを開けた場合に、車両9の運転者を撮像してもよい。また、登録されたユーザU以外の人が車両9のエンジンを始動した場合に、車両9の運転者を撮像してもよい。また、登録されたユーザU以外の人が車両9を移動させた場合に、車両9の運転者を撮像してもよい。そして、撮像装置50Nは、このようにして撮像した撮像画像を、例えばサーバ40に供給してもよい。
[変形例2-9]
 上記実施の形態では、車両監視システム2を運営する業者が管理するサーバ40に、高解像度画像PIC2が供給されるようにした。これにより、この業者が、車両9が駐車されている場所に警備員を急行させるセキュリティサービスを行うようにしてもよい。特に、本技術では、高解像度画像PIC2に基づいて認証処理を行うようにした。また、変形例2-4,2-5に記載の技術を用いることにより、車両9の近くを人や動物が通行する度に、サーバ40に通知を行うおそれを低減することができる。その結果、セキュリティサービスのコストを低減することができる。また、例えば、この業者の担当者が、高解像度画像PIC2に基づいて不審者がいるかどうかを判断し、不審者がいると判断した場合に、警備員を急行させることにより、セキュリティサービスのコストをさらに低減させることができる。
 また、撮像装置50を車両9に搭載した場合に、自動車保険の保険料率を下げるようにしてもよい。
[その他の変形例]
 また、これらの変形例のうちの2以上を組み合わせてもよい。
 以上、いくつかの実施の形態および変形例を挙げて本技術を説明したが、本技術はこれらの実施の形態等には限定されず、種々の変形が可能である。
 例えば、上記の第2の実施の形態では、撮像装置50がサーバ40に高解像度画像PIC2を一旦供給したが、これに限定されるものではなく、これに代えて、例えば、撮像装置50がスマートフォン4に高解像度画像PIC2を直接供給してもよい。
 なお、本明細書に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。
 なお、本技術は以下のような構成とすることができる。
(1)消費電力を低減可能な第1の動作モードと、撮像画像を生成する第2の動作モードとを含む複数の動作モードを有する撮像部と、
 前記複数の動作モードのうちのいずれか1つを選択する動作モード設定部と
 を備えた撮像装置。
(2)動体検出処理を行う検出処理部をさらに備え、
 前記第1の動作モードは、低解像度画像を生成する動作モードであり、
 前記検出処理部は、前記低解像度画像に基づいて前記動体検出処理を行い、
 前記動作モード設定部は、前記動体検出処理の処理結果に基づいて、前記第2の動作モードを選択する
 前記(1)に記載の撮像装置。
(3)前記第2の動作モードは、前記撮像部の撮像領域のうちの、撮像動作が行われる第1の領域を変更可能な動作モードであり、
 前記検出処理部は、さらに、前記動体検出処理の処理結果に基づいて、前記第1の領域を設定する
 前記(2)に記載の撮像装置。
(4)前記検出処理部は、前記検出処理部が検出した動体の位置に応じて、前記第1の領域を設定する
 前記(3)に記載の撮像装置。
(5)前記動作モード設定部は、前記検出処理部が、前記撮像部の撮像領域のうちの第2の領域以外の領域において動体を検出した場合に、前記第2の動作モードを選択する
 前記(2)から(4)のいずれかに記載の撮像装置。
(6)前記動作モード設定部は、前記検出処理部が検出した動体の画像の大きさが所定の大きさよりも大きい場合に、前記第2の動作モードを選択する
 前記(2)から(4)のいずれかに記載の撮像装置。
(7)前記動作モード設定部は、前記検出処理部が検出した動体の画像が、前記低解像度画像の端部に接している場合に、前記第2の動作モードを選択する
 前記(2)から(4)のいずれかに記載の撮像装置。
(8)前記動作モード設定部は、前記検出処理部が動体を所定の時間以上検出し続けた場合に、前記第2の動作モードを選択する
 前記(2)から(4)のいずれかに記載の撮像装置。
(9)動体検出を行うセンサをさらに備え、
 前記第1の動作モードは、撮像動作を停止する動作モードであり、
 前記動作モード設定部は、前記センサによる検出結果に基づいて、前記第2の動作モードを選択する
 前記(1)に記載の撮像装置。
(10)ユーザの操作を受け付けるスイッチをさらに備え、
 前記動作モード設定部は、前記スイッチからの指示に基づいて前記第2の動作モードを選択する
 前記(1)に記載の撮像装置。
(11)認証部をさらに備え、
 前記撮像画像は顔画像を含み、
 前記認証部は、前記撮像画像に基づいて認証処理を行う
 前記(1)から(10)のいずれかに記載の撮像装置。
(12)前記認証処理が失敗した場合に、第1の装置に前記撮像画像を供給する通信部をさらに備えた
 前記(11)に記載の撮像装置。
(13)前記認証部が前記認証処理を行う際に用いる認証情報を生成する認証情報生成部をさらに備えた
 前記(11)または(12)に記載の撮像装置。
(14)前記認証情報生成部は、前記撮像部により撮像された画像に基づいて、前記認証情報を生成する
 前記(13)に記載の撮像装置。
(15)第2の装置から供給された認証情報を受け取る通信部をさらに備え、
 前記認証部は、前記認証情報を用いて、前記撮像画像に基づいて前記認証処理を行う
 前記(11)または(12)に記載の撮像装置。
(16)前記撮像画像を、前記撮像画像に基づいて認証処理を行う第3の装置に供給する通信部をさらに備え、
 前記撮像画像は顔画像を含む
 前記(1)から(10)のいずれかに記載の撮像装置。
(17)前記通信部は、さらに、前記第3の装置から供給された前記認証処理の処理結果を受け取る
 前記(16)に記載の撮像装置。
(18)撮像装置を有する車両と、
 サーバと
 を備え、
 前記撮像装置は、
 消費電力を低減可能な第1の動作モードと、撮像画像を生成する第2の動作モードとを含む複数の動作モードを有する撮像部と、
 前記複数の動作モードのうちのいずれか1つを選択する動作モード設定部と、
 前記サーバから、前記車両の利用予約情報を受け取る通信部と
 を有する
 車両利用システム。
(19)前記撮像装置は、認証部をさらに有し、
 前記撮像画像は顔画像を含み、
 前記車両は、ドアと、前記ドアの解錠を制御する解錠制御部とをさらに有し、
 前記認証部は、前記撮像画像に基づいて認証処理を行い、
 前記解錠制御部は、前記認証処理の処理結果に基づいて前記ドアを解錠する
 前記(18)に記載の車両利用システム。
(20)前記車両は、ドアと、前記ドアの解錠を制御する解錠制御部とをさらに有し、
 前記撮像画像は顔画像を含み、
 前記サーバは、前記撮像画像に基づいて認証処理を行い、
 前記通信部は、前記撮像画像を前記サーバに供給するとともに、前記認証処理の処理結果を受け取り、
 前記解錠制御部は、前記認証処理の処理結果に基づいて前記ドアを解錠する
 前記(18)に記載の車両利用システム。
(21)撮像装置を有する車両と、
 サーバと
 を備え、
 前記撮像装置は、
 消費電力を低減可能な第1の動作モードと、撮像画像を生成する第2の動作モードとを含む複数の動作モードを有する撮像部と、
 前記複数の動作モードのうちのいずれか1つを選択する動作モード設定部と、
 前記サーバに前記撮像画像を供給可能な通信部と
 を有する
 車両監視システム。
(22)前記撮像装置は、認証部をさらに有し、
 前記撮像画像は顔画像を含み、
 前記認証部は、前記撮像画像に基づいて認証処理を行い、
 前記通信部は、前記認証処理が失敗した場合に、前記サーバに前記撮像画像を供給する
 前記(21)に記載の車両監視システム。
(23)前記撮像画像は顔画像を含み、
 前記サーバは、前記撮像画像に基づいて認証処理を行い、
 前記通信部は、前記撮像画像を前記サーバに供給するとともに、前記認証処理の処理結果を受け取る
 前記(21)に記載の車両監視システム。
(24)携帯端末をさらに備え、
 前記サーバは、前記認証処理が失敗した場合に、前記撮像画像を前記携帯端末に供給する
 前記(22)または(23)に記載の車両監視システム。
 本出願は、日本国特許庁において2017年6月27日に出願された日本特許出願番号2017-124837号を基礎として優先権を主張するものであり、この出願のすべての内容を参照によって本出願に援用する。
 当業者であれば、設計上の要件や他の要因に応じて、種々の修正、コンビネーション、サブコンビネーション、および変更を想到し得るが、それらは添付の請求の範囲やその均等物の範囲に含まれるものであることが理解される。

Claims (24)

  1.  消費電力を低減可能な第1の動作モードと、撮像画像を生成する第2の動作モードとを含む複数の動作モードを有する撮像部と、
     前記複数の動作モードのうちのいずれか1つを選択する動作モード設定部と
     を備えた撮像装置。
  2.  動体検出処理を行う検出処理部をさらに備え、
     前記第1の動作モードは、低解像度画像を生成する動作モードであり、
     前記検出処理部は、前記低解像度画像に基づいて前記動体検出処理を行い、
     前記動作モード設定部は、前記動体検出処理の処理結果に基づいて、前記第2の動作モードを選択する
     請求項1に記載の撮像装置。
  3.  前記第2の動作モードは、前記撮像部の撮像領域のうちの、撮像動作が行われる第1の領域を変更可能な動作モードであり、
     前記検出処理部は、さらに、前記動体検出処理の処理結果に基づいて、前記第1の領域を設定する
     請求項2に記載の撮像装置。
  4.  前記検出処理部は、前記検出処理部が検出した動体の位置に応じて、前記第1の領域を設定する
     請求項3に記載の撮像装置。
  5.  前記動作モード設定部は、前記検出処理部が、前記撮像部の撮像領域のうちの第2の領域以外の領域において動体を検出した場合に、前記第2の動作モードを選択する
     請求項2に記載の撮像装置。
  6.  前記動作モード設定部は、前記検出処理部が検出した動体の画像の大きさが所定の大きさよりも大きい場合に、前記第2の動作モードを選択する
     請求項2に記載の撮像装置。
  7.  前記動作モード設定部は、前記検出処理部が検出した動体の画像が、前記低解像度画像の端部に接している場合に、前記第2の動作モードを選択する
     請求項2に記載の撮像装置。
  8.  前記動作モード設定部は、前記検出処理部が動体を所定の時間以上検出し続けた場合に、前記第2の動作モードを選択する
     請求項2に記載の撮像装置。
  9.  動体検出を行うセンサをさらに備え、
     前記第1の動作モードは、撮像動作を停止する動作モードであり、
     前記動作モード設定部は、前記センサによる検出結果に基づいて、前記第2の動作モードを選択する
     請求項1に記載の撮像装置。
  10.  ユーザの操作を受け付けるスイッチをさらに備え、
     前記動作モード設定部は、前記スイッチからの指示に基づいて前記第2の動作モードを選択する
     請求項1に記載の撮像装置。
  11.  認証部をさらに備え、
     前記撮像画像は顔画像を含み、
     前記認証部は、前記撮像画像に基づいて認証処理を行う
     請求項1に記載の撮像装置。
  12.  前記認証処理が失敗した場合に、第1の装置に前記撮像画像を供給する通信部をさらに備えた
     請求項11に記載の撮像装置。
  13.  前記認証部が前記認証処理を行う際に用いる認証情報を生成する認証情報生成部をさらに備えた
     請求項11に記載の撮像装置。
  14.  前記認証情報生成部は、前記撮像部により撮像された画像に基づいて、前記認証情報を生成する
     請求項13に記載の撮像装置。
  15.  第2の装置から供給された認証情報を受け取る通信部をさらに備え、
     前記認証部は、前記認証情報を用いて、前記撮像画像に基づいて前記認証処理を行う
     請求項11に記載の撮像装置。
  16.  前記撮像画像を、前記撮像画像に基づいて認証処理を行う第3の装置に供給する通信部をさらに備え、
     前記撮像画像は顔画像を含む
     請求項1に記載の撮像装置。
  17.  前記通信部は、さらに、前記第3の装置から供給された前記認証処理の処理結果を受け取る
     請求項16に記載の撮像装置。
  18.  撮像装置を有する車両と、
     サーバと
     を備え、
     前記撮像装置は、
     消費電力を低減可能な第1の動作モードと、撮像画像を生成する第2の動作モードとを含む複数の動作モードを有する撮像部と、
     前記複数の動作モードのうちのいずれか1つを選択する動作モード設定部と、
     前記サーバから、前記車両の利用予約情報を受け取る通信部と
     を有する
     車両利用システム。
  19.  前記撮像装置は、認証部をさらに有し、
     前記撮像画像は顔画像を含み、
     前記車両は、ドアと、前記ドアの解錠を制御する解錠制御部とをさらに有し、
     前記認証部は、前記撮像画像に基づいて認証処理を行い、
     前記解錠制御部は、前記認証処理の処理結果に基づいて前記ドアを解錠する
     請求項18に記載の車両利用システム。
  20.  前記車両は、ドアと、前記ドアの解錠を制御する解錠制御部とをさらに有し、
     前記撮像画像は顔画像を含み、
     前記サーバは、前記撮像画像に基づいて認証処理を行い、
     前記通信部は、前記撮像画像を前記サーバに供給するとともに、前記認証処理の処理結果を受け取り、
     前記解錠制御部は、前記認証処理の処理結果に基づいて前記ドアを解錠する
     請求項18に記載の車両利用システム。
  21.  撮像装置を有する車両と、
     サーバと
     を備え、
     前記撮像装置は、
     消費電力を低減可能な第1の動作モードと、撮像画像を生成する第2の動作モードとを含む複数の動作モードを有する撮像部と、
     前記複数の動作モードのうちのいずれか1つを選択する動作モード設定部と、
     前記サーバに前記撮像画像を供給可能な通信部と
     を有する
     車両監視システム。
  22.  前記撮像装置は、認証部をさらに有し、
     前記撮像画像は顔画像を含み、
     前記認証部は、前記撮像画像に基づいて認証処理を行い、
     前記通信部は、前記認証処理が失敗した場合に、前記サーバに前記撮像画像を供給する
     請求項21に記載の車両監視システム。
  23.  前記撮像画像は顔画像を含み、
     前記サーバは、前記撮像画像に基づいて認証処理を行い、
     前記通信部は、前記撮像画像を前記サーバに供給するとともに、前記認証処理の処理結果を受け取る
     請求項21に記載の車両監視システム。
  24.  携帯端末をさらに備え、
     前記サーバは、前記認証処理が失敗した場合に、前記撮像画像を前記携帯端末に供給する
     請求項22に記載の車両監視システム。
PCT/JP2018/021545 2017-06-27 2018-06-05 撮像装置、車両利用システム、および車両監視システム WO2019003826A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US16/615,881 US11279321B2 (en) 2017-06-27 2018-06-05 Imaging apparatus having a reduced power consumption mode and mode that generates a captured image
EP18823367.0A EP3648449B1 (en) 2017-06-27 2018-06-05 Image capture device, vehicle use system, and vehicle surveillance system
CN201880033798.6A CN110663247A (zh) 2017-06-27 2018-06-05 成像设备、车辆使用系统和车辆监控系统
JP2019526748A JP7193453B2 (ja) 2017-06-27 2018-06-05 撮像装置および車両監視システム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017124837 2017-06-27
JP2017-124837 2017-06-27

Publications (1)

Publication Number Publication Date
WO2019003826A1 true WO2019003826A1 (ja) 2019-01-03

Family

ID=64741533

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/021545 WO2019003826A1 (ja) 2017-06-27 2018-06-05 撮像装置、車両利用システム、および車両監視システム

Country Status (5)

Country Link
US (1) US11279321B2 (ja)
EP (1) EP3648449B1 (ja)
JP (1) JP7193453B2 (ja)
CN (1) CN110663247A (ja)
WO (1) WO2019003826A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021059656A1 (ja) * 2019-09-26 2021-04-01 日本電気株式会社 ドアロック制御装置、車載装置、ドアロック制御方法及びプログラム
JP2021127575A (ja) * 2020-02-12 2021-09-02 本田技研工業株式会社 車両制御装置、車両制御方法、及び車両制御用プログラム
JP2021127574A (ja) * 2020-02-12 2021-09-02 本田技研工業株式会社 車両制御装置、車両制御方法、及び車両制御用プログラム
WO2022208642A1 (ja) * 2021-03-30 2022-10-06 日本電気株式会社 認証装置、処理方法、プログラム
JP2022148355A (ja) * 2021-03-24 2022-10-06 本田技研工業株式会社 車両制御装置、車両制御方法、及びプログラム
WO2024024148A1 (ja) * 2022-07-26 2024-02-01 ソニーセミコンダクタソリューションズ株式会社 車載監視装置、情報処理装置および車載監視システム

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022133769A (ja) * 2021-03-02 2022-09-14 本田技研工業株式会社 車両制御装置、及び車両制御方法
JP7304910B2 (ja) * 2021-03-24 2023-07-07 本田技研工業株式会社 車両、制御方法、及びプログラム
DE102021114519A1 (de) 2021-06-07 2022-12-08 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Authentifizieren eines Fahrzeugnutzers außerhalb des Fahrzeugs, computerlesbares Medium, System, und Fahrzeug

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003099763A (ja) * 2001-05-25 2003-04-04 Toshiba Corp 顔画像記録装置、情報管理システム、顔画像記録方法、及び情報管理方法
JP2005036523A (ja) 2003-07-16 2005-02-10 Nec Corp 電子ロック制御システム及びその方法並びにそれに用いる携帯情報端末及び認証装置
JP2007060315A (ja) * 2005-08-24 2007-03-08 Ricoh Co Ltd 撮像装置及び撮像システム
JP2013242818A (ja) * 2012-05-23 2013-12-05 Yukei Kk 共用車両管理システム
JP2015228626A (ja) * 2014-06-02 2015-12-17 株式会社東芝 画像出力装置、画像管理システム、画像処理方法及びプログラム
JP2016062148A (ja) * 2014-09-16 2016-04-25 株式会社東芝 情報処理装置および画像入力装置
JP2016178348A (ja) * 2015-03-18 2016-10-06 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、及びプログラム
JP2017124837A (ja) 2016-01-12 2017-07-20 日本山村硝子株式会社 合成樹脂製キャップ

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7643055B2 (en) 2003-04-25 2010-01-05 Aptina Imaging Corporation Motion detecting camera system
US20040212678A1 (en) 2003-04-25 2004-10-28 Cooper Peter David Low power motion detection system
JP2005207110A (ja) 2004-01-22 2005-08-04 Omron Corp 車輌利用許可システム、ゲート利用許可システム
JP4844795B2 (ja) * 2004-11-02 2011-12-28 株式会社デンソー 車両用画像撮影装置
JP2008162498A (ja) * 2006-12-28 2008-07-17 Toshiba Corp 乗り物管理システム
CN101699862B (zh) * 2009-11-16 2011-04-13 上海交通大学 Ptz摄像机获取感兴趣区域高分辨率图像的方法
US8984622B1 (en) 2012-01-17 2015-03-17 Amazon Technologies, Inc. User authentication through video analysis
US8687104B2 (en) * 2012-03-27 2014-04-01 Amazon Technologies, Inc. User-guided object identification
JP5998830B2 (ja) * 2012-10-15 2016-09-28 富士ゼロックス株式会社 電力供給制御装置、画像処理装置、電力供給制御プログラム
US9936132B2 (en) * 2012-10-26 2018-04-03 The Regents Of The University Of Michigan CMOS image sensors with feature extraction
KR101589224B1 (ko) * 2014-12-16 2016-01-27 현대자동차주식회사 Lin 통신 시스템 및 방법, 그리고 이를 실행하는 컴퓨터 판독 가능한 기록매체
JP6447379B2 (ja) 2015-06-15 2019-01-09 トヨタ自動車株式会社 認証装置、認証システムおよび認証方法
US20170039010A1 (en) 2015-08-03 2017-02-09 Fuji Xerox Co., Ltd. Authentication apparatus and processing apparatus
KR101748273B1 (ko) * 2015-12-11 2017-06-16 현대자동차주식회사 차량 헤드 유닛, 사용자 단말, 및 차량의 비상상황 알림 방법
JP2018160799A (ja) 2017-03-23 2018-10-11 ソニーセミコンダクタソリューションズ株式会社 制御装置、制御方法、プログラム、及び、電子機器システム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003099763A (ja) * 2001-05-25 2003-04-04 Toshiba Corp 顔画像記録装置、情報管理システム、顔画像記録方法、及び情報管理方法
JP2005036523A (ja) 2003-07-16 2005-02-10 Nec Corp 電子ロック制御システム及びその方法並びにそれに用いる携帯情報端末及び認証装置
JP2007060315A (ja) * 2005-08-24 2007-03-08 Ricoh Co Ltd 撮像装置及び撮像システム
JP2013242818A (ja) * 2012-05-23 2013-12-05 Yukei Kk 共用車両管理システム
JP2015228626A (ja) * 2014-06-02 2015-12-17 株式会社東芝 画像出力装置、画像管理システム、画像処理方法及びプログラム
JP2016062148A (ja) * 2014-09-16 2016-04-25 株式会社東芝 情報処理装置および画像入力装置
JP2016178348A (ja) * 2015-03-18 2016-10-06 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、及びプログラム
JP2017124837A (ja) 2016-01-12 2017-07-20 日本山村硝子株式会社 合成樹脂製キャップ

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3648449A4

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021059656A1 (ja) * 2019-09-26 2021-04-01 日本電気株式会社 ドアロック制御装置、車載装置、ドアロック制御方法及びプログラム
JPWO2021059656A1 (ja) * 2019-09-26 2021-04-01
JP7279804B2 (ja) 2019-09-26 2023-05-23 日本電気株式会社 ドアロック制御装置、車載装置、ドアロック制御方法及びプログラム
JP7521644B2 (ja) 2019-09-26 2024-07-24 日本電気株式会社 システム、ドアロック制御装置、ドアロック制御方法及びプログラム
JP2021127575A (ja) * 2020-02-12 2021-09-02 本田技研工業株式会社 車両制御装置、車両制御方法、及び車両制御用プログラム
JP2021127574A (ja) * 2020-02-12 2021-09-02 本田技研工業株式会社 車両制御装置、車両制御方法、及び車両制御用プログラム
JP7358263B2 (ja) 2020-02-12 2023-10-10 本田技研工業株式会社 車両制御装置、車両制御方法、及び車両制御用プログラム
JP7427463B2 (ja) 2020-02-12 2024-02-05 本田技研工業株式会社 車両制御装置、車両制御方法、及び車両制御用プログラム
JP2022148355A (ja) * 2021-03-24 2022-10-06 本田技研工業株式会社 車両制御装置、車両制御方法、及びプログラム
JP7181331B2 (ja) 2021-03-24 2022-11-30 本田技研工業株式会社 車両制御装置、車両制御方法、及びプログラム
WO2022208642A1 (ja) * 2021-03-30 2022-10-06 日本電気株式会社 認証装置、処理方法、プログラム
WO2024024148A1 (ja) * 2022-07-26 2024-02-01 ソニーセミコンダクタソリューションズ株式会社 車載監視装置、情報処理装置および車載監視システム

Also Published As

Publication number Publication date
JP7193453B2 (ja) 2022-12-20
EP3648449B1 (en) 2024-07-24
JPWO2019003826A1 (ja) 2020-04-23
US11279321B2 (en) 2022-03-22
CN110663247A (zh) 2020-01-07
US20200139931A1 (en) 2020-05-07
EP3648449A1 (en) 2020-05-06
EP3648449A4 (en) 2020-08-19

Similar Documents

Publication Publication Date Title
JP7193453B2 (ja) 撮像装置および車両監視システム
JP7345919B2 (ja) 車両
CN1199137C (zh) 门设备、车载单元、以及车载单元的配置方法
US20170098334A1 (en) Managing vehicular traffic on a roadway
CN111937050A (zh) 乘客相关物品丢失减少
JP6001325B2 (ja) 共用車両管理システム
JP7163895B2 (ja) 自動駐車システム及びサーバ
CN103366601A (zh) 基于环视图像设置停车位置的装置和方法
KR101575159B1 (ko) 주차 정보 제공을 위한 모바일 단말기용 어플리케이션의 동작방법
JP7025546B2 (ja) 車両ナンバー特定装置、車両ナンバー特定方法およびプログラム
JP2020507828A (ja) 車内支払いのための方法およびデバイス
JP6401849B1 (ja) 駐車場管理システムおよびその制御方法
WO2018164112A1 (ja) 交通システム、および交通利用管理方法
KR20220047188A (ko) 차량용 영상 촬영 장치, 서버, 사용자 단말 장치 및 이들을 이용한 주차장 안내 서비스 제공 방법
JP2016197473A (ja) 共用車両運用システムおよぴ共用車両運用方法
JP7190088B2 (ja) 駐車場監視装置、駐車場管理システム及び駐車場管理プログラム
JP6853724B2 (ja) 情報システム、車載機器、第一キー、解錠方法、およびプログラム
CN107767495A (zh) 用于限制车辆乘客的行驶的方法、装置及系统
US20220318425A1 (en) Occupant feature recognition to ensure privacy consent
CN112602299B (zh) 通用个人识别信号
JP2023022632A (ja) 制御装置、充電制御装置、制御方法、および充電制御方法
KR20180121094A (ko) 무인 주차장 차량 데이터베이스 관리 시스템 및 방법
KR20220032257A (ko) 개인이동수단 대여 시스템 및 방법
CN112462658A (zh) 车位锁控制方法、车位锁控制系统及存储介质
JP7106736B1 (ja) 駐車場管理システムおよびその処理方法、並びに、プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18823367

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019526748

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2018823367

Country of ref document: EP

Effective date: 20200127