WO2022264557A1 - 制御装置、制御方法 - Google Patents

制御装置、制御方法 Download PDF

Info

Publication number
WO2022264557A1
WO2022264557A1 PCT/JP2022/010640 JP2022010640W WO2022264557A1 WO 2022264557 A1 WO2022264557 A1 WO 2022264557A1 JP 2022010640 W JP2022010640 W JP 2022010640W WO 2022264557 A1 WO2022264557 A1 WO 2022264557A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
image
light emission
processing
control
Prior art date
Application number
PCT/JP2022/010640
Other languages
English (en)
French (fr)
Inventor
渉二 瀬田
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Priority to US18/568,302 priority Critical patent/US20240272284A1/en
Publication of WO2022264557A1 publication Critical patent/WO2022264557A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/46Indirect determination of position data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/484Transmitters

Definitions

  • This technology provides light emission in a sensing module that has a light emitting unit and a sensor unit that is configured to receive light that is compatible with the indirect ToF (Time of Flight) method for light emitted from the light emitting unit and reflected by an object.
  • the present invention relates to a control device and method for controlling a light emission pattern of a unit.
  • the distance image means an image showing distance information for each pixel
  • the gradation image means an image showing intensity information of the amount of received light for each pixel.
  • various processes such as authentication processing such as face recognition and iris recognition, posture detection processing such as driving posture, detection processing for items left behind in the car, etc. processing is assumed.
  • the authentication process among these processes it is conceivable to use only the distance image, only the gradation image, or both of them.
  • a distance image for the attitude detection processing it is conceivable to use a gradation image for the left-thing detection process.
  • a sensor there is a demand to obtain both a range image and a gradation image using a sensor.
  • Patent Literature 1 listed below discloses a technique for performing in-vehicle monitoring based on an image acquired by a ToF sensor.
  • a sensor compatible with the indirect ToF method can be configured to be able to acquire both a range image and a gradation image.
  • a gradation signal for each pixel can be obtained by adding two types of light reception signals (light reception signals of each tap) obtained by distributing the charge of the photoelectric conversion element at high speed for each pixel.
  • the present technology has been developed in view of the circumstances described above, and is intended to acquire an appropriate image according to the application of a sensor unit that is configured to be capable of performing a light receiving operation compatible with the indirect ToF method. for the purpose.
  • a control device is a sensing module having a light emitting unit and a sensor unit capable of receiving light emitted from the light emitting unit and reflected by an object in accordance with an indirect ToF method.
  • a controller is provided for controlling switching between at least two types of light emission patterns of the light emission unit.
  • ToF is an abbreviation for Time of Flight.
  • the sensor unit that supports the indirect ToF method not only acquires a distance image by the indirect ToF method, but also obtains a gradation image of light in the light emission wavelength band of the light emitting unit, such as an IR (Infrared: infrared) image. It is configurable.
  • switching between the light emitting pattern for acquiring the distance image and the light emitting pattern for acquiring the gradation image can be performed, or the image obtained by the sensor unit can be switched. It is possible to switch to an appropriate light emission pattern according to the application of the sensor unit, such as switching to a light emission pattern according to the processing type of the image use processing performed using the .
  • a control method is a sensing module having a light emitting unit and a sensor unit capable of receiving light emitted from the light emitting unit and reflected by an object in accordance with an indirect ToF method.
  • This control method performs switching control between at least two or more types of light emission patterns for the light emission pattern of the light emission unit.
  • Such a control method can also provide the same effect as the control device according to the present technology described above.
  • Another control device is a sensing module that includes a light emitting unit and a sensor unit that receives light emitted from the light emitting unit and reflected by an object. wherein the control unit changes the amount of light received by the sensor unit per frame for each image as switching control of the light emission pattern for each image when obtaining a plurality of images to be synthesized. It controls.
  • This makes it possible to generate HDR (High Dynamic Range) images in a system that performs image sensing using a sensing module that has a light emitting unit and a sensor unit that receives light emitted from the light emitting unit and reflected by an object. .
  • HDR High Dynamic Range
  • FIG. 1 is a block diagram for explaining a configuration example of a control system including a control device as an embodiment;
  • FIG. It is the figure which showed the arrangement
  • It is a block diagram for explaining an internal configuration example of the sensor device in the embodiment.
  • FIG. 4 is a diagram showing a specific arrangement example of a light emitting section and a sensor section in the sensing module of the embodiment; 3 is a block diagram showing an example of internal circuit configuration of a sensor unit in the embodiment;
  • FIG. 3 is an equivalent circuit diagram of a pixel included in the sensor section in the embodiment;
  • FIG. 1 is a block diagram showing a configuration example of an information processing apparatus as an embodiment;
  • FIG. 4 is a flowchart of processing corresponding to the first control level in the embodiment; 4 is a flowchart of processing corresponding to the second control level in the embodiment; 10 is a flowchart of processing related to light emission pattern switching control according to a processing type of image use processing;
  • FIG. 10 is a diagram showing an example of a light emission pattern corresponding to a case where a gradation image is acquired by the sensor device;
  • FIG. 10 is a diagram for explaining the relationship between the light emission pattern and the charge distribution operation when acquiring a gradation image in the sensor device;
  • FIG. 4 is a diagram showing an example of a light emission pattern corresponding to a case where a range image is acquired by a sensor device;
  • FIG. 10 is a diagram for explaining the relationship between the period of repeated light emission corresponding to acquisition of a distance image and the charge distribution operation;
  • FIG. 4 is an explanatory diagram of a light emission pattern for obtaining an HDR image of a gradation image;
  • FIG. 4 is an explanatory diagram of a light emission pattern for obtaining an HDR image of a distance image;
  • FIG. 11 is an explanatory diagram of a light emission pattern as a modified example related to HDR synthesis;
  • FIG. 1 is a block diagram for explaining a configuration example of a control system including a control device as an embodiment of the present technology.
  • the control system of the embodiment includes a sensor device 1, an information processing device 2, and a device 3 to be controlled.
  • the control system in this example is configured as an in-vehicle system that performs control according to in-vehicle monitoring.
  • the information processing device 2 controls the control target device 3 based on the information detected by the sensor device 1, so that the control corresponding to the in-vehicle monitoring is performed.
  • the sensor device 1 includes a sensing module ( The device is provided with a sensing module (SM), which will be described later.
  • This sensor device 1 is capable of performing distance measurement by the indirect ToF method on a pixel-by-pixel basis, and is capable of obtaining a distance image.
  • the distance image means an image showing distance information for each pixel.
  • the intensity of the amount of received light can be detected for each pixel, and a gradation image can be obtained.
  • a gradation image means an image showing intensity information of the amount of received light for each pixel.
  • the light-emitting portion emits IR (Infrared: infrared) light
  • an IR image indicating the intensity of the amount of received IR light is obtained as a gradation image.
  • FIG. 2A and 2B are diagrams showing an arrangement of the sensor device 1 and an example of the field of view Fv.
  • FIG. 2A is a top view of a vehicle in which the control system is installed
  • FIG. 2B is a right side view of the vehicle.
  • the sensor device 1 is arranged at a position where the vehicle interior can be captured within the visual field Fv for monitoring the interior of the vehicle.
  • the sensor device 1 is placed in the center of the upper part of the windshield in the vehicle interior, and the field of view Fv includes the steering wheel, the left and right front row seats (driver's seat and front passenger seat), and the left and right rear row seats. (See FIG. 2B).
  • control system can also be configured to have a plurality of sensor devices 1 for monitoring the inside of the vehicle, such as the sensor device 1 for front row seats and the sensor device 1 for back row seats.
  • the information processing device 2 is configured with a computer device, and performs processing using an image obtained by the sensor device 1 (hereinafter referred to as "image use processing").
  • image use processing processing for recognizing a monitoring target based on a distance image or a gradation image obtained by the sensor device 1 can be cited. Note that the types of image use processing in this example will be described later.
  • the information processing apparatus 2 when the information processing apparatus 2 performs the recognition process of the monitoring action as the image use process, the information processing apparatus 2 performs the process of controlling the control target device 3 based on the recognition result.
  • the control target device 3 include various in-vehicle ECUs (Electric Control Units) for controlling various operations of the vehicle such as acceleration/deceleration and steering of the vehicle and presentation of various information to the occupant.
  • the information processing device 2 recognizes the state of the driver based on the image obtained by the sensor device 1, and controls the vehicle to decelerate when the state of the driver is in a predetermined state (for example, an abnormal state). can be considered.
  • the controlled device 3 is an ECU (for example, a brake ECU, etc.) that controls the deceleration of the vehicle.
  • ECU for example, a brake ECU, etc.
  • the driver when the driver is in a predetermined state, it is conceivable to present information such as warning information to the occupants. ECU, etc.).
  • FIG. 3 is a block diagram for explaining an internal configuration example of the sensor device 1.
  • the sensor device 1 includes a sensing module SM that includes a light emitting unit 11 and a sensor unit 10, an image generating unit 12, an image memory 13, a control unit 14, a nonvolatile memory 15, and a communication I/F. (interface).
  • a sensing module SM that includes a light emitting unit 11 and a sensor unit 10, an image generating unit 12, an image memory 13, a control unit 14, a nonvolatile memory 15, and a communication I/F. (interface).
  • the sensor device 1 is capable of distance measurement by the indirect ToF method.
  • a distance measurement method is employed in which the distance to the object Ob is calculated based on the phase difference with respect to the reflected light Lr.
  • the light emitting unit 11 has one or a plurality of light emitting elements as a light source, and emits irradiation light Li to the object Ob.
  • the light emitting unit 11 emits IR light having a wavelength in the range of 750 nm to 1400 nm, for example, as the irradiation light Li.
  • the sensor section 10 receives the reflected light Lr. Specifically, the light receiving operation of the reflected light Lr is performed so that the phase difference between the reflected light Lr and the irradiation light Li can be detected.
  • the sensor unit 10 of this example includes a photoelectric conversion element (photodiode PD), a first transfer gate element (transfer transistor TG-A) for transferring accumulated charges of the photoelectric conversion element, and a second transfer gate element (transfer transistor TG-A). and a gate element (transfer transistor TG-B), and a plurality of pixels Px are arranged two-dimensionally. conduct.
  • FIG. 4 is a diagram showing a specific arrangement example of the light emitting section 11 and the sensor section 10 in the sensing module SM.
  • the light emitting section 11 has two light emitting elements 11a.
  • a VCSEL Very Cavity Surface Emitting Laser
  • the two light-emitting elements 11a are arranged apart from each other on a plane parallel to the light-emitting surface, and the sensor section 10 is arranged at a central position between the two light-emitting elements 11a.
  • the control unit 14 controls the operation of emitting the irradiation light Li by the light emitting unit 11 .
  • light that is intensity-modulated such that the intensity changes at a predetermined cycle is used as the irradiation light Li.
  • pulsed light is repeatedly emitted at a predetermined cycle as the irradiation light Li.
  • light emission cycle Cl such a light emission cycle of pulsed light
  • the period between the light emission start timings of the pulsed light when the pulsed light is repeatedly emitted at the light emission period Cl is referred to as "one modulation period Pm" or simply "modulation period Pm".
  • the control unit 14 controls the light emitting operation of the light emitting unit 11 so that the irradiation light Li is emitted only during a predetermined light emitting period for each modulation period Pm.
  • the light emission period Cl is relatively high, for example, from several tens of MHz to several hundreds of MHz.
  • the signal charge accumulated in the photoelectric conversion element in the pixel Px of the sensor unit 10 is divided into two by the first transfer gate element and the second transfer gate element that are alternately turned on. It is distributed to Floating Diffusion (FD).
  • FD Floating Diffusion
  • the cycle of alternately turning on the first transfer gate element and the second transfer gate element is the same as the light emission cycle Cl of the light emitting section 11 . That is, the first transfer gate element and the second transfer gate element are each turned on once every modulation period Pm, and the distribution of the signal charge to the two floating diffusions as described above is performed every modulation period Pm.
  • the transfer transistor TG-A as the first transfer gate element is turned on during the emission period of the irradiation light Li in the modulation period Pm
  • the transfer transistor TG-B as the second transfer gate element is turned on during the irradiation period Pm. It is turned on during the non-emission period of light Li.
  • the phase of the transfer transistor TG-A with respect to the emission cycle of the irradiation light Li is The transfer transistor TG-B is turned on/off in a period shifted by 90 degrees, and the transfer transistor TG-B may be turned on/off in a period shifted by 270 degrees from the period of the irradiation light Li.
  • the signal charge accumulated in each floating diffusion by one distribution using the first and second transfer gate elements as described above is relatively small. become something. Therefore, in the indirect ToF method, the emission of the illumination light Li is repeated several thousand times to several tens of thousands of times for each distance measurement (that is, for obtaining one distance image). While the irradiation light Li is emitted repeatedly, the distribution of the signal charge to each floating diffusion using the first and second transfer gate elements as described above is repeated.
  • the control unit 14 controls the light receiving operation by the sensor unit 10 and the light emitting operation by the light emitting unit 11 based on the common clock CLK.
  • a nonvolatile memory 15 is connected to the control unit 14 .
  • the nonvolatile memory 15 is composed of, for example, an EEPROM (Electrically Erasable Programmable Read Only Memory), and stores setting information 15a that defines the operation modes of the light emitting operation of the light emitting unit 11 and the light receiving operation of the sensor unit 10 as described above.
  • EEPROM Electrically Erasable Programmable Read Only Memory
  • setting information 15a that defines the operation modes of the light emitting operation of the light emitting unit 11 and the light receiving operation of the sensor unit 10 as described above.
  • the light emitting operation of the light emitting unit 11 and the light receiving operation of the sensor unit 10 can be arbitrarily selected from predetermined operation modes.
  • operation setting information of the light emitting unit 11 and the sensor unit 10 for realizing each operation mode is stored as setting information 15a.
  • control unit 14 controls the operations of the light emitting unit 11 and the sensor unit 10 in accordance with any operation setting information selected from among the operation setting information stored as the setting information 15a. 10 can be operated in a selected mode of operation.
  • a specific example of the setting information 15a will be described later.
  • a communication I/F 16 is connected to the control unit 14 .
  • the communication I/F 16 is an interface unit for performing wired or wireless communication with an external device, particularly the information processing device 2 in this example.
  • the control unit 14 can communicate various data with the information processing device 2 (CPU 21 to be described later) via the communication I/F 16 .
  • the image generation unit 12 generates a distance image and a gradation image based on the charge signals accumulated in each floating diffusion by the above-described sorting operation in the sensor unit 10 .
  • the distance (distance to the object) can be calculated for each pixel Px, and distance information can be obtained for each pixel Px. can be obtained.
  • a known method can be used for calculating distance information by the indirect ToF method based on two types of detection signals (detection signals for each floating diffusion) for each pixel Px, and a description thereof is omitted here. do.
  • information indicating the intensity of the received light amount of the reflected light Lr can be obtained for each pixel Px. image can be obtained.
  • the image memory 13 is a storage device such as a flash memory, SSD (Solid State Drive), HDD (Hard Disk Drive), etc., and is used to store the distance image and the gradation image generated by the image generation unit 12 .
  • the control unit 14 can transmit the distance image and the gradation image stored in the image memory 13 to the information processing device 2 via the communication I/F 16 .
  • FIG. 5 is a block diagram showing an internal circuit configuration example of the sensor unit 10.
  • the sensor unit 10 includes a pixel array unit 111, a transfer gate driver 112, a vertical driver 113, a system controller 114, a column processor 115, a horizontal driver 116, a signal processor 117, and a data storage unit 118. It has
  • the pixel array unit 111 has a configuration in which a plurality of pixels Px are two-dimensionally arranged in rows and columns.
  • Each pixel Px has a photodiode PD, which will be described later, as a photoelectric conversion element. Details of the pixel Px will be described again with reference to FIG.
  • the row direction refers to the horizontal arrangement direction of the pixels Px
  • the column direction refers to the vertical arrangement direction of the pixels Px. In the drawing, the row direction is the horizontal direction, and the column direction is the vertical direction.
  • a row drive line 120 is wired along the row direction for each pixel row with respect to the matrix-like pixel arrangement, and two gate drive lines 121 and two vertical signal lines are provided for each pixel column. Lines 122 are laid out along the column direction.
  • the row drive line 120 transmits a drive signal for driving when reading a signal from the pixel Px.
  • the row drive line 120 is shown as one wiring, but it is not limited to one.
  • One end of the row driving line 120 is connected to an output terminal corresponding to each row of the vertical driving section 113 .
  • the system control unit 114 includes a timing generator that generates various timing signals, and controls the transfer gate driving unit 112, the vertical driving unit 113, and the column processing unit 115 based on the various timing signals generated by the timing generator. , and the horizontal driving unit 116, etc. are controlled.
  • the transfer gate driver 112 drives two transfer gate elements provided for each pixel Px through the two gate drive lines 121 provided for each pixel column as described above. As described above, the two transfer gate elements are alternately turned on every modulation period Pm. Therefore, the system control unit 114 supplies the transfer gate driving unit 112 with the clock CLK input from the control unit 14 shown in FIG. Drives the transfer gate elements.
  • the vertical driving unit 113 is configured by a shift register, an address decoder, etc., and drives the pixels Px of the pixel array unit 111 all at once or in units of rows. That is, the vertical drive section 113 constitutes a drive section that controls the operation of each pixel Px of the pixel array section 111 together with the system control section 114 that controls the vertical drive section 113 .
  • a signal (charge signal) corresponding to is input to the column processing unit 115 through the corresponding vertical signal line 122 .
  • the column processing unit 115 performs predetermined signal processing on the detection signal read from each pixel Px through the vertical signal line 122, and temporarily holds the detection signal after the signal processing. Specifically, the column processing unit 115 performs noise removal processing by CDS (Correlated Double Sampling), A/D (Analog to Digital) conversion processing, and the like as signal processing.
  • CDS Correlated Double Sampling
  • A/D Analog to Digital
  • the two detection signals (detection signals for each floating diffusion) from each pixel Px are read every predetermined number of repeated light emissions of the irradiation light Li (every thousands to tens of thousands of repeated light emissions described above). done once. Therefore, the system control unit 114 controls the vertical driving unit 113 based on the clock CLK so that the readout timing of the detection signal from each pixel Px is set to the timing of each repeated light emission of the irradiation light Li a predetermined number of times. control so that
  • the horizontal driving section 116 is composed of a shift register, an address decoder, etc., and selects unit circuits corresponding to the pixel columns of the column processing section 115 in order. By selective scanning by the horizontal drive unit 116, detection signals that have undergone signal processing for each unit circuit in the column processing unit 115 are sequentially output.
  • the signal processing unit 117 has at least an arithmetic processing function, and performs predetermined signal processing on the detection signal output from the column processing unit 115 .
  • the data storage unit 118 temporarily stores data necessary for signal processing in the signal processing unit 117 .
  • FIG. 6 shows an equivalent circuit of pixels Px arranged two-dimensionally in the pixel array section 111 .
  • the pixel Px has one photodiode PD as a photoelectric conversion element and one OF (overflow) gate transistor OFG.
  • the pixel Px has two transfer transistors TG as transfer gate elements, two floating diffusions FD, two reset transistors RST, two amplifier transistors AMP, and two select transistors SEL.
  • the transfer transistor TG when distinguishing between the transfer transistor TG, the floating diffusion FD, the reset transistor RST, the amplification transistor AMP, and the selection transistor SEL, which are provided two each in the pixel Px, as shown in FIG. A and TG-B, floating diffusions FD-A and FD-B, reset transistors RST-A and RST-B, amplification transistors AMP-A and AMP-B, and selection transistors SEL-A and SEL-B.
  • the OF gate transistor OFG, the transfer transistor TG, the reset transistor RST, the amplification transistor AMP, and the selection transistor SEL are composed of, for example, N-type MOS transistors.
  • the OF gate transistor OFG becomes conductive when an OF gate signal SOFG supplied to its gate is turned on.
  • the OF gate transistor OFG becomes conductive, the photodiode PD is clamped to a predetermined reference potential VDD and the accumulated charge is reset.
  • the OF gate signal SOFG is supplied from the vertical driving section 113, for example.
  • the transfer transistor TG-A becomes conductive when the transfer drive signal STG-A supplied to its gate is turned on, and transfers the signal charge accumulated in the photodiode PD to the floating diffusion FD-A.
  • the transfer transistor TG-B becomes conductive when the transfer drive signal STG-B supplied to its gate is turned on, and transfers the charges accumulated in the photodiode PD to the floating diffusion FD-B.
  • the transfer drive signals STG-A and STG-B are supplied from the transfer gate driver 112 through gate drive lines 121-A and 121-B provided as one of the gate drive lines 121 shown in FIG. .
  • the floating diffusions FD-A and FD-B are charge holding units that temporarily hold charges transferred from the photodiodes PD.
  • the reset transistor RST-A becomes conductive when the reset signal SRST supplied to its gate is turned on, and resets the potential of the floating diffusion FD-A to the reference potential VDD.
  • the reset transistor RST-B becomes conductive when the reset signal SRST supplied to its gate is turned on, and resets the potential of the floating diffusion FD-B to the reference potential VDD.
  • the reset signal SRST is supplied from the vertical driving section 113, for example.
  • the amplification transistor AMP-A has a source connected to the vertical signal line 122-A via the selection transistor SEL-A, and a drain connected to a reference potential VDD (constant current source) to form a source follower circuit.
  • the amplification transistor AMP-B has a source connected to the vertical signal line 122-B via the selection transistor SEL-B and a drain connected to a reference potential VDD (constant current source) to form a source follower circuit.
  • the vertical signal lines 122-A and 122-B are each provided as one of the vertical signal lines 122 shown in FIG.
  • the selection transistor SEL-A is connected between the source of the amplification transistor AMP-A and the vertical signal line 122-A, and becomes conductive when the selection signal SSEL supplied to the gate is turned on, and the floating diffusion FD- The charge held in A is output to the vertical signal line 122-A through the amplification transistor AMP-A.
  • the selection transistor SEL-B is connected between the source of the amplification transistor AMP-B and the vertical signal line 122-B, and becomes conductive when the selection signal SSEL supplied to the gate is turned on, and the floating diffusion FD- B is output to the vertical signal line 122-B through the amplification transistor AMP-A. Note that the selection signal SSEL is supplied from the vertical drive section 113 via the row drive line 120 .
  • a reset operation for resetting the charges of the pixels Px is performed in all pixels. That is, for example, the OF gate transistor OFG, each reset transistor RST, and each transfer transistor TG are turned on (conducting state), and the charges accumulated in the photodiode PD and each floating diffusion FD are reset.
  • the light receiving operation for distance measurement is started in all pixels.
  • the light-receiving operation referred to here means a light-receiving operation performed for one time of distance measurement. That is, during the light receiving operation, the operation of alternately turning on the transfer transistors TG-A and TG-B is repeated a predetermined number of times (in this example, several thousand times to several tens of thousands of times).
  • the period during which light is received for one time of distance measurement will be referred to as "light receiving period Pr".
  • the period during which the transfer transistor TG-A is ON (that is, the period during which the transfer transistor TG-B is OFF) continues over the period during which the irradiation light Li is emitted.
  • the remaining period that is, the non-light emitting period of the irradiation light Li, is the period during which the transfer transistor TG-B is on (that is, the period during which the transfer transistor TG-A is off). That is, in the light receiving period Pr, the operation of distributing the charge of the photodiode PD to the floating diffusions FD-A and FD-B is repeated a predetermined number of times within one modulation period Pm.
  • each pixel Px of the pixel array section 111 is line-sequentially selected.
  • select transistors SEL-A and SEL-B are turned on.
  • the charges accumulated in the floating diffusion FD-A are output to the column processing section 115 via the vertical signal line 122-A.
  • the charges accumulated in the floating diffusion FD-B are output to the column processing section 115 via the vertical signal line 122-B.
  • the reflected light Lr received by the pixel Px is delayed according to the distance to the object Ob from the timing when the light emitting unit 11 emits the irradiation light Li. Since the distribution ratio of charges accumulated in the two floating diffusions FD-A and FD-B changes depending on the delay time according to the distance to the object Ob, these two floating diffusions FD-A and FD-B It is possible to obtain the distance to the object Ob from the distribution ratio of the accumulated charges.
  • This 4-phase method performs distance measurement calculation based on the above-mentioned IQ modulation, and uses not only light reception signals with a phase difference of 0 degrees and 180 degrees with respect to the light emission signal, but also light reception signals with a phase difference of 90 degrees and 270 degrees. .
  • the floating diffusion is caused by the transfer drive signal STG-A having a phase difference of 0 degrees and the transfer drive signal STG-B having a phase difference of 180 degrees with respect to the light emission signal as illustrated above.
  • Charges are distributed to the floating diffusions FD-A and FD-B by the transfer drive signal STG-B having a phase difference of 270 degrees, and light receiving signals having a phase difference of 90 degrees and 270 degrees are obtained.
  • the 4-phase method of distance measurement calculation using four types of light reception signals with phase differences of 0 degrees, 180 degrees, 90 degrees, and 270 degrees is well known, and a detailed description thereof will be omitted here.
  • FIG. 7 is a block diagram showing a configuration example of the information processing device 2.
  • the information processing device 2 includes a CPU (Central Processing Unit) 21 and a ROM (Read Only Memory).
  • the CPU 21 executes various processes in accordance with programs stored in the ROM 22 and a storage unit 29 (to be described later) and loaded into the RAM 23 .
  • the RAM 23 appropriately stores data necessary for the CPU 21 to execute various processes.
  • the CPU 21, ROM 22, and RAM 23 are interconnected via a bus 24.
  • An input/output interface (I/F) 25 is also connected to this bus 24 .
  • the input/output interface 25 is connected to an input section 26 including operators and operating devices.
  • operators and operating devices such as keyboards, mice, keys, dials, touch panels, touch pads, and remote controllers are assumed.
  • a user's operation is detected by the input unit 26, and a signal corresponding to the input operation is interpreted by the CPU 21.
  • FIG. 1 A user's operation is detected by the input unit 26, and a signal corresponding to the input operation is interpreted by the CPU 21.
  • the input/output interface 25 is also connected integrally or separately with a display unit 27 such as an LCD (Liquid Crystal Display) or an organic EL (Electro-Luminescence) panel, and an audio output unit 28 such as a speaker.
  • the display unit 27 is a display unit that performs various displays, and is configured by, for example, a display device provided in the housing of the computer device, a separate display device connected to the computer device, or the like.
  • the display unit 27 displays images for various types of image processing, moving images to be processed, etc. on the display screen based on instructions from the CPU 21 . Further, the display unit 27 displays various operation menus, icons, messages, etc., ie, as a GUI (Graphical User Interface), based on instructions from the CPU 21 .
  • GUI Graphic User Interface
  • the input/output interface 25 may be connected to a storage unit 29 made up of a hard disk, a solid-state memory, etc., and a communication unit 30 made up of a modem or the like.
  • the communication unit 30 performs communication processing via a transmission line such as the Internet, and communication by wired/wireless communication with various devices, bus communication, and the like. Particularly in the case of this embodiment, data communication can be performed between the sensor device 1 and the controlled device 3 via the communication unit 30 .
  • a drive 31 is also connected to the input/output interface 25 as required, and a removable storage medium 32 such as a magnetic disk, optical disk, magneto-optical disk, or semiconductor memory is appropriately mounted.
  • the drive 31 makes it possible to read data files such as programs used for each process from the removable storage medium 32 .
  • the read data file is stored in the storage unit 29 or used for various processes of the CPU 21 .
  • Computer programs and the like read from the removable storage medium 32 are installed in the storage unit 29 as required.
  • the information processing device 2 performs processing (image use processing) using an image (in-vehicle monitoring image) obtained by the sensor device 1 as processing related to in-vehicle monitoring in a vehicle equipped with the control system shown in FIG. .
  • image use processing processing related to recognition of an object such as a driver existing in the vehicle is performed.
  • image use processing it is possible to perform the following processing as image use processing.
  • - User authentication process Posture recognition process
  • Attention level detection process - Lost item in seat detection process
  • the user recognition process is a process of authenticating whether or not the driver as the user of the vehicle is the person himself/herself. For example, it is performed as face authentication, iris authentication, and the like.
  • Posture recognition processing is processing for recognizing the posture (posture) of an occupant such as a driver.
  • the attention level detection process is a process of detecting the driver's level of attention to driving. For example, if it is detected that the driver is drowsy or that his/her consciousness level is lowered due to illness or the like, a low value will be detected as the degree of caution according to the degree of drowsiness.
  • the seat-left-behind-item detection process is a process that is executed when a passenger gets off the vehicle, and is a process of detecting the presence or absence of an item left behind in a seat in the vehicle.
  • Each of these image use processes is executed at an appropriate timing within a series of periods from when a passenger such as a driver gets into the vehicle, through the state in which the vehicle is running, and until the passenger gets off the vehicle.
  • control level the level of vehicle control
  • first control level the level of vehicle control
  • second control level the level of image use processing
  • FIG. 8 is a flowchart of processing corresponding to the first control level.
  • the CPU 21 of the information processing device 2 executes the processing shown in FIG. 8 and FIG. 9 to be described later. It should be noted that, when the processing shown in FIGS. 8 and 9 is started, it is assumed that at least the passenger as the driver is already in the vehicle.
  • the CPU 21 waits for an instruction to turn on the vehicle by the passenger in step S1.
  • the vehicle ON instruction referred to here means an instruction to turn on the vehicle.
  • the starting state here means, for example, a state in which the engine is turned on in the case of an engine vehicle, and a state in which the control system of the vehicle is activated in the case of a hybrid vehicle or an electric vehicle.
  • operation of a start button provided inside the vehicle corresponds to the vehicle ON instruction referred to here.
  • step S2 When the vehicle ON instruction is given in step S1, the CPU 21 executes user authentication processing in step S2.
  • User authentication processing is performed as face authentication processing or iris authentication processing based on an image obtained by the sensor device 1 .
  • the user authentication process may be performed using a gradation image obtained by the sensor device 1 or using a distance image.
  • step S3 following step S2, the CPU 21 determines whether or not the authentication is successful. That is, from the result of the user authentication process in step S2, it is determined whether or not the driver has been recognized as the person himself/herself, that is, whether or not the authentication has been successful.
  • the user authentication process in this example is performed not based on only one frame of image, but based on a plurality of frames of image. Specifically, in this example, for example, in five consecutive frames, if at least one frame identifies the driver, the authentication is successful, and if the driver is not identified in all frames, the authentication fails. Get a judgment result of success.
  • the CPU 21 performs notification processing in step S12. That is, processing is performed to transmit information indicating that the authentication has failed to a predetermined external device such as a predetermined server device (for example, a server device of a security center).
  • a predetermined server device for example, a server device of a security center.
  • step S4 the CPU 21 proceeds to step S4 and performs vehicle ON control. That is, control is performed to turn on the vehicle.
  • posture recognition processing S5
  • abnormality detection determination S6 based on the posture recognition processing result are performed, and the processing branches based on the result of the abnormality detection determination. .
  • the CPU 21 executes posture recognition processing in step S5. That is, based on the distance image obtained by the sensor device 1, the process of recognizing the posture of the passenger as the driver is performed.
  • this posture recognition processing for example, each part of the driver (for example, head, shoulders, arms, hands, body, etc.) is recognized from the distance image, and the posture of the driver is recognized from the positional relationship of each recognized part.
  • step S6 the CPU 21 performs abnormality detection determination. That is, it is determined whether or not the driver is in an abnormal state based on the posture information of the driver recognized in the posture recognition processing of step S5. For example, it is determined whether or not the driver's posture matches a predetermined abnormal posture. In step S6, in this example, it is not determined that there is an abnormality immediately when an abnormality is recognized for only one frame of the image. Get the judgment result. Assume that the certain period here is, for example, 1/12 s (seconds). This corresponds to the time for 5 frames when the frame rate of the image input from the sensor device 1 is 60 fps.
  • the CPU 21 proceeds to step S13 and performs warning processing. That is, it is a warning process for notifying that the driver is in an abnormal state.
  • a process for displaying predetermined information on for example, the display unit 27 described above is performed.
  • the CPU 21 performs abnormal state continuation determination process in step S7. That is, it is determined whether or not the duration of the abnormal state after the abnormal state is detected in step S6 is equal to or longer than a predetermined time.
  • the predetermined time here is, for example, 1/2 s. This corresponds to the time for 30 frames when the frame rate of the image from the sensor device 1 is 60 fps.
  • step S7 When it is determined in step S7 that the abnormal state has continued for a predetermined time or longer, the CPU 21 executes deceleration control processing in step S14. That is, control for decelerating the vehicle is performed.
  • step S7 when it is determined in step S7 that the abnormal state has not continued for the predetermined time or longer, the CPU 21 advances the process to step S8. Also, when the CPU 21 determines in step S6 that the driver is not in an abnormal state, the process proceeds to step S8.
  • step S8 the CPU 21 determines whether or not the vehicle is in the OFF state. That is, it is determined whether or not the vehicle has shifted to the OFF state, for example, by performing an operation to turn the vehicle OFF. If the vehicle is not in the OFF state, the CPU 21 returns to the attitude recognition processing of step S5 described above. As a result, during the period from the ON state to the OFF state of the vehicle, the attitude recognition process (S5) and the abnormality detection determination (S6) based on the result of the attitude recognition process are performed. Warning processing and deceleration control are performed accordingly.
  • step S8 When it is determined in step S8 that the vehicle is in the OFF state, the CPU 21 executes processing relating to left-behind-item detection shown in step S9 and thereafter. Specifically, the CPU 21 waits until the opening/closing of the door is detected in step S9. That is, it waits until it is detected that the door of the vehicle is closed after being opened.
  • the CPU 21 executes a seat left-behind detection process in step S10. That is, image analysis processing is performed on the gradation image obtained by the sensor device 1 to detect a forgotten item on the seat, specifically, a specific object such as a bag or an infant.
  • step S11 the CPU 21 determines whether or not there is an item left behind. In this example, it is not immediately determined that there is a left-behind item in response to detection of an object as a left-behind item for only one frame in the detection processing in step S10, and if the state of detection of a left-behind item continues for a certain period of time, the left-behind item is detected. Get a positive result. Assume that the certain period here is 1 s, for example. That is, when the frame rate of the image is 60 fps, it corresponds to the time for 60 frames.
  • the CPU 21 When it is determined that there is an item left behind in step S11, the CPU 21 performs warning processing in step S15. That is, it performs processing for outputting information for notifying that there is an item left behind via a speaker or a display unit provided in the vehicle.
  • the CPU 21 ends the series of processes shown in FIG. 8 in response to performing the warning process of step S15.
  • the CPU 21 also ends the series of processes shown in FIG.
  • FIG. 9 is a flowchart of processing corresponding to the second control level.
  • the same step numbers are assigned to the same processes as those already explained in FIG. 8, and detailed explanations thereof are omitted.
  • the difference from the case of the first control level shown in FIG. 8 is that after the vehicle is turned on, not only the attitude detection process but also the attention level detection process are performed. Specifically, in this case, the CPU 21 performs caution degree detection processing in step S21 in response to executing the vehicle ON control in step S4. That is, the gradation image obtained by the sensor device 1 is subjected to image analysis processing to detect the level of caution of the driver. For example, in the caution level detection process, the level of caution is detected from the driver's facial expression, eye parallax, identification of whether the eyes are open or closed, and the like.
  • step S22 following step S21 the CPU 21 determines whether or not the attention level is lowered. This determination is made based on the determination result as to whether or not the level of attention detected in step S21 is equal to or less than a predetermined threshold. However, in this example, when it is determined that the degree of caution is below a predetermined threshold, it is not immediately determined to be in a reduced state of caution. A judgment result is obtained that the attention level is lowered. Assume that the certain period here is 1/20 s (seconds), for example. This corresponds to the time of 3 frames when the frame rate is 60 fps.
  • step S24 When it is determined in step S22 that the driver is in a state of reduced attention, the CPU 21 performs warning processing in step S24. That is, it is a warning process for notifying other passengers that the driver is in a state of reduced attention. processing for displaying predetermined information on the unit.
  • step S22 when it is determined in step S22 that the driver is not in the reduced attention state, the CPU 21 proceeds to step S23 to determine whether or not the reduced state continues. That is, it is determined whether or not the duration of the reduced-attention state after the detection of the reduced-attention state in step S22 is equal to or longer than a predetermined period of time.
  • the predetermined time here is set to, for example, 1/4 s (15 frames if the frame rate is 60 fps).
  • step S23 When it is determined in step S23 that the state of reduced attention has continued for a predetermined time or longer, the CPU 21 executes deceleration control processing in step S14.
  • the CPU 21 advances the processing to the posture recognition processing of step S5.
  • the CPU 21 proceeds to step S8 to determine whether or not the vehicle is in the OFF state. return.
  • the second control level not only attitude recognition processing but also attention level detection processing is performed from the time the vehicle is turned on until it is turned off, and warning processing is performed according to the results of these processing. and vehicle deceleration control.
  • a comfortable in-vehicle space is provided. Therefore, it is conceivable to carry out emotion estimation processing for estimating the emotions of passengers such as the driver.
  • the facial expression of the occupant is detected from, for example, a distance image obtained by the sensor device 1, and the emotion is estimated based on the detection result of the facial expression.
  • a comfortable vehicle interior space is provided by, for example, controlling the air conditioning of the vehicle compartment according to the estimated emotion.
  • the image usage processing performed using the image obtained by the sensor device 1 includes user authentication processing, posture recognition processing, attention level detection processing, seat left-behind detection processing (and emotion estimation processing) can be performed.
  • the information processing device 2 performs switching control of the light emission pattern of the light emitting unit 11 in the sensor device 1 according to the processing type of the image use processing.
  • FIG. 10 is a flowchart of processing related to light emission pattern switching control according to the processing type of the image use processing.
  • the CPU 21 of the information processing device 2 executes the process shown in FIG. 10 in parallel with the processes shown in FIGS. 8 and 9 above. Specifically, the CPU 21 in this example repeatedly executes the process shown in FIG. 10 while the processes shown in FIGS. 8 and 9 are being executed.
  • the CPU 21 determines the processing type of the image use processing to be executed through the processing of steps S101, S102, S103, and S104. Specifically, it is determined which of the image use processing is the user authentication processing, posture recognition processing, attention level detection processing, and seat left-behind detection processing.
  • step S101 If it is determined in step S101 that the process is for user authentication, the CPU 21 instructs the light emission pattern for user authentication in step S105. That is, the sensor device 1, more specifically, the control unit 14, is instructed to emit light from the light emitting unit 11 in accordance with the light emission pattern corresponding to the user authentication process.
  • step S102 When it is determined in step S102 that the posture recognition process is to be performed, the CPU 21 instructs the control unit 14 to cause the light emitting unit 11 to emit light using a light emission pattern corresponding to the posture recognition process as a light emission pattern instruction for posture recognition in step S106. do.
  • the CPU 21 instructs the light emitting unit 11 to emit light in a light emission pattern corresponding to the attention level detection process as a light emission pattern instruction for attention level detection in step S107. This is done for the control unit 14 .
  • step S104 If it is determined in step S104 that the object left in the seat detection process is to be performed, the CPU 21 controls an instruction to cause the light emitting unit 11 to emit light in a light emission pattern corresponding to the object left in the seat detection process as a light emission pattern instruction for the detection of an item left in the seat in step S108. This is done for the part 14.
  • the CPU 21 ends the series of processes shown in FIG.
  • FIG. 11 shows an example of a light emission pattern corresponding to the acquisition of a gradation image in the sensor device 1.
  • the notation "F" means one frame period.
  • the light emitting unit 11 when a distance image is obtained by the indirect ToF method, the light emitting unit 11 repeatedly emits light at a high frequency of several tens of MHz to several hundreds of MHz. There is no need for high-speed repeated light emission. Therefore, when obtaining a gradation image, the ON duty of the light emission drive signal is set to 100%, and the light emission section 11 is caused to emit light continuously for a predetermined period.
  • the sensor device 1 is configured to be able to perform distance measurement by the indirect ToF method, and the light receiving operation is accompanied by the charge distribution operation as described above.
  • the operation of distributing electric charges to the floating diffusions FD-A and FD-B and reading out the electric charge signals obtained in these floating diffusions FD-A and FD-B by this distributing operation is the unit light receiving operation. be done.
  • such a unit light receiving operation should be performed at least once per frame, but in the case of the 4-phase method, the unit light receiving operation is performed 4 times per frame.
  • the light emission pattern at the time of obtaining the gradation image is, as shown in the figure, a light emission pattern in which continuous light emission is performed four times per frame during the period Ds. More specifically, the light emission pattern in this case is an ON duty of 100 over a period Ds for each execution period of each unit light receiving operation in synchronization with the execution cycle of the unit light receiving operation performed four times within one frame period F. % continuous light emission pattern.
  • the period Ds means a light emission period corresponding to one unit light receiving operation for continuous light emission for obtaining a gradation image.
  • the waveform indicated by “Tx” is the waveform of the light emission drive signal for the light emission section 11 .
  • each light receiving signal having a phase difference of 0 degrees, 90 degrees, 180 degrees, and 270 degrees with respect to the light emission drive signal is obtained corresponding to the 4-phase method.
  • the transfer drive signal STG-A having a phase difference of 0 degrees with respect to the light emission drive signal and the phase difference of 180 degrees.
  • Charge distribution to the floating diffusions FD-A and FD-B is performed by the transfer drive signal STG-B, and the transfer drive signal STG-A with a phase difference of 90 degrees with respect to the light emission drive signal within the next continuous light emission period Ds. , and the transfer drive signal STG-B having the same phase difference of 270 degrees, the charges are distributed to the floating diffusions FD-A and FD-B.
  • the transfer drive signal STG-A with a phase difference of 0 degrees and the phase difference of 180 degrees are used in the same manner as in the first period Ds, for example.
  • Charge distribution to the floating diffusions FD-A and FD-B is performed by the transferred transfer drive signal STG-B, and in the fourth period Ds, as in the second period Ds, the transfer drive is performed with a phase difference of 90 degrees. It is conceivable to distribute electric charges to the floating diffusions FD-A and FD-B using the signal STG-A and the transfer drive signal STG-B with a phase difference of 270 degrees. In this case, two signals of 0 degrees, 90 degrees, 180 degrees, and 270 degrees are obtained by four unit light receiving operations in one frame. In the 4-phase distance measurement calculation in this case, the distance can be calculated based on these signals. For example, it is possible to increase the noise tolerance by averaging the signals of 0 degrees, 90 degrees, 180 degrees, and 270 degrees obtained twice as described above, and then perform the distance measurement calculation by the 4-phase method. Conceivable.
  • signals of 0 degrees, 90 degrees, 180 degrees, and 270 degrees should be obtained at least once within one frame period F. should be at least twice.
  • the waveform represented by "Rx" in the figure is a waveform representing the execution period of the unit light receiving operation.
  • the light receiving period (ON period of Rx in the figure) is slightly longer than the light emitting period so that the reflected light Lr from the object Ob can be received without omission. .
  • the light emission pattern corresponding to the acquisition of a gradation image is continuous light emission during the period Ds. is a light emission pattern that is performed a multiple of 2 times (at least twice) within one frame period F.
  • FIG. 13 shows an example of a light emission pattern corresponding to the case where the sensor device 1 acquires a distance image.
  • light emission is performed repeatedly with an ON duty of 50%.
  • an example of a light emission pattern in which repeated light emission with an ON duty of 50% is performed a multiple of 2 times (here, 4 times) within one frame period F is performed. doing.
  • a light emission period corresponding to one unit light receiving operation is denoted as a period Dm as shown in the drawing.
  • the ON duty of the light emission drive signal when acquiring a distance image is not limited to 50%, but it is desirable that the ON duty is at least 50% or less.
  • FIG. 14 is a diagram for explaining the relationship between the period Dm of repeated light emission corresponding to acquisition of a distance image and the charge distribution operation.
  • the light emission pattern of repeated light emission is the same for each unit light receiving operation performed within one frame period F.
  • the user authentication process is performed on the condition that the vehicle is stopped.
  • posture recognition processing is processing performed while the vehicle is running.
  • the change in outside light tends to be greater than when the vehicle is stopped.
  • the period Dm of repeated light emission is lengthened, the influence of changes in external light becomes more likely, resulting in a decrease in distance measurement accuracy.
  • light is emitted so that the amount of received light per frame of the sensor unit 10 is changed between when the user authentication process (process during stop) is performed and when the posture recognition process (process during running) is performed.
  • Switch patterns Specifically, when user authentication processing is performed, the light emission pattern is switched so that the amount of received light is greater than when posture recognition processing is performed.
  • user authentication processing may be performed using a gradation image.
  • the degree-of-attention detection processing is processing performed using a gradation image.
  • Gradation images are also affected by changes in external light.
  • the light emission pattern is similarly switched so as to change the amount of light received by the sensor unit 10 per frame for the user authentication process and caution level detection process performed using the gradation image.
  • the light emission pattern is switched so as to change. Specifically, when user authentication processing using a gradation image is performed, the light emission pattern is switched so that the amount of received light is greater than when attention level detection processing is performed.
  • the light emission pattern when using the distance image is such that the period Dm of repeated light emission is twice the above period Ds (the effective amount of light is the same as in the case of using the gradation image). for ).
  • the light emission current value is 4 A and the period Dm is 1120 ⁇ s (approximately 1 ms).
  • the light emission pattern corresponding to attention level detection processing is such that the amount of light received by the sensor unit 10 per frame is smaller than that during user authentication processing using a gradation image.
  • the emotion estimation process described above is a process that is performed using a distance image and a process that is performed while driving.
  • the amount of light received by the sensor unit 10 per frame is reduced compared to the user authentication process that uses the same distance image and is performed while the vehicle is stopped. .
  • the image use processing using the distance image when the processing while the vehicle is stopped is performed, it is equivalent to switching the light emission pattern so that the amount of light received is greater than when the processing is performed while the vehicle is running. do.
  • operation setting information of the light emitting unit 11 for realizing the light emission pattern for each processing type as exemplified above is stored as the setting information 15a shown in FIG. there is
  • the control unit 14 in the sensor device 1 receives the light emission pattern instruction corresponding to the processing type from the information processing device 2 (CPU 21).
  • the light emitting operation of the light emitting unit 11 is controlled based on the operation setting information corresponding to .
  • the light emitting unit 11 emits light in an appropriate light emission pattern according to the type of processing.
  • FIG. 15 is an explanatory diagram of a light emission pattern for obtaining an HDR image of a gradation image.
  • a case of obtaining one HDR image from three gradation images is illustrated.
  • the light emission amount of the light emitting unit 11 is changed for each gradation image as switching control of the light emission pattern for each gradation image when obtaining a plurality of gradation images to be synthesized.
  • the light emission pattern for obtaining each gradation image to be synthesized is, as shown in FIGS. A medium and long emission pattern is used.
  • the CPU 21 of the information processing device 2 responds to a request to obtain an HDR image as a gradation image in image use processing using a gradation image (for example, the above-described user authentication processing, attention level detection processing, etc.),
  • the sensor device 1 (control unit 14) is controlled to cause the light emitting unit 11 to emit light according to the above light emission pattern for HDR image acquisition.
  • the control unit 14 is controlled to switch the light emission pattern so that the light emission pattern for obtaining each gradation image to be synthesized becomes a light emission pattern having a different length of the period Ds.
  • FIG. 16 is an explanatory diagram of a light emission pattern for obtaining an HDR image of a distance image. For example, a case of obtaining one HDR image from three distance images will be illustrated.
  • the length of the period Dm of repeated light emission for distance measurement for each distance image is set as switching control of the light emission pattern for each distance image when obtaining a plurality of distance images to be synthesized. control to vary the depth.
  • a light emission pattern for obtaining each distance image to be synthesized as shown in FIGS. Let it be a light emission pattern.
  • the CPU 21 of the information processing device 2 responds to a request to obtain an HDR image as a distance image in image use processing using a distance image, such as the above-described user authentication processing and posture recognition processing.
  • the control unit 14 is controlled to cause the light emitting unit 11 to emit light according to the above light emitting pattern for HDR image acquisition. Specifically, the control unit 14 is controlled to switch the light emission pattern so that the light emission pattern for obtaining each distance image to be synthesized has a different length of the period Dm.
  • the period Dm of repeated light emission when the period Dm of repeated light emission is set to "long", the effective amount of light emitted during the unit light receiving operation becomes large. , the amount of light becomes excessive, and noise tends to be mixed in the distance information of the near-field object (similar to the image of blown-out highlights in a gradation image when the amount of light is excessive). Conversely, when the period Dm of repeated light emission is set to "short", the effective amount of light emitted during the unit light receiving operation becomes small. , the amount of light is appropriate, and it becomes easy to obtain low-noise distance information for close-up objects.
  • the HDR synthesis of the distance image for the period Dm of repeated light emission, with respect to the distance image obtained when the period Dm is short, only the pixels in the foreground (for example, the pixels with high reliability of the distance information) are extracted, and the period Dm is medium.
  • the distance image obtained only the middle-ground pixels (pixels for which the distance information of the object located between the foreground and the background is obtained) are extracted. are extracted, and the extracted distance information of each pixel is synthesized as one distance image. For example, by synthesizing each distance image by such a method, it is possible to obtain a distance image in which noise is suppressed from the near view to the distant view. In other words, it is possible to obtain a distance image that appropriately indicates distance information from near objects to distant objects.
  • FIG. 17 is an explanatory diagram of a light emission pattern as a modified example related to HDR synthesis.
  • this modification within one frame period F, light emission is repeated a plurality of times during the period Dm for obtaining the distance image, and between each period Dm, the period Ds for obtaining the gradation image is emitted. Continuous light emission is performed by At this time, the length of the period Ds is made different for each continuous light emission for obtaining the gradation image (in the figure, the periods Ds are made different in the order of short, medium and long).
  • the frame period for acquiring the distance image and the frame period for acquiring the gradation image are separately set. It is no longer necessary to provide such a frame rate, and it is possible to suppress a decrease in the frame rate.
  • this technology is not limited to application to in-vehicle monitoring, but can also be applied to other uses such as indoor monitoring, such as in-house or in-house monitoring, and external/outdoor monitoring.
  • the sensing module SM compatible with the indirect ToF method is used for the light emission pattern switching control for obtaining an HDR image.
  • sensing modules for direct ToF and LiDAR Light Detection and Ranging
  • sensing modules that combine IR sensors image sensors capable of receiving IR light
  • IR emitters image sensors capable of receiving IR light
  • sensing modules that combine RGBIR sensors and IR emitters can be widely and suitably applied when a sensing module, such as a module, having a light-emitting portion and a sensor portion for receiving light emitted from the light-emitting portion and reflected by an object is used.
  • the control device includes a light emitting unit (11) and a light receiving unit corresponding to the indirect ToF method for light emitted from the light emitting unit and reflected by an object.
  • a control unit (CPU 21) that performs switching control between at least two or more types of light emission patterns of a light emitting unit in a sensing module (SM) having a sensor unit (10) configured to be operable. It is prepared.
  • the sensor unit that supports the indirect ToF method not only acquires a distance image by the indirect ToF method, but also obtains a gradation image of light in the light emission wavelength band of the light emitting unit, such as an IR (Infrared: infrared) image.
  • IR Infrared: infrared
  • control unit performs switching control of the light emission pattern according to the processing type of the image use processing performed using the image obtained by the sensor unit (FIGS. 10 to 14). etc.).
  • image use processing there are various types of processing such as subject orientation recognition processing using a distance image and subject authentication processing using a gradation image. According to the above configuration, it is possible to switch to an appropriate light emission pattern according to the processing type of the image use processing, such as posture recognition processing and authentication processing. Therefore, it is possible to use an image in an appropriate mode in each image use process.
  • the sensor unit is configured to be capable of acquiring a gradation image, and the control unit performs the image use processing when the image use processing is processing using the distance image and processing using the gradation image. Control is performed so that the light emission pattern is switched between certain cases (see FIGS. 12 to 14, etc.).
  • the light emitting unit is caused to emit light in a light emission pattern suitable for obtaining a distance image, and when an image using process requiring a gradation image is performed, a distance image is obtained. It is possible to cause the light-emitting portion to emit light with a light-emitting pattern suitable for. Therefore, it is possible to ensure that an appropriate image is used in each image use process.
  • the control unit when the image use processing is processing using a distance image, the control unit causes the light emitting unit to emit light in a light emission pattern of repeated light emission with an ON duty of 50% or less,
  • the image use process is a process using a gradation image
  • the light emitting unit is caused to emit light in a light emission pattern with an ON duty of 100%.
  • control unit performs switching control of the light emission pattern so as to change the amount of light received by the sensor unit per frame according to the type of processing. For example, when user authentication processing and caution level detection processing are performed as image processing, high-resolution images are required to improve processing accuracy, so it is desired to increase the amount of light received by the sensor unit to improve contrast. Thus, if the processing type of the image using processing is different, it may be desired to change the amount of received light. According to the above configuration, it is possible to control the light emission pattern so that the amount of light received is appropriate for the processing type of the image use processing.
  • the control unit sets the length of the repeated light emission period (period Dm), which is the period during which light is repeatedly emitted for distance measurement, according to the processing type of the image use process using the distance image.
  • the switching control of the light emission pattern is performed so that the light emission pattern is changed by In the distance measurement by the indirect ToF method, even if light other than the visible light band such as IR light is used as the light for distance measurement, if the light receiving period per frame is long, the external light changes greatly. easily affected by it.
  • image-using processing that uses a range image includes processing that is performed when the vehicle is stopped and processing which is performed when the vehicle is running, and is performed in scenes with small changes in external light and in scenes with large changes in external light. Processing may be present.
  • the amount of light received by the sensor unit per frame is optimized for the image use processing that uses the distance image, for example, the processing that is performed in a scene where there is a large change in the outside light and a scene where the change in the outside light is small, as described above. Therefore, it is possible to improve the processing accuracy of the image use processing.
  • control unit repeatedly emits light for distance measurement for each distance image as switching control of the light emission pattern for each distance image when obtaining a plurality of distance images to be synthesized. Control is performed to vary the length of the period (see FIG. 16, etc.). This makes it possible to obtain a plurality of distance images with different lengths of repeated light emission periods. Therefore, by synthesizing these distance images, it is possible to obtain a distance image that appropriately indicates distance information from near objects to distant objects.
  • control unit controls the switching of the light emission pattern for each gradation image when obtaining a plurality of gradation images to be combined, and controls the light emission amount of the light emission unit for each gradation image. are controlled to be different. This makes it possible to obtain a plurality of images with different brightnesses, such as an IR image, which is obtained by selectively receiving light in a specific wavelength band. Therefore, when a gradation image is generated using a sensor unit compatible with the indirect ToF method, HDR synthesis of the gradation image can be performed.
  • control device as an embodiment is an in-vehicle device that performs switching control of the light emission pattern of the light emitting unit in the sensing module mounted in the vehicle.
  • the control device is an in-vehicle device that performs switching control of the light emission pattern of the light emitting unit in the sensing module mounted in the vehicle.
  • control unit controls the switching of light emission patterns so that the amount of light received per frame of the sensor unit changes between when the vehicle is stopped and when the vehicle is running. It is carried out. It can be said that the outside light change is small while the vehicle is stopped and the outside light change is large while the vehicle is running. On the other hand, for example, if the repeated light emission period is lengthened (that is, the amount of light received per frame is increased) when obtaining a distance image, the effect of changes in external light is increased, leading to a decrease in distance measurement accuracy.
  • the influence of changes in outside light is taken into consideration, for example, the amount of light received per frame is reduced during processing while the vehicle is running, where there is a large change in outside light, compared to processing while the vehicle is stopped, thereby preventing a decrease in accuracy of distance measurement. It is possible to appropriately adjust the amount of received light. Therefore, it is possible to obtain an appropriate image corresponding to the degree of change in external light as an image used in the image use processing, and it is possible to improve the accuracy of the image use processing.
  • the vehicle has front row seats including the driver's seat and rear row seats on the rear side of the front row seats as seats, and the image use is performed using the image obtained by the sensor unit.
  • processing there are front row processing for front row seats only and rear row processing including back row seats.
  • Light emission pattern switching control is performed so that the amount of light emission per frame is increased more than when processing is performed. This makes it possible to increase the amount of light emission in response to the case where the back row target processing including the back row seats is performed. Therefore, it is possible to improve the accuracy of the back row target processing.
  • a control method as an embodiment is a light emitting unit in a sensing module having a light emitting unit and a sensor unit capable of receiving light corresponding to an indirect ToF method for light emitted from the light emitting unit and reflected by an object.
  • a control method for performing switching control between at least two or more types of light emission patterns With such a control method, it is possible to obtain the same actions and effects as those of the control device as the embodiment described above.
  • another control device of the embodiment is a control unit that performs switching control of the light emission pattern of the light emitting unit in a sensing module having a light emitting unit and a sensor unit that receives light emitted from the light emitting unit and reflected by an object. , and the control unit performs control to change the amount of light received by the sensor unit per frame for each image as switching control of the light emission pattern for each image when obtaining a plurality of images to be synthesized. .
  • an HDR image can be generated in a system that performs image sensing using a sensing module that has a light emitting unit and a sensor unit that receives light emitted from the light emitting unit and reflected by an object.
  • the present technology can also adopt the following configuration.
  • a control device comprising a control unit that controls switching between two or more light emission patterns.
  • the sensor unit is configured to be capable of acquiring a gradation image
  • the control unit performs control so that the light emission pattern is switched between when the image use processing is processing using a distance image and processing using a gradation image.
  • the control device according to any one of (4)
  • the control unit causes the light emitting unit to emit light in a light emission pattern of repeated light emission with an ON duty of 50% or less, and the image use processing produces a gradation image.
  • the control device according to (3) wherein the light-emitting unit is caused to emit light in a light-emitting pattern with an ON duty of 100% when the processing is to be used.
  • control unit performs switching control of the light emission pattern so as to change the amount of light received by the sensor unit per frame according to the processing type.
  • Device (6)
  • the control unit performs switching control of the light emission pattern such that a length of a repeated light emission period, which is a period during which light is repeatedly emitted for distance measurement, is changed according to a processing type of the image use processing using the distance image.
  • the control device according to any one of (2) to (5) above.
  • the control unit controls the switching of the light emission pattern for each distance image when obtaining a plurality of distance images to be combined, and controls the length of the repeated light emission period for distance measurement for each distance image to be different.
  • the control device performs control to change the light emission amount of the light emitting unit for each gradation image as switching control of the light emission pattern for each gradation image when obtaining a plurality of gradation images to be synthesized.
  • the control device according to any one of (1) to (6) above.
  • (9) The control device according to any one of (1) to (8) above, wherein the control device is an in-vehicle device that performs switching control of a light emission pattern of the light emitting unit in the sensing module mounted on the vehicle.
  • the image use processing that is performed using the image obtained by the sensor unit includes stop processing that is performed on the condition that the vehicle is stopped and running processing that is performed while the vehicle is running,
  • the control unit performs switching control of the light emission pattern so as to change the amount of light received per frame of the sensor unit depending on whether the vehicle stop processing is performed or the vehicle running processing is performed.
  • Control device according to. (11)
  • the vehicle has, as seats, front row seats including a driver's seat and rear row seats on the rear side of the front row seats, As the image use processing performed using the image obtained by the sensor unit, front row target processing targeting only the front row seat side of the front row seat and the back row seat, and back row target processing including the back row seat.
  • the control unit performs switching control of the light emission pattern so that the amount of light emission per frame is increased when the back row target process is performed than when the front row target process is performed. (9) or (10) ). (12) At least a light emission pattern of the light emitting unit in a sensing module having a light emitting unit and a sensor unit configured to be capable of receiving light corresponding to an indirect ToF method for light emitted from the light emitting unit and reflected by an object. A control method for controlling switching between two or more light emission patterns.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

本技術に係る制御装置は、発光部と、発光部より発せられ対象物で反射された光についてインダイレクトToF方式に対応した受光動作が可能に構成されたセンサ部とを有するセンシングモジュールにおける発光部の発光パターンについて、少なくとも二種以上の発光パターン間での切り替え制御を行う制御部を備えたものである。

Description

制御装置、制御方法
 本技術は、発光部と、発光部より発せられ対象物で反射された光についてインダイレクトToF(Time of Flight)方式に対応した受光動作が可能に構成されたセンサ部とを有するセンシングモジュールにおける発光部の発光パターン制御を行う制御装置とその方法とに関する。
 距離画像と階調画像とを共通のセンサで取得したいとの要望がある。ここで、距離画像とは画素ごとに距離の情報を示す画像を意味し、階調画像とは画素ごとに受光量の強度情報を示す画像を意味する。
 例えば、車内監視の用途において運転者等の乗員の様子を監視する場合には、乗員について顔認証や虹彩認証等の認証処理や、運転姿勢等の姿勢検知処理、車内の忘れ物検知処理等、様々な処理を行うことが想定される。
 これら処理のうち認証処理については、距離画像のみ、階調画像のみ、或いはそれらの双方を用いることが考えられる。また、姿勢検知処理には距離画像を用いることが考えられる。さらに、忘れ物検知処理には階調画像を用いることが考えられる。このように車内監視においては、センサにより距離画像と階調画像の双方を取得したいとの要請がある。
 この場合において、距離画像を得るためのセンサと階調画像を得るためのセンサを別々に設けることも考えられるが、センサ数が増えコストアップ等に繋がり望ましくない。そこで、距離画像と階調画像の双方を取得可能なセンサを用いることが望まれる。
 なお、関連する従来技術に関しては下記特許文献を挙げることができる。下記特許文献1には、車内監視をToFセンサによる取得画像に基づき行う技術が開示されている。
特開2018-205288号公報
 ここで、インダイレクトToF方式に対応したセンサは、距離画像と階調画像の双方を取得可能に構成することが可能である。例えば、光電変換素子の電荷を高速に振り分けることで得られる2種の受光信号(各タップの受光信号)を画素ごとに加算することで画素ごとの階調信号とすることができる。
 この際、距離画像を得るにあたっては、対象物からの反射光を得るための発光を行う発光部を比較的高周波で繰り返し発光させることを要する。一方で、階調画像を得るにあたっては、そのような繰り返し発光を行う必要はない。むしろ、測距のための繰り返し発光を行ってしまうと発光のOFF期間が介在してしまう分、フレームレート向上を図ることが困難となり、望ましくないものとなる。
 本技術は上記のような事情に鑑み為されたものであり、インダイレクトToF方式に対応した受光動作が可能に構成されたセンサ部について、用途に応じた適切な画像取得が行われるようにすることを目的とする。
 本技術に係る制御装置は、発光部と、前記発光部より発せられ対象物で反射された光についてインダイレクトToF方式に対応した受光動作が可能に構成されたセンサ部とを有するセンシングモジュールにおける前記発光部の発光パターンについて、少なくとも二種以上の発光パターン間での切り替え制御を行う制御部を備えたものである。
 ここで、ToFとはTime of Flightの略である。インダイレクトToF方式に対応したセンサ部は、インダイレクトToF方式による距離画像の取得のみでなく、IR(Infrared:赤外線)画像等、発光部の発光波長帯の光についての階調画像を得るように構成することが可能である。上記のように発光部の発光パターンの切り替えが可能とされることで、例えば距離画像取得用の発光パターンと階調画像取得用の発光パターンとの切り替えを行ったり、或いはセンサ部により得られる画像を用いて行われる画像使用処理の処理種別に応じた発光パターンに切り替えを行う等、センサ部の用途に応じた適切な発光パターンに切り替えることが可能とされる。
 本技術に係る制御方法は、発光部と、前記発光部より発せられ対象物で反射された光についてインダイレクトToF方式に対応した受光動作が可能に構成されたセンサ部とを有するセンシングモジュールにおける前記発光部の発光パターンについて、少なくとも二種以上の発光パターン間での切り替え制御を行う制御方法である。
 このような制御方法によっても、上記した本技術に係る制御装置と同様の作用が得られる。
 本技術に係る別の制御装置は、発光部と、前記発光部より発せられ対象物で反射された光を受光するセンサ部とを有するセンシングモジュールにおける前記発光部の発光パターンの切り替え制御を行う制御部を備え、前記制御部は、合成対象となる複数の画像を得る際の前記画像ごとの前記発光パターンの切り替え制御として、前記画像ごとに、前記センサ部の1フレームあたりの受光量を変化させる制御を行うものである。
 これにより、発光部と、発光部より発せられ対象物で反射された光を受光するセンサ部とを有するセンシングモジュールにより画像センシングを行うシステムにおいて、HDR(High Dynamic Range)画像の生成が可能となる。
実施形態としての制御装置を備えて構成される制御システムの構成例を説明するためのブロック図である。 実施形態におけるセンサ装置の配置及び視野の例を示した図である。 実施形態におけるセンサ装置の内部構成例を説明するためのブロック図である。 実施形態のセンシングモジュールにおける発光部とセンサ部の具体的な配置例を示した図である。 実施形態におけるセンサ部の内部回路構成例を示したブロック図である。 実施形態におけるセンサ部が有する画素の等価回路図である。 実施形態としての情報処理装置の構成例を示したブロック図である。 実施形態における第一制御レベルに対応した処理のフローチャートである。 実施形態における第二制御レベルに対応した処理のフローチャートである。 画像使用処理の処理種別に応じた発光パターンの切り替え制御に係る処理のフローチャートである。 センサ装置において階調画像を取得する場合に対応した発光パターンの例を示した図である。 センサ装置において階調画像を取得する場合における発光パターンと電荷振り分け動作との関係を説明するための図である。 センサ装置において距離画像を取得する場合に対応した発光パターンの例を示した図である。 距離画像取得時に対応した繰り返し発光の期間と電荷振り分け動作との関係を説明するための図である。 階調画像についてのHDR画像を得るための発光パターンの説明図である。 距離画像についてのHDR画像を得るための発光パターンの説明図である。 HDR合成に係る変形例としての発光パターンについての説明図である。
 以下、添付図面を参照し、本技術に係る実施形態を次の順序で説明する。
<1.制御システムの構成概要>
<2.センサ装置の構成>
<3.情報処理装置の構成>
<4.車内監視処理について>
<5.実施形態としての発光制御>
(5-1.処理種別に応じた発光制御)
(5-2.HDR)
<6.変形例>
<7.実施形態のまとめ>
<8.本技術>
<1.制御システムの構成概要>
 図1は、本技術に係る実施形態としての制御装置を備えて構成される制御システムの構成例を説明するためのブロック図である。
 図示のように実施形態の制御システムは、センサ装置1、情報処理装置2、及び制御対象機器3を備えて構成される。本例における制御システムは、車載システムとして、車内監視に応じた制御を行うシステムとして構成される。具体的には、センサ装置1による検出情報に基づいて情報処理装置2が制御対象機器3を制御することで、車内監視に応じた制御が行われる。
 センサ装置1は、発光部と、発光部より発せられ対象物で反射された光についてインダイレクトToF(Time of Flight)方式に対応した受光動作が可能に構成されたセンサ部とを有するセンシングモジュール(後述するセンシングモジュールSM)を備えた装置とされる。
 このセンサ装置1は、画素単位でインダイレクトToF方式による測距を行うことが可能とされ、距離画像を得ることが可能とされている。ここで、距離画像とは、画素ごとに距離の情報を示す画像を意味する。
 また、センサ装置1においては、画素ごとに受光量の強度を検出可能とされ、階調画像を得ることも可能とされる。階調画像とは、画素ごとに受光量の強度情報を示す画像を意味する。本例では、上記の発光部はIR(Infrared:赤外線)光を発光することから、階調画像としてはIR光の受光量の強度を示すIR画像が得られる。
 図2は、センサ装置1の配置及び視野Fvの例を示した図であり、図2Aは、制御システムが実装される車両の上面図、図2Bは該車両の右側面図である。
 センサ装置1は、車室内の監視のため、視野Fv内に車室を捉えることができる位置に配置する。本例では、センサ装置1は車室内におけるフロントガラス上部の左右中央となる位置に配置され、視野Fv内にハンドル、及び左右の前列席(運転席と助手席)、及び左右の後列席が含まれる(図2B参照)。
 なお、制御システムとしては、例えば前列席用のセンサ装置1と後列席用のセンサ装置1等、車内監視のためのセンサ装置1を複数設けた構成とすることも可能である。
 図1において、情報処理装置2は、コンピュータ装置を備えて構成され、センサ装置1により得られる画像を用いた処理(以下「画像使用処理」と表記する)を行う。この画像使用処理としては、センサ装置1により得られる距離画像や階調画像に基づき監視対象を認識する処理等を挙げることができる。なお、本例における画像使用処理の種別については後述する。
 また、情報処理装置2は、画像使用処理として監視対処の認識処理を行った場合に、認識結果に基づき、制御対象機器3を制御する処理を行う。
 制御対象機器3としては、車両の加減速や操舵、乗員に対する各種情報の提示等といった車両の各種動作を制御するための各種車載ECU(Electric Control Unit)を挙げることができる。
 例えば、情報処理装置2には、センサ装置1により得られる画像に基づいて運転者の状態認識を行い、運転者の状態が所定の状態(例えば異常状態)であった場合に車両を減速させる制御を行わせることが考えられる。その場合、制御対象機器3は、車両を減速させる制御を司るECU(例えば、ブレーキECU等)となる。或いは、運転者が所定の状態であった場合には乗員に対し例えば警告情報等の情報提示を行うことも考えられ、その場合、制御対象機器3は情報提示に係る制御を行うECU(例えばメータECU等)となる。
<2.センサ装置の構成>
 図3から図6を参照し、センサ装置1の構成について説明する。
 図3は、センサ装置1の内部構成例を説明するためのブロック図である。
 センサ装置1は、発光部11とセンサ部10とを有して構成されたセンシングモジュールSMを備えると共に、画像生成部12、画像メモリ13、制御部14、不揮発性メモリ15、及び通信I/F(インタフェース)を備えている。
 前述のようにセンサ装置1は、インダイレクトToF方式による測距が可能であるが、インダイレクトToF方式は、対象物Obに対する照射光Liと、照射光Liが対象物Obで反射されて得られる反射光Lrとの位相差に基づいて対象物Obまでの距離を算出する測距方式とされる。
 発光部11は、光源として一又は複数の発光素子を有し、対象物Obに対する照射光Liを発する。本例において、発光部11は、照射光Liとして例えば波長が750nmから1400nmの範囲のIR光を発光する。
 センサ部10は、反射光Lrを受光する。具体的には、反射光Lrと照射光Liの位相差を検出可能となるように反射光Lrの受光動作を行う。
 後述もするが、本例のセンサ部10は、光電変換素子(フォトダイオードPD)と、光電変換素子の蓄積電荷を転送するための第一転送ゲート素子(転送トランジスタTG-A)と第二転送ゲート素子(転送トランジスタTG-B)とを含んで構成された画素Pxが二次元に複数配列された画素アレイ部111を有しており、画素PxごとにインダイレクトToF方式に対応した受光動作を行う。
 図4は、センシングモジュールSMにおける発光部11とセンサ部10の具体的な配置例を示した図である。
 図示のように本例のセンシングモジュールSMにおいて、発光部11は二つの発光素子11aを有している。本例では、これら発光素子11aにはVCSEL(Vertical Cavity Surface Emitting Laser:垂直共振器面発光型レーザ)が用いられる。
 二つの発光素子11aは、発光面に平行な面において離隔して配置され、これら二つの発光素子11a間の中央となる位置にセンサ部10が配置されている。
 発光素子11aを複数設けることで、照射光Liの照射範囲の拡大、すなわち反射光Lrが得られる範囲の拡大を図ることができ、測距可能範囲の拡大を図ることができる。
 図3において、制御部14は、発光部11による照射光Liの発光動作を制御する。インダイレクトToF方式の場合、照射光Liとしては所定の周期で強度が変化するように強度変調された光が用いられる。具体的に、本例では、照射光Liとして、パルス光を所定周期で繰り返し発光する。以下、このようなパルス光の発光周期のことを「発光周期Cl」と表記する。また、発光周期Clによりパルス光が繰り返し発光される際におけるパルス光の発光開始タイミング間の期間のことを「1変調期間Pm」或いは単に「変調期間Pm」と表記する。
 制御部14は、変調期間Pmごとに所定の発光期間のみ照射光Liを発するように発光部11の発光動作を制御する。
 インダイレクトToF方式において、発光周期Clは、例えば数十MHzから数百MHz程度と比較的高速とされる。
 ここで、公知のようにインダイレクトToF方式では、センサ部10の画素Pxにおける光電変換素子に蓄積された信号電荷が、交互にオンされる第一転送ゲート素子、第二転送ゲート素子によって二つのフローティングディフュージョン(FD)に振り分けられる。この際、第一転送ゲート素子と第二転送ゲート素子を交互にオンする周期は発光部11の発光周期Clと同周期とされる。すなわち、第一転送ゲート素子、第二転送ゲート素子はそれぞれ変調期間Pmごとに1度オンとされるものであり、上記のような信号電荷の二つのフローティングディフュージョンへの振り分けは、変調期間Pmごとに繰り返し行われる。
 例えば、第一転送ゲート素子としての転送トランジスタTG-Aは、変調期間Pmにおける照射光Liの発光期間においてオンとされ、第二転送ゲート素子としての転送トランジスタTG-Bは、変調期間Pmにおける照射光Liの非発光期間においてオンとされる。
 また、測距演算においてIQ変調(I:In-phase(同相成分)、Q:Quadrature(直交成分))を適用する場合には、転送トランジスタTG-Aは照射光Liの発光周期に対し位相が90度ずれた周期でオン/オフされ、転送トランジスタTG-Bは照射光Liの周期に対し位相が270度ずれた周期でオン/オフされることもある。
 前述のように、発光周期Clは比較的高速とされるため、上記のような第一、第二転送ゲート素子を用いた1回の振り分けにより各フローティングディフュージョンに蓄積される信号電荷は比較的微量なものとなる。このためインダイレクトToF方式では、1回の測距につき(つまり1枚分の距離画像を得るにあたり)、照射光Liの発光を数千回から数万回程度繰り返し、センサ部10では、このように照射光Liが繰り返し発光される間、上記のような第一、第二転送ゲート素子を用いた各フローティングディフュージョンへの信号電荷の振り分けを繰り返し行う。
 上記説明から理解されるように、センサ部10においては、画素Pxごとに第一転送ゲート素子、第二転送ゲート素子を照射光Liの発光周期に基づくタイミングで駆動することになる。このため、制御部14は、共通のクロックCLKに基づいてセンサ部10による受光動作、発光部11による発光動作の制御を行う。
 制御部14に対しては不揮発性メモリ15が接続されている。不揮発性メモリ15は、例えばEEPROM(Electrically Erasable Programmable Read Only Memory)により構成され、上記のような発光部11の発光動作やセンサ部10の受光動作についての動作態様を定める設定情報15aが記憶されている。
 後述するように、センサ装置1においては、発光部11の発光動作とセンサ部10の受光動作について、それらの動作態様を予め定められた動作態様のうちから任意に選択可能とされる。不揮発性メモリ15には、それら動作態様ごとに、その動作態様を実現するための発光部11、センサ部10の動作設定情報が、設定情報15aとして記憶されている。
 すなわち、制御部14は、設定情報15aとして記憶された動作設定情報のうち、選択した何れかの動作設定情報に従って発光部11、センサ部10の動作を制御することで、発光部11、センサ部10を選択した動作態様で動作させることができる。
 なお、設定情報15aの具体例については後述する。
 制御部14には、通信I/F16が接続されている。通信I/F16は、外部装置、特に本例では情報処理装置2との間で有線又は無線による通信を行うためのインタフェース部とされる。
 制御部14はこの通信I/F16を介して情報処理装置2(後述するCPU21)との間で各種データの通信を行うことが可能とされる。
 画像生成部12は、センサ部10における前述した振り分け動作により各フローティングディフュージョンに蓄積された電荷信号に基づいて、距離画像や階調画像の生成を行う。
 各フローティングディフュージョンに蓄積された電荷信号について、インダイレクトToF方式による所定の演算を行うことで、画素Pxごとに距離(対象物までの距離)を算出することができ、画素Pxごとに距離の情報を示す距離画像を得ることができる。なお、画素Pxごとに二種の検出信号(フローティングディフュージョンごとの検出信号)に基づいてインダイレクトToF方式による距離情報を算出する手法については公知の手法を用いることができ、ここでの説明は省略する。
 また、各フローティングディフュージョンに蓄積された電荷信号を加算することで、画素Pxごとに反射光Lrの受光量の強度を示す情報を得ることができ、画素Pxごとに受光量の強度を示す階調画像を得ることができる。
 画像メモリ13は、例えばフラッシュメモリやSSD(Solid State Drive)、HDD(Hard Disk Drive)などの記憶装置であり、画像生成部12が生成した距離画像や階調画像の記憶に用いられる。
 制御部14は、画像メモリ13に記憶された距離画像や階調画像を通信I/F16を介して情報処理装置2に送信することができる。
  図5は、センサ部10の内部回路構成例を示したブロック図である。
 図示のようにセンサ部10は、画素アレイ部111、転送ゲート駆動部112、垂直駆動部113、システム制御部114、カラム処理部115、水平駆動部116、信号処理部117、及びデータ格納部118を備えている。
 画素アレイ部111は、複数の画素Pxが行方向及び列方向の行列状に二次元に配列された構成となっている。各画素Pxは、光電変換素子として後述するフォトダイオードPDを有する。なお、画素Pxの詳細については図6により改めて説明する。
 ここで、行方向とは、水平方向の画素Pxの配列方向を言い、列方向とは、垂直方向の画素Pxの配列方向を言う。図中では、行方向を横方向、列方向を縦方向としている。
 画素アレイ部111においては、行列状の画素配列に対して、画素行ごとに行駆動線120が行方向に沿って配線されるとともに、各画素列に二つのゲート駆動線121、二つの垂直信号線122がそれぞれ列方向に沿って配線されている。例えば、行駆動線120は、画素Pxから信号を読み出す際の駆動を行うための駆動信号を伝送する。なお、図5では、行駆動線120について1本の配線として示しているが、1本に限られるものではない。行駆動線120の一端は、垂直駆動部113の各行に対応した出力端に接続されている。
 システム制御部114は、各種のタイミング信号を生成するタイミングジェネレータなどによって構成され、該タイミングジェネレータで生成された各種のタイミング信号を基に、転送ゲート駆動部112、垂直駆動部113、カラム処理部115、及び水平駆動部116などの駆動制御を行う。
 転送ゲート駆動部112は、システム制御部114の制御に基づき、上記のように各画素列に二つ設けられるゲート駆動線121を通じて、画素Pxごとに二つ設けられた転送ゲート素子を駆動する。
 前述のように、二つの転送ゲート素子は変調期間Pmごとに交互にオンするものとされる。このため、システム制御部114は、転送ゲート駆動部112に対し、図3に示した制御部14より入力されるクロックCLKを供給し、転送ゲート駆動部112は、このクロックCLKに基づいて二つの転送ゲート素子を駆動する。
 垂直駆動部113は、シフトレジスタやアドレスデコーダなどによって構成され、画素アレイ部111の画素Pxを全画素同時或いは行単位等で駆動する。すなわち、垂直駆動部113は、垂直駆動部113を制御するシステム制御部114とともに、画素アレイ部111の各画素Pxの動作を制御する駆動部を構成している。
 垂直駆動部113による駆動制御に応じて画素行の各画素Pxから出力される(読み出される)検出信号、具体的には、画素Pxごとに二つ設けられたフローティングディフュージョンそれぞれに蓄積された信号電荷に応じた信号(電荷信号)は、対応する垂直信号線122を通してカラム処理部115に入力される。カラム処理部115は、各画素Pxから垂直信号線122を通して読み出された検出信号に対して所定の信号処理を行うとともに、信号処理後の検出信号を一時的に保持する。具体的には、カラム処理部115は、信号処理としてCDS(Correlated Double Sampling:相関二重サンプリング)によるノイズ除去処理やA/D(Analog to Digital)変換処理等を行う。
 ここで、各画素Pxからの二つの検出信号(フローティングディフュージョンごとの検出信号)の読み出しは、照射光Liの所定回数分の繰り返し発光ごと(前述した数千から数万回の繰り返し発光ごと)に1度行われる。
 従って、システム制御部114は、クロックCLKに基づき垂直駆動部113を制御して、各画素Pxからの検出信号の読み出しタイミングが、このように照射光Liの所定回数分の繰り返し発光ごとのタイミングとなるように制御する。
 水平駆動部116は、シフトレジスタやアドレスデコーダなどによって構成され、カラム処理部115の画素列に対応する単位回路を順番に選択する。この水平駆動部116による選択走査により、カラム処理部115において単位回路ごとに信号処理された検出信号が順番に出力される。
 信号処理部117は、少なくとも演算処理機能を有し、カラム処理部115から出力される検出信号に対して所定の信号処理を施す。
 データ格納部118は、信号処理部117での信号処理にあたって、その処理に必要なデータを一時的に格納する。
 図6は、画素アレイ部111に二次元配列された画素Pxの等価回路を示している。
 画素Pxは、光電変換素子としてのフォトダイオードPDとOF(オーバーフロー)ゲートトランジスタOFGとをそれぞれ1個ずつ有する。また、画素Pxは、転送ゲート素子としての転送トランジスタTG、フローティングディフュージョンFD、リセットトランジスタRST、増幅トランジスタAMP、及び選択トランジスタSELをそれぞれ2個ずつ有する。
 ここで、画素Pxにおいて2個ずつ設けられる転送トランジスタTG、フローティングディフュージョンFD、リセットトランジスタRST、増幅トランジスタAMP、及び選択トランジスタSELのそれぞれを区別する場合、図6に示されるように、転送トランジスタTG-A及びTG-B、フローティングディフュージョンFD-A及びFD-B、リセットトランジスタRST-A及びRST-B、増幅トランジスタAMP-A及びAMP-B、選択トランジスタSEL-A及びSEL-Bと表記する。
 OFゲートトランジスタOFG、転送トランジスタTG、リセットトランジスタRST、増幅トランジスタAMP、及び選択トランジスタSELは、例えば、N型のMOSトランジスタで構成される。
 OFゲートトランジスタOFGは、ゲートに供給されるOFゲート信号SOFGがオンされると導通状態となる。フォトダイオードPDは、OFゲートトランジスタOFGが導通状態となると、所定の基準電位VDDにクランプされて蓄積電荷がリセットされる。
 なお、OFゲート信号SOFGは、例えば垂直駆動部113より供給される。
 転送トランジスタTG-Aは、ゲートに供給される転送駆動信号STG-Aがオンされると導通状態となり、フォトダイオードPDに蓄積されている信号電荷をフローティングディフュージョンFD-Aに転送する。転送トランジスタTG-Bは、ゲートに供給される転送駆動信号STG-Bがオンされると導通状態となり、フォトダイオードPDに蓄積されている電荷をフローティングディフュージョンFD-Bに転送する。
 転送駆動信号STG-A、STG-Bは、それぞれが図5に示したゲート駆動線121の一つとして設けられたゲート駆動線121-A、121-Bを通じて転送ゲート駆動部112より供給される。
 フローティングディフュージョンFD-A及びFD-Bは、フォトダイオードPDから転送された電荷を一時保持する電荷保持部である。
 リセットトランジスタRST-Aは、ゲートに供給されるリセット信号SRSTがオンとされると導通状態となり、フローティングディフュージョンFD-Aの電位を基準電位VDDにリセットする。同様に、リセットトランジスタRST-Bはゲートに供給されるリセット信号SRSTがオンされることで導通状態となり、フローティングディフュージョンFD-Bの電位を基準電位VDDにリセットする。
 なお、リセット信号SRSTは、例えば垂直駆動部113より供給される。
 増幅トランジスタAMP-Aは、ソースが選択トランジスタSEL-Aを介して垂直信号線122-Aに接続され、ドレインが基準電位VDD(定電流源)に接続されて、ソースフォロワ回路を構成する。増幅トランジスタAMP-Bは、ソースが選択トランジスタSEL-Bを介して垂直信号線122-Bに接続され、ドレインが基準電位VDD(定電流源)に接続されてソースフォロワ回路を構成する。
 ここで、垂直信号線122-A、122-Bは、それぞれ図5に示した垂直信号線122の一つとして設けられたものである。
 選択トランジスタSEL-Aは、増幅トランジスタAMP-Aのソースと垂直信号線122-Aとの間に接続され、ゲートに供給される選択信号SSELがオンとされると導通状態となり、フローティングディフュージョンFD-Aに保持された電荷を増幅トランジスタAMP-Aを介して垂直信号線122-Aに出力する。
 選択トランジスタSEL-Bは、増幅トランジスタAMP-Bのソースと垂直信号線122-Bとの間に接続され、ゲートに供給される選択信号SSELがオンとされると導通状態となり、フローティングディフュージョンFD-Bに保持された電荷を増幅トランジスタAMP-Aを介して垂直信号線122-Bに出力する。
 なお、選択信号SSELは、行駆動線120を介して垂直駆動部113より供給される。
 画素Pxの動作について簡単に説明する。
 先ず、受光を開始する前に、画素Pxの電荷をリセットするリセット動作が全画素で行われる。すなわち、例えばOFゲートトランジスタOFG、各リセットトランジスタRST、及び各転送トランジスタTGがオン(導通状態)とされ、フォトダイオードPD、各フローティングディフュージョンFDの蓄積電荷がリセットされる。
 蓄積電荷のリセット後、全画素で測距のための受光動作が開始される。ここで言う受光動作とは、1回の測距のために行われる受光動作を意味する。すなわち、受光動作中では、転送トランジスタTG-AとTG-Bを交互にオンする動作が所定回数(本例では数千回から数万回程度)繰り返される。以下、このような1回の測距のために行われる受光動作の期間を「受光期間Pr」と表記する。
 受光期間Prにおいて、発光部11の1変調期間Pm内では、例えば転送トランジスタTG-Aがオンの期間(つまり転送トランジスタTG-Bがオフの期間)が照射光Liの発光期間にわたって継続された後、残りの期間、つまり照射光Liの非発光期間は、転送トランジスタTG-Bがオンの期間(つまり転送トランジスタTG-Aがオフの期間)とされる。すなわち、受光期間Prにおいては、1変調期間Pm内にフォトダイオードPDの電荷をフローティングディフュージョンFD-AとFD-Bとに振り分ける動作が所定回数繰り返される。
 そして、受光期間Prが終了すると、画素アレイ部111の各画素Pxが、線順次に選択される。選択された画素Pxでは、選択トランジスタSEL-A及びSEL-Bがオンされる。これにより、フローティングディフュージョンFD-Aに蓄積された電荷が垂直信号線122-Aを介してカラム処理部115に出力される。また、フローティングディフュージョンFD-Bに蓄積された電荷は垂直信号線122-Bを介してカラム処理部115に出力される。
 以上で、1回の受光動作が終了し、リセット動作から始まる次の受光動作が実行される。
 ここで、画素Pxが受光する反射光Lrは、発光部11が照射光Liを発したタイミングから、対象物Obまでの距離に応じて遅延されている。対象物Obまでの距離に応じた遅延時間によって、二つのフローティングディフュージョンFD-A、FD-Bに蓄積される電荷の配分比が変化するため、これら二つのフローティングディフュージョンFD-A、FD-Bに蓄積される電荷の配分比から、対象物Obまでの距離を求めることが可能である。
 ここで、上記では、インダイレクトToF方式による測距について、いわゆる2phase方式による測距を行う場合を例示した。すなわち、発光信号に対する位相差を0度、180度とした転送駆動信号STGにより電荷振り分けを行って得られる2種の受光信号(フローティングディフュージョンFD-A、FD-Bそれぞれに蓄積された電荷信号)から距離を算出する場合を例示した。
 しかしながら、インダイレクトToF方式による測距としては、いわゆる4phase方式による測距を行うこともできる。この4phase方式は、前述したIQ変調に基づく測距演算を行うものであり、発光信号に対する位相差を0度、180度とした受光信号のみでなく、90度、270度とした受光信号を用いる。
 この場合、受光期間Prにおいては、上記で例示したように発光信号に対する位相差を0度とした転送駆動信号STG-Aと該位相差を180度とした転送駆動信号STG-BとによりフローティングディフュージョンFD-AとFD-Bへの電荷振り分けを行って位相差0度と位相差180度の受光信号を得る動作と、発光信号に対する位相差を90度とした転送駆動信号STG-Aと該位相差を270度とした転送駆動信号STG-BとによりフローティングディフュージョンFD-AとFD-Bへの電荷振り分けを行って位相差90度と位相差270度の受光信号を得る動作とを行う。
 なお、これら位相差0度、180度、90度、270度の4種の受光信号を用いて行われる4phase方式による測距演算は公知であり、ここでの詳細説明は省略する。
<3.情報処理装置の構成>
 図7は、情報処理装置2の構成例を示したブロック図である。
 図7に示すように、情報処理装置2は、CPU(Central Processing Unit)21、ROM(Read Only Memory)を備えている。CPU21は、ROM22や後述する記憶部29に記憶され、RAM23にロードされたプログラムに従って各種の処理を実行する。
 RAM23には、CPU21が各種の処理を実行する上において必要なデータが適宜記憶される。
 CPU21、ROM22、及びRAM23は、バス24を介して相互に接続されている。このバス24にはまた、入出力インタフェース(I/F)25も接続されている。
 入出力インタフェース25には、操作子や操作デバイスよりなる入力部26が接続される。例えば、入力部26としては、キーボード、マウス、キー、ダイヤル、タッチパネル、タッチパッド、リモートコントローラ等の各種の操作子や操作デバイスが想定される。
 入力部26によりユーザの操作が検知され、入力された操作に応じた信号がCPU21によって解釈される。
 また入出力インタフェース25には、LCD(Liquid Crystal Display)或いは有機EL(Electro-Luminescence)パネルなどよりなる表示部27や、スピーカなどよりなる音声出力部28が一体又は別体として接続される。
 表示部27は各種表示を行う表示部であり、例えばコンピュータ装置の筐体に設けられるディスプレイデバイスや、コンピュータ装置に接続される別体のディスプレイデバイス等により構成される。
 表示部27は、CPU21の指示に基づいて表示画面上に各種の画像処理のための画像や処理対象の動画等の表示を実行する。また表示部27はCPU21の指示に基づいて、各種操作メニュー、アイコン、メッセージ等、即ちGUI(Graphical User Interface)としての表示を行う。
 入出力インタフェース25には、ハードディスクや固体メモリなどより構成される記憶部29や、モデムなどより構成される通信部30が接続される場合もある。
 通信部30は、インターネット等の伝送路を介しての通信処理や、各種機器との有線/無線通信、バス通信などによる通信を行う。特に本実施形態の場合、この通信部30を介してはセンサ装置1や制御対象機器3との間でデータ通信を行うことが可能とされる。
 入出力インタフェース25にはまた、必要に応じてドライブ31が接続され、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブル記憶媒体32が適宜装着される。
 ドライブ31により、リムーバブル記憶媒体32から各処理に用いられるプログラム等のデータファイルなどを読み出すことが可能とされる。読み出されたデータファイルは記憶部29に記憶されたり、CPU21の各種処理に用いられたりする。またリムーバブル記憶媒体32から読み出されたコンピュータプログラム等は必要に応じて記憶部29にインストールされる。
<4.車内監視処理について>
 情報処理装置2は、図1に示した制御システムが搭載された車両における車内監視に係る処理として、センサ装置1により得られる画像(車内の監視画像)を用いた処理(画像使用処理)を行う。
 この画像使用処理としては、運転者等の車内に存在する物体の認識に係る処理を行う。具体的に本例では、画像使用処理として下記の処理を行うことが可能とされている。
 ・ユーザ認証処理
 ・姿勢認識処理
 ・注意度検出処理
 ・座席忘れ物検知処理
 ユーザ認識処理は、車両のユーザとしての運転者について、本人であるかの認証を行う処理である。例えば、顔認証や虹彩認証等として行われる。
 姿勢認識処理は、運転者等の乗員について姿勢(体勢)を認識する処理である。
 注意度検出処理は、運転者の運転に対する注意度を検出する処理である。例えば、運転者が眠気を帯びていたり、病気等で意識レベルが低下していたりすることが検出された場合、その度合いに応じて注意度として低い値が検出されることになる。
 座席忘れ物検知処理は、乗員が降車したタイミングで実行される処理であり、車内の座席における忘れ物の有無を検知する処理である。
 これらの画像使用処理は、運転者等の乗員が車両に乗り込んでから車両が走行する状態を経て乗員が降車するまでの間の一連の期間内において、それぞれが適宜のタイミングで実行される。
 また、これらの画像使用処理は、車内監視に応じて行われる車両制御のレベル(以下「制御レベル」と表記)が異なると、実行される処理の組み合わせが異なることがある。例えば、或る制御レベル(第一制御レベルとする)では、上記した4種の画像使用処理のうち、ユーザ認証処理、姿勢認識処理、座席忘れ物検知処理の3種のみが行われるが、別の制御レベル(第二制御レベルとする)では、上記した4種全ての画像使用処理が行われる。
 以下、これら制御レベルごとに、情報処理装置2が行う具体的な処理の流れを説明する。
 図8は、第一制御レベルに対応した処理のフローチャートである。図8、及び後述する図9に示す処理は、情報処理装置2のCPU21が実行する。なお、これら図8、図9に示す処理が開始されるにあたっては、少なくとも運転者としての乗員が既に車両に乗車していることを前提とする。
 図8において、CPU21はステップS1で乗員による車両ON指示を待機する。ここで言う車両ON指示とは、車両を起動状態とする指示を意味する。ここでの起動状態とは、例えばエンジン車の場合にはエンジンがONする状態、ハイブリッド車や電気自動車の場合には車両の制御システムが起動する状態を意味する。例えば、車室内に設けられたスタートボタンの操作等がここで言う車両ON指示に該当する。
 ステップS1で車両ON指示が行われた場合、CPU21はステップS2でユーザ認証処理を実行する。ユーザ認証処理としては、センサ装置1で得られる画像に基づき、顔認証処理、又は虹彩認証処理として行う。
 本例において、ユーザ認証処理としては、センサ装置1で得られる階調画像を用いて行う場合と、距離画像を用いて行う場合とがある。
 ステップS2に続くステップS3でCPU21は、認証成功か否かを判定する。すなわち、ステップS2のユーザ認証処理の結果から、運転者が本人であると認められたか否か、すなわち認証に成功したか否かを判定する。本例におけるユーザ認証処理では、1フレーム分の画像のみに基づいて行うのではなく、複数フレーム分の画像に基づいて行う。具体的に本例では、例えば連続した5フレームにおいて、少なくとも1フレームでも運転者が本人であると認められれば認証成功とし、全フレームで運転者が本人であると認められない場合には認証不成功との判定結果を得る。
 認証が成功しなかった場合、CPU21はステップS12の通報処理を行う。すなわち、予め定められたサーバ装置(例えばセキュリティセンタのサーバ装置)等、所定の外部装置に対して、認証が失敗した旨の情報を送信する処理を行う。
 一方、認証に成功した場合、CPU21はステップS4に進んで車両ON制御を行う。すなわち、車両をON状態とするための制御を行う。
 車両がON状態からOFF状態となるまでの間には、姿勢認識処理(S5)と、姿勢認識処理結果に基づく異常検知判定(S6)が行われ、異常検知判定の結果に基づき処理が分岐する。
 具体的に、ステップS4の車両ON制御を実行したことに応じ、CPU21はステップS5の姿勢認識処理を実行する。すなわち、センサ装置1で得られる距離画像に基づいて、運転者としての乗員についての姿勢を認識する処理を行う。この姿勢認識処理では、例えば距離画像から運転者の各部位(例えば頭部、肩、腕、手、胴体等)を認識し、認識した各部位の位置関係から運転者の姿勢を認識する。
 ステップS5に続くステップS6でCPU21は、異常検知判定を行う。すなわち、ステップS5の姿勢認識処理で認識した運転者の姿勢情報に基づいて、運転者が異常な状態にあるか否かを判定する。例えば、運転者の姿勢が、予め定められた異常姿勢としての姿勢と合致するか否かの判定を行う。
 ステップS6において、本例では、画像の1フレーム分だけ異常が認められたことに応じて直ちに異常とは判定せず、一定の期間、異常状態の継続が認められた場合に異常であるとの判定結果を得る。ここでの一定の期間は、例えば1/12s(秒)であるとする。これは、センサ装置1から入力される画像のフレームレートが60fpsである場合に、5フレーム分の時間に相当する。
 運転者が異常な状態であると判定した場合、CPU21はステップS13に進んでワーニング処理を行う。すなわち、運転者が異常状態にある旨を通知するためのワーニング処理であり、例えば、車両に設けられたスピーカ(例えば、前述した音声出力部28)から所定の音声を出力させる処理や、表示部(例えば、前述した表示部27)に所定情報を表示させる処理等を行う。
 ステップS13のワーニング処理を実行したことに応じ、CPU21はステップS7で異常状態継続判定処理を行う。すなわち、ステップS6で異常状態が検知されてからの異常状態の継続時間が所定時間以上であるか否かを判定する。
 ここでの所定時間は、例えば1/2sとされる。これは、センサ装置1からの画像のフレームレートが60fpsである場合に30フレーム分の時間に相当する。
 ステップS7で異常状態が所定時間以上継続しているとの判定結果を得た場合、CPU21はステップS14の減速制御処理を実行する。すなわち、車両を減速させるための制御を行う。
 一方、ステップS7で異常状態が所定時間以上継続してはいないと判定した場合、CPU21はステップS8に処理を進める。
 また、CPU21は、ステップS6で運転者が異常な状態にはないと判定した場合にも、ステップS8に処理を進める。
 ステップS8でCPU21は、車両OFF状態か否かを判定する。すなわち、車両をOFF状態とする操作が行われる等して車両がOFF状態に移行したか否かを判定する。
 車両がOFF状態でなければ、CPU21は先に説明したステップS5の姿勢認識処理に戻る。これにより、車両がON状態からOFF状態となるまでの間は、姿勢認識処理(S5)と姿勢認識処理結果に基づく異常検知判定(S6)が行われ、異常が認められた場合はその継続時間に応じてワーニング処理や減速制御が行われるようになる。
 ステップS8において、車両がOFF状態であると判定した場合、CPU21はステップS9以降に示す忘れ物検知に係る処理を実行する。
 具体的に、CPU21はステップS9で、ドア開閉を検出するまで待機する。すなわち、車両におけるドアが開状態となった後に閉状態となったことを検出するまで待機する。
 ドア開閉を検出したことに応じ、CPU21はステップS10で座席忘れ物検知処理を実行する。すなわち、センサ装置1で得られる階調画像について画像解析処理を行って、座席上の忘れ物、具体的には、鞄や幼児等といった特定物体についての検知を行う。
 ステップS10に続くステップS11でCPU21は、忘れ物があったか否かを判定する。本例では、ステップS10の検知処理において1フレーム分だけ忘れ物としての物体が検知されたことに応じて直ちに忘れ物ありとは判定せず、一定の期間、忘れ物の検知状態が継続したた場合に忘れ物ありとの判定結果を得る。ここでの一定の期間は、例えば1sであるとする。つまり、画像のフレームレートが60fpsである場合には60フレーム分の時間に相当する。
 ステップS11において忘れ物ありと判定した場合、CPU21はステップS15のワーニング処理を行う。すなわち、忘れ物がある旨を通知するための情報を車両に設けられたスピーカや表示部を介して出力させる処理を行う。
 CPU21は、ステップS15のワーニング処理を行ったことに応じて図8に示す一連の処理を終える。
 また、CPU21は、ステップS11で忘れ物なしと判定した場合も図8に示す一連の処理を終える。
 図9は、第二制御レベルに対応した処理のフローチャートである。なお図9において、既に図8で説明済みとなった処理と同様となる処理については同一ステップ番号を付して詳細説明を省略する。
 図8に示した第一制御レベルの場合との差は、車両がON状態となった以降、姿勢検出処理のみでなく注意度検出処理も行われる点である。
 具体的に、この場合のCPU21は、ステップS4の車両ON制御を実行したことに応じ、ステップS21の注意度検出処理を行う。すなわち、センサ装置1で得られる階調画像について画像解析処理を行って、運転者の注意度を検出する。例えば、注意度検出処理では、運転者の顔の表情、目の視差、目が開状態か閉状態かの識別等から、注意度を検出する。
 ステップS21に続くステップS22でCPU21は、注意度低下状態であるか否かの判定を行う。この判定は、ステップS21で検出される注意度が所定閾値以下であるか否かの判定結果に基づき行う。ただし、本例では、注意度が所定閾値以下であることが判定されたことに応じて直ちに注意度低下状態とは判定せず、一定の期間、注意度が閾値以下の状態が継続した場合に注意度低下状態であるとの判定結果を得る。ここでの一定の期間は、例えば1/20s(秒)であるとする。これは、フレームレートが60fpsである場合において3フレーム分の時間に相当する。
 ステップS22で運転者が注意度低下状態と判定した場合、CPU21はステップS24のワーニング処理を行う。すなわち、運転者が注意度低下状態にある旨を他の乗員に通知するためのワーニング処理であり、例えば、車両に設けられたスピーカから所定の音声を出力させる処理や、車両に設けられた表示部に所定情報を表示させる処理等を行う。
 一方、ステップS22で運転者が注意度低下状態ではないと判定した場合、CPU21はステップS23に進んで低下状態継続か否かを判定する。すなわち、ステップS22で注意度低下状態が検知されてからの注意度低下状態の継続時間が所定時間以上であるか否かを判定する。
 ここでの所定時間は、例えば1/4s(フレームレートが60fpsであれば15フレーム分)に設定される。
 ステップS23で注意度低下状態が所定時間以上継続しているとの判定結果を得た場合、CPU21はステップS14の減速制御処理を実行する。
 一方、注意度低下状態が所定時間以上継続していないと判定した場合、CPU21はステップS5の姿勢認識処理に処理を進める。この姿勢認識処理の結果、異常が認められなかった場合には、CPU21はステップS8に進んで車両OFF状態か否かを判定し、車両がOFF状態でなければ、ステップS21の注意度検出処理に戻る。
 これにより、第二制御レベルにおいては、車両がON状態となった以降、OFF状態となるまでの間、姿勢認識処理のみでなく注意度検出処理が行われ、それらの処理結果に応じてワーニング処理や車両の減速制御が行われるものとなる。
 なお、上記では運転者の異常検知に応じてワーニング処理や減速制御を発動させるための時間条件について具体例を挙げて説明したが、例示した時間条件は一例に過ぎず、他の条件を設定可能であることは言うまでもない。
 ここで、センサ装置1で得られる画像を用いた画像使用処理としては、上述したユーザ認証処理、姿勢認識処理、注意度検出処理、座席忘れ物検知処理以外にも、例えば快適な車内空間を提供するために、運転者等の乗員の感情を推定する感情推定処理を行うことも考えられる。
 この感情推定処理では、センサ装置1で得られる例えば距離画像から乗員の表情を検出し、該表情の検出結果に基づき感情を推定する。推定された感情に応じて、例えば車室の空調制御を行う等として、快適な車内空間が提供されるようにする。
<5.実施形態としての発光制御>
(5-1.処理種別に応じた発光制御)
 上記説明から理解されるように、本実施形態では、センサ装置1により得られる画像を用いて行われる画像使用処理として、ユーザ認証処理、姿勢認識処理、注意度検出処理、座席忘れ物検知処理(及び感情推定処理)が行われ得る。
 本実施形態において、情報処理装置2は、これら画像使用処理の処理種別に応じて、センサ装置1における発光部11の発光パターンの切り替え制御を行う。
 図10は、画像使用処理の処理種別に応じた発光パターンの切り替え制御に係る処理のフローチャートである。
 情報処理装置2のCPU21は、先の図8や図9に示した処理と平行として図10に示す処理を実行する。具体的に、本例におけるCPU21は、図8や図9の処理が実行中の状態において、図10に示す処理を繰り返し実行する。
 図示のようにCPU21は、ステップS101、S102、S103、S104の処理により、実行する画像使用処理の処理種別を判定する。具体的には、ユーザ認証処理、姿勢認識処理、注意度検出処理、座席忘れ物検知処理の何れの画像使用処理であるかを判定する。
 ステップS101でユーザ認証処理であると判定した場合、CPU21はステップS105でユーザ認証用発光パターン指示を行う。すなわち、ユーザ認証処理に対応した発光パターンにより発光部11を発光させるための指示をセンサ装置1、具体的には制御部14に対して行う。
 ステップS102で姿勢認識処理であると判定した場合、CPU21はステップS106の姿勢認識用発光パターン指示として、姿勢認識処理に対応した発光パターンにより発光部11を発光させるための指示を制御部14に対して行う。
 また、ステップS103で注意度検出処理であると判定した場合、CPU21はステップS107の注意度検出用発光パターン指示として、注意度検出処理に対応した発光パターンにより発光部11を発光させるための指示を制御部14に対して行う。
 また、ステップS104で座席忘れ物検知処理であると判定した場合、CPU21はステップS108の忘れ物検知用発光パターン指示として、座席忘れ物検知処理に対応した発光パターンにより発光部11を発光させるための指示を制御部14に対して行う。
 CPU21は、ステップS105、S106、S107、S108の何れかの指示を行ったことに応じて、図10に示す一連の処理を終える。
 上記のような処理が行われることで、センサ装置1における発光部11を、実行される画像使用処理の処理種別に応じた適切な発光パターンにより発光させることが可能となる。
 以下、具体的な発光パターン例について説明する。
 図11は、センサ装置1において階調画像を取得する場合に対応した発光パターンの例を示している。
 図中、「F」の表記は、1フレーム期間を意味している。センサ装置1において、インダイレクトToF方式により距離画像を得る際には、発光部11は数十MHzから数百MHzといった高速な周期で繰り返し発光させるが、階調画像を得る場合には、そのような高速な繰り返し発光を行う必要性はない。
 このため、階調画像を得る際には、発光駆動信号のONデューティを100%として、発光部11を所定期間にわたって連続的に発光させる。
 このようにONデューティ100%による連続発光を行うものとすれば、測距のための繰り返し発光を行う場合よりも、同一光量を実現する上での発光期間を短くすることができる。このため、階調画像についてフレームレート低下の抑制を図ることができる。
 ここで、センサ装置1としてはインダイレクトToF方式による測距を行うことが可能に構成されており、受光動作としては、先に説明したような電荷振り分けの動作を伴うものとなる。具体的には、フローティングディフュージョンFD-A、FD-Bに対する電荷振り分けを行い、この振り分け動作によりこれらフローティングディフュージョンFD-A、FD-Bに得られた電荷信号をそれぞれ読み出すという動作が単位受光動作とされる。
 前述した2phase方式の場合、このような単位受光動作は、1フレームにつき少なくとも1回行えばよいが、4phase方式の場合、この単位受光動作は1フレームにつき4回行うことになる。
 本例では、センサ装置1が4phase方式による測距を行うことが可能に構成された場合に対応した発光パターンの例を説明する。
 具体的にこの場合、階調画像取得時における発光パターンは、図示のように、期間Dsによる連続発光を1フレームにつき4回ずつ行う発光パターンとする。より具体的に、この場合における発光パターンとしては、1フレーム期間F内において4回行われる単位受光動作の実行周期に同期させて、各単位受光動作の実行期間ごとに、期間DsにわたってONデューティ100%の連続発光を行う発光パターンとする。
 ここで、期間Dsは、階調画像取得のための連続発光について、1回の単位受光動作に対応した発光期間を意味するものである。
 図12を参照し、この場合の発光パターンと電荷振り分け動作との関係を説明しておく。
 図12において、「Tx」で示す波形は、発光部11の発光駆動信号の波形である。
 前述のように本例では、4phase方式に対応して、発光駆動信号に対する位相差が0度、90度、180度、270度の各受光信号を得るようにされている。このため、例えば図示のように、1フレーム期間F内における最初の連続発光の期間Ds内では、発光駆動信号に対する位相差を0度とした転送駆動信号STG-A、同位相差を180度とした転送駆動信号STG-Bにより、フローティングディフュージョンFD-A、FD-Bに対する電荷振り分けを行い、次の連続発光の期間Ds内では、発光駆動信号に対する位相差を90度とした転送駆動信号STG-A、同位相差を270度とした転送駆動信号STG-Bにより、フローティングディフュージョンFD-A、FD-Bに対する電荷振り分けを行う。
 図示は省略しているが、3番目の連続発光の期間Ds内では、例えば1番目の期間Ds内と同様に、位相差を0度とした転送駆動信号STG-A、位相差を180度とした転送駆動信号STG-BによりフローティングディフュージョンFD-A、FD-Bに対する電荷振り分けを行い、4番目の期間Ds内では、2番目の期間Ds内と同様に、位相差を90度とした転送駆動信号STG-A、位相差を270度とした転送駆動信号STG-BによりフローティングディフュージョンFD-A、FD-Bに対する電荷振り分けを行うことが考えられる。この場合、1フレームにおける4回の単位受光動作により0度、90度、180度、270度の信号が2回得られることになる。この場合の4phase方式による測距演算では、これらの信号に基づいて距離の計算を行うことができる。例えば、上記のように2回得られる0度、90度、180度、270度の各信号についてそれぞれ平均をとる等してノイズ耐性を高めた上で、4phase方式による測距演算を行うことが考えられる。
 なお、4phase方式では、1フレーム期間F内で0度、90度、180度、270度の信号が少なくとも1回得られればよく、従って、1フレーム期間F内における発光部11の連続発光の回数は少なくとも2回であればよい。
 図12において、図中「Rx」で表す波形は、単位受光動作の実行期間を表した波形である。
 単位受光動作に関して、発光期間よりも受光期間(図中RxのON期間)の方が僅かに長くされているのは、対象物Obからの反射光Lrを漏れなく受光できるようにするためである。
 上記のように本例では、センサ装置1が4phase方式に対応した単位受光動作を行うように構成される関係から、階調画像を取得する場合に対応した発光パターンとしては、期間Dsによる連続発光を1フレーム期間F内において2の倍数回(少なくとも2回)行う発光パターンとしている。
 図13は、センサ装置1において距離画像を取得する場合に対応した発光パターンの例を示している。
 図中の最下段に示すように、距離画像を取得する場合には、ONデューティを50%とした繰り返し発光を行う。
 ここでは、4phase方式による測距が行われる前提で、このようなONデューティ50%による繰り返し発光が、1フレーム期間F内に2の倍数回(ここでは4回としている)行われる発光パターンを例示している。
 ここで、距離画像取得のための繰り返し発光について、1回の単位受光動作に対応した発光期間のことを図示のように期間Dmと表記する。
 なお、距離画像を取得する場合における発光駆動信号のONデューティは50%に限定されないが、該ONデューティは少なくとも50%以下とすることが望ましい。
 図14は、距離画像取得時に対応した繰り返し発光の期間Dmと電荷振り分け動作との関係を説明するための図である。
 距離画像取得時において、繰り返し発光の発光パターンとしては、1フレーム期間F内に行われるそれぞれの単位受光動作に対して同じとされる。すなわち、本例のように1フレーム期間F内で4回の単位受光動作が行われる場合、距離画像取得時に対応した発光パターンとしては、単位受光動作の実行周期に同期して期間Dmによる繰り返し発光を4回行う発光パターンとされる。
 なお、転送駆動信号STG-A、STG-Bを用いて行われる単位受光動作は距離画像取得時と階調画像取得時とで同様となるため重複説明は避ける。
 以下、画像使用処理の処理種別に応じた具体的な発光パターンの例について説明する。
 ユーザ認証処理は、図8の説明から理解されるように、車両が停車中であることを条件として行われる処理とされる。
 一方で、姿勢認識処理については、車両が走行中に行われる処理とされる。
 車両が走行中であるときは、車両が停車中である場合と比較して外光の変化が大きくなる傾向となる。一方で、距離画像を取得することを前提とした場合、繰り返し発光の期間Dmを長くすると、外光変化の影響を受けやすくなり、測距精度の低下を招いてしまう。
 また、ユーザ認証処理では顔認証や虹彩認証を行うため、光量を可能な限り上げて画像のコントラストや解像の度合いを向上させることが望ましい。
 そこで本例では、ユーザ認証処理(停止中処理)が行われる場合と、姿勢認識処理(走行中処理)が行われる場合とで、センサ部10の1フレームあたりの受光量を変化させるように発光パターンの切り替えを行う。具体的には、ユーザ認証処理が行われる場合は、姿勢認識処理が行われる場合よりも上記受光量が大きくなるように発光パターンの切り替えを行う。
 ここで、ユーザ認証処理は、階調画像を用いて行われる場合もある。また、走行中に行われる処理として、注意度検出処理は、階調画像を用いて行われる処理となる。
 階調画像についても、外光変化の影響を受ける。
 このため本例では、階調画像を用いて行われるユーザ認証処理と注意度検出処理についても、同様にセンサ部10の1フレームあたりの受光量を変化させるように発光パターンの切り替えを行う。つまりは、階調画像を用いたユーザ認証処理(停止中処理)が行われる場合と、同じく階調画像が用いられる注意度検出処理(走行中処理)が行われる場合とで、上記受光量を変化させるように発光パターンの切り替えを行う。具体的には、階調画像を用いたユーザ認証処理が行われる場合は、注意度検出処理が行われる場合よりも上記受光量が大きくなるように発光パターンの切り替えを行う。
 以下、画像使用処理の処理種別ごとの発光パターンについて、具体的な数値例を挙げる。
 先ず、ユーザ認証処理について、階調画像を用いるときの発光パターンについては、発光電流値(レーザパワー)=4A(アンペア)、期間Ds(ONデューティ100%の連続発光の期間)=560μsとする。
 また、ユーザ認証処理について、距離画像を用いるときの発光パターンは、本例では、繰り返し発光の期間Dmを、上記の期間Dsの2倍とする(実効的光量を階調画像を用いる場合と同等とするため)。具体的に、距離画像を用いるときの発光パターンについては、発光電流値=4A、期間Dm=1120μs(約1ms)とする。
 姿勢認識処理(本例では距離画像を用いて行われる)に対応した発光パターンは、距離画像を用いたユーザ認証処理時よりもセンサ部10の1フレームあたりの受光量が少なくなるようにする。例えば、発光電流値=4A、期間Dm=280μsとする。
 注意度検出処理(本例では階調画像を用いて行われる)に対応した発光パターンは、階調画像を用いたユーザ認証処理時よりもセンサ部10の1フレームあたりの受光量が少なくなるようにする。例えば、発光電流値=4A、期間Ds=280μsとする。
 座席忘れ物検知処理(本例では階調画像を用いて行われる)は、ユーザ認証処理と同様に停車中であることを条件に行われる画像使用処理となる。このため、走行中において階調画像を用いて行われる注意度検出処理時よりも、センサ部10の1フレームあたりの受光量が大きくなるようにする。例えば、発光電流値=4A、期間Dm=840μsとする。
 ここで、同じ停車中に行われる処理として、ユーザ認証処理は、運転者を対象とした処理、すなわち車内における前列席のみを対象とした処理となるのに対し、座席忘れ物検知処理は、前列席のみでなく後列席も対象とした処理となる。このため、上記数値例として示したように、本例では、座席忘れ物検知処理(後列対象処理:期間Ds=840μs)が行われる場合は、ユーザ認証処理(前列対象処理:期間Ds=560μs)が行われる場合よりも、1フレームあたりの発光量を増大させるように発光パターンの切り替えを行っている。
 これにより、後列席にも照射光Liが届きやすくなり、座席忘れ物検知処理の精度向上を図ることができる。
 なお、前述した感情推定処理については、距離画像を用いて行われる処理、且つ走行中に行われる処理となるが、対応する発光パターンについては例えば発光電流値=4A、期間Dm=280μsとすることが考えられる。
 このような発光パターンとした場合、同じ距離画像を用いる処理であって、停車中に行われるユーザ認証処理と比較して、センサ部10の1フレームあたりの受光量が少なくなるようにされている。つまり、この場合も、距離画像を用いる画像使用処理について、停車中処理が行われる場合は、走行中処理が行われる場合よりも上記受光量が大きくなるように発光パターンの切り替えを行うことに相当する。
 なお、上記した数値具体例について、期間Ds、期間Dm、発光電流値の数値はあくまでも一例に過ぎず、実際の実施形態等に応じて適宜変更が可能なものである。
 ここで、本例のセンサ装置1においては、図3に示した設定情報15aとして、上記で例示したような処理種別ごとの発光パターンを実現するための発光部11の動作設定情報が記憶されている。
 センサ装置1における制御部14は、情報処理装置2(CPU21)から処理種別に応じた発光パターン指示が行われたことに応じ、設定情報15aとして記憶された動作設定情報のうち、CPU21からの指示に対応する動作設定情報に基づいて発光部11の発光動作を制御する。これにより、発光部11が処理種別に応じた適切な発光パターンで発光することになる。
(5-2.HDR)
 続いて、センサ装置1により階調画像、距離画像についてのHDR(High Dynamic Range)画像を取得させるための発光部11の発光パターンについて説明する。
 図15は、階調画像についてのHDR画像を得るための発光パターンの説明図である。ここでは、例えば3枚の階調画像から1枚のHDR画像を得る場合を例示する。
 階調画像についてのHDR合成を行うにあたっては、合成対象となる複数の階調画像を得る際の階調画像ごとの発光パターンの切り替え制御として、階調画像ごとに発光部11の発光量を異ならせる制御を行う。具体的に、合成対象となる各階調画像を得るにあたっての発光パターンとしては、図15A、図15B、図15Cに示すように、ONデューティ100%による連続発光の期間Dsの長さをそれぞれ短、中、長とした発光パターンとする。
 前述のように本実施形態のセンサ装置1では、1フレーム期間F内において4回の単位受光動作を行う。そのため、この場合における期間Ds=短の発光パターンとしては、1フレーム期間F内において期間Ds=短による連続発光を4回繰り返す発光パターンとする。同様に、期間Ds=中、期間Ds=長の発光パターンについては、それぞれ、1フレーム期間F内において期間Ds=中、期間Ds=長による連続発光を4回繰り返す発光パターンとする。
 情報処理装置2のCPU21は、階調画像を用いる画像使用処理(例えば前述したユーザ認証処理や注意度検出処理等)において、階調画像としてHDR画像の取得が要求される場合に対応して、センサ装置1(制御部14)に対し、上記のようなHDR画像取得のための発光パターンにより発光部11を発光させるための制御を行う。具体的には、合成対象となる各階調画像を得るための発光パターンが、それぞれ期間Dsの長さが異なる発光パターンとなるように、制御部14に対する発光パターンの切り替え制御を行う。
 図16は、距離画像についてのHDR画像を得るための発光パターンの説明図である。例えば、3枚の距離画像から1枚のHDR画像を得る場合を例示する。
 距離画像についてのHDR合成を行うにあたっては、合成対象となる複数の距離画像を得る際の距離画像ごとの発光パターンの切り替え制御として、距離画像ごとに測距のための繰り返し発光の期間Dmの長さを異ならせる制御を行う。具体的に、合成対象となる各距離画像を得るにあたっての発光パターンとしては、図16A、図16B、図16Cに示すように、繰り返し発光の期間Dmの長さをそれぞれ短、中、長とした発光パターンとする。
 本実施形態では、1フレーム期間F内に4回の単位受光動作が行われることに対応するため、これら期間Dm=短、期間Dm=中、期間Dm=長による実際の発光パターンとしては、それぞれ1フレーム期間F内において期間Dmによる連続発光を4回繰り返す発光パターンとする。
 なお、期間Dm=短、中、長それぞれの具体例としては、例えば短=140μs、中=280μs、長=420μsとすることが考えられる。
 情報処理装置2のCPU21は、例えば前述したユーザ認証処理や姿勢認識処理等、距離画像を用いる画像使用処理において、距離画像としてHDR画像の取得が要求される場合に対応して、センサ装置1の制御部14に対し、上記のようなHDR画像取得のための発光パターンにより発光部11を発光させるための制御を行う。具体的には、合成対象となる各距離画像を得るための発光パターンが、それぞれ期間Dmの長さが異なる発光パターンとなるように、制御部14に対する発光パターンの切り替え制御を行う。
 ここで、繰り返し発光の期間Dmを「長」とした場合は、単位受光動作中における実効的発光量が大となるため、遠景物体からの反射光Lrが得られやすくなる一方で、近景物体にとっては光量が過大となり、近景物体の距離情報にノイズが混入しやすくなる(階調画像において光量が過大であると白飛びが発生するイメージに近い)。逆に、繰り返し発光の期間Dmを「短」とした場合は、単位受光動作中における実効的発光量が小となるため、遠景物体からの反射光Lrが得られ難くなる一方で、近景物体にとっては光量が適切となり近景物体について低ノイズな距離情報を得やすくなる。
 距離画像のHDR合成としては、繰り返し発光の期間Dmについて、期間Dm=短により得た距離画像に関しては近景の画素(例えば距離情報の信頼度が高い画素)のみを抽出し、期間Dm=中により得た距離画像に関しては中景の画素(近景と遠景の間に位置する物体の距離情報が得られている画素)のみを抽出し、期間Dm=長により得た距離画像に関しては遠景の画素のみを抽出し、それら抽出した各画素の距離情報を1枚の距離画像として合成する、という手法により行うことが考えられる。
 例えばこのような手法により各距離画像の合成を行うことで、近景から遠景までノイズ抑制が図られた距離画像を得ることができる。換言すれば、近景物体から遠景物体まで適正に距離情報を示す距離画像を得ることができる。
 なお、上記ではHDR画像を得るための発光パターンの例として、期間Dm=短、期間Dm=中、期間Dm=長の3パターンの発光パターンを採用するものとしたが、用途により、例えば期間Dm=短、期間Dm=中のみ、或いは期間Dm=中、期間Dm=長のみのような2パターンの発光パターンを採用することもできる。4パターン以上の発光パターンの採用も可能である。
 図17は、HDR合成に係る変形例としての発光パターンについての説明図である。
 図示のようにこの変形例においては、1フレーム期間F内において、距離画像取得のための期間Dmによる繰り返し発光を複数回行うと共に、各期間Dmの間に、階調画像取得のための期間Dsによる連続発光を行う。このとき、階調画像取得のための各連続発光については、それぞれ期間Dsの長さを異ならせる(図中では期間Dsを短、中、長の順で異ならせている)。
 このような発光パターンとすることで、距離画像とHDR画像としての階調画像とを取得するにあたり、距離画像を取得するためのフレーム期間と階調画像を取得するためのフレーム期間とを個別に設ける必要がなくなり、フレームレートの低下抑制を図ることができる。
<6.変形例>
 なお、実施形態としては上記により説明した具体例に限定されるものではなく、多様な変形例としての構成を採り得る。
 例えば、上記では、車内監視の例において、センサ装置1を車内に一つのみ設ける例を挙げたが、例えば前列席用に一つ、後列席用に一つの計二つを設ける等、センサ装置1を複数設けた構成とすることも可能である。
 また、本技術については、車内監視への適用に限定されるものでなく、例えば宅内や社内等の屋内監視の用途や、車外、屋外の監視用途等、他用途への適用も可能である。
 また、上記では、HDR画像を得るための発光パターンの切り替え制御に関して、インダイレクトToF方式に対応したセンシングモジュールSMを用いる前提としたが、HDR画像を得るための発光パターンの切り替え制御としては、例えば、ダイレクトToF用やLiDAR(Light Detection and Ranging)用のセンシングモジュールや、IRセンサ(IR光を受光可能な画像センサ)とIR発光部を組み合わせたセンシングモジュール、RGBIRセンサとIR発光部を組み合わせたセンシングモジュール等、発光部と、発光部より発せられ対象物で反射された光を受光するセンサ部とを有するセンシングモジュールが用いられる場合に広く好適に適用可能なものである。
<7.実施形態のまとめ>
 上記により説明したように、実施形態としての制御装置(情報処理装置2)は、発光部(同11)と、発光部より発せられ対象物で反射された光についてインダイレクトToF方式に対応した受光動作が可能に構成されたセンサ部(同10)とを有するセンシングモジュール(同SM)における発光部の発光パターンについて、少なくとも二種以上の発光パターン間での切り替え制御を行う制御部(CPU21)を備えたものである。
 インダイレクトToF方式に対応したセンサ部は、インダイレクトToF方式による距離画像の取得のみでなく、IR(Infrared:赤外線)画像等、発光部の発光波長帯の光についての階調画像を得るように構成することが可能である。上記のように発光部の発光パターンの切り替えが可能とされることで、例えば距離画像取得用の発光パターンと階調画像取得用の発光パターンとの切り替えを行ったり、或いはセンサ部により得られる画像を用いて行われる画像使用処理の処理種別に応じた発光パターンに切り替えを行う等、センサ部の用途に応じた適切な発光パターンに切り替えることが可能とされる。
 従って、インダイレクトToF方式に対応した受光動作が可能に構成されたセンサ部について、用途に応じた適切な画像取得が行われるようにすることができる。
 また、実施形態としての制御装置においては、制御部は、センサ部により得られる画像を用いて行われる画像使用処理の処理種別に応じて発光パターンの切り替え制御を行っている(図10から図14等参照)。
 画像使用処理としては、距離画像を用いた被写体の姿勢認識処理や、階調画像を用いた被写体の認証処理等、様々な処理がある。上記構成によれば、例えばこれら姿勢認識処理や認証処理の別等としての画像使用処理の処理種別に応じて、適切とされる発光パターンに切り替えを行うことが可能とされる。
 従って、それぞれの画像使用処理において適切とされる態様による画像が使用されるように図ることができる。
 さらに、実施形態としての制御装置においては、センサ部は、階調画像の取得が可能に構成され、制御部は、画像使用処理が距離画像を用いる処理である場合と階調画像を用いる処理である場合とで発光パターンの切り替えが行われるように制御している(図12から図14等参照)。
 これにより、距離画像を要する画像使用処理が行われる場合には距離画像の取得に適した発光パターンにより発光部を発光させ、階調画像を要する画像使用処理が行われる場合には距離画像の取得に適した発光パターンにより発光部を発光させることが可能となる。
 従って、それぞれの画像使用処理において適切な画像が使用されるように図ることができる。
 さらにまた、実施形態としての制御装置においては、制御部は、画像使用処理が距離画像を用いる処理である場合には、ONデューティが50%以下の繰り返し発光による発光パターンにより発光部を発光させ、画像使用処理が階調画像を用いる処理である場合にはONデューティを100%とした発光パターンにより発光部を発光させている。
 これにより、距離画像、階調画像のそれぞれについて適切な画像取得を実現できると共に、階調画像についてフレームレート低下の抑制を図ることができる。
 また、実施形態としての制御装置においては、制御部は、処理種別に応じて、センサ部の1フレームあたりの受光量を変化させるように発光パターンの切り替え制御を行っている。
 例えば画像使用処理としてユーザの認証処理や注意度検出処理が行われる場合には処理精度向上のため高解像画像が要請されることから、コントラスト向上のためセンサ部の受光量を向上させたいといったように、画像使用処理の処理種別が異なれば、受光量を変化させたい場合がある。
 上記構成によれば、画像使用処理の処理種別に応じた適切な受光量となるように発光パターンを制御することができる。
 さらに、実施形態としての制御装置においては、制御部は、測距のための繰り返し発光を行う期間である繰り返し発光期間(期間Dm)の長さが距離画像を用いる画像使用処理の処理種別に応じて変化されるように発光パターンの切り替え制御を行っている。
 インダイレクトToF方式による測距においては、測距用の光として例えばIR光等の可視光帯以外の光を用いる場合あっても、1フレームあたりの受光期間が長いと、外光の変化が大きい場合にその影響を受け易くなる。一方で、距離画像を使用する画像使用処理としては、例えば停車中に行われる処理と走行中に行われる処理等、外光変化が小さいシーンで行われる処理と外光変化が大きいシーンで行われる処理とが存在する場合がある。
 上記構成によれば、距離画像を使用する画像使用処理うち、例えば上記のような外光変化が大きいシーン、小さいシーンでそれぞれ行われる処理について、センサ部の1フレームあたりの受光量を適正化することが可能となり、画像使用処理の処理精度向上を図ることができる。
 さらにまた、実施形態としての制御装置においては、制御部は、合成対象となる複数の距離画像を得る際の距離画像ごとの発光パターンの切り替え制御として、距離画像ごとに測距のための繰り返し発光期間の長さを異ならせる制御を行っている(図16等参照)。
 これにより、繰り返し発光期間の長さを異ならせた複数枚の距離画像を得ることが可能となる。
 従って、それらの距離画像を合成することで、近景物体から遠景物体まで適正に距離情報を示す距離画像を得ることができる。
 また、実施形態としての制御装置においては、制御部は、合成対象となる複数の階調画像を得る際の階調画像ごとの発光パターンの切り替え制御として、階調画像ごとに発光部の発光量を異ならせる制御を行っている。
 これにより、例えばIR画像等、特定波長帯の光を選択的に受光して得られる階調画像について、明るさの異なる複数の画像を得ることが可能とされる。
 従って、インダイレクトToF方式に対応したセンサ部を用いて階調画像を生成する場合において、階調画像のHDR合成を行うことができる。
 さらに、実施形態としての制御装置においては、車両に搭載されたセンシングモジュールにおける発光部について発光パターンの切り替え制御を行う車載装置とされている。
 これにより、車内の乗員監視等の車内監視に用いられるセンサ部について、センサ部の用途に応じた適切な発光パターンに切り替えることが可能とされる。
 従って、車内監視に用いられるセンサ部について、用途に応じた適切な画像取得が行われるようにすることができる。
 さらにまた、実施形態としての制御装置においては、センサ部により得られる画像を用いて行われる画像使用処理として、車両が停車中であることを条件に行われる停車中処理と、車両が走行中に行われる走行中処理とがあり、制御部は、停車中処理が行われる場合と走行中処理が行われる場合とで、センサ部の1フレームあたりの受光量を変化させるように発光パターンの切り替え制御を行っている。
 停車中は外光変化が小さく走行中は外光変化が大きいと言える。また一方で、例えば距離画像を得る際に繰り返し発光期間を長くする(つまり1フレームあたりの受光量を多くする)と、外光変化の影響を受けやすくなり測距精度の低下を招く。上記構成によれば、例えば外光変化が大きい走行中処理時には1フレームあたりの受光量を停車中処理時よりも少なくして測距精度の低下防止を図る等、外光変化による影響を考慮した適切な受光量調整を行うことが可能となる。
 従って、画像使用処理に用いる画像として外光変化の大きさに応じた適切な画像が得られるように図ることができ、画像使用処理の精度向上を図ることができる。
 また、実施形態としての制御装置においては、車両は座席として運転席を含む前列席と該前列席よりも後側の後列席とを有し、センサ部により得られる画像を用いて行われる画像使用処理として、前列席と後列席のうち前列席側のみを対象とした前列対象処理と、後列席を対象に含む後列対象処理とがあり、制御部は、後列対象処理が行われる場合は前列対象処理が行われる場合よりも1フレームあたりの発光量を増大させるように発光パターンの切り替え制御を行っている。
 これにより、後列席を対象に含む後列対象処理が行われる場合に対応して発光量を増大させることが可能となる。
 従って、後列対象処理の精度向上を図ることができる。
 実施形態としての制御方法は、発光部と、発光部より発せられ対象物で反射された光についてインダイレクトToF方式に対応した受光動作が可能に構成されたセンサ部とを有するセンシングモジュールにおける発光部の発光パターンについて、少なくとも二種以上の発光パターン間での切り替え制御を行う制御方法である。
 このような制御方法によっても、上記した実施形態としての制御装置と同様の作用及び効果を得ることができる。
 また、実施形態の別の制御装置は、発光部と、発光部より発せられ対象物で反射された光を受光するセンサ部とを有するセンシングモジュールにおける発光部の発光パターンの切り替え制御を行う制御部を備え、制御部は、合成対象となる複数の画像を得る際の画像ごとの発光パターンの切り替え制御として、画像ごとに、センサ部の1フレームあたりの受光量を変化させる制御を行うものである。
 これにより、発光部と、発光部より発せられ対象物で反射された光を受光するセンサ部とを有するセンシングモジュールにより画像センシングを行うシステムにおいて、HDR画像の生成を行うことができる。
 なお、本明細書に記載された効果はあくまでも例示であって限定されるものではなく、また他の効果があってもよい。
<8.本技術>
 なお本技術は以下のような構成も採ることができる。
(1)
 発光部と、前記発光部より発せられ対象物で反射された光についてインダイレクトToF方式に対応した受光動作が可能に構成されたセンサ部とを有するセンシングモジュールにおける前記発光部の発光パターンについて、少なくとも二種以上の発光パターン間での切り替え制御を行う制御部を備えた
 制御装置。
(2)
 前記制御部は、前記センサ部により得られる画像を用いて行われる画像使用処理の処理種別に応じて前記発光パターンの切り替え制御を行う
 前記(1)に記載の制御装置。
(3)
 前記センサ部は、階調画像の取得が可能に構成され、
 前記制御部は、前記画像使用処理が距離画像を用いる処理である場合と階調画像を用いる処理である場合とで前記発光パターンの切り替えが行われるように制御する
 前記(2)から(4)の何れかに記載の制御装置。
(4)
 前記制御部は、前記画像使用処理が距離画像を用いる処理である場合には、ONデューティが50%以下の繰り返し発光による発光パターンにより前記発光部を発光させ、前記画像使用処理が階調画像を用いる処理である場合にはONデューティを100%とした発光パターンにより前記発光部を発光させる
 前記(3)に記載の制御装置。
(5)
 前記制御部は、前記処理種別に応じて、前記センサ部の1フレームあたりの受光量を変化させるように前記発光パターンの切り替え制御を行う
 前記(2)から(4)の何れかに記載の制御装置。
(6)
 前記制御部は、測距のための繰り返し発光を行う期間である繰り返し発光期間の長さが距離画像を用いる前記画像使用処理の処理種別に応じて変化されるように前記発光パターンの切り替え制御を行う
 前記(2)から(5)の何れかに記載の制御装置。
(7)
 前記制御部は、合成対象となる複数の距離画像を得る際の前記距離画像ごとの前記発光パターンの切り替え制御として、前記距離画像ごとに測距のための繰り返し発光期間の長さを異ならせる制御を行う
 前記(1)から(6)の何れかに記載の制御装置。
(8)
 前記制御部は、合成対象となる複数の階調画像を得る際の前記階調画像ごとの前記発光パターンの切り替え制御として、前記階調画像ごとに前記発光部の発光量を異ならせる制御を行う
 前記(1)から(6)の何れかに記載の制御装置。
(9)
 車両に搭載された前記センシングモジュールにおける前記発光部について発光パターンの切り替え制御を行う車載装置とされた
 前記(1)から(8)の何れかに記載の制御装置。
(10)
 前記センサ部により得られる画像を用いて行われる画像使用処理として、前記車両が停車中であることを条件に行われる停車中処理と、前記車両が走行中に行われる走行中処理とがあり、
 前記制御部は、前記停車中処理が行われる場合と前記走行中処理が行われる場合とで、前記センサ部の1フレームあたりの受光量を変化させるように前記発光パターンの切り替え制御を行う
 前記(9)に記載の制御装置。
(11)
 前記車両は座席として運転席を含む前列席と該前列席よりも後側の後列席とを有し、
 前記センサ部により得られる画像を用いて行われる画像使用処理として、前記前列席と前記後列席のうち前記前列席側のみを対象とした前列対象処理と、前記後列席を対象に含む後列対象処理とがあり、
 前記制御部は、前記後列対象処理が行われる場合は前記前列対象処理が行われる場合よりも1フレームあたりの発光量を増大させるように前記発光パターンの切り替え制御を行う
 前記(9)又は(10)に記載の制御装置。
(12)
 発光部と、前記発光部より発せられ対象物で反射された光についてインダイレクトToF方式に対応した受光動作が可能に構成されたセンサ部とを有するセンシングモジュールにおける前記発光部の発光パターンについて、少なくとも二種以上の発光パターン間での切り替え制御を行う
 制御方法。
1 センサ装置
2 情報処理装置
3 制御対象機器
Fv 視野
SM センシングモジュール
Ob 対象物
Li 照射光
Lr 反射光
10 センサ部
11 発光部
11a 発光素子
12 画像生成部
13 画像メモリ
14 制御部
15 不揮発性メモリ
15a 設定情報
16 通信I/F(インタフェース)
Px 画素
111 画素アレイ部
120 行駆動線
121,121-A,121-B ゲート駆動線
122,122-A,122-B 垂直信号線
PD フォトダイオード
FD,FD-A,FD-B フローティングディフュージョン
TG,TG-A,TG-B 転送トランジスタ
STG,STG-A,STG-B 転送駆動信号
SSEL 選択信号
Ds,Dm 期間

Claims (13)

  1.  発光部と、前記発光部より発せられ対象物で反射された光についてインダイレクトToF方式に対応した受光動作が可能に構成されたセンサ部とを有するセンシングモジュールにおける前記発光部の発光パターンについて、少なくとも二種以上の発光パターン間での切り替え制御を行う制御部を備えた
     制御装置。
  2.  前記制御部は、前記センサ部により得られる画像を用いて行われる画像使用処理の処理種別に応じて前記発光パターンの切り替え制御を行う
     請求項1に記載の制御装置。
  3.  前記センサ部は、階調画像の取得が可能に構成され、
     前記制御部は、前記画像使用処理が距離画像を用いる処理である場合と階調画像を用いる処理である場合とで前記発光パターンの切り替えが行われるように制御する
     請求項2に記載の制御装置。
  4.  前記制御部は、前記画像使用処理が距離画像を用いる処理である場合には、ONデューティが50%以下の繰り返し発光による発光パターンにより前記発光部を発光させ、前記画像使用処理が階調画像を用いる処理である場合にはONデューティを100%とした発光パターンにより前記発光部を発光させる
     請求項3に記載の制御装置。
  5.  前記制御部は、前記処理種別に応じて、前記センサ部の1フレームあたりの受光量を変化させるように前記発光パターンの切り替え制御を行う
     請求項2に記載の制御装置。
  6.  前記制御部は、測距のための繰り返し発光を行う期間である繰り返し発光期間の長さが距離画像を用いる前記画像使用処理の処理種別に応じて変化されるように前記発光パターンの切り替え制御を行う
     請求項2に記載の制御装置。
  7.  前記制御部は、合成対象となる複数の距離画像を得る際の前記距離画像ごとの前記発光パターンの切り替え制御として、前記距離画像ごとに測距のための繰り返し発光期間の長さを異ならせる制御を行う
     請求項1に記載の制御装置。
  8.  前記制御部は、合成対象となる複数の階調画像を得る際の前記階調画像ごとの前記発光パターンの切り替え制御として、前記階調画像ごとに前記発光部の発光量を異ならせる制御を行う
     請求項1に記載の制御装置。
  9.  車両に搭載された前記センシングモジュールにおける前記発光部について発光パターンの切り替え制御を行う車載装置とされた
     請求項1に記載の制御装置。
  10.  前記センサ部により得られる画像を用いて行われる画像使用処理として、前記車両が停車中であることを条件に行われる停車中処理と、前記車両が走行中に行われる走行中処理とがあり、
     前記制御部は、前記停車中処理が行われる場合と前記走行中処理が行われる場合とで、前記センサ部の1フレームあたりの受光量を変化させるように前記発光パターンの切り替え制御を行う
     請求項9に記載の制御装置。
  11.  前記車両は座席として運転席を含む前列席と該前列席よりも後側の後列席とを有し、
     前記センサ部により得られる画像を用いて行われる画像使用処理として、前記前列席と前記後列席のうち前記前列席側のみを対象とした前列対象処理と、前記後列席を対象に含む後列対象処理とがあり、
     前記制御部は、前記後列対象処理が行われる場合は前記前列対象処理が行われる場合よりも1フレームあたりの発光量を増大させるように前記発光パターンの切り替え制御を行う
     請求項9に記載の制御装置。
  12.  発光部と、前記発光部より発せられ対象物で反射された光についてインダイレクトToF方式に対応した受光動作が可能に構成されたセンサ部とを有するセンシングモジュールにおける前記発光部の発光パターンについて、少なくとも二種以上の発光パターン間での切り替え制御を行う
     制御方法。
  13.  発光部と、前記発光部より発せられ対象物で反射された光を受光するセンサ部とを有するセンシングモジュールにおける前記発光部の発光パターンの切り替え制御を行う制御部を備え、
     前記制御部は、
     合成対象となる複数の画像を得る際の前記画像ごとの前記発光パターンの切り替え制御として、前記画像ごとに、前記センサ部の1フレームあたりの受光量を変化させる制御を行う
     制御装置。
PCT/JP2022/010640 2021-06-17 2022-03-10 制御装置、制御方法 WO2022264557A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US18/568,302 US20240272284A1 (en) 2021-06-17 2022-03-10 Control device and control method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021100903A JP2023000211A (ja) 2021-06-17 2021-06-17 制御装置、制御方法
JP2021-100903 2021-06-17

Publications (1)

Publication Number Publication Date
WO2022264557A1 true WO2022264557A1 (ja) 2022-12-22

Family

ID=84526109

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/010640 WO2022264557A1 (ja) 2021-06-17 2022-03-10 制御装置、制御方法

Country Status (3)

Country Link
US (1) US20240272284A1 (ja)
JP (1) JP2023000211A (ja)
WO (1) WO2022264557A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010025906A (ja) * 2008-07-24 2010-02-04 Panasonic Electric Works Co Ltd 距離画像センサ
JP2016090436A (ja) * 2014-11-06 2016-05-23 株式会社デンソー 光飛行型測距装置
WO2020175117A1 (ja) * 2019-02-25 2020-09-03 ソニーセミコンダクタソリューションズ株式会社 測距装置、測距方法、並びにプログラム
US20200341126A1 (en) * 2019-04-05 2020-10-29 Rockwell Automation Technologies, Inc. Industrial safety sensor

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010025906A (ja) * 2008-07-24 2010-02-04 Panasonic Electric Works Co Ltd 距離画像センサ
JP2016090436A (ja) * 2014-11-06 2016-05-23 株式会社デンソー 光飛行型測距装置
WO2020175117A1 (ja) * 2019-02-25 2020-09-03 ソニーセミコンダクタソリューションズ株式会社 測距装置、測距方法、並びにプログラム
US20200341126A1 (en) * 2019-04-05 2020-10-29 Rockwell Automation Technologies, Inc. Industrial safety sensor

Also Published As

Publication number Publication date
US20240272284A1 (en) 2024-08-15
JP2023000211A (ja) 2023-01-04

Similar Documents

Publication Publication Date Title
WO2019087783A1 (ja) 撮像装置及び撮像システム
CN109716755B (zh) 成像器件
WO2018159289A1 (ja) 測距装置、測距方法、および測距システム
WO2021085128A1 (ja) 測距装置、測定方法、および、測距システム
TWI829718B (zh) 時間計測元件及時間計測裝置
KR20210018257A (ko) 고체 촬상 소자, 촬상 장치, 및 고체 촬상 소자의 제어 방법
US11503231B2 (en) Imaging device, imaging system, and moving body
TW202025506A (zh) 受光元件及測距系統
US20120120007A1 (en) Transparent display apparatus and method of controlling the same
KR20240036035A (ko) 센서 디바이스 및 센서 디바이스 작동 방법
JP7250454B2 (ja) 撮像装置、撮像システム、移動体
WO2022264557A1 (ja) 制御装置、制御方法
TWI757751B (zh) 測距感測器、信號處理方法及測距模組
US20200014871A1 (en) Imaging device, imaging system, and moving body
JPWO2018142706A1 (ja) 撮像システム、撮像装置、及び制御装置
CN118435023A (zh) 深度传感器设备和用于操作深度传感器设备的方法
US20230254604A1 (en) Photodetection device and electronic apparatus
US20230341520A1 (en) Light receiving device, drive control method therefor, and distance measuring device
US20220413109A1 (en) Distance measurement sensor, distance measurement system, and electronic apparatus
US20220128660A1 (en) Light receiving device, histogram generation method, and distance measurement system
CN117716387A (zh) 固态成像设备和用于操作固态成像设备的方法
WO2020162128A1 (ja) 光源装置および電子機器
US11356656B2 (en) Signal processing device, signal processing method, and signal processing system
WO2022254792A1 (ja) 受光素子およびその駆動方法、並びに、測距システム
JP7513829B1 (ja) 深度センサおよび深度センサの動作方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22824557

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 18568302

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 22824557

Country of ref document: EP

Kind code of ref document: A1