WO2019031441A1 - 受光素子アレイ、光検出装置、運転支援システム、及び自動運転システム - Google Patents

受光素子アレイ、光検出装置、運転支援システム、及び自動運転システム Download PDF

Info

Publication number
WO2019031441A1
WO2019031441A1 PCT/JP2018/029382 JP2018029382W WO2019031441A1 WO 2019031441 A1 WO2019031441 A1 WO 2019031441A1 JP 2018029382 W JP2018029382 W JP 2018029382W WO 2019031441 A1 WO2019031441 A1 WO 2019031441A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
light
detection device
light receiving
mode
Prior art date
Application number
PCT/JP2018/029382
Other languages
English (en)
French (fr)
Inventor
木村 俊介
Original Assignee
株式会社デンソー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社デンソー filed Critical 株式会社デンソー
Publication of WO2019031441A1 publication Critical patent/WO2019031441A1/ja
Priority to US16/782,476 priority Critical patent/US11531351B2/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4816Constructional features, e.g. arrangements of optical elements of receivers alone
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4861Circuits for detection, sampling, integration or read-out
    • G01S7/4863Detector arrays, e.g. charge-transfer gates
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14643Photodiode arrays; MOS imagers
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L31/00Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof
    • H01L31/08Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof in which radiation controls flow of current through the device, e.g. photoresistors
    • H01L31/10Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof in which radiation controls flow of current through the device, e.g. photoresistors characterised by potential barriers, e.g. phototransistors
    • H01L31/101Devices sensitive to infrared, visible or ultraviolet radiation
    • H01L31/102Devices sensitive to infrared, visible or ultraviolet radiation characterised by only one potential barrier
    • H01L31/107Devices sensitive to infrared, visible or ultraviolet radiation characterised by only one potential barrier the potential barrier working in avalanche mode, e.g. avalanche photodiodes
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L31/00Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof
    • H01L31/12Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof structurally associated with, e.g. formed in or on a common substrate with, one or more electric light sources, e.g. electroluminescent light sources, and electrically or optically coupled thereto
    • H01L31/14Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof structurally associated with, e.g. formed in or on a common substrate with, one or more electric light sources, e.g. electroluminescent light sources, and electrically or optically coupled thereto the light source or sources being controlled by the semiconductor device sensitive to radiation, e.g. image converters, image amplifiers or image storage devices
    • H01L31/147Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof structurally associated with, e.g. formed in or on a common substrate with, one or more electric light sources, e.g. electroluminescent light sources, and electrically or optically coupled thereto the light source or sources being controlled by the semiconductor device sensitive to radiation, e.g. image converters, image amplifiers or image storage devices the light sources and the devices sensitive to radiation all being semiconductor devices characterised by potential barriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/57Control of the dynamic range
    • H04N25/58Control of the dynamic range involving two or more exposures
    • H04N25/581Control of the dynamic range involving two or more exposures acquired simultaneously
    • H04N25/583Control of the dynamic range involving two or more exposures acquired simultaneously with different integration times
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/703SSIS architectures incorporating pixels for producing signals other than image signals
    • H04N25/705Pixels for depth measurement, e.g. RGBZ
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • H04N25/77Pixel circuitry, e.g. memories, A/D converters, pixel amplifiers, shared circuits or shared components
    • H04N25/778Pixel circuitry, e.g. memories, A/D converters, pixel amplifiers, shared circuits or shared components comprising amplifiers shared between a plurality of pixels, i.e. at least one part of the amplifier must be on the sensor array itself
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4804Auxiliary means for detecting or identifying lidar signals or the like, e.g. laser illuminators
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L31/00Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof
    • H01L31/08Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof in which radiation controls flow of current through the device, e.g. photoresistors
    • H01L31/10Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof in which radiation controls flow of current through the device, e.g. photoresistors characterised by potential barriers, e.g. phototransistors

Definitions

  • the present disclosure relates to a light receiving element array used for distance measurement and imaging, a light detecting device using the light receiving element array, and various systems using the light detecting device.
  • Various sensors are mounted on the vehicle in order to obtain various information used for driving assistance and the like for the driver.
  • a sensor is known that generates a distance image using an optical time-of-flight measurement method (that is, TOF: Time Of Flight) that measures the time until light is emitted and the reflected light is received.
  • TOF Time Of Flight
  • This type of sensor needs to detect various objects such as falling objects on the road, vehicles traveling ahead, pedestrians, etc.
  • the distance to the object to be detected also varies from short distance to long distance It is. Therefore, the light receiving element is required to have a wide dynamic range.
  • Patent Document 1 in a light receiving element array configured by arranging a plurality of photodiodes, combining photodiodes with different sensitivities realized by making the size and the like of the light receiving surface different.
  • a light receiving element array includes one or more unit element blocks. Each of the unit element blocks has a plurality of types of light receiving elements having different element structures.
  • a plurality of types of light receiving elements having different characteristics such as sensitivity are combined due to different element structures, so that a wide dynamic range can be realized without changing the size of each light receiving element.
  • a light detection device includes a light emitting unit, a light receiving element array, and a distance measuring unit.
  • the light emitting unit emits light toward a preset detection area.
  • the light receiving element array includes one or more unit element blocks that receive light coming from the detection region, and each of the unit element blocks is a first element that is a photodiode having an electron multiplying function, and an electron multiplying function And a second element which is a photodiode having no
  • the distance measuring unit measures the distance using a detection signal read from the light receiving element array.
  • the dynamic range can be expanded in the direction in which the sensitivity increases, without changing the size of each light receiving element, as compared to the case where light receiving elements having different sensitivities are realized only with the photodiodes. .
  • the ability to measure distance can be improved.
  • FIG. 3 is a circuit diagram showing a configuration of a reading unit.
  • FIG. 7 is a timing chart showing the operation of the reading unit realized by the control of the drive control unit. It is an explanatory view showing a waveform and sampling timing of a detection signal which is an object of AD conversion. It is a flowchart of intensity control processing. It is explanatory drawing which shows the other example of arrangement
  • FIG. 13 is a timing chart showing the operation of the reading unit in the second embodiment. It is explanatory drawing which shows the light emission part in 3rd Embodiment. It is a circuit diagram showing a unit circuit in a 3rd embodiment. It is a block diagram which shows the example of a connection of the unit circuit shown in FIG. It is a circuit diagram showing a unit circuit in a 4th embodiment. FIG. 18 is a timing chart showing the operation of the reading unit in the fourth embodiment. It is a flow chart of mode setting processing in a 5th embodiment. It is explanatory drawing which shows the relationship between an operation mode and a scanning direction. It is a circuit diagram showing the modification of a unit circuit. It is a circuit diagram showing the modification of a unit circuit.
  • the light detection device 1 may also include a light emitting unit 10, a scanning unit 20, an information acquisition unit 40, and a control unit 50.
  • the light receiving unit 30 may be configured as a one-chip semiconductor integrated circuit.
  • the light emitting unit 10 may be included in this semiconductor integrated circuit.
  • the light emitting unit 10 includes, for example, a laser diode as a light emitting element.
  • the light emitting unit 10 repeatedly irradiates pulsed laser light (hereinafter, irradiation light) in accordance with a light emission trigger which is an instruction from the control unit 50.
  • the light emission intensity of the light emitting element is variably set in accordance with an instruction from the control unit 50. For the light emission intensity, for example, two types of settings of high output and low output are prepared.
  • the scanning unit 20 includes a mirror unit 21 and a drive unit 22.
  • the mirror portion 21 is formed in a plate shape, and both surfaces thereof are used as reflective surfaces.
  • the mirror unit 21 irradiates light in a direction according to the rotation angle of the mirror unit 21 by reflecting the irradiation light from the light emitting unit 10. Also, the mirror unit 21 reflects the reflected light from the target that has reflected the irradiation light, which comes from the direction according to the rotation angle of the mirror unit 21, and outputs the reflected light to the light receiving unit 30.
  • the drive unit 22 rotationally drives the mirror unit 21 in accordance with an instruction from the control unit 50.
  • the detection area having a preset angle range in the horizontal plane is scanned by the irradiation light emitted from the light emitting unit 10 via the mirror unit 21.
  • the horizontal plane here is a plane perpendicular to the rotation axis of the mirror unit 21.
  • the light receiving unit 30 includes a light receiving element array 31, a reading unit 32, a distance measuring unit 33, and an image generating unit 34.
  • the light receiving element array 31 includes one or more unit element blocks B as shown in FIG.
  • the unit element block B includes a first element E1 and a second element E2 having different element structures.
  • the first element E1 and the second element E2 are arranged along the element arrangement direction X set in advance.
  • the element arrangement direction X coincides with the vehicle width direction of the own vehicle which is the vehicle on which the device 1 is mounted, that is, the horizontal direction, and the element arrangement direction in the radiation plane of the first element E1
  • the vehicle is mounted on the vehicle such that the direction Y orthogonal to X coincides with the vehicle height direction of the vehicle, that is, the vertical direction.
  • unit element blocks B When a plurality of unit element blocks B are provided, they may be arranged one-dimensionally along either direction X or direction Y, or two-dimensionally arranged along both direction X and direction Y. May be The number and arrangement of the unit element blocks B are appropriately determined in accordance with the structure and positional relationship of the light emitting unit 10 and the scanning unit 20.
  • the first element E1 uses, for example, an avalanche photodiode which is a photodiode having an electron multiplying function.
  • the second element E2 is, for example, a normal photodiode such as a buried photodiode which is a photodiode having no electron multiplying function, or a PIN-photodiode.
  • the light receiving surface of each of the first element E1 and the second element E2 has a rectangular shape and the same size.
  • the first element E1 has high sensitivity characteristics as compared to the second element E2.
  • the distance measurement unit 33 receives the sampling data of the detection signals Sa and Sp read from the light receiving element array 31 input through the reading unit 32 and the light emission that the control unit 50 outputs to the light emission unit 10 Based on the trigger, the distance to the target reflected from the light emitting unit 10 is calculated.
  • An optical time of flight measurement method that is, TOF is used to calculate the distance.
  • TOF is an abbreviation of Time Of Flight.
  • the image generation unit 34 generates a captured image obtained by capturing an image of the detection area based on sampling data of the detection signal Sc indicating the charge amount accumulated during the preset shutter time input through the reading unit 32. .
  • each of the unit element blocks B includes a unit circuit 321 and an AD conversion unit 322.
  • the AD conversion unit 322 includes three amplifiers A1, A2 and A3 and three AD converters AD1, AD2 and AD3.
  • the AD conversion unit 322 amplifies the two detection signals Sa and Sp output from the unit circuit 321 with the amplifiers A1 and A2, respectively, performs analog-digital conversion with the AD converters AD1 and AD2, and outputs the result to the distance measurement unit 33.
  • Output The AD converter 322 amplifies the detection signal Sc output from the unit circuit 321 with the amplifier A3, performs analog-digital conversion with the AD converter AD3, and outputs the signal to the image generator.
  • the unit circuit 321 includes six transistors M1 to M6 and a constant current circuit CU.
  • the transistor M6 is provided in a path L1 from the cathode of the first element E1 to the amplifier A1, and conducts or blocks the path L1 in accordance with the control signal ⁇ ToF.
  • the transistor M1 is provided in the path L2 from the cathode of the second element E2 to the branch point P, and conducts or blocks the path L2 in accordance with the control signal ⁇ tx.
  • the transistors M2 and M5 are provided in series in a path L21 from the branch point P to the amplifier A2.
  • the transistor M2 conducts or cuts off the path L21 in accordance with the control signal ⁇ g.
  • the transistor M5 conducts or blocks the path L21 in accordance with the control signal ⁇ ToF.
  • the transistor M4 is connected between the transistor M2 and the transistor M5, and conducts or cuts off between the path L21 and the power supply line of the power supply voltage vdd according to the control signal ⁇ IS.
  • the transistor M3 is provided on a path L22 from the branch point P to the amplifier A3, and amplifies the signal Vg supplied via the path L2 to generate a signal Sc to be output to the amplifier A3.
  • the constant current circuit CU supplies a constant bias current Idc to the transistor M3. That is, the signal level of the detection signal Sc changes around the potential determined by the bias current Idc.
  • the information acquisition unit 40 performs the behavior of the vehicle and the behavior of the vehicle via various sensors mounted on the vehicle via an in-vehicle LAN or the like, or a wireless communication device that communicates with the outside of the vehicle. Get information about your surroundings.
  • the information acquired by the information acquisition unit 40 may include, for example, vehicle speed information indicating the speed of the vehicle, and traffic congestion information on the road on which the vehicle is traveling.
  • the control unit 50 includes a microcomputer having a CPU 50a and a semiconductor memory (hereinafter, memory 50b) such as, for example, a RAM or a ROM. Each function of the control unit 50 is realized by the CPU 50a executing a program stored in the non-transitional tangible recording medium.
  • the memory 50b corresponds to a non-transitional tangible storage medium storing a program. Also, by executing this program, a method corresponding to the program is executed.
  • the control unit 50 may include one microcomputer or a plurality of microcomputers. The method of realizing each function of the control unit 50 is not limited to software. Some or all of the functions of the control unit 50 may be realized using one or more hardware. For example, when the above function is implemented by an electronic circuit that is hardware, the electronic circuit may be implemented by a digital circuit, an analog circuit, or a combination thereof.
  • the control unit 50 includes a drive control unit 51, a mode setting unit 52, a target detection unit 53, and an intensity control unit 54 when expressed by function.
  • the mode setting unit 52 sets the operation mode of the light detection device 1 to either the distance measurement mode or the imaging mode.
  • the distance measurement mode is an operation mode in which the light detection device 1 is operated as LIDAR.
  • LIDAR is an abbreviation for Light detection and ranging.
  • the imaging mode is an operation mode for operating the light detection device 1 as a camera.
  • a period in which the operation mode is set to the distance measurement mode is referred to as a measurement period
  • a period in which the imaging mode is set is referred to as an imaging period.
  • the measurement period is set to a length equal to or longer than the time in which the light reciprocates a preset maximum detection distance.
  • the imaging period is set to be longer than or equal to the time required to operate the second element E2 as an imaging element and thereafter read out a signal from the imaging element.
  • the lengths of the measurement period and the imaging period may be the same or different.
  • the mode setting unit 52 switches the distance measurement mode and the imaging mode alternately at the timing when each setting period has elapsed.
  • the drive control unit 51 controls the operation of the light emitting unit 10, the scanning unit 20, and the light receiving unit 30 by generating various control signals according to each operation mode.
  • the drive control unit 51 operates the scanning unit 20 so that the distance measurement mode and the imaging mode are repeated M times each while the mirror unit 21 makes a half rotation.
  • the M-divided detection area is scanned in one pass, and both distance measurement and imaging are performed for each of the M-divided detection areas.
  • each of the M-divided detection regions is referred to as azimuth 1 to azimuth M.
  • the drive control unit 51 causes the light emitting unit 10 to emit a laser beam at the timing when the distance measurement mode is started. Further, in the drive control unit 51, the waveforms of the detection signals Sa and Sp from the first element E1 and the second element E2 that receive the reflected light from the target that has reflected the irradiation light are sampled at predetermined intervals, and the distance The light receiving unit 30 is controlled so as to be output to the measuring unit 33.
  • the drive control unit 51 causes the second element E2 to operate as an imaging element without irradiating the light emitting unit 10 with laser light. Then, a reference level which is a signal level when the accumulated charge of the imaging element is reset, and a signal level representing an amount of charge accumulated during the shutter time are sampled and output to the image generation unit 34.
  • the light receiving unit 30 is controlled.
  • the operation mode is the distance measurement mode
  • laser light is emitted at the beginning of the measurement period according to the light emission trigger, and the reflected light from the target located at a distance less than the maximum detection distance is received by the light receiving element array 31 within the measurement period.
  • Light is received.
  • the cathode potentials of the first element E1 and the second element E2 change according to the light reception intensity of the reflected light.
  • the transistors M1, M2, and M4 to M6 are on / off controlled by the control signals ⁇ tx, ⁇ g, ⁇ IS, and ⁇ ToF, but in the following, the description of the control signals is omitted, and the transistors resulting from the control are on / off.
  • the control signals ⁇ tx, ⁇ g, ⁇ IS, and ⁇ ToF are on / off.
  • the transistors M1, M2, M5 and M6 are set on and the transistor M4 is set off throughout the measurement period.
  • the path L1 from the first element E1 to the amplifier A1 becomes conductive, so that the detection signal Sa corresponding to the cathode potential Va of the first element E1 is output to the AD conversion unit 322.
  • the detection signal Sp corresponding to the cathode potential Vp of the second element E2 is output to the AD conversion unit 322.
  • the detection signals Sa and Sp are sampled at regular intervals throughout the measurement period. As a result, digital data representing the waveforms of the detection signals Sa and Sp are output to the distance measurement unit 33.
  • the operation mode is the imaging mode, as shown in FIG. 4, light is not emitted from the light emitting unit 10 during the imaging period, and the transistors M5 and M6 are set to be off throughout the imaging period.
  • the transistor M4 is set to on.
  • a detection signal Sc obtained by amplifying the potential of the branch point P by the transistor M3 is output to the AD conversion unit 322.
  • transistor M1 After switching from the distance measurement mode to the imaging mode, the transistor M1 is held on until time t1 and then turned off. Similarly, transistor M2 is held on until time t2, which is later than time t1, and then turned off.
  • the potential Vp of the cathode of the second element E2 and the potential Vg of the branch point P are reset by the power supply voltage vdd in a period until time t1 when all the transistors M1, M2 and M4 are set to on.
  • the transistor M1 is turned off at time t1, accumulation of charge according to the light reception intensity is started at the cathode of the second element E2.
  • the transistor M2 is held off until time t3, and then temporarily set on just before time t4. At this time, the potential at the branch point P is reset again.
  • the signal level of the detection signal Sc representing the reset potential Vg of the branch point P is sampled by the AD converter AD3 as a reference level.
  • the transistor M1 is temporarily set to on after being held off from time t1 to time t4.
  • the period from time t1 to time t4 is also referred to as a shutter period.
  • the transistor M1 is turned on at time t4
  • the charge accumulated at the cathode of the second element E2 is transferred to the branch point P, that is, the gate of the transistor M3.
  • the detection signal Sc has a signal level corresponding to the amount of charge accumulated by the second element E2 during the shutter period.
  • the signal level of the detection signal Sc at this time is sampled by the AD converter AD3 as a detection level.
  • the transistor M2 is set to ON at time t5, and the transistor M1 is set to ON at the end timing of the imaging period. Thereafter, the same processing is repeated while sequentially switching the scanning direction determined by the rotational position of the mirror unit 21, ie, the azimuth 1 to the azimuth M.
  • the distance measuring unit 33 extracts the light reception timing of the reflected light from the digital data representing the waveforms of the detection signals Sa and Sp output from the reading unit 32 during the measurement period, and from the irradiation timing in the light emitting unit 10 to the light reception timing The distance to the target that reflected the irradiation light is calculated based on the time of. Further, the distance measuring unit 33 generates a distance image by arranging the calculation results of the distances in association with the azimuth 1 to the azimuth M.
  • the distance measurement unit 33 determines whether or not the detection signal Sa from the first element E1 having high sensitivity is saturated, and if it is not saturated, the detection signal Sa is used. If it is saturated, the detection signal Sp may be used.
  • the image generation unit 34 calculates a pixel value by subtracting the reference level from the detection level based on the detection level and the reference level of the detection signal Sc output from the reading unit 32 during the imaging period. Furthermore, the image generation unit 34 generates a captured image by arranging the calculated pixel values in association with the azimuth 1 to the azimuth M.
  • the target detection unit 53 detects the detection area using the distance image and the captured image each time the distance measurement section 33 and the image generation section 34 generate the distance image and the captured image of the entire detection area. Detect the target present inside. In addition, the target detection unit 53 generates target information including the type and position of the target for each of the detected targets.
  • the intensity control unit 54 controls the light emission intensity of the light emitting unit 10 using the target information generated by the target detection unit 53.
  • the strength control process performed by the strength control unit 54 will be described with reference to FIG.
  • the present process is activated each time the target detection unit 53 generates target information.
  • the intensity control unit 54 acquires target information generated by the target detection unit 53 in S110.
  • the intensity control unit 54 determines whether or not a pedestrian is detected based on the type of the target included in the acquired target information. If the intensity control unit 54 makes a negative determination in S120, it shifts the process to S130, and if it makes a positive determination, it shifts the process to S140.
  • the intensity control unit 54 sets the light emission intensity to a high output, and ends the process.
  • the intensity control unit 54 sets the light emission intensity to a low output, and ends the process.
  • the unit element block B included in the light receiving element array 31 includes the first element E1 and the second element E2 having different sensitivities, and the first element E1 and the second element E2 Also use to make distance measurements. Therefore, according to the light detection device 1, a wide dynamic range can be realized for distance measurement.
  • the light detection device 1 APD and PD having different element structures are adopted as the first element E1 and the second element E2. Therefore, according to the light detection device 1, it is possible not only to realize a wider dynamic range without expanding the light receiving areas of the respective elements E1 and E2, but also to expand the dynamic range in the direction of enhancing the sensitivity by APD.
  • the distance measurement function i.e. LIDAR
  • the image generation function i.e. camera
  • the wide-angle LIDAR function and the wide-angle high-definition camera function can be realized by the light receiving element array 31 with a small number of light receiving elements.
  • the first element E1 and the second element E2 included in the unit element block B are disposed along the direction X coincident with the vehicle width direction, but the present disclosure is limited thereto is not.
  • the first element E1 and the second element E2 may be disposed along the direction Y which is coincident with the vehicle height direction.
  • scanning part 20 realizes scanning of irradiation light and catoptric light with a mechanical method
  • this indication is not limited to this.
  • scanning may be realized by an optical method, such as irradiation of a laser beam and reception of a reflected wave via a light deflection element 20a that can be controlled by voltage or current.
  • the second embodiment is different from the first embodiment in the configuration of the unit element block Ba and the unit circuit 321 a and the control content of the drive control unit 51.
  • the unit element block Ba has a structure in which the second element E2 is replaced with four second elements E2a to E2d in the unit element block B in the first embodiment.
  • the second elements E2a to E2d all have the same size and a similar shape to the first element E1.
  • the second elements E2a to E2d have sizes that are substantially the same size as the first element E1 in a state in which the four elements are arranged in two rows and two columns.
  • an avalanche photodiode is used as the first element E1
  • a normal photodiode or PIN-photodiode is used as the second elements E2a to E2d.
  • the second elements E2a to E2d may be configured to be able to acquire a color image.
  • the unit circuit 321a will be described with reference to FIG.
  • the unit element block Ba includes four second elements E2a to E2d. However, in FIG. 10, the two second elements E2c and E2d are not shown in FIG.
  • the block Ba is described as having two second elements E2a and E2b.
  • the unit circuit 321a includes two transistors M1a and M1b instead of the transistor M1.
  • the transistor M1a is provided on the path L2a from the second element E2a to the branch point P, and conducts or cuts off the path L2a in accordance with the control signal ⁇ txa.
  • the transistor M1b is provided on a path L2b from the second element E2b to the branch point P, and turns on or off the path L2b in accordance with the control signal ⁇ txb.
  • the drive control unit 51 is the same as that of the first embodiment except that the transistor M1a is operated instead of the transistor M1 in the distance measurement mode. Not only the transistor M1a but also the transistors M1a and M2a may be controlled to operate at the same time.
  • the imaging period is divided into a first half and a second half, reading from the second element E2a is performed in the first half, and reading from the second element E2b is performed in the second half.
  • the transistor M2 is turned off at time t12 corresponding to the timing of time t2 shown in FIG. 4 after the start of the imaging period, and once in each of the first half and the second half of the imaging period, specifically, at time t13. And is temporarily turned on at the timing of t16. At this temporarily turned on timing, the gate of the transistor M2 is reset, and a detection signal Sc having a signal level (that is, a reference level) corresponding to the reset state is output to the AD conversion unit 322.
  • the transistor M1a After the transistor M1a is turned off at time t11, the transistor M1a is temporarily turned on at timing t14 immediately after the transistor M2 is temporarily turned on at time t13. As a result, the charge stored in the cathode of the second element E2a is transferred to the gate of the transistor M3 with the period from time t11 to t14 as the shutter period, and a detection signal having a signal level (ie, detection level) corresponding to the charge. Sc is output to the AD conversion unit 322.
  • the transistor M1b is turned off at time t11, and then turned on temporarily at timing t17 immediately after the transistor M2 is temporarily turned on at time t16.
  • the charge stored in the cathode of the second element E2b is transferred to the gate of the transistor M3 with the period from time t11 to t17 as the shutter period, and a detection signal having a signal level (that is, detection level) corresponding to the charge. Sc is output to the AD conversion unit 322.
  • the AD converter AD3 of the AD converter 322 samples a reference level in a state where the cathode of the second element E2a is reset at the first timing when the transistor M2 is temporarily turned on, that is, at the timing of time t13, Thereafter, at the timing of time t14 when the transistor M1a is temporarily turned on, the detection level representing the charge accumulated in the second element E2a is sampled.
  • the AD converter AD3 samples a reference level in a state in which the cathode of the second element E2b is reset at the second timing when the transistor M2 is temporarily turned on, that is, at the timing of time t16. At the timing of time t17 when the transistor M1b is temporarily turned on, the detection level representing the charge stored in the second element E2b is sampled.
  • the two second elements E2a and E2b are controlled by rolling shutter systems having different exposure timings. [2-5. effect] According to the second embodiment described above, the effects (1a) to (1d) of the first embodiment described above are exhibited, and further, the following effects are exhibited.
  • the unit element block Ba has four second elements E2a to E2d having a size of about 1 ⁇ 4 instead of the second element E2, and in the imaging mode, the plurality of Pixel values are read out from each of the two elements E2a to E2d. Therefore, according to the present embodiment, it is possible to generate a higher definition captured image.
  • the transistor M1b is turned off at the timing of time t11 after the start of the imaging period, but may be turned off at the timing of time t15 shown in FIG.
  • the charge accumulated in the cathode of the second element E2b is transferred to the gate of the transistor M3 with the period from time t11 to t17 as the shutter period, and a detection signal having a signal level (ie, detection level) corresponding to the charge. Sc is output to the AD conversion unit 322. That is, the shutter periods of the plurality of second elements E1 and E2 can be made the same length.
  • the scanning unit 20 is omitted, and the configurations of the light emitting unit 10a, the light receiving element array 31, and the unit circuit 321b are different from those in the first embodiment.
  • the light emitting unit 10 a includes a plurality of light emitting elements 11, and each light emitting element 11 is provided with a lens 12.
  • Each lens 12 is set to emit light emitted from the light emitting element 11 in different directions.
  • M light emitting elements 11 and lenses 12 are provided.
  • Each lens 12 is associated with one of the detection regions divided into M, and is set such that the light emitted from each light emitting element 11 is emitted toward the corresponding divided detection region.
  • the light receiving element array 31 includes a plurality of unit element blocks B, and each unit element block is provided with a lens as in the light emitting unit 10 a.
  • M unit element blocks B and lenses are provided.
  • Each lens is respectively associated with any of the M divided detection areas, and is set such that only the reflected light coming from the corresponding divided detection area is incident on the unit element block B.
  • the transistor M7 is provided between the transistor M3 and the amplifier A3 that amplifies the detection signal Sci, and turns on or off the path L21 according to the control signal ⁇ seli.
  • i attached at the end of the code is an identifier for identifying a plurality of unit circuits 321 b due to the presence of a plurality of unit element blocks B, and the value of 1 to M Take
  • the detection signal Sci can be individually output from each of the plurality of unit circuits 321 b by using the control signal ⁇ seli. Therefore, as shown in FIG. 14, by connecting a plurality of unit circuits 321b, an amplifier and an AD converter for the detection signal Sci, that is, the amplifier A3 and the AD converter AD3 in FIG. You may share between them.
  • the imaging period is divided into the first half and the second half, the detection signal Sc1 for azimuth 1 is processed, and the detection signal Sc2 for azimuth 2 is processed in the second half. It may be configured to
  • the amplifier that processes the detection signal Sci and the AD converter can be shared among the plurality of unit circuits 321 b, so the circuit scale of the AD converter 322 can be suppressed.
  • the fourth embodiment is different from the first embodiment in the configuration of the unit circuit 321 c and the control content of the drive control unit 51.
  • [4-2. Unit circuit] As shown in FIG. 15, in the unit circuit 321c, transistors M8 to M11, capacitors C1 and C2, and a constant current circuit CU1 are added to the unit circuit 321 shown in FIG.
  • the transistors M8 and M9 and the capacitors C1 and C2 correspond to the holding circuit.
  • the capacitors C1 and C2 are respectively connected between the path L21 and the ground between the transistor M3 and the amplifier A3 for amplifying the detection signal Sci.
  • a connection point between the capacitor C1 and the path L21 is referred to as a shift point P1
  • a connection point between the capacitor C2 and the path L21 is referred to as a shift point P2.
  • the transistor M8 is provided between the transistor M3 and the shift point P1, and turns on or off the path L22 in accordance with the control signal ⁇ shai.
  • the transistor M9 is provided between the shift point P1 and the shift point P2, and turns on or off the path L22 in accordance with the control signal ⁇ shbi.
  • the transistor M10 amplifies the signal level resi of the shift point P2 and outputs it as a detection signal Sci.
  • the transistor M11 is provided between the transistor M10 and the amplifier A3, and turns on or off the path L21 according to the signal ⁇ seli.
  • the constant current circuit CU1 supplies a bias current to the transistor M10.
  • the charge accumulated at the cathode of the second element E2 can be held in the capacitor C1 and the capacitor C2 by a bucket brigade method.
  • the transistors M1, M2, and M4 to M6 are on / off controlled in the same manner as in the first embodiment for all the unit circuits 321c. Thereby, the waveforms of the cathode potential Vpi of the second element E2 and the gate potential Vgi of the transistor M3 are similar.
  • the transistors M8 and M9 are also turned on, and the potentials of the shift points P1 and P2 are reset. After that, the transistor M9 is turned off just before time t4, like the transistor M2, and the transistor M8 is kept on until time t5.
  • the transistor M1 When the transistor M1 is temporarily turned on at the timing of time t4, the charge (i.e., the potential Vpi) accumulated at the cathode of the second element E2 is transferred to the gate of the transistor M3, and the signal level Vgi of the gate at that time is It is amplified by the transistor M3 and charged to the capacitor C1. Thereafter, at time t5, the transistor M8 is turned off, and the signal level corresponding to the charge accumulated by the second element E2 is stored in the capacitor C1.
  • the charge i.e., the potential Vpi
  • the same control is performed by the two unit circuits 321c, and thereafter, different control is performed.
  • the transistor M11 of the unit circuit 321c (hereinafter referred to as the first unit circuit) that processes the azimuth 1 is turned on.
  • the signal level res1 stored in the capacitor C2 is amplified by the transistor M10 and is output as the detection signal Sc1.
  • the signal level of the detection signal Sc1 is sampled by the AD converter as a reference level for the azimuth 1.
  • the transistor M11 is held on until time t7.
  • the transistors M8 and M9 of the first unit circuit are temporarily turned on at the timing of time t6, that is, the timing at which the imaging mode is switched to the distance measurement mode here. Then, in the first unit circuit, the signal level sig1 stored in the capacitor C1 is transferred to the capacitor C2, further amplified by the transistor M10, and output as the detection signal Sc1. The signal level of the detection signal Sc1 is sampled by the AD converter as a detection level for the azimuth 1.
  • the transistor M11 of the first unit circuit is turned off, and the transistor M11 of the unit circuit 321c (hereinafter referred to as a second unit circuit) that processes the azimuth 2 is turned on. Then, in the second unit circuit, the signal level res2 stored in the capacitor C2 is amplified by the transistor M10 and is output as the detection signal Sc2. The signal level of the detection signal Sc2 is sampled by the AD converter as a reference level for the azimuth 2. The transistor M11 is held on until time t9.
  • the transistors M8 and M9 of the second unit circuit are temporarily turned on.
  • the signal level sig2 stored in the capacitor C1 is transferred to the capacitor C2, further amplified by the transistor M10, and output as the detection signal Sc2.
  • the signal level of the detection signal Sc2 is sampled by the AD converter as a detection level for the azimuth 2.
  • the detection signal Sc can be read out at any timing without being restricted to the imaging period, so that the control can be performed freely.
  • the degree can be increased.
  • the fifth embodiment is different from the first embodiment in how to switch the operation mode by the mode setting unit 52.
  • Mode setting section The process performed by the mode setting unit 52 will be described using the flowchart shown in FIG.
  • the mode setting unit 52 acquires traffic jam information and information including the vehicle speed V via the information acquisition unit 40.
  • the mode setting unit 52 determines, based on the traffic congestion information acquired in S210, whether the road on which the vehicle is traveling is in traffic congestion. The determination as to whether the vehicle is in a traffic jam may be performed using the detection result of the target detection unit 53.
  • the mode setting unit 52 shifts the processing to S230 when the positive determination is made in S220, and shifts the processing to S240 when the negative determination is made.
  • the mode setting unit 52 sets the operation mode to the distance measurement mode, and executes scanning over the entire detection area. Thereby, from the distance measuring unit 33, a distance image representing the distance to the target present in the detection area is obtained.
  • the mode setting unit 52 determines, based on the information acquired in S210, whether the user is traveling in a city area. The mode setting unit 52 shifts the processing to S230 when the positive determination is made in S250, and ends the processing when the negative determination is made.
  • the determination as to whether or not the user is traveling in a city area may be made, for example, depending on whether the speed V is equal to or less than a preset threshold value Vth. In addition to the instantaneous velocity, it may be determined based on whether or not the state below the threshold value Vth continues for a predetermined period of time or more, in consideration of temporal changes in velocity and the like. Alternatively, the determination may be made using the detection result of the target detection unit 53.
  • the mode setting unit 52 sets the operation mode to the imaging mode, executes scanning over the entire detection area, and ends the processing. Thereby, from the image generation unit 34, a captured image obtained by capturing the detection area is obtained.
  • switching of the operation mode is performed each time scanning over the entire detection area is performed, that is, azimuth 1 to azimuth It is performed each time processing in the same operation mode is continuously performed for all orientations of M.
  • the imaging mode is repeated, and targets in a relatively short distance are mainly detected. If the vehicle is not in a traffic jam and traveling in a city area, the distance measurement mode and the imaging mode are alternately switched, and short distance targets and long distance targets are detected in a well-balanced manner. If it is not in the traffic jam or in the city area, it is estimated that the user is traveling on the expressway, only the distance measurement mode is repeated, and relatively distant targets are mainly detected.
  • unit circuit 321 d may be configured to individually control transistors M5 and M6 with different control signals ⁇ ToFa and ⁇ ToFb instead of the common control signal ⁇ ToF. Also, in this case, in the distance measurement mode, since the first element E1 and the second element E2 belonging to the same unit element block B can not be used simultaneously, one of them is selected and the process is executed.
  • one AD converter AD2 may be used including the detection signal Sc.
  • a transistor M12 is added to the unit circuit 321d shown in FIG. 19 in the unit circuit 321e.
  • the transistor M12 is provided downstream of the transistor M13, and turns on or off the path L22 in accordance with the control signal ⁇ IS. Then, one of the transistors M5, M6, and M12 may be controlled to be turned on.
  • the multiple functions of one component in the above embodiment may be realized by multiple components, or one function of one component may be realized by multiple components . Also, a plurality of functions possessed by a plurality of components may be realized by one component, or one function realized by a plurality of components may be realized by one component.
  • part of the configuration of the above embodiment may be omitted.
  • at least a part of the configuration of the above embodiment may be added to or replaced with the configuration of the other above embodiment.
  • all the aspects contained in the technical thought specified from the wording described in the claim are an embodiment of this indication.
  • the present disclosure can be realized in various forms such as a system including the light receiving element array or the light detecting device as a component.
  • the light receiving element array or the light detection device may be applied as an object detection device to a driving support system or an automatic driving system.
  • the driving support system is, for example, a collision avoidance support, a lane keeping support, a sign recognition support, a lane based on information such as positions and moving speeds of various targets existing around the vehicle detected by the object detection device. It may be configured to realize at least one function of change support and light control.
  • the automatic driving system calculates, for example, a track on which the vehicle travels (that is, the position on the road, etc.), collision avoidance control, lane keeping control, lane change control, and lighting based on information from the object detection device. It may be configured to implement at least one function of control.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Power Engineering (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Light Receiving Elements (AREA)

Abstract

受光素子ブロックは、1つ以上の単位素子ブロック(B)を備える。単位素子ブロックのそれぞれは、素子構造が異なる複数種類の受光素子(E1、E2)を有する。

Description

受光素子アレイ、光検出装置、運転支援システム、及び自動運転システム 関連出願の相互参照
 本国際出願は、2017年8月8日に日本国特許庁に出願された日本国特許出願第2017-153462号に基づく優先権を主張するものであり、日本国特許出願第2017-153462号の全内容を本国際出願に参照により援用する。
 本開示は、距離の測定および撮像に使用される受光素子アレイ、受光素子アレイを用いる光検出装置、及び光検出装置を用いる各種システムに関する。
 ドライバに対する運転支援等に使用される様々な情報を取得するために、車両には、様々なセンサが搭載される。その一つとして、光を照射しその反射光を受光するまでの時間を計測する光飛行時間計測法(即ち、TOF:Time Of Flight)を利用して距離画像を生成するセンサが知られている。この種のセンサは、路上の落下物、前方を走行する車両、歩行者等、様々な物標を検出する必要があり、検出対象となる物標までの距離も、近距離から遠距離まで様々である。従って、受光素子は、広いダイナミックレンジを有することが要求される。
 これに対して、下記特許文献1には、複数のフォトダイオードを配列することで構成される受光素子アレイにおいて、受光面の大きさ等を異ならせることで実現した感度の異なるフォトダイオードを組み合わせることで、ダイナミックレンジを広げる技術が記載されている。
特開2000-125209号公報
 しかしながら、発明者の詳細な検討の結果、特許文献1に記載の従来技術からは、以下の課題が見出された。
 即ち、従来技術では、サイズが異なる同一特性のフォトダイオードを用いるため、フォトダイオードの素子サイズを小さくすることで、感度を低下させる方向にダイナミックレンジを拡大することは容易である。しかし、フォトダイオードの素子サイズを大きくすると、受光素子アレイが大型化するため、感度を向上させる方向にダイナミックレンジを拡大することが困難であった。
 本開示の1つの局面は、受光素子アレイを用いた計測において、距離のダイナミックレンジを拡大する技術を提供することにある。
 本開示の一態様である受光素子アレイは、1つ以上の単位素子ブロックを備える。単位素子ブロックのそれぞれは、素子構造が異なる複数種類の受光素子を有する。
 このような構成によれば、素子構造が異なることで感度等の特性が異なる複数種類の受光素子が組み合わされるため、個々の受光素子の大きさを変化させることなく広いダイナミックレンジを実現できる。
 本開示の一態様である光検出装置は、発光部と、受光素子アレイと、距離測定部と、を備える。
 発光部は、予め設定された検知領域に向けて光を照射する。受光素子アレイは、検知領域から到来する光を受光する1つ以上の単位素子ブロックを備え、単位素子ブロックのそれぞれは、電子増倍機能を有するフォトダイオードである第1素子、及び電子増倍機能を有さないフォトダイオードである第2素子を有する。距離測定部は、受光素子アレイから読み出される検出信号を用いて距離を測定する。
 このような構成によれば、フォトダイオードだけで感度の異なる受光素子を実現する場合と比較して、個々の受光素子の大きさを変化させることなく、感度が高くなる方向にダイナミックレンジを拡大できる。その結果、距離の計測能力を向上させることができる。
 なお、請求の範囲に記載した括弧内の符号は、一つの態様として後述する実施形態に記載の具体的手段との対応関係を示すものであって、本開示の技術的範囲を限定するものではない。
第1実施形態の光検出装置の構成を示すブロック図である。 受光素子アレイに含まれる単位素子ブロックの構造を示す説明図である。 読出部の構成を示す回路図である。 駆動制御部の制御によって実現される読出部の動作を示すタイミング図である。 AD変換の対象となる検出信号の波形およびサンプリングタイミングを示す説明図である。 強度制御処理のフローチャートである。 単位素子ブロックにおける第1素子及び第2素子の他の配置例を示す説明図である。 走査部の他の構成例を示す説明図である。 第2実施形態における単位素子ブロックの構造を示す説明図である。 第2実施形態における単位回路を示す回路図である。 第2実施形態における読出部の動作を示すタイミング図である。 第3実施形態における発光部を示す説明図である。 第3実施形態における単位回路を示す回路図である。 図13に示す単位回路の接続例を示すブロック図である。 第4実施形態における単位回路を示す回路図である。 第4実施形態における読出部の動作を示すタイミング図である。 第5実施形態におけるモード設定処理のフローチャートである。 動作モードと走査方向との関係を示す説明図である。 単位回路の変形例を示す回路図である。 単位回路の変形例を示す回路図である。
 以下、図面を参照しながら、本開示の実施形態を説明する。
 [1.第1実施形態]
 [1-1.構成]
 図1に示す光検出装置1は、受光部30を備える。また、光検出装置1は、発光部10と、走査部20と、情報取得部40と、制御部50と、を備えてもよい。受光部30は、ワンチップの半導体集積回路として構成されてもよい。この半導体集積回路には、発光部10が含まれてもよい。
 [1-1-1.発光部]
 発光部10は、発光素子として、例えばレーザダイオードを備える。発光部10は、制御部50からの指示である発光トリガに従って、パルス状のレーザ光(以下、照射光)を繰り返し照射する。発光素子の発光強度は、制御部50からの指示に従って可変設定される。発光強度は、例えば、高出力と低出力の2種類の設定が用意される。
 [1-1-2.走査部]
 走査部20は、ミラー部21と、駆動部22と、を備える。
 ミラー部21は、板状に構成され、その両面が反射面として使用される。ミラー部21は、発光部10からの照射光を反射することで、ミラー部21の回転角度に応じた方向に光を照射する。また、ミラー部21は、ミラー部21の回転角度に応じた方向から到来する、照射光を反射した物標からの反射光を反射して、受光部30に出力する。
 駆動部22は、制御部50からの指示に従って、ミラー部21を回転駆動する。これにより、水平面内において予め設定された角度範囲を有する検知領域が、発光部10からミラー部21を介して照射される照射光によって走査される。ここでの水平面は、ミラー部21の回転軸に直交する面である。
 [1-1-3.受光部]
 受光部30は、受光素子アレイ31と、読出部32と、距離測定部33と、画像生成部34と、を備える。
 受光素子アレイ31は、図2に示すように、一つ以上の単位素子ブロックBを備える。単位素子ブロックBは、素子構造の異なる第1素子E1および第2素子E2を備える。第1素子E1および第2素子E2は、予め設定された素子配列方向Xに沿って配置される。受光素子アレイ31は、当該装置1を搭載する車両である自車両の車幅方向、即ち水平方向に素子配列方向Xが一致し、第1素子E1及び第2素子E2の放射面において素子配列方向Xに直交する方向Yが自車両の車高方向、即ち上下方向に一致するように車両に搭載される。
 なお、単位素子ブロックBを複数備える場合は、方向Xまたは方向Yのいずれかに沿って1次元的に配置されてもよいし、方向X及び方向Yの両方に沿って2次元的に配置されてもよい。単位素子ブロックBの数や配置は、発光部10及び走査部20の構造や位置関係に応じて適宜決定される。
 第1素子E1は、例えば、電子増倍機能を有するフォトダイオードであるアバランシェフォトダイオードが用いられる。第2素子E2は、例えば、電子増倍機能を有さないフォトダイオードである埋め込みフォトダイオード等の通常のフォトダイオード、またはPIN-フォトダイオードが用いられる。第1素子E1および第2素子E2は、受光面が矩形状かつ同一サイズを有する。第1素子E1は、第2素子E2と比較して高感度な特性を有する。
 図1に戻り、距離測定部33は、読出部32を介して入力される受光素子アレイ31から読み出される検出信号Sa,Spのサンプリングデータと、制御部50が発光部10に対して出力する発光トリガと、に基づき、発光部10からの照射光を反射した物標までの距離を算出する。距離の算出には、光飛行時間計測法、即ち、TOFが用いられる。TOFは、Time Of Flightの略である。
 画像生成部34は、読出部32を介して入力される予め設定されたシャッタ時間の間に蓄積された電荷量を示す検出信号Scのサンプリングデータに基づき、検知領域を撮像した撮像画像を生成する。
 読出部32は、図3に示すように、単位素子ブロックBのそれぞれが、単位回路321とAD変換部322とを備える。
 AD変換部322は、3つの増幅器A1,A2,A3と、3つのAD変換器AD1,AD2,AD3と、を備える。AD変換部322は、単位回路321から出力される2つの検出信号Sa,Spを、それぞれ増幅器A1,A2で増幅し、AD変換器AD1,AD2でアナログ-デジタル変換して、距離測定部33に出力する。また、AD変換部322は、単位回路321から出力される検出信号Scを、増幅器A3で増幅し、AD変換器AD3でアナログ-デジタル変換して、画像生成部34に出力する。
 単位回路321は、6つのトランジスタM1~M6と、定電流回路CUと、を備える。
 トランジスタM6は、第1素子E1のカソードから増幅器A1に至る経路L1に設けられ、制御信号φToFに従って経路L1を導通または遮断する。
 トランジスタM1は、第2素子E2のカソードから分岐点Pに至る経路L2に設けられ、制御信号φtxに従って経路L2を導通または遮断する。
 トランジスタM2,M5は、分岐点Pから増幅器A2に至る経路L21に直列に設けられる。トランジスタM2は、制御信号φgに従って経路L21を導通または遮断する。トランジスタM5は、制御信号φToFに従って経路L21を導通または遮断する。
 トランジスタM4は、トランジスタM2とトランジスタM5との間に接続され、経路L21と電源電圧vddの電源ラインとの間を、制御信号φISに従って導通または遮断する。
 トランジスタM3は、分岐点Pから増幅器A3に至る経路L22に設けられ、経路L2を介して供給される信号Vgを増幅することで、増幅器A3に出力する信号Scを生成する。
 定電流回路CUは、トランジスタM3に一定のバイアス電流Idcを流す。つまり、検出信号Scの信号レベルは、バイアス電流Idcによって決まる電位を中心に変化する。
 [1-1-4,情報取得部]
 図1に戻り、情報取得部40は、車載LAN等を介して車両に搭載された様々なセンサ、または車両外部との通信を行う無線通信機等を介して、自車の挙動及び自車の周囲の状況に関する情報を取得する。情報取得部40が取得する情報には、例えば、自車の速度を表す車速情報、自車が走行中の道路に関する渋滞情報が含まれてもよい。
 [1-1-5.制御部]
 制御部50は、CPU50aと、例えば、RAM又はROM等の半導体メモリ(以下、メモリ50b)と、を有するマイクロコンピュータを備える。制御部50の各機能は、CPU50aが非遷移的実体的記録媒体に格納されたプログラムを実行することにより実現される。この例では、メモリ50bが、プログラムを格納した非遷移的実体的記録媒体に該当する。また、このプログラムが実行されることで、プログラムに対応する方法が実行される。なお、制御部50は、1つのマイクロコンピュータを備えてもよいし、複数のマイクロコンピュータを備えてもよい。制御部50の各機能を実現する手法は、ソフトウェアに限るものではない。制御部50の各機能の一部又は全部は、一つあるいは複数のハードウェアを用いて実現されてもよい。例えば、上記機能がハードウェアである電子回路によって実現される場合、その電子回路は、デジタル回路、又はアナログ回路、あるいはこれらの組合せによって実現されてもよい。
 制御部50は、機能別に表現した場合、駆動制御部51と、モード設定部52と、物標検出部53と、強度制御部54とを備える。
 モード設定部52は、当該光検出装置1の動作モードを、距離測定モードまたは撮像モードのいずれかに設定する。距離測定モードは、光検出装置1をLIDARとして動作させる動作モードである。LIDARは、Light detection and rangingの略である。撮像モードは、光検出装置1をカメラとして動作させる動作モードである。
 以下では、動作モードが距離測定モードに設定される期間を測定期間、撮像モードに設定される期間を撮像期間という。測定期間は、予め設定された最大検知距離を光が往復する時間以上の長さに設定される。撮像期間は、第2素子E2を撮像素子として動作させ、その後、撮像素子から信号を読み出すまでに要する時間以上に設定される。測定期間および撮像期間の長さは、同じでもよいし異なってもよい。
 モード設定部52は、距離測定モードおよび撮像モードを、それぞれの設定期間が経過したタイミングで交互に切り替える。
 駆動制御部51は、各動作モードに応じた様々な制御信号を生成することによって、発光部10、走査部20、及び受光部30の動作を制御する。
 駆動制御部51は、ミラー部21が半回転する間に、距離測定モードと撮像モードとがM回ずつ繰り返されるように、走査部20を動作させる。これにより、ミラー部21が半回転する毎に、M分割された検知領域が一通り走査され、そのM分割された検知領域のそれぞれについて距離測定および撮像がいずれも実施される。以下では、M分割された検知領域のそれぞれを、方位1~方位Mと表記する。
 駆動制御部51は、距離測定モードの場合、距離測定モードが開始されるタイミングで発光部10にレーザ光を照射させる。また、駆動制御部51は、照射光を反射した物標からの反射光を受光する第1素子E1および第2素子E2からの検出信号Sa,Spの波形が、所定間隔でサンプリングされて、距離測定部33に出力されるように受光部30を制御する。
 駆動制御部51は、撮像モードの場合、発光部10にレーザ光を照射させることなく、第2素子E2を撮像素子として動作させる。そして、撮像素子の蓄積電荷をリセットした時の信号レベルである基準レベルと、シャッタ時間の間に蓄積された電荷量を表す信号レベルとがサンプリングされて、画像生成部34に出力されるように受光部30を制御する。
 ここで、駆動制御部51が実行する制御の詳細を、図3及び図4を参照して説明する。
 動作モードが距離測定モードである場合、発光トリガに従って測定期間の先頭でレーザ光が照射され、最大検知距離以下の距離に位置する物標からの反射光が、測定期間内に受光素子アレイ31にて受光される。このとき、反射光の受光強度に応じて第1素子E1及び第2素子E2のカソード電位が変化する。なお、トランジスタM1、M2、及びM4~M6は、制御信号φtx、φg、φIS、及びφToFによってオンオフ制御されるが、以下では、制御信号についての説明は省略し、制御の結果であるトランジスタのオンオフによって説明する。
 距離測定モードでは、測定期間の全体に渡って、トランジスタM1、M2、M5、及びM6はオンに設定され、トランジスタM4はオフに設定される。これにより、第1素子E1から増幅器A1に至る経路L1が導通するため、第1素子E1のカソード電位Vaに応じた検出信号SaがAD変換部322に出力される。また、第2素子E2から増幅器A2に至る経路L2およびL21が導通するため、第2素子E2のカソード電位Vpに応じた検出信号Spが、AD変換部322に出力される。AD変換部322では、検出信号Sa,Spは、図5に示すように、測定期間の全期間に渡って一定間隔でサンプリングされる。その結果、検出信号Sa,Spの波形を表すデジタルデータが、距離測定部33に出力される。
 動作モードが撮像モードである場合、図4に示すように、撮像期間中に発光部10から光が照射されることはなく、撮像期間の全体に渡って、トランジスタM5,M6はオフに設定され、トランジスタM4はオンに設定される。撮像モードでは、分岐点Pの電位をトランジスタM3によって増幅した検出信号ScがAD変換部322に出力される。
 距離測定モードから撮像モードに切り替わった後、トランジスタM1は、時刻t1までオンに保持され、その後オフされる。同様に、トランジスタM2は、時刻t1より遅い時刻t2までオンに保持され、その後オフされる。
 トランジスタM1,M2およびM4がいずれもオンに設定される時刻t1までの期間は、第2素子E2のカソードの電位Vpおよび分岐点Pの電位Vgが、電源電圧vddによってリセットされる。時刻t1にてトランジスタM1がオフすると、第2素子E2のカソードに、受光強度に応じた電荷の蓄積が開始される。
 その後、トランジスタM2は、時刻t3までオフに保持された後、時刻t4の直前まで一時的にオンに設定される。この時、分岐点Pの電位は再度リセットされる。このリセットされた分岐点Pの電位Vgを表す検出信号Scの信号レベルが、基準レベルとしてAD変換器AD3によってサンプリングされる。
 トランジスタM1は、時刻t1から時刻t4までのオフに保持された後、一時的にオンに設定される。この時刻t1から時刻t4までの期間をシャッタ期間ともいう。トランジスタM1が、時刻t4でオンすることにより、第2素子E2のカソードに蓄積された電荷が、分岐点P、即ち、トランジスタM3のゲートに転送される。その結果、検出信号Scは、シャッタ期間中に第2素子E2によって蓄積された電荷量に応じた信号レベルとなる。このときの検出信号Scの信号レベルが検出レベルとしてAD変換器AD3によってサンプリングされる。
 その後、トランジスタM2は、時刻t5でオンに設定され、トランジスタM1は、撮像期間の終了タイミングでオンに設定される。
 以下、ミラー部21の回転位置によって決まる走査方向、即ち、方位1~方位Mが順次切り替わりながら、同様の処理が繰り返される。
 距離測定部33は、測定期間中に読出部32から出力される検出信号Sa,Spの波形を表すデジタルデータから、反射光の受光タイミングを抽出し、発光部10での照射タイミングから受光タイミングまでの時間に基づいて、照射光を反射した物標までの距離を算出する。更に、距離測定部33は、距離の算出結果を、方位1~方位Mに対応づけて配列することによって距離画像を生成する。
 なお、距離測定部33は、受光タイミングを抽出する際に、高感度である第1素子E1からの検出信号Saが飽和しているか否かを判断し、飽和していなければ検出信号Saを用い、飽和していれば検出信号Spを用いてもよい。
 画像生成部34は、撮像期間中に読出部32から出力される検出信号Scの検出レベルおよび基準レベルに基づき、検出レベルから基準レベルを減算することで画素値を算出する。更に、画像生成部34は、算出された画素値を、方位1~方位Mと対応づけて配列することで撮像画像を生成する。
 図1に戻り、物標検出部53は、距離測定部33および画像生成部34により検知領域全体の距離画像および撮像画像が生成される毎に、これら距離画像および撮像画像を用いて、検知領域内に存在する物標を検出する。また、物標検出部53は、検出された物標のそれぞれについて、物標の種類および位置を含む物標情報を生成する。
 強度制御部54は、物標検出部53にて生成された物標情報を用いて、発光部10での発光強度を制御する。強度制御部54が実行する強度制御処理を、図6を用いて説明する。
 本処理は、物標検出部53により、物標情報が生成される毎に起動する。
 本処理が開始されると、S110にて、強度制御部54は、物標検出部53が生成した物標情報を取得する。
 S120では、強度制御部54は、取得した物標情報に含まれる物標の種類に基づき、歩行者が検出されたか否かを判定する。強度制御部54は、S120にて否定判定した場合はS130に処理を移行し、肯定判定した場合はS140に処理を移行する。
 S130では、強度制御部54は、発光強度を高出力に設定して、処理を終了する。
 S140では、強度制御部54は、発光強度を低出力に設定して、処理を終了する。
 なお、S130又はS140にて発光強度の設定が変更されると、発光部10の発光強度は、方位1についての距離測定モードが開始されるタイミングで変更される。
 [1-2.効果]
 以上詳述した第1実施形態によれば、以下の効果を奏する。
 (1a)光検出装置1は、受光素子アレイ31に含まれる単位素子ブロックBが、感度の異なる第1素子E1および第2素子E2を備え、これら第1素子E1と第2素子E2とをいずれも使用して、距離の測定を行う。従って、光検出装置1によれば、距離の計測について、広いダイナミックレンジを実現できる。
 しかも、光検出装置1では、第1素子E1および第2素子E2として素子構造の異なるAPDとPDとが採用されている。従って、光検出装置1によれば、各素子E1及びE2の受光面積を広げることなく、より広いダイナミックレンジを実現できるだけでなく、APDによって感度を高める方向にダイナミックレンジを広げることができる。
 (1b)光検出装置1によれば、検知領域内に歩行者が存在するか否かによって発光部10での発光強度が切り替わるため、歩行者に高出力のレーザ光が照射されることを抑制できる。
 (1c)光検出装置1によれば、距離測定機能(即ち、LIDAR)と画像生成機能(即ち、カメラ)とが単一の装置で実現されるため、両機能を実現する機器を別々に設ける場合と比較して、車両における機器の設置スペースを削減できる。
 (1d)光検出装置1によれば、走査部20を有するため、広角なLIDAR機能と広角で高精細なカメラ機能とを、受光素子数の少ない受光素子アレイ31によって実現できる。
 [1-3.変形例]
 上記実施形態では、単位素子ブロックBに含まれる第1素子E1及び第2素子E2が、車幅方向に一致させた方向Xに沿って配置されるが、本開示は、これに限定されるものではない。例えば、図7に示すように、第1素子E1及び第2素子E2は、車高方向に一致させた方向Yに沿って配置されてもよい。
 上記実施形態では、走査部20は、照射光及び反射光の走査を機械的の手法で実現されるが、本開示は、これに限定されるものではない。例えば、図8に示すように、電圧又は電流によって制御可能な光偏向素子20aを介してレーザ光の照射及び反射波の受光を行う等、光学的な手法で走査が実現されてもよい。
 [2.第2実施形態]
 [2-1.第1実施形態との相違点]
 第2実施形態は、基本的な構成は第1実施形態と同様であるため、相違点について以下に説明する。なお、第1実施形態と同じ符号は、同一の構成を示すものであって、先行する説明を参照する。
 第2実施形態は、単位素子ブロックBaおよび単位回路321aの構成、並びに駆動制御部51での制御内容が第1実施形態とは相違する。
 [2-2.単位素子ブロック]
 単位素子ブロックBaは、図9に示すように、第1実施形態における単位素子ブロックBにおいて、第2素子E2を4つの第2素子E2a~E2dに置き換えた構造を有する。
 第2素子E2a~E2dは、いずれも同一サイズ且つ第1素子E1と相似形状を有する。また、第2素子E2a~E2dは、これら4つの素子を2行2列に配列した状態で、第1素子E1とほぼ同一サイズとなる大きさを有する。
 第1実施形態の場合と同様に、第1素子E1は、例えば、アバランシェフォトダイオードが用いられ、第2素子E2a~E2dは、通常のフォトダイオード、またはPIN-フォトダイオードが用いられる。また、第2素子E2a~E2dにカラーフィルタを載せることで、第2素子E2a~E2dはカラー画像を取得できるように構成されてもよい。
 [2-3.単位回路]
 単位回路321aについて、図10を参照して説明する。なお、単位素子ブロックBaは、4つの第2素子E2a~E2dを含んでいるが、図10では、図面を見易くするために、2つの第2素子E2c及びE2dについては図示を省略し、単位素子ブロックBaは、2つの第2素子E2a及びE2bを有するとして説明する。
 図10に示すように、単位回路321aは、トランジスタM1の代わりに、二つのトランジスタM1aおよびM1bを備える。
 トランジスタM1aは、第2素子E2aから分岐点Pに至る経路L2aに設けられ、制御信号φtxaに従って経路L2aを導通または遮断する。
 トランジスタM1bは、第2素子E2bから分岐点Pに至る経路L2bに設けられ、制御信号φtxbに従って経路L2bを導通または遮断する。
 [2-4.駆動制御部]
 駆動制御部51は、距離測定モードでは、トランジスタM1の代わりにトランジスタM1aを動作させる以外は第1実施形態と同様である。なお、トランジスタM1aだけでなく、トランジスタM1aおよびM2aを同時に動作させるように制御してもよい。
 撮像モードでは、図11に示すように、撮像期間を前半と後半とに分け、前半では、第2素子E2aからの読み出しを実行し、後半では、第2素子E2bからの読み出しを実行する。
 トランジスタM2は、撮像期間の開始後、図4に示した時刻t2のタイミングに相当する時刻t12でオフされた後、撮像期間の前半及び後半のそれぞれにおいて1回ずつ、具体的には、時刻t13及びt16のタイミングで一時的にオンされる。この一時的にオンされたタイミングで、トランジスタM2のゲートがリセットされ、そのリセットされた状態に応じた信号レベル(即ち、基準レベル)を有する検出信号ScがAD変換部322に出力される。
 トランジスタM1aは、時刻t11でオフされた後、トランジスタM2が時刻t13にて一時的にオンされた直後の時刻t14のタイミングで一時的にオンされる。これにより、時刻t11~t14の期間をシャッタ期間として第2素子E2aのカソードに蓄積された電荷がトランジスタM3のゲートに転送され、その電荷に応じた信号レベル(即ち、検出レベル)を有する検出信号ScがAD変換部322に出力される。
 トランジスタM1bは、時刻t11でオフされた後、トランジスタM2が時刻t16にて一時的にオンされた直後の時刻t17のタイミングで一時的にオンされる。これにより、時刻t11~t17の期間をシャッタ期間として第2素子E2bのカソードに蓄積された電荷がトランジスタM3のゲートに転送され、その電荷に応じた信号レベル(即ち、検出レベル)を有する検出信号ScがAD変換部322に出力される。
 AD変換部322のAD変換器AD3は、トランジスタM2が一時的にオンする1回目のタイミング、即ち、時刻t13のタイミングで、第2素子E2aのカソードがリセットされた状態の基準レベルをサンプリングし、その後、トランジスタM1aが一時的にオンした時刻t14のタイミングで、第2素子E2aに蓄積された電荷を表す検出レベルをサンプリングする。
 同様に、AD変換器AD3は、トランジスタM2が一時的にオンする2回目のタイミング、即ち、時刻t16のタイミングで、第2素子E2bのカソードがリセットされた状態の基準レベルをサンプリングし、その後、トランジスタM1bが一時的にオンした時刻t17のタイミングで、第2素子E2bに蓄積された電荷を表す検出レベルをサンプリングする。
 つまり、本実施形態では、二つの第2素子E2aおよびE2bは、露光タイミングが異なるローリングシャッタ方式によって制御される。
 [2-5.効果]
 以上詳述した第2実施形態によれば、前述した第1実施形態の効果(1a)~(1d)を奏し、さらに、以下の効果を奏する。
 (2a)本実施形態では、単位素子ブロックBaが、第2素子E2の代わりに、略1/4の大きさを有する4つの第2素子E2a~E2dを有し、撮像モードでは、複数の第2素子E2a~E2dのそれぞれから画素値が読み出される。従って、本実施形態によれば、より高精細な撮像画像を生成できる。
 [2-6.変形例]
 上記実施形態では、撮像期間の開始後、トランジスタM1bが時刻t11のタイミングでオフされるが、図11に示す時刻t15のタイミングでオフされてもよい。この場合、時刻t11~t17の期間をシャッタ期間として第2素子E2bのカソードに蓄積された電荷がトランジスタM3のゲートに転送され、その電荷に応じた信号レベル(即ち、検出レベル)を有する検出信号ScがAD変換部322に出力される。つまり、複数の第2素子E1及びE2のシャッタ期間を同じ長さにできる。
 [3.第3実施形態]
 [3-1.第1実施形態との相違点]
 第3実施形態は、基本的な構成は第1実施形態と同様であるため、相違点について以下に説明する。なお、第1実施形態と同じ符号は、同一の構成を示すものであって、先行する説明を参照する。
 第3実施形態は、走査部20が省略されると共に、発光部10a、受光素子アレイ31および単位回路321bの構成が第1実施形態とは相違する。
 [3-2.発光部/受光素子アレイ]
 発光部10aは、図12に示すように、複数の発光素子11を備え、各発光素子11には、それぞれレンズ12が設けられる。各レンズ12は、発光素子11からの照射光を、それぞれ異なる方向に出射するように設定される。ここでは、M個の発光素子11およびレンズ12を備える。各レンズ12は、それぞれがM分割された検知領域のいずれかに対応づけられ、各発光素子11からの照射光が、対応する分割された検知領域に向けて照射されるように設定される。
 受光素子アレイ31は、図示を省略するが、複数の単位素子ブロックBを備え、各単位素子ブロックには、発光部10aと同様に、それぞれレンズが設けられる。ここでは、M個の単位素子ブロックBおよびレンズを備える。各レンズは、それぞれ、M分割された検知領域のいずれかに対応づけられ、対応する分割された検知領域から到来する反射光のみが単位素子ブロックBに入射されるように設定される。
 [3-3.単位回路]
 図13に示すように、単位回路321bでは、図3に示した単位回路321に対して、トランジスタM7が追加される。
 トランジスタM7は、トランジスタM3と、検出信号Sciを増幅する増幅器A3との間に設けられ、制御信号φseliに応じて経路L21を導通または遮断する。なお、図13に示された符号において、符号の最後に付与されているiは、単位素子ブロックBが複数存在することによって、複数存在する単位回路321bを識別する識別子であり1~Mの値をとる。
 このような単位回路321bを用いた場合、制御信号φseliを用いることによって、複数の単位回路321bのそれぞれから検出信号Sciを個別に出力させることができる。このため、図14に示すように、複数の単位回路321bを接続することにより、検出信号Sciに対する増幅器およびAD変換器、即ち、図3における増幅器A3およびAD変換器AD3を、複数の単位回路321b間で共用してもよい。
 また、この場合、図11を用いて説明した場合と同様に、撮像期間を前半と後半とに分けて、方位1についての検出信号Sc1を処理し、後半では方位2についての検出信号Sc2を処理するように構成されてもよい。
 [3-4.効果]
 以上詳述した第3実施形態によれば、前述した第1実施形態の効果(1a)~(1c)を奏し、さらに、以下の効果を奏する。
 (3a)第3実施形態によれば、複数の単位回路321bの間で、検出信号Sciを処理する増幅器およびAD変換器を共用させることができるため、AD変換部322の回路規模を抑制できる。
 (3b)第3実施形態によれば、発光部10aおよび受光素子アレイ31にレンズを設けることによって、機械的な手法による走査部20を用いることなく走査が実現されるため、装置規模を抑制できる。
 [4.第4実施形態]
 [4-1.第1実施形態との相違点]
 第4実施形態は、基本的な構成は第3実施形態と同様であるため、相違点について以下に説明する。なお、第3実施形態と同じ符号は、同一の構成を示すものであって、先行する説明を参照する。
 第4実施形態は、単位回路321cの構成、および駆動制御部51での制御内容が第1実施形態とは相違する。
 [4-2.単位回路]
 図15に示すように、単位回路321cでは、図3に示した単位回路321に対して、トランジスタM8~M11、コンデンサC1,C2、定電流回路CU1が追加される。
 これらは、いずれもトランジスタM3以降の経路L21に設けられる。また、これら追加された構成のうち、トランジスタM8,M9、及びにコンデンサC1,C2が、保持回路に相当する。
 コンデンサC1及びC2は、トランジスタM3と検出信号Sciを増幅する増幅器A3との間にて、経路L21とグランドとの間にそれぞれ接続される。以下では、コンデンサC1と経路L21との接続点をシフト点P1、コンデンサC2と経路L21との接続点をシフト点P2という。
 トランジスタM8は、トランジスタM3とシフト点P1との間に設けられ、制御信号φshaiに従って、経路L22を導通または遮断する。
 トランジスタM9は、シフト点P1とシフト点P2との間に設けられ、制御信号φshbiに従って、経路L22を導通または遮断する。
 トランジスタM10は、シフト点P2の信号レベルresiを増幅し、検出信号Sciとして出力する。
 トランジスタM11は、トランジスタM10と増幅器A3との間に設けられ、信号φseliに従って、経路L21を導通または遮断する。
 定電流回路CU1は、トランジスタM10にバイアス電流を流す。
 このように構成された単位回路321cでは、第2素子E2のカソードに蓄積された電荷を、バケツリレー方式で、コンデンサC1およびコンデンサC2に保持できる。
 [4-3.駆動制御部]
 駆動制御部51による制御内容について説明する。但し、単位回路321cは、図14で示したように、検出信号Sciを処理する増幅器およびAD変換器を、二つの単位回路321cで共用するように接続されるものとする。
 撮像モードでは、トランジスタM1、M2、及びM4~M6は、いずれの単位回路321cも、第1実施形態の場合と同様にオンオフ制御される。これにより、第2素子E2のカソード電位VpiおよびトランジスタM3のゲート電位Vgiの波形も同様のものとなる。
 時刻t3では、トランジスタM2と同時に、トランジスタM8及びM9もオンに設定され、シフト点P1及びP2の電位がリセットされる。その後、トランジスタM9は、トランジスタM2と同様に、時刻t4の直前でオフされ、トランジスタM8は、時刻t5までオンに保持される。
 時刻t4のタイミングでトランジスタM1が一時的にオンすると、第2素子E2のカソードに蓄積された電荷(即ち、電位Vpi)が、トランジスタM3のゲートに転送され、そのときのゲートの信号レベルVgiがトランジスタM3で増幅され、コンデンサC1に充電される。その後、時刻t5のタイミングで、トランジスタM8がオフすることで、第2素子E2により蓄積された電荷に応じた信号レベルがコンデンサC1に記憶される。
 ここまでは、二つの単位回路321cにて同一の制御が行われ、これ以降は、異なる制御が行われる。
 時刻t5のタイミングで、方位1を処理する単位回路321c(以下、第1単位回路)のトランジスタM11がオンされる。すると第1単位回路では、コンデンサC2に記憶されている信号レベルres1がトランジスタM10で増幅され、検出信号Sc1として出力される。この検出信号Sc1の信号レベルが、方位1についての基準レベルとしてAD変換器によってサンプリングされる。トランジスタM11は時刻t7までオンに保持される。
 時刻t6のタイミング、ここでは撮像モードから距離測定モードに切り替わるタイミングで、第1単位回路のトランジスタM8およびM9が一時的にオンされる。すると第1単位回路では、コンデンサC1に記憶されている信号レベルsig1が、コンデンサC2に転送され、更に、トランジスタM10で増幅され、検出信号Sc1として出力される。この検出信号Sc1の信号レベルが、方位1についての検出レベルとしてAD変換器によってサンプリングされる。
 時刻t7のタイミングで、第1単位回路のトランジスタM11がオフされ、方位2を処理する単位回路321c(以下、第2単位回路)のトランジスタM11がオンされる。すると、第2単位回路では、コンデンサC2に記憶されている信号レベルres2がトランジスタM10で増幅され、検出信号Sc2として出力される。この検出信号Sc2の信号レベルが、方位2についての基準レベルとしてAD変換器によってサンプリングされる。トランジスタM11は時刻t9までオンに保持される。
 時刻t8のタイミングで、第2単位回路のトランジスタM8およびM9が一時的にオンされる。このとき第2単位回路では、コンデンサC1に記憶されている信号レベルsig2が、コンデンサC2に転送され、更に、トランジスタM10で増幅され、検出信号Sc2として出力される。この検出信号Sc2の信号レベルが、方位2についての検出レベルとしてAD変換器によってサンプリングされる。
 [4-4.効果]
 以上詳述した第4実施形態によれば、前述した第1実施形態の効果(1a)~(1c)、(3a)及び(3b)を奏し、さらに、以下の効果を奏する。
 (4a)第4実施形態では、コンデンサC2に基準レベル、コンデンサC1に検出レベルを記憶させるため、撮像期間に縛られることなく、任意のタイミングで検出信号Scを読み出すことができるため、制御の自由度を高めることができる。
 [第5実施形態]
 [5-1.第1実施形態との相違点]
 第5実施形態は、基本的な構成は第1実施形態と同様であるため、相違点について以下に説明する。なお、第1実施形態と同じ符号は、同一の構成を示すものであって、先行する説明を参照する。
 第5実施形態は、モード設定部52による動作モードの切り替え方が第1実施形態とは相違する。
 [5-2.モード設定部]
 モード設定部52が実行する処理を、図17に示すフローチャートを用いて説明する。
 本処理は、繰り返し実行される。
 本処理が開始されると、S210にて、モード設定部52は、情報取得部40を介して、渋滞情報、および車速Vを含む情報を取得する。
 S220では、モード設定部52は、S210で取得した渋滞情報に基づき、自車が走行中の道路が渋滞中であるか否かを判定する。なお、渋滞中であるか否かの判定は、物標検出部53での検出結果を利用して行ってもよい。モード設定部52は、S220にて肯定判定した場合はS230に処理を移行し、否定判定した場合はS240に処理を移行する。
 S240では、モード設定部52は、動作モードを距離測定モードに設定して、検知領域の全体に渡る走査を実行する。これにより、距離測定部33からは、検知領域に存在する物標との距離を表す距離画像が得られる。
 S250では、モード設定部52は、S210で取得した情報に基づき、市街地を走行中であるか否かを判定する。モード設定部52は、S250で肯定判定した場合はS230に処理を移行し、否定判定した場合は、処理を終了する。
 市街地を走行しているか否かの判定は、例えば、速度Vが予め設定された閾値Vth以下であるか否かによって行われてもよい。また、瞬時的な速度だけでなく、速度の時間変化等を考慮し、閾値Vth以下の状態が所定時間以上継続しているか否かによって判定されてもよい。また、物標検出部53での検出結果を利用して判定されてもよい。
 S230では、モード設定部52は、動作モードを撮像モードに設定して、検知領域の全体に渡る走査を実行して、処理を終了する。これにより、画像生成部34からは、検知領域を撮像した撮像画像が得られる。
 このようなモード設定処理を実行することにより、本実施形態では、図18に示すように、動作モードの切替は、検知領域の全体に渡る走査が実行される毎に、即ち、方位1~方位Mの全ての方位について、同じ動作モードでの処理が連続して実行される毎に行われる。
 そして、渋滞中であれば、撮像モードのみが繰り返され、比較的近距離の物標が重点的に検出される。渋滞中ではなく且つ市街地走行中であれば、距離測定モードと撮像モードとが交互に切り替えられ、近距離の物標及び遠距離の物標がバランスよく検出される。渋滞中でも市街地走行中でもなければ、高速道路を走行中であると推定し、距離測定モードのみが繰り返され、比較的遠距離の物標が重点的に検出される。
 なお、ここでは、状況によっては、一方の動作モードのみが繰り返される場合があるが、両動作モードが実行される割合を変化させてもよい。
 [5-3.効果]
 以上詳述した第5実施形態によれば、前述した第1実施形態の効果(1a)~(1d)を奏し、さらに、以下の効果を奏する。
 (5a)第5実施形態によれば、状況に適した動作モードが適宜選択されるため、その状況下において必要な情報を効率よく検出できる。
 [6.他の実施形態]
 以上、本開示の実施形態について説明したが、本開示は上述の実施形態に限定されることなく、種々変形して実施することができる。
 (6a)上記実施形態では、検出信号Saのサンプリング及び検出信号Spのサンプリングに別々のAD変換器AD1及びAD2が用いられるが、図19に示すように、両検出信号Sa及びSpのサンプリングに、一つのAD変換器AD2が用いられてもよい。但し、この場合、単位回路321dは、トランジスタM5およびM6を、共通の制御信号φToFの代わりに、異なる制御信号φToFa及びφToFbによって個別に制御するように構成されてもよい。また、この場合、距離測定モードにおいて、同一の単位素子ブロックBに属する第1素子E1と第2素子E2とを同時に使用することができないため、いずれか一方を選択して処理が実行される。具体的には、第1素子E1を使用しているときに、検出信号Saの飽和が検出されると、第2素子E2に切り替え、また、第2素子E2を使用しているときに、検出信号Spのピーク値が閾値以下であることが検出されると、第1素子E1に切り替えてもよい。
 (6b)更に、図20に示すように、検出信号Scも含めて一つのAD変換器AD2を用いるようにしてもよい。この場合、単位回路321eには、図19に示した単位回路321dに、トランジスタM12を追加する。トランジスタM12は、トランジスタM13の後段に設けられ、制御信号φISに従って経路L22を導通または遮断する。そして、トランジスタM5、M6、及びM12のいずれか一つがオンされるように制御されてもよい。
 (6c)上記実施形態における1つの構成要素が有する複数の機能を、複数の構成要素によって実現したり、1つの構成要素が有する1つの機能を、複数の構成要素によって実現したりしてもよい。また、複数の構成要素が有する複数の機能を、1つの構成要素によって実現したり、複数の構成要素によって実現される1つの機能を、1つの構成要素によって実現したりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換してもよい。なお、特許請求の範囲に記載した文言から特定される技術思想に含まれるあらゆる態様が本開示の実施形態である。
 (6d)上述した受光素子アレイおよび光検出装置の他、当該受光素子アレイまたは光検出装置を構成要素とするシステムなど、種々の形態で本開示を実現することもできる。例えば、当該受光素子アレイまたは光検出装置を物体検出装置として、運転支援システムまたは自動運転システムに適用することもできる。運転支援システムは、例えば、物体検出装置によって検出される自車両の周囲に存在する様々な物標の位置や移動速度などの情報に基づいて、衝突回避支援、車線維持支援、標識認識支援、車線変更支援、及び灯火制御のうち少なくとも1つの機能を実現するように構成されてもよい。自動運転システムは、物体検出装置からの情報に基づいて、例えば、自車両が走行する軌道(即ち、道路内での位置等)の算出、衝突回避制御、車線維持制御、車線変更制御、及び灯火制御のうち少なくとも1つの機能を実現するように構成されてもよい。

Claims (14)

  1.  1つ以上の単位素子ブロック(B、Ba)を備え、
     前記単位素子ブロックのそれぞれは、素子構造が異なる複数種類の受光素子(E1、E2、E2a~E2d)を有する、
     受光素子アレイ。
  2.  請求項1に記載の受光素子アレイであって、
     前記複数種類の受光素子には、電子増倍機能を有するフォトダイオードである第1素子(E1)、及び電子増倍機能を有さないフォトダイオードである第2素子(E2,E2a~E2d)が含まれる、
     受光素子アレイ。
  3.  請求項2に記載の受光素子アレイであって、
     前記第1素子と同一サイズの領域に、前記第2素子が複数設置される、
     受光素子アレイ。
  4.  予め設定された検知領域に向けて光を照射するように構成された発光部(10)と、
     前記検知領域から到来する光を受光する1つ以上の単位素子ブロック(B,Ba)を備え、前記単位素子ブロックのそれぞれは、電子増倍機能を有するフォトダイオードである第1素子(E1)、及び電子増倍機能を有さないフォトダイオードである第2素子(E2,E2a~E2d)を有する受光素子アレイ(31)と、
     前記受光素子アレイから読み出される検出信号を用いて距離を測定するように構成された距離測定部(33)と、
     を備える光検出装置。
  5.  請求項4に記載の光検出装置であって、
     前記距離測定部は、前記第1素子からの検出信号である第1信号が飽和しているか否かを判定し、飽和していなければ前記第1信号を用い、飽和していれば前記第2素子からの検出信号である第2信号を用いて、前記発光部からの照射光を反射した物標までの距離を求めるように構成された、
     光検出装置。
  6.  請求項4または請求項5に記載の光検出装置であって、
     前記受光素子アレイに、到来方向の異なる光を順次入射させるように構成された走査部(20)
     を更に備える光検出装置。
  7.  請求項4から請求項6のいずれか1項に記載の光検出装置であって、
     前記受光部からの検出信号を用いて、画像を生成するように構成された画像生成部(34)と、
     距離測定モード及び撮像モードのいずれかに動作モードを設定するように構成されたモード設定部(52)と、
     前記動作モードが前記距離測定モードに設定されている場合、前記第1素子及び前記第2素子のそれぞれが、受光強度に応じた検出信号を前記距離測定部に出力し、前記動作モードが前記撮像モードに設定されている場合、前記第2素子によって予め設定されたシャッタ期間中に蓄積された電荷量を表す検出信号を前記画像生成部に出力するように構成された読出部(32,51)と、
     を更に備え、
     前記発光部は、前記動作モードが距離測定モードである場合に動作するように構成された、光検出装置。
  8.  請求項7に記載の光検出装置であって、
     前記読出部は、前記撮像モードで動作する前記第2素子の検出信号を保持するように構成された保持回路(M8,M9,C1,C2)を更に備え、前記保持回路に保持された検出信号を前記画像生成部に出力するように構成された、
     光検出装置。
  9.  請求項7または請求項8に記載の光検出装置であって、
     当該光検出装置は車両に搭載され、
     前記車両の挙動および前記車両の周囲の状況のうち少なくも一方を表す情報を取得するように構成された情報取得部(40)を更に備え、
     前記モード設定部は、前記情報取得部により取得された情報に従って、前記動作モードを切り替えるように構成された、
     光検出装置。
  10.  請求項9に記載の光検出装置であって、
     前記モード設定部は、前記情報取得部により取得された情報から、前記車両が高速道路を走行していると推定される場合、前記距離測定モードに設定される割合を高くするように構成された、
     光検出装置。
  11.  請求項9または請求項10に記載の光検出装置であって、
     前記モード設定部は、前記情報取得部により取得された情報から、走行中の道路が渋滞中であることが推定される場合、前記撮像モードに設定される割合を高くするように構成された、
     光検出装置。
  12.  請求項4から請求項11のいずれか1項に記載の光検出装置であって、
     前記検知領域内で検知された物標の種類を表す情報を取得し、取得された情報が歩行者の存在を示している場合に、前記発光部の発光強度を低下させるように構成された強度制御部(54)と、
     を更に備える光検出装置。
  13.  請求項4から請求項12のいずれか1項に記載の光検出装置を備えた運転支援システム。
  14.  請求項4から請求項12のいずれか1項に記載の光検出装置を備えた自動運転システム。
PCT/JP2018/029382 2017-08-08 2018-08-06 受光素子アレイ、光検出装置、運転支援システム、及び自動運転システム WO2019031441A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/782,476 US11531351B2 (en) 2017-08-08 2020-02-05 Light receiving element array, light detection apparatus, driving support system, and automated driving system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-153462 2017-08-08
JP2017153462A JP6791055B2 (ja) 2017-08-08 2017-08-08 光検出装置、運転支援システム、及び自動運転システム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/782,476 Continuation US11531351B2 (en) 2017-08-08 2020-02-05 Light receiving element array, light detection apparatus, driving support system, and automated driving system

Publications (1)

Publication Number Publication Date
WO2019031441A1 true WO2019031441A1 (ja) 2019-02-14

Family

ID=65272028

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/029382 WO2019031441A1 (ja) 2017-08-08 2018-08-06 受光素子アレイ、光検出装置、運転支援システム、及び自動運転システム

Country Status (3)

Country Link
US (1) US11531351B2 (ja)
JP (1) JP6791055B2 (ja)
WO (1) WO2019031441A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020118567A (ja) * 2019-01-24 2020-08-06 ソニーセミコンダクタソリューションズ株式会社 測距装置、車載システム及び測距方法
JP7079753B2 (ja) 2019-06-11 2022-06-02 株式会社東芝 光検出装置、電子装置及び光検出方法
WO2021256226A1 (ja) * 2020-06-19 2021-12-23 パナソニックIpマネジメント株式会社 測距装置および測距システム
US20230051657A1 (en) 2021-08-10 2023-02-16 ams Sensors USA Inc. Self calibrating barrier modulation pixel

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0749999A (ja) * 1993-08-05 1995-02-21 Mazda Motor Corp 自動車の障害物検出装置及び警告装置
JP2007103461A (ja) * 2005-09-30 2007-04-19 Sunx Ltd 受光素子、光電センサ用ic、及び光電センサ
JP2007300054A (ja) * 2006-04-05 2007-11-15 Denso Corp 車載用車両認識装置
JP2008020204A (ja) * 2006-07-10 2008-01-31 Omron Corp レーダ
WO2013072956A1 (ja) * 2011-11-15 2013-05-23 三菱電機株式会社 レーザレーダ装置、惑星着陸用セーフランディングセンサ、宇宙機用ドッキングセンサ、宇宙ごみ回収センサおよび車載衝突防止センサ
WO2015038048A1 (en) * 2013-09-10 2015-03-19 Scania Cv Ab Detection of an object by use of a 3d camera and a radar
JP2016146417A (ja) * 2015-02-09 2016-08-12 パナソニックIpマネジメント株式会社 半導体発光装置及びそれを用いた距離計測装置並びに距離計測装置の駆動方法
WO2017110559A1 (ja) * 2015-12-21 2017-06-29 浜松ホトニクス株式会社 光電変換素子及び光電変換モジュール

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4018820B2 (ja) 1998-10-12 2007-12-05 富士フイルム株式会社 固体撮像装置および信号読出し方法
US9086389B2 (en) * 2012-10-26 2015-07-21 Kla-Tencor Corporation Sample inspection system detector
JP5977366B2 (ja) 2013-01-10 2016-08-24 ソフトキネティック センサー エヌブイ カラー不可視光センサ、例えば、irセンサ、すなわち、マルチスペクトルセンサ
JP2016217907A (ja) 2015-05-21 2016-12-22 スタンレー電気株式会社 距離画像生成装置
JP6645074B2 (ja) 2015-08-25 2020-02-12 株式会社Ihi 支障物検知システム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0749999A (ja) * 1993-08-05 1995-02-21 Mazda Motor Corp 自動車の障害物検出装置及び警告装置
JP2007103461A (ja) * 2005-09-30 2007-04-19 Sunx Ltd 受光素子、光電センサ用ic、及び光電センサ
JP2007300054A (ja) * 2006-04-05 2007-11-15 Denso Corp 車載用車両認識装置
JP2008020204A (ja) * 2006-07-10 2008-01-31 Omron Corp レーダ
WO2013072956A1 (ja) * 2011-11-15 2013-05-23 三菱電機株式会社 レーザレーダ装置、惑星着陸用セーフランディングセンサ、宇宙機用ドッキングセンサ、宇宙ごみ回収センサおよび車載衝突防止センサ
WO2015038048A1 (en) * 2013-09-10 2015-03-19 Scania Cv Ab Detection of an object by use of a 3d camera and a radar
JP2016146417A (ja) * 2015-02-09 2016-08-12 パナソニックIpマネジメント株式会社 半導体発光装置及びそれを用いた距離計測装置並びに距離計測装置の駆動方法
WO2017110559A1 (ja) * 2015-12-21 2017-06-29 浜松ホトニクス株式会社 光電変換素子及び光電変換モジュール

Also Published As

Publication number Publication date
JP6791055B2 (ja) 2020-11-25
US20200174122A1 (en) 2020-06-04
US11531351B2 (en) 2022-12-20
JP2019033181A (ja) 2019-02-28

Similar Documents

Publication Publication Date Title
US11531351B2 (en) Light receiving element array, light detection apparatus, driving support system, and automated driving system
US20240045038A1 (en) Noise Adaptive Solid-State LIDAR System
US11543501B2 (en) Method for subtracting background light from an exposure value of a pixel in an imaging array, and pixel for use in same
US10768301B2 (en) System and method for determining a distance to an object
JP2022105771A (ja) 距離測定装置
KR20220136336A (ko) 라이다 시스템용 적응식 방출기 및 수신기
JP2022188162A (ja) 可変パルス繰返し数を有するlidarに基づく三次元撮像
EP3159711A1 (en) System and method for determining a distance to an object
JP2007170856A (ja) 距離データ生成方法、距離画像生成装置、光電センサ
JP6666620B2 (ja) 距離画像計測装置
US20220137215A1 (en) Distance measuring device, distance measuring method, and program
JP2018109560A (ja) 走査式距離測定装置
US20220334253A1 (en) Strobe based configurable 3d field of view lidar system
US20220137224A1 (en) Distance measuring device, distance measuring method, and program
JP7003949B2 (ja) 光測距装置
EP4303615A1 (en) Lidar system and method to operate
WO2023181948A1 (ja) ノイズ除去装置、物体検出装置およびノイズ除去方法
Kotake et al. Performance improvement of real-time 3D imaging ladar based on a modified array receiver
US20230078063A1 (en) Distance measurement device and distance measurement system
WO2023281978A1 (ja) 測距装置および測距方法
EP4382960A1 (en) Guided flash lidar
US20230075080A1 (en) Systems and methods of calibration of low fill-factor sensor devices and object detection therewith
US20240192375A1 (en) Guided flash lidar
JP2023143756A (ja) ノイズ除去装置、物体検出装置およびノイズ除去方法
CN114690149A (zh) 激光雷达的测距装置、方法及激光雷达

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18843062

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18843062

Country of ref document: EP

Kind code of ref document: A1