WO2023074902A1 - アクティブセンサ、物体識別システム、車両用灯具 - Google Patents

アクティブセンサ、物体識別システム、車両用灯具 Download PDF

Info

Publication number
WO2023074902A1
WO2023074902A1 PCT/JP2022/040808 JP2022040808W WO2023074902A1 WO 2023074902 A1 WO2023074902 A1 WO 2023074902A1 JP 2022040808 W JP2022040808 W JP 2022040808W WO 2023074902 A1 WO2023074902 A1 WO 2023074902A1
Authority
WO
WIPO (PCT)
Prior art keywords
active sensor
irradiation range
light
sensor
light source
Prior art date
Application number
PCT/JP2022/040808
Other languages
English (en)
French (fr)
Inventor
健典 和間
Original Assignee
株式会社小糸製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社小糸製作所 filed Critical 株式会社小糸製作所
Publication of WO2023074902A1 publication Critical patent/WO2023074902A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/484Transmitters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating

Definitions

  • the present disclosure relates to active sensors.
  • An object identification system that senses the position and type of objects around the vehicle is used for automated driving and automatic control of headlamp light distribution.
  • An object identification system includes a sensor and a processor that analyzes the output of the sensor. Sensors are selected from cameras, LiDAR (Light Detection and Ranging, Laser Imaging Detection and Ranging), millimeter-wave radar, ultrasonic sonar, etc., taking into consideration the application, required accuracy, and cost.
  • LiDAR Light Detection and Ranging, Laser Imaging Detection and Ranging
  • millimeter-wave radar ultrasonic sonar
  • a passive sensor detects light emitted by an object or light reflected by an object from ambient light, and the sensor itself does not emit light.
  • an active sensor irradiates an object with illumination light and detects the reflected light.
  • the active sensor mainly includes a projector (illumination) that irradiates light on an object and an optical sensor that detects reflected light from the object.
  • Active sensors have the advantage of being able to increase resistance to disturbances compared to passive sensors by matching the wavelength of illumination light with the sensitivity wavelength range of the sensor.
  • the illumination light is composed of a semiconductor light source such as a laser diode (LD).
  • the output (luminous flux) of the semiconductor light source that is, the amount of illumination light, decreases as the temperature of the semiconductor light source rises.
  • the present disclosure has been made in view of such problems, and one exemplary purpose of certain embodiments thereof is to provide an active sensor capable of suppressing a decrease in object sensing accuracy due to a temperature rise.
  • the active sensor includes a semiconductor light source, an optical system that irradiates a controllable irradiation range with the light emitted from the semiconductor light source, an optical sensor that detects the reflected light of the light emitted from the optical system by an object, and an output of the semiconductor light source. and a light distribution controller that controls the optical system so that the irradiation range is narrowed in accordance with the decrease in .
  • FIG. 1 is a block diagram of an active sensor according to an embodiment
  • FIG. 2A and 2B are diagrams for explaining the operation of the active sensor of FIG. 1.
  • FIG. 2 is a diagram showing an example of changes in light distribution of the active sensor of FIG. 1
  • FIG. 1 is a block diagram of a ToF (Time Of Flight) camera according to an embodiment
  • FIG. It is a figure explaining operation
  • FIGS. 6A and 6B are diagrams for explaining images obtained by the ToF camera.
  • 1 is a block diagram of an active sensor according to Example 1
  • FIG. 10 is a block diagram of an active sensor according to Example 2
  • FIGS. 9A to 9C are diagrams for explaining an example of controlling the irradiation range based on the image data IMG.
  • FIG. 11 is a block diagram of an active sensor according to Example 3
  • FIG. 2 is a diagram showing a vehicle lamp incorporating an active sensor
  • 1 is a block diagram showing a
  • An active sensor includes a semiconductor light source, an optical system that irradiates a controllable irradiation range with light emitted from the semiconductor light source, and an optical sensor that detects light reflected by an object from the light emitted from the optical system. and a light distribution controller that controls the optical system so that the irradiation range is narrowed according to the decrease in the output of the semiconductor light source.
  • the irradiation range is narrowed and the output light of the semiconductor light source is concentrated in a part of the field of view. A decrease in sensing accuracy within the range can be suppressed.
  • the light distribution controller may narrow the irradiation range as the temperature of the semiconductor light source increases. By monitoring the temperature of the semiconductor light source, it is possible to estimate the decrease in the output of the semiconductor light source, so that the irradiation range can be adaptively controlled.
  • the light distribution controller may narrow the irradiation range according to the decrease in the output of the optical sensor.
  • a decrease in illuminance can be detected by monitoring the output of the optical sensor.
  • the optical sensor is an image sensor, and the output of the optical sensor may be pixel values of a given object included in the image of the image sensor.
  • the light distribution controller may widen the irradiation range when the output of the optical sensor exceeds the first threshold after narrowing the irradiation range. In one embodiment, the light distribution controller may narrow the illumination range and then widen the illumination range after a predetermined period of time.
  • the processing unit downstream of the active sensor stops processing based on the output of the active sensor. good too. Arithmetic processing is exemplified by object detection and identification (classification). As a result, erroneous detection and erroneous determination can be prevented by stopping object detection and classification when the amount of reflected light from the object is small.
  • the semiconductor light source may emit pulsed light
  • the optical sensor may detect reflected light at timing synchronized with the pulsed light emission.
  • the optical sensor is an image sensor
  • the active sensor divides the field of view into a plurality of ranges in the depth direction, and corresponds to a plurality of ranges by changing the time difference between light emission and imaging for each range. It may be a ToF camera capable of generating multiple images.
  • the active sensor may be LIDAR (Light Detection and Ranging, Laser Imaging Detection and Ranging).
  • FIG. 1 is a block diagram of an active sensor 100 according to an embodiment.
  • the active sensor 100 is a ToF camera, LIDAR, or the like, and includes an illumination device 110, an optical sensor 120, and a sensing controller .
  • the illumination device 110 includes a semiconductor light source 112 , an optical system 114 and a light distribution controller 116 .
  • Semiconductor light source 112 includes a laser diode, a light emitting diode (LED), or the like.
  • the wavelength of the light emitted from the semiconductor light source 112 is not particularly limited, and may be infrared light, visible light, or white light.
  • the optical system 114 irradiates the controllable irradiation range A with the light emitted from the semiconductor light source 112 .
  • the irradiation range A is shown as a rectangle in FIG. 1, its shape is not particularly limited, and may be an ellipse or other shapes.
  • FIG. 1 shows two irradiation ranges Aw and An having different widths, the number of switchable irradiation ranges A is not limited to two.
  • a change in the irradiation range A by the optical system 114 is based on a change in the angle of emission of light from the optical system 114 and can be realized by changing the combined focal length of the optical elements included in the optical system 114 .
  • the irradiation range A may be switchable in two steps, may be switchable in multiple steps, or may be switchable continuously.
  • the configuration of the optical system 114 is not particularly limited, and can be configured with a lens optical system, a reflection optical system, or a combination thereof.
  • the optical sensor 120 has sensitivity to the same wavelength as the output light of the semiconductor light source 112 .
  • Optical sensor 120 detects reflected light L 2 that object OBJ within the sensing range (field of view) of active sensor 100 reflects emitted light (illumination light) L 1 from optical system 114 .
  • the sensing controller 130 comprehensively controls the active sensor 100 . Specifically, the light emission of the semiconductor light source 112 of the illumination device 110 and the sensing by the optical sensor 120 are synchronously controlled.
  • the light distribution controller 116 controls the optical system 114 so that the irradiation range A narrows according to the output of the semiconductor light source 112, that is, the decrease in the luminous flux.
  • the functions of the light distribution controller 116 may be implemented in the same hardware as the sensing controller 130, such as a microcontroller, CPU (Central Processing Unit), FPGA (Field Programmable Gate Array), or ASIC (Application Specific Integrated Circuit).
  • FIG. 1 the configuration of the active sensor 100.
  • FIG. 1 the case where the irradiation range A is switched between two stages of Aw and An will be described.
  • the irradiation range Aw of FIG. 2(a) is selected.
  • the irradiation range An of FIG. 2(b) is selected.
  • FIG. 3 is a diagram showing an example of changes in light distribution of the active sensor 100 of FIG.
  • the hatching density within the irradiation range indicates the illuminance.
  • the semiconductor light source 112 emits light with a designed value of luminous flux, and a wide irradiation range Aw is selected.
  • the luminous flux of the semiconductor light source 112 is reduced in the state of the wide irradiation range Aw.
  • the illuminance in the irradiation range Aw decreases (sparse hatching).
  • a narrow irradiation range An is selected, resulting in state ⁇ 2 .
  • the luminous flux of the semiconductor light source 112 is reduced, but since the irradiation range An is also narrowed, it is possible to suppress a decrease in illuminance compared to the initial state ⁇ 0 . This suppresses a decrease in the amount of reflected light from the object and improves the sensing accuracy.
  • the above is the operation of the active sensor 100. Next, applications of the active sensor 100 will be described.
  • One example of the active sensor 100 is a ToF (Time of Flight) camera.
  • FIG. 4 is a block diagram of a ToF camera 20 according to one embodiment.
  • the ToF camera 20 performs imaging by dividing the field of view into a plurality of N (N ⁇ 2) ranges RNG 1 to RNG N in the depth direction.
  • the ToF camera 20 includes an illumination device 22, an image sensor 24, a controller 26, and an image processing section 28.
  • Illumination device 22 corresponds to illumination device 110 in FIG. 1
  • image sensor 24 corresponds to photosensor 120 in FIG. 1
  • controller 26 corresponds to sensing controller 130 in FIG.
  • the lighting device 22 emits pulsed illumination light L1 forward of the vehicle in synchronization with the light emission timing signal S1 given from the controller 26 .
  • the illumination light L1 is preferably infrared light, but is not limited to this and may be visible light having a predetermined wavelength.
  • the irradiation range of the illumination light L1 by the illumination device 22 is variable as described above.
  • the image sensor 24 is capable of exposure control synchronized with the photographing timing signal S2 given from the controller 26, and is configured to be capable of generating the range image IMG.
  • the image sensor 24 has sensitivity to the same wavelength as the illumination light L1, and captures reflected light (return light) L2 reflected by the object OBJ.
  • the controller 26 holds predetermined light emission timing and exposure timing for each range RNG.
  • the controller 26 When photographing a certain range RNG i , the controller 26 generates a light emission timing signal S1 and a photographing timing signal S2 based on the light emission timing and exposure timing corresponding to that range, and performs photographing.
  • the ToF camera 20 may generate multiple range images IMG 1 -IMG N corresponding to multiple ranges RNG 1 -RNG N.
  • FIG. An object included in the corresponding range RNG i is captured in the i-th range image IMG i .
  • FIG. 5 is a diagram for explaining the operation of the ToF camera 20.
  • FIG. FIG. 5 shows how the i-th range RNG i is measured.
  • the illumination device 22 emits light during a light emission period ⁇ 1 between times t 0 and t 1 in synchronization with the light emission timing signal S1.
  • At the top is a ray diagram with time on the horizontal axis and distance on the vertical axis.
  • dMINi be the distance from the ToF camera 20 to the front boundary of range RNG i
  • dMAXi be the distance to the rear boundary of range RNG i .
  • TMINi 2 ⁇ d MINi /c is.
  • c is the speed of light.
  • T MAXi 2 ⁇ d MAXi /c is.
  • FIG. 6A and 6B are diagrams for explaining images obtained by the ToF camera 20.
  • FIG. 6A an object (pedestrian) OBJ1 exists in the range RNG1
  • an object (vehicle) OBJ3 exists in the range RNG3 .
  • FIG. 6(b) shows a plurality of range images IMG 1 to IMG 3 obtained in the situation of FIG. 6(a).
  • the image sensor is exposed only by reflected light from the range RNG 1 , so the object image OBJ 1 of the pedestrian OBJ 1 appears in the range image IMG 1 .
  • range image IMG 2 When taking range image IMG 2 , the image sensor is exposed by reflected light from range RNG 2 , so range image IMG 2 does not show any object images.
  • the image sensor is exposed by reflected light from the range RNG 3 , so only the object image OBJ 3 appears in the range image IMG 3 .
  • an object can be photographed separately for each range.
  • the above is the operation of the ToF camera 20.
  • this ToF camera 20 by controlling the irradiation range A by the illumination device 22 according to the output of the semiconductor light source, it is possible to prevent the illuminance within the irradiation range A from being extremely lowered. As a result, even when the output of the semiconductor light source is reduced, the pixel values of the object appearing in the range image IMG are increased (that is, brighter), thereby suppressing deterioration in image quality.
  • FIG. 7 is a block diagram of the active sensor 100A according to the first embodiment.
  • Illumination device 110A includes temperature sensor 118 .
  • Temperature sensor 118 is arranged to detect the temperature of semiconductor light source 112 .
  • a thermistor, a thermocouple, or the like can be used as the temperature sensor 118 .
  • the light distribution controller 116 controls the optical system 114 based on the temperature of the semiconductor light source 112 detected by the temperature sensor 118 . Specifically, the light distribution controller 116 narrows the irradiation range A as the temperature of the semiconductor light source 112 increases. In a semiconductor light source such as a laser diode, the luminous flux decreases as the temperature rises when the same power is applied.
  • the light distribution controller 116 may select a wide irradiation range Aw when the temperature is lower than a predetermined threshold, and switch to a narrow irradiation range An when the temperature exceeds the threshold.
  • the area of the narrow irradiation range An is K times (K ⁇ 1) the area of the wide irradiation range Aw.
  • the temperature at which the output (luminous flux or luminance) of the semiconductor light source 112 is 1/K times higher than that at room temperature can be determined in advance, and the threshold value can be determined based on that temperature.
  • the irradiation range A When the irradiation range A is continuously variable, the irradiation range A may be gradually narrowed as the temperature increases.
  • FIG. 8 is a block diagram of an active sensor 100B according to the second embodiment.
  • Light distribution controller 116 of illumination device 110B controls irradiation range A based on the output of optical sensor 120 .
  • the optical sensor 120 can be specifically an image sensor.
  • the light distribution controller 116 controls the irradiation range A based on the pixel values of the image data IMG generated by the image sensor.
  • the irradiation range A may be controlled based on all range images, or may be controlled based on a range image corresponding to a specific range.
  • Figs. 9(a) to (c) are diagrams for explaining an example of control of the irradiation range based on the image data IMG.
  • the light distribution controller 116 can estimate the decrease in the output of the semiconductor light source 112 based on the total or average value of the pixel values of all the pixels of the image data IMG, and can control the irradiation range A. For example, when the total or average value of pixel values becomes lower than a predetermined threshold value, the irradiation range A is narrowed.
  • the irradiation range A may be returned to its original state.
  • the irradiation range may be returned to the original wide range when a predetermined time elapses.
  • an arithmetic processing device (not shown in FIG. 8, for example, in FIG. 10) after the active sensor 100B
  • the arithmetic processing unit 40 preferably stops arithmetic processing based on the output of the active sensor 100B. In such a situation, since the amount of reflected light from the object is small, erroneous detection and erroneous determination can be prevented by stopping object detection and classification.
  • sensing by the active sensor 100B continues even while the subsequent arithmetic processing is stopped. Then, when the output of the optical sensor 120 exceeds the second threshold value, the subsequent arithmetic processing is restarted.
  • the light distribution controller 116 controls the irradiation range A based on the pixel values of the predetermined region of interest ROI in the image data IMG.
  • the predetermined area ROI it is preferable to select an area where there is a high possibility that an object with a known reflectance will appear. For example, there is a high possibility that the road surface will appear in the area below the image, and the reflectance of the road surface is approximately constant. Therefore, pixels representing the road surface may be monitored, and the irradiation range A may be controlled based on the pixel values.
  • the light distribution controller 116 analyzes the image data IMG and detects the object OBJ. Then, the irradiation range A may be controlled based on the pixel values of the pixels in which the specific object OBJ is captured.
  • specific objects OBJ are cars, people, road signs, delineators, and road surfaces.
  • the amount of light detected by the optical sensor 120 changes according to the illuminance of the surface of the object and the distance to the object. Therefore, the light distribution controller 116 preferably controls the irradiation range A according to the pixel value of the detected object and the distance to the object. If the active sensor 100B is the ToF camera 20, distance information to the object can be easily guessed from the range number. Even when the active sensor 100B is a LiDAR or ToF camera, the distance to the object can be easily known.
  • the distance to the object may be estimated based on the number of pixels of the object included in the image.
  • the light distribution controller 116 may detect an object existing at a specific distance from the active sensor 100 and control the irradiation range based on the pixel values of the object.
  • FIG. 10 is a block diagram of an active sensor 100C according to the third embodiment.
  • optical sensor 120 is an image sensor and generates image data IMG.
  • the arithmetic processing unit 40 processes the image data IMG and detects the position of the object and the type of the object.
  • Arithmetic processing unit 40 may include, for example, a classifier or discriminator that includes a trained model.
  • the arithmetic processing unit 40 supplies the light distribution controller 116 with information regarding the success or failure of object detection and the identification rate in the arithmetic processing unit 40 .
  • the light distribution controller 116 may reduce the irradiation range A by estimating that the illuminance has decreased when the object cannot be normally detected by the processing unit 40 .
  • Light distribution controller 116 may be incorporated into processor 40 .
  • FIG. 11 is a diagram showing a vehicle lamp 200 incorporating the active sensor 100.
  • the vehicle lamp 200 includes a housing 210 , an outer lens 220 , high beam and low beam lamp units 230H/230L, and an active sensor 100 .
  • the lamp units 230H/230L and the active sensor 100 are housed in the housing 210. As shown in FIG.
  • a part of the active sensor 100 may be installed outside the vehicle lamp 200, for example, behind the rearview mirror.
  • FIG. 12 is a block diagram showing a vehicle lamp 200 including the object identification system 10.
  • the vehicle lamp 200 constitutes a lamp system 310 together with a vehicle-side ECU 304 .
  • a vehicle lamp 200 includes a light source 202 , a lighting circuit 204 and an optical system 206 . Further, the vehicle lamp 200 is provided with the object identification system 10 .
  • Object identification system 10 includes active sensor 100 and processing unit 40 .
  • the arithmetic processing unit 40 is configured to be able to identify the type of object based on the image obtained by the active sensor 100 .
  • the arithmetic processing unit 40 can be implemented by combining a processor (hardware) such as a CPU (Central Processing Unit), MPU (Micro Processing Unit), or microcomputer, and a software program executed by the processor (hardware).
  • a processor such as a CPU (Central Processing Unit), MPU (Micro Processing Unit), or microcomputer
  • the arithmetic processing unit 40 may be a combination of multiple processors. Alternatively, the arithmetic processing unit 40 may be composed only of hardware.
  • Information on the object OBJ detected by the processing unit 40 may be used for light distribution control of the vehicle lamp 200 .
  • the lamp-side ECU 208 generates an appropriate light distribution pattern based on the information about the type and position of the object OBJ generated by the arithmetic processing unit 40 .
  • the lighting circuit 204 and the optical system 206 operate so as to obtain the light distribution pattern generated by the lamp-side ECU 208 .
  • Information regarding the object OBJ detected by the processing unit 40 may be transmitted to the vehicle-side ECU 304 .
  • the vehicle-side ECU may perform automatic driving based on this information.
  • the active sensor 100 is not limited to a ToF camera, and may be a LIDAR (Light Detection and Ranging, Laser Imaging Detection and Ranging). Alternatively, active sensor 100 may be a single-pixel imaging device (quantum radar) using correlation calculations.
  • LIDAR Light Detection and Ranging, Laser Imaging Detection and Ranging
  • active sensor 100 may be a single-pixel imaging device (quantum radar) using correlation calculations.
  • the present disclosure relates to active sensors.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

光学系114は、半導体光源112の出射光を、制御可能な照射範囲Aに照射する。光センサ120は、物体が光学系114の出射光を反射した反射光L2を検出する。配光コントローラ116は、半導体光源112の出力の低下に応じて、照射範囲Aが狭くなるように光学系114を制御する。

Description

アクティブセンサ、物体識別システム、車両用灯具
 本開示は、アクティブセンサに関する。
 自動運転やヘッドランプの配光の自動制御のために、車両の周囲に存在する物体の位置および種類をセンシングする物体識別システムが利用される。物体識別システムは、センサと、センサの出力を解析する演算処理装置を含む。センサは、カメラ、LiDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)、ミリ波レーダ、超音波ソナーなどの中から、用途、要求精度やコストを考慮して選択される。
 センサには、パッシブセンサとアクティブセンサがある。パッシブセンサは、物体が放射した光、あるいは物体が環境光を反射した光を検出するものであり、センサ自体は、光を放射しない。一方、アクティブセンサは、物体に照明光を照射し、その反射光を検出する。アクティブセンサは、主として、物体に光を照射する投光器(照明)と、物体からの反射光を検出する光センサを備える。アクティブセンサは、照明光の波長とセンサの感度波長域を合わせることで、パッシブセンサよりも外乱に対する耐性を高めることができるという利点を有する。
 照明光は、レーザダイオード(LD:Laser Diode)などの半導体光源で構成される。半導体光源の出力(光束)、つまり照明光の光量は、半導体光源の温度上昇にともなって低下する。物体に照射される光の照度が低下すると、物体のセンシングの精度が低下する。
 また、照明光の光量低下を補うために、半導体光源に供給する電力(駆動電流)を増加させると、さらなる発熱を誘発する。
 本開示は係る課題に鑑みて成されたものであり、そのある態様の例示的な目的のひとつは、温度の上昇にともなう物体のセンシングの精度の低下を抑制可能なアクティブセンサの提供にある。
 本開示のある態様は、アクティブセンサに関する。アクティブセンサは、半導体光源と、半導体光源の出射光を、制御可能な照射範囲に照射する光学系と、物体が光学系の出射光を反射した反射光を検出する光センサと、半導体光源の出力の低下に応じて、照射範囲が狭くなるように光学系を制御する配光コントローラと、を備える。
 なお、以上の構成要素を任意に組み合わせたもの、構成要素や表現を、方法、装置、システムなどの間で相互に置換したものもまた、本発明あるいは本開示の態様として有効である。さらに、この項目(課題を解決するための手段)の記載は、本発明の欠くべからざるすべての特徴を説明するものではなく、したがって、記載されるこれらの特徴のサブコンビネーションも、本発明たり得る。
 本開示のある態様によれば、センシングの精度の低下を抑制できる。
実施の形態に係るアクティブセンサのブロック図である。 図2(a)、(b)は、図1のアクティブセンサの動作を説明する図である。 図1のアクティブセンサの配光の変化の一例を示す図である。 一実施例に係るToF(Time Of Flight)カメラのブロック図である。 ToFカメラの動作を説明する図である。 図6(a)、(b)は、ToFカメラにより得られる画像を説明する図である。 実施例1に係るアクティブセンサのブロック図である。 実施例2に係るアクティブセンサのブロック図である。 図9(a)~(c)は、画像データIMGにもとづく照射範囲の制御例を説明する図である。 実施例3に係るアクティブセンサのブロック図である。 アクティブセンサを内蔵する車両用灯具を示す図である。 物体識別システムを備える車両用灯具を示すブロック図である。
(実施形態の概要)
 本開示のいくつかの例示的な実施形態の概要を説明する。この概要は、後述する詳細な説明の前置きとして、実施形態の基本的な理解を目的として、1つまたは複数の実施形態のいくつかの概念を簡略化して説明するものであり、発明あるいは開示の広さを限定するものではない。またこの概要は、考えられるすべての実施形態の包括的な概要ではなく、実施形態の欠くべからざる構成要素を限定するものではない。便宜上、「一実施形態」は、本明細書に開示するひとつの実施形態(実施例や変形例)または複数の実施形態(実施例や変形例)を指すものとして用いる場合がある。
 一実施形態に係るアクティブセンサは、半導体光源と、半導体光源の出射光を、制御可能な照射範囲に照射する光学系と、物体が光学系の出射光を反射した反射光を検出する光センサと、半導体光源の出力の低下に応じて、照射範囲が狭くなるように光学系を制御する配光コントローラと、を備える。
 この構成によれば、半導体光源の出力が低下したときに、照射範囲を狭めて半導体光源の出力光を視野の一部分に集中させることで、照度の低下を抑制でき、センシング範囲と引き換えに、照射範囲内のセンシング精度の低下を抑制できる。
 一実施形態において、配光コントローラは、半導体光源の温度が上昇するほど、照射範囲を狭めてもよい。半導体光源の温度を監視することで、半導体光源の出力の低下が推定できるため、照射範囲を適応的に制御できる。
 一実施形態において、配光コントローラは、光センサの出力の低下に応じて、照射範囲を狭めてもよい。光センサの出力を監視することで、照度の低下を検出することができる。
 一実施形態において、光センサはイメージセンサであり、光センサの出力は、イメージセンサの画像に含まれる所定の物体の画素値であってもよい。
 一実施形態において、配光コントローラは、照射範囲を狭めた後に、光センサの出力が第1しきい値を越えると、照射範囲を広げてもよい。一実施形態において、配光コントローラは、照射範囲を狭めた後に、所定時間が経過すると、照射範囲を広げてもよい。
 一実施形態において、照射範囲を限界まで狭めた後に、光センサの出力が第2しきい値より低い場合、アクティブセンサの後段の演算処理装置は、アクティブセンサの出力にもとづく演算処理を停止してもよい。演算処理は、物体の検出や識別(分類)などが例示される。これにより、物体からの反射光の光量が小さい場合に、物体検出や分類を停止することで、誤検出や誤判定を防止できる。
 一実施形態において、半導体光源は、パルス発光し、光センサは、パルス発光と同期したタイミングで反射光を検出してもよい。
 一実施形態において、光センサは、イメージセンサであり、アクティブセンサは、視野を奥行き方向について複数のレンジに区切り、レンジ毎に、発光と撮像の時間差を変化させることにより、複数のレンジに対応する複数の画像を生成可能なToFカメラであってもよい。
 一実施形態において、アクティブセンサは、LIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)であってもよい。
(実施形態)
 以下、好適な実施の形態について図面を参照しながら説明する。各図面に示される同一または同等の構成要素、部材、処理には、同一の符号を付するものとし、適宜重複した説明は省略する。また、実施の形態は、開示を限定するものではなく例示であって、実施の形態に記述されるすべての特徴やその組み合わせは、必ずしも開示の本質的なものであるとは限らない。
 図1は、実施の形態に係るアクティブセンサ100のブロック図である。アクティブセンサ100は、ToFカメラ、LIDARなどであり、照明装置110、光センサ120、センシングコントローラ130を備える。
 照明装置110は、半導体光源112、光学系114、配光コントローラ116を含む。半導体光源112は、レーザダイオードや発光ダイオード(LED)などを含む。半導体光源112の出射光の波長は特に限定されず、赤外光であってもよいし、可視光であってもよいし、白色光であってもよい。
 光学系114は、半導体光源112の出射光を、制御可能な照射範囲Aに照射する。図1では照射範囲Aを矩形で示すが、その形状は特に限定されず、楕円やその他の形状であってもよい。また図1には、広さが異なる2つの照射範囲Aw、Anが示されるが、切りかえ可能な照射範囲Aの個数は2に限定されない。光学系114による照射範囲Aの変化は、光学系114からの光の出射角の変化にもとづくものであり、光学系114に含まれる光学要素の合成焦点距離を変化させることによって実現できる。
 照射範囲Aは、2段階で切り替え可能であってもよいし、多段階で切りかえ可能であってもよいし、連続的に切りかえ可能であってもよい。光学系114の構成は特に限定されず、レンズ光学系、反射光学系、それらの組み合わせで構成することができる。
 光センサ120は、半導体光源112の出力光と同じ波長に感度を有する。光センサ120は、アクティブセンサ100によるセンシング範囲(視野)内の物体OBJが光学系114の出射光(照明光)L1を反射した反射光L2を検出する。
 センシングコントローラ130は、アクティブセンサ100を統合的に制御する。具体的には、照明装置110の半導体光源112の発光と、光センサ120によるセンシングを同期制御する。
 配光コントローラ116は、半導体光源112の出力、すなわち光束の低下に応じて、照射範囲Aが狭くなるように光学系114を制御する。配光コントローラ116の機能は、センシングコントローラ130と同じハードウェア、たとえばマイクロコントローラやCPU(Central Processing Unit)、FPGA(Field Programmable Gate Array)やASIC(Application Specific Integrated Circuit)に実装してもよい。
 以上がアクティブセンサ100の構成である。続いてその動作を説明する。図2(a)、(b)は、図1のアクティブセンサ100の動作を説明する図である。ここでは照射範囲Aを、Aw、Anの2段階で切りかえる場合を説明する。
 半導体光源112の出力が相対的に高い状態では、図2(a)の照射範囲Awが選択される。半導体光源112の出力が相対的に低い状態では、図2(b)の照射範囲Anが選択される。半導体光源112の出力が低下したときに、照射範囲を狭めることにより、物体上(あるいは仮想鉛直スクリーン上)の単位面積当たりの光束量、すなわち照度の低下を抑制することができる。
 図3は、図1のアクティブセンサ100の配光の変化の一例を示す図である。図3において、照射範囲内のハッチングの密度は、照度を示す。初期状態φでは、半導体光源112は、設計値の光束で発光しており、広い照射範囲Awが選択される。
 状態φにおいて、広い照射範囲Awの状態で、半導体光源112の光束が低下している。これにより、照射範囲Awにおける照度が低下する(ハッチングが疎)。この状態φでは、視野内に物体が存在した場合に、その物体からの反射光の光量が低下するため、センシングの精度が低下する。そこで、半導体光源112の光束の低下に応じて、狭い照射範囲Anが選択され、状態φとなる。状態φでは、半導体光源112の光束が低下するが、照射範囲Anも狭くなっているため、初期状態φと比べたときの照度の低下を抑制することができる。これにより物体からの反射光の光量の低下が抑制され、センシングの精度を改善できる。
 以上がアクティブセンサ100の動作である。続いてアクティブセンサ100の用途を説明する。アクティブセンサ100の一実施例は、ToF(Time of Flight)カメラである。
 図4は、一実施例に係るToFカメラ20のブロック図である。ToFカメラ20は、視野を奥行き方向について複数N個(N≧2)のレンジRNG~RNGに区切って撮像を行う。
 ToFカメラ20は、照明装置22、イメージセンサ24、コントローラ26、画像処理部28を備える。照明装置22は図1の照明装置110に対応し、イメージセンサ24は図1の光センサ120に対応し、コントローラ26は図1のセンシングコントローラ130に対応する。
 照明装置22は、コントローラ26から与えられる発光タイミング信号S1と同期して、パルスの照明光L1を車両前方に照射する。照明光L1は赤外光であることが好ましいが、その限りでなく、所定の波長を有する可視光であってもよい。照明装置22による照明光L1の照射範囲は、上述のように可変である。
 イメージセンサ24は、コントローラ26から与えられる撮影タイミング信号S2と同期した露光制御が可能であり、レンジ画像IMGを生成可能に構成される。イメージセンサ24は、照明光L1と同じ波長に感度を有しており、物体OBJが反射した反射光(戻り光)L2を撮影する。
 コントローラ26は、レンジRNGごとに予め定められた発光タイミングと露光タイミングを保持している。コントローラ26は、あるレンジRNGを撮影するとき、そのレンジに対応する発光タイミングと露光タイミングにもとづいて発光タイミング信号S1および撮影タイミング信号S2を生成し、撮影を行う。ToFカメラ20は、複数のレンジRNG~RNGに対応する複数のレンジ画像IMG~IMGを生成することができる。i番目のレンジ画像IMGには、対応するレンジRNGに含まれる物体が写ることとなる。
 図5は、ToFカメラ20の動作を説明する図である。図5にはi番目のレンジRNGを測定するときの様子が示される。照明装置22は、発光タイミング信号S1と同期して、時刻t~tの間の発光期間τの間、発光する。最上段には、横軸に時間、縦軸に距離をとった光線のダイアグラムが示される。ToFカメラ20から、レンジRNGの手前の境界までの距離をdMINi、レンジRNGの奥側の境界までの距離をdMAXiとする。
 ある時刻に照明装置22を出発した光が、距離dMINiに到達してその反射光がイメージセンサ24に戻ってくるまでのラウンドトリップ時間TMINiは、
 TMINi=2×dMINi/c
である。cは光速である。
 同様に、ある時刻に照明装置22を出発した光が、距離dMAXiに到達してその反射光がイメージセンサ24に戻ってくるまでのラウンドトリップ時間TMAXiは、
 TMAXi=2×dMAXi/c
である。
 レンジRNGに含まれる物体OBJを撮影したいとき、コントローラ26は、時刻t=t+TMINiに露光を開始し、時刻t=t+TMAXiに露光を終了するように、撮影タイミング信号S2を生成する。これが1回の露光動作である。
 i番目のレンジRNGを撮影する際には、複数回の発光と露光を繰り返し行い、イメージセンサ24において測定結果を積算する。
 図6(a)、(b)は、ToFカメラ20により得られる画像を説明する図である。図6(a)の例では、レンジRNGに物体(歩行者)OBJが存在し、レンジRNGに物体(車両)OBJが存在している。図6(b)には、図6(a)の状況で得られる複数のレンジ画像IMG~IMGが示される。レンジ画像IMGを撮影するとき、イメージセンサはレンジRNGからの反射光のみにより露光されるため、レンジ画像IMGには、歩行者OBJの物体像OBJが写る。
 レンジ画像IMGを撮影するとき、イメージセンサはレンジRNGからの反射光により露光され、したがってレンジ画像IMGには、いかなる物体像も写らない。
 同様にレンジ画像IMGを撮影するとき、イメージセンサはレンジRNGからの反射光により露光されるため、レンジ画像IMGには、物体像OBJのみが写る。このようにToFカメラ20によれば、レンジ毎に物体を分離して撮影することができる。
 以上がToFカメラ20の動作である。このToFカメラ20において、照明装置22による照射範囲Aを、半導体光源の出力に応じて制御することにより、照射範囲A内の照度が極端に低下するのを防止できる。これにより、半導体光源の出力が低下した場合であっても、レンジ画像IMGに写る物体の画素値が大きく(つまり明るく)なり画質の劣化が抑制される。
 続いて、アクティブセンサ100の具体的な構成例を説明する。
(実施例1)
 図7は、実施例1に係るアクティブセンサ100Aのブロック図である。照明装置110Aは、温度センサ118を含む。温度センサ118は、半導体光源112の温度を検出可能に配置される。温度センサ118は、サーミスタや熱電対などを用いることができる。
 配光コントローラ116は、温度センサ118が検出した半導体光源112の温度にもとづいて、光学系114を制御する。具体的には配光コントローラ116は、半導体光源112の温度が上昇するほど、照射範囲Aを狭める。レーザダイオードなどの半導体光源は、同じ電力を投入したときの光束は、温度の上昇とともに低下する。
 たとえば配光コントローラ116は、温度が所定のしきい値より低いとき、広い照射範囲Awを選択し、温度がしきい値を越えると、狭い照射範囲Anに切りかえてもよい。
 たとえば、狭い照射範囲Anの面積が、広い照射範囲Awの面積のK倍(K<1)であるとする。この場合、半導体光源112の出力(光束あるいは輝度)が、常温よりも1/K倍となる温度を予め調べておき、その温度にもとづいて、しきい値を決めることができる。
 照射範囲Aが連続的に可変である場合、温度が高くなるにしたがって、照射範囲Aを徐々に狭めてもよい。
(実施例2)
 図8は、実施例2に係るアクティブセンサ100Bのブロック図である。照明装置110Bの配光コントローラ116は、光センサ120の出力にもとづいて、照射範囲Aを制御する。
 光センサ120は具体的にはイメージセンサでありうる。配光コントローラ116は、イメージセンサが生成する画像データIMGの画素値にもとづいて、照射範囲Aを制御する。アクティブセンサ100BがToFカメラ20である場合、全てのレンジ画像にもとづいて照射範囲Aを制御してもよいし、特定のレンジに対応するレンジ画像にもとづいて照射範囲Aを制御してもよい。
 図9(a)~(c)は、画像データIMGにもとづく照射範囲の制御例を説明する図である。
 図9(a)を参照する。照明光L1の照度が低下すると、その反射光にもとづく画像データIMGは全体的に暗くなる。そこで、配光コントローラ116は、画像データIMGの全画素の画素値の合計や平均値にもとづいて、半導体光源112の出力の低下を推定することができ、照射範囲Aを制御することができる。たとえば、画素値の合計や平均値が所定のしきい値より低くなると、照射範囲Aを狭める。
 また照射範囲Aを狭めた状態で、画素値の合計や平均値が第1しきい値を越えると、照射範囲Aを元に戻してもよい。あるいは、照射範囲Aを狭めた後に、所定時間が経過すると、照射範囲を元の広い範囲に戻してもよい。
 照射範囲Aを限界まで狭めた後に、光センサ120の出力(画素値)が、第2しきい値を下回る場合、アクティブセンサ100Bの後段の演算処理装置(図8に不図示、たとえば図10の演算処理装置40)は、アクティブセンサ100Bの出力にもとづく演算処理を停止することが望ましい。このような状況では、物体からの反射光の光量が小さいため、物体検出や分類を停止することで、誤検出や誤判定を防止できる。
 なお、後段の演算処理を停止している間も、アクティブセンサ100Bによるセンシングは継続する。そして、光センサ120の出力が第2しきい値を越えると、後段の演算処理を再開させる。
 図9(b)の例では、配光コントローラ116は、画像データIMGのうち所定の注目領域ROIの画素値にもとづいて、照射範囲Aを制御する。所定の領域ROIは、反射率が既知である物体が写る可能性が高い領域を選ぶとよい。たとえば、画像の下方の領域には、路面が写る可能性が高く、路面の反射率はおおよそ一定である。したがって、路面が写る画素を監視し、その画素値にもとづいて照射範囲Aを制御してもよい。
 図9(c)の例では、配光コントローラ116は、画像データIMGを解析し、物体OBJを検出する。そして特定の物体OBJが写っている画素の画素値にもとづいて、照射範囲Aを制御してもよい。たとえば、特定の物体OBJは、自動車や人、道路標識やデリニエータ、路面などが例示される。
 図9(c)の例では、光センサ120が検出する光量は、物体表面の照度と、物体までの距離とに応じて変化する。そこで配光コントローラ116は、検出した物体の画素値と、その物体までの距離とに応じて、照射範囲Aを制御するとよい。アクティブセンサ100BがToFカメラ20である場合、物体までの距離情報は、レンジ番号から容易に推測できる。アクティブセンサ100BがLiDARやToFカメラである場合にも、物体までの距離は容易に知ることができる。
 アクティブセンサ100Bが、ToFカメラのように距離情報を取得できない場合、画像に含まれる物体のピクセル数にもとづいて、その物体までの距離を推定してもよい。
 あるいは、配光コントローラ116は、アクティブセンサ100からの特定の距離に存在する物体を検出し、その物体の画素値にもとづいて、照射範囲を制御してもよい。
(実施例3)
 図10は、実施例3に係るアクティブセンサ100Cのブロック図である。アクティブセンサ100Cにおいて、光センサ120はイメージセンサであり、画像データIMGを生成する。演算処理装置40は、画像データIMGを処理し、物体の位置や物体の種類を検出する。演算処理装置40は、たとえば学習済みモデルを含む分類器や識別器を含んでもよい。
 演算処理装置40は、演算処理装置40における物体の検出の成否や識別率に関する情報を配光コントローラ116に供給する。配光コントローラ116は、演算処理装置40において物体が正常に検出できなくなると、照度が低下したものと推定して、照射範囲Aを低下させてもよい。配光コントローラ116は、演算処理装置40に組み込まれてもよい。
 これにより、物体からの反射光の光量が小さい場合に、物体検出や分類、識別を停止することで、誤検出や誤判定を防止できる。
 図11は、アクティブセンサ100を内蔵する車両用灯具200を示す図である。車両用灯具200は、筐体210、アウターレンズ220、ハイビームおよびロービームの灯具ユニット230H/230Lおよびアクティブセンサ100を備える。灯具ユニット230H/230Lおよびアクティブセンサ100は、筐体210に収容されている。
 なお、アクティブセンサ100の一部、たとえば光センサ120は、車両用灯具200の外部、たとえばルームミラーの裏側に設置してもよい。
 図12は、物体識別システム10を備える車両用灯具200を示すブロック図である。車両用灯具200は、車両側ECU304とともに灯具システム310を構成する。車両用灯具200は、光源202、点灯回路204、光学系206を備える。さらに車両用灯具200には、物体識別システム10が設けられる。物体識別システム10は、アクティブセンサ100および演算処理装置40を含む。
 演算処理装置40は、アクティブセンサ100によって得られる画像にもとづいて、物体の種類を識別可能に構成される。
 演算処理装置40は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)、マイコンなどのプロセッサ(ハードウェア)と、プロセッサ(ハードウェア)が実行するソフトウェアプログラムの組み合わせで実装することができる。演算処理装置40は、複数のプロセッサの組み合わせであってもよい。あるいは演算処理装置40はハードウェアのみで構成してもよい。
 演算処理装置40が検出した物体OBJに関する情報は、車両用灯具200の配光制御に利用してもよい。具体的には、灯具側ECU208は、演算処理装置40が生成する物体OBJの種類とその位置に関する情報にもとづいて、適切な配光パターンを生成する。点灯回路204および光学系206は、灯具側ECU208が生成した配光パターンが得られるように動作する。
 また演算処理装置40が検出した物体OBJに関する情報は、車両側ECU304に送信してもよい。車両側ECUは、この情報にもとづいて、自動運転を行ってもよい。
 上述した実施形態は例示であり、それらの各構成要素や各処理プロセスの組み合わせにいろいろな変形例が可能なことが当業者に理解される。以下、こうした変形例について説明する。
(変形例1)
 アクティブセンサ100は、ToFカメラに限定されず、LIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)であってもよい。あるいはアクティブセンサ100は、相関計算を利用したシングルピクセルイメージング装置(量子レーダ)であってもよい。
 実施形態は例示であり、それらの各構成要素や各処理プロセスの組み合わせにさまざまな変形例が存在すること、またそうした変形例も本開示または本発明の範囲に含まれることは当業者に理解されるところである。
 本開示は、アクティブセンサに関する。
 10 物体識別システム
 OBJ 物体
 20 ToFカメラ
 22 照明装置
 24 イメージセンサ
 26 コントローラ
 S1 発光タイミング信号
 S2 撮影タイミング信号
 40 演算処理装置
 100 アクティブセンサ
 110 照明装置
 112 半導体光源
 114 光学系
 116 配光コントローラ
 118 温度センサ
 120 光センサ
 130 センシングコントローラ
 200 車両用灯具
 202 光源
 204 点灯回路
 206 光学系
 310 灯具システム
 304 車両側ECU

Claims (9)

  1.  半導体光源と、
     前記半導体光源の出射光を、制御可能な照射範囲に照射する光学系と、
     物体が前記光学系の出射光を反射した反射光を検出する光センサと、
     前記半導体光源の出力の低下に応じて、照射範囲が狭くなるように前記光学系を制御する配光コントローラと、
     を備えることを特徴とするアクティブセンサ。
  2.  前記配光コントローラは、前記半導体光源の温度が上昇するほど、前記照射範囲を狭めることを特徴とする請求項1に記載のアクティブセンサ。
  3.  前記配光コントローラは、前記光センサの出力の低下に応じて、前記照射範囲を狭めることを特徴とする請求項1に記載のアクティブセンサ。
  4.  前記配光コントローラは、前記照射範囲を狭めた後に、前記光センサの前記出力が第1しきい値を越えると、前記照射範囲を広げることを特徴とする請求項3に記載のアクティブセンサ。
  5.  前記照射範囲を限界まで狭めた後に、前記光センサの前記出力が第2しきい値より低い場合、前記アクティブセンサの後段の演算処理装置は、前記アクティブセンサの出力にもとづく演算処理を停止することを特徴とする請求項3または4に記載のアクティブセンサ。
  6.  前記半導体光源は、パルス発光し、
     前記光センサは、前記パルス発光と同期したタイミングで前記反射光を検出することを特徴とする請求項1から5のいずれかに記載のアクティブセンサ。
  7.  前記光センサは、イメージセンサであり、
     前記アクティブセンサは、視野を奥行き方向について複数のレンジに区切り、レンジ毎に、発光と撮像の時間差を変化させることにより、前記複数のレンジに対応する複数の画像を生成可能な飛行時間カメラであることを特徴とする請求項1から6のいずれかに記載のアクティブセンサ。
  8.  請求項1から7のいずれかに記載のアクティブセンサと、
     前記アクティブセンサによって得られる画像にもとづいて、物体の種類を識別可能な演算処理装置と、
     を備えることを特徴とする物体識別システム。
  9.  請求項8に記載の物体識別システムを備えることを特徴とする車両用灯具。
PCT/JP2022/040808 2021-11-01 2022-10-31 アクティブセンサ、物体識別システム、車両用灯具 WO2023074902A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021-178892 2021-11-01
JP2021178892 2021-11-01

Publications (1)

Publication Number Publication Date
WO2023074902A1 true WO2023074902A1 (ja) 2023-05-04

Family

ID=86159530

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/040808 WO2023074902A1 (ja) 2021-11-01 2022-10-31 アクティブセンサ、物体識別システム、車両用灯具

Country Status (1)

Country Link
WO (1) WO2023074902A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07134178A (ja) * 1993-11-12 1995-05-23 Omron Corp レーザ光を用いた車載用距離測定装置
JPH07159538A (ja) * 1993-12-07 1995-06-23 Copal Co Ltd 光照射式測距装置
US8213022B1 (en) * 2009-03-04 2012-07-03 University Of Central Florida Research Foundation, Inc. Spatially smart optical sensing and scanning
JP2018205042A (ja) * 2017-05-31 2018-12-27 日本信号株式会社 レーザー測距装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07134178A (ja) * 1993-11-12 1995-05-23 Omron Corp レーザ光を用いた車載用距離測定装置
JPH07159538A (ja) * 1993-12-07 1995-06-23 Copal Co Ltd 光照射式測距装置
US8213022B1 (en) * 2009-03-04 2012-07-03 University Of Central Florida Research Foundation, Inc. Spatially smart optical sensing and scanning
JP2018205042A (ja) * 2017-05-31 2018-12-27 日本信号株式会社 レーザー測距装置

Similar Documents

Publication Publication Date Title
CN109154984B (zh) 用来提高障碍物的可识别性的机动车的照明装置
EP2374282A2 (en) Gated 3d camera
WO2017110414A1 (ja) 車両用画像取得装置およびそれを備えた車両
CN111398975B (zh) 主动传感器、物体识别系统、车辆、车辆用灯具
US20200039420A1 (en) Vehicle lamp
WO2023074902A1 (ja) アクティブセンサ、物体識別システム、車両用灯具
JP2009257982A (ja) 車両用距離画像データ生成装置
US20220214434A1 (en) Gating camera
US11657526B2 (en) Distance measurement device
WO2021193645A1 (ja) ゲーティングカメラ、センシングシステム、車両用灯具
WO2022039231A1 (ja) 車載用センシングシステムおよびゲーティングカメラ
CN111717108B (zh) 车辆用监视系统
WO2023085403A1 (ja) センシングシステム
WO2021172478A1 (ja) センサ、自動車および周囲環境のセンシング方法
WO2022145261A1 (ja) ゲーティングカメラ、車両用センシングシステム、車両用灯具
WO2023074903A1 (ja) センシングシステムおよび自動車
CN118235419A (zh) 感测系统
JP7474759B2 (ja) 車両用灯具
WO2022014416A1 (ja) ゲーティングカメラ、車両用センシングシステム、車両用灯具
WO2021015208A1 (ja) アクティブセンサ、ゲーティングカメラ、自動車、車両用灯具
WO2022163721A1 (ja) ゲーティングカメラ、車両用センシングシステム、車両用灯具
JP7297714B2 (ja) 測距装置及び光源の発光診断方法
WO2023224078A1 (ja) 車載センシングシステムおよび縁石の検出方法
US20220018964A1 (en) Surroundings detection device for vehicle
WO2022181097A1 (ja) 測距装置およびその制御方法、並びに、測距システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22887227

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2023556706

Country of ref document: JP

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 2022887227

Country of ref document: EP

Effective date: 20240603