WO2020031685A1 - センサシステム - Google Patents

センサシステム Download PDF

Info

Publication number
WO2020031685A1
WO2020031685A1 PCT/JP2019/028824 JP2019028824W WO2020031685A1 WO 2020031685 A1 WO2020031685 A1 WO 2020031685A1 JP 2019028824 W JP2019028824 W JP 2019028824W WO 2020031685 A1 WO2020031685 A1 WO 2020031685A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
vehicle
detection
transmitting cover
sensor system
Prior art date
Application number
PCT/JP2019/028824
Other languages
English (en)
French (fr)
Inventor
美紗子 神谷
Original Assignee
株式会社小糸製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社小糸製作所 filed Critical 株式会社小糸製作所
Priority to US17/265,608 priority Critical patent/US20210165103A1/en
Priority to JP2020536436A priority patent/JP7379339B2/ja
Publication of WO2020031685A1 publication Critical patent/WO2020031685A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4811Constructional features, e.g. arrangements of optical elements common to transmitter and receiver
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4811Constructional features, e.g. arrangements of optical elements common to transmitter and receiver
    • G01S7/4813Housing arrangements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/487Extracting wanted echo signals, e.g. pulse detection
    • G01S7/4876Extracting wanted echo signals, e.g. pulse detection by removing unwanted signals
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4817Constructional features, e.g. arrangements of optical elements relating to scanning

Definitions

  • the present disclosure relates to a sensor system mounted on a vehicle.
  • a sensor for detecting information external to the vehicle In order to realize vehicle driving support technology, it is necessary to mount a sensor for detecting information external to the vehicle on the vehicle body.
  • An example of such a sensor is a LiDAR (Light Detection and Ranging) sensor (for example, see Patent Document 1).
  • the LiDAR sensor has a light emitting element and a light receiving element.
  • the light emitting element emits the detection light toward the outside of the vehicle.
  • the detection light is reflected by an object located outside the vehicle, and enters the light receiving element as reflected light.
  • the light receiving element outputs a signal based on the reflected light. Information outside the vehicle is detected based on the signal.
  • the LiDAR sensor is covered with a light-transmitting cover that forms a part of the outer surface of the vehicle. Therefore, the detection light passes through the translucent cover and goes to the outside of the vehicle.
  • the light transmitting cover refracts the detection light. This causes a difference between a point on the extension of the detection light incident on the light transmitting cover and a point where the detection light emitted from the light transmitting cover reaches. This difference affects the detection of information outside the vehicle.
  • a first aspect for responding to the above demand is a sensor system mounted on a vehicle, A light-emitting element that emits detection light toward the outside of the vehicle, A light receiving element that outputs a signal based on the reflected light, A processor that detects information external to the vehicle based on the signal, A light-transmitting cover that forms a part of the outer surface of the vehicle and has a plurality of flat portions that allow the detection light to pass therethrough, With The processor excludes a position corresponding to a boundary between the adjacent flat portions from a detection target of the information.
  • the sensor system according to the first aspect can be configured as follows.
  • the surface of the light-transmitting cover at the boundary is opaque at least for the wavelength of the detection light.
  • a second aspect for achieving the above object is a sensor system mounted on a vehicle, A light-emitting element that emits detection light toward the outside of the vehicle, A light receiving element that outputs a signal based on the reflected light, A processor that detects information external to the vehicle based on the signal, A light-transmitting cover that forms a part of the outer surface of the vehicle and has a plurality of flat portions that allow the detection light to pass therethrough, With The surface of the translucent cover at the boundary between the plurality of adjacent flat portions has been subjected to opacity treatment at least for the wavelength of the detection light.
  • the detection light can be prevented from passing through the boundary portion, it is possible to prevent an unexpected behavior of the detection light accompanying the passage of the light transmitting cover.
  • the position corresponding to the boundary may be excluded from the information detection target without performing any special processing on the processor side.
  • the refraction when the detection light passes through the light transmitting cover can be reduced, the influence of the light transmitting cover on the detection of information can be suppressed.
  • the sensor system according to the second aspect can be configured as follows.
  • the surface of the translucent cover at the boundary is curved.
  • the area excluded from the target of information detection be minimized. Therefore, it is desirable that the area of the opaque portion be minimized.
  • the surface of the light-transmitting cover at the boundary portion is a curved surface, it is easy to perform the opacity treatment while minimizing the area of the opaque portion.
  • the moldability of the light-transmitting cover is improved.
  • the sensor systems according to the first and second aspects can be configured as follows.
  • the light emitting element and the light receiving element are a part of one of a LiDAR sensor unit and a TOF camera unit.
  • sensor unit means a component unit of a part that can provide a desired information detection function and can be distributed by itself.
  • driving assistance refers to a control process that at least partially performs at least one of a driving operation (steering operation, acceleration, deceleration), monitoring of a driving environment, and a backup of the driving operation.
  • driving assistance is meant to include from partial driving assistance such as a collision damage reduction braking function and a lane keeping assist function to a fully automatic driving operation.
  • FIG. 1 illustrates a configuration of a left front sensor device according to an embodiment.
  • 2 shows the position of the left front sensor device in FIG. 1 in a vehicle.
  • 2 shows a configuration of a sensor system including the left front sensor device of FIG. 1.
  • 9 shows a light-transmitting cover according to a comparative example.
  • 9 shows a light-transmitting cover according to a comparative example.
  • 4 shows another example of a light-transmitting cover in the sensor system of FIG. 3.
  • 4 shows another example of a light-transmitting cover in the sensor system of FIG. 3.
  • 2 shows another configuration example of the front left sensor device of FIG. 1.
  • 7 illustrates the operation of the left front sensor device of FIG. 7 illustrates the operation of the left front sensor device of FIG.
  • arrow F indicates the forward direction of the illustrated structure.
  • Arrow B indicates the backward direction of the illustrated structure.
  • Arrow U indicates the upward direction of the illustrated structure.
  • Arrow D indicates the downward direction of the illustrated structure.
  • Arrow L indicates the left direction of the illustrated structure.
  • Arrow R indicates the right direction of the illustrated structure. “Left” and “right” used in the following description indicate left and right directions viewed from the driver's seat.
  • FIG. 1 illustrates a configuration of a front left sensor device 10 according to an embodiment.
  • the front left sensor device 10 is arranged in a front left portion LF of the vehicle 100 illustrated in FIG.
  • the left front part LF is an area located on the left side of the center of the vehicle 100 in the left-right direction and on the front side of the center of the vehicle 100 in the front-rear direction.
  • the front left sensor device 10 includes a housing 11 and a light-transmitting cover 12.
  • the housing 11 defines a housing chamber 13 together with the light-transmitting cover 12.
  • the translucent cover 12 forms a part of the outer surface of the vehicle 100.
  • the front left sensor device 10 includes a LiDAR sensor unit 14.
  • the LiDAR sensor unit 14 is arranged in the accommodation room 13.
  • the LiDAR sensor unit 14 includes a light emitting element 41 and a light receiving element 42.
  • the translucent cover 12 covers the light emitting element 41 and the light receiving element 42.
  • the light emitting element 41 is configured to emit the detection light L1 to the outside of the vehicle 100.
  • the detection light L1 for example, infrared light having a wavelength of 905 nm can be used.
  • a semiconductor light emitting element such as a laser diode or a light emitting diode can be used.
  • the LiDAR sensor unit 14 may appropriately include an optical system (not shown) for irradiating the detection light L1 in a desired direction.
  • the LiDAR sensor unit 14 may include a scanning mechanism (not shown) for changing the irradiation direction of the detection light L1 to scan the detection area.
  • the light receiving element 42 is configured to output a light receiving signal S1 corresponding to the amount of incident light.
  • a photodiode, a phototransistor, a photoresistor, or the like can be used as the light receiving element 42.
  • the LiDAR sensor unit 14 may include an amplifier circuit (not shown) for amplifying the light receiving signal S1.
  • the light emitting element 41, the light receiving element 42, and the light transmitting cover 12 constitute the sensor system 1.
  • the sensor system 1 further includes a processor 20.
  • the processor 20 outputs a control signal S0 for causing the light emitting element 41 to emit the detection light L1 at a desired timing.
  • the processor 20 receives the light receiving signal S1 output from the light receiving element 42.
  • the processor 20 detects information outside the vehicle 100 based on the light receiving signal S1 corresponding to the reflected light L2. For example, the processor 20 can acquire the distance to the object associated with the reflected light L2 based on the time from when the detection light L1 is emitted in a certain direction to when the reflected light L2 is detected. Further, by accumulating such distance data in association with the detection position, it is possible to acquire information on the shape of the object associated with the reflected light L2. In addition to or instead of this, information on attributes such as the material of the object associated with the reflected light L2 can be obtained based on the difference between the waveforms of the detection light L1 and the reflected light L2.
  • the translucent cover 12 has a plurality of flat portions 12a.
  • the processor 20 is configured to exclude a position corresponding to a boundary portion 12b between a plurality of adjacent flat portions 12a from information detection targets.
  • FIG. 4A shows a light-transmitting cover 12A and a light-emitting element 41A according to a comparative example.
  • the translucent cover 12A has an arc-shaped cross section.
  • the translucent cover 12A and the light emitting element 41A are arranged so that the center of curvature of the arc shape coincides with the emission center (light source position, scanning center, etc.) of the detection light L0 emitted from the light emitting element 41A.
  • the detection light L0 emitted from the light emitting element 41A can pass through the light transmitting cover 12A without refraction regardless of the direction.
  • a shape of the light-transmitting cover 12A and a positional relationship with the light-emitting element 41 can be a great limitation in designing the sensor device.
  • the detection light L0 is largely refracted by the curved surface of the light transmitting cover 12A. That is, not only high accuracy is required for the positioning of the components, but also the information detection accuracy is easily affected by vibrations and misalignment due to aging.
  • the detection light L1 emitted from the light emitting element 41 is allowed to pass through the flat portion 12a in the light transmitting cover 12.
  • the detection light L ⁇ b> 1 perpendicularly enter the light transmitting cover 12.
  • the detection light L1 does not refract when passing through the translucent cover 12.
  • the detection light L1A illustrated in FIG. 3 is perpendicularly incident on the light transmitting cover 12. Even if the light-transmitting cover 12 and the light-emitting element 41 are relatively displaced in the left-right direction from this state, the state where the detection light L1A is perpendicularly incident on the light-transmitting cover 12 can be maintained.
  • the refraction of the detection light L1B is higher than when the light is incident on a curved surface illustrated in FIG. 4B.
  • the quantity is small.
  • the processor 20 is configured not to detect information based on the reflected light L2 generated from the detection light L1C emitted toward the boundary 12b.
  • the processor 20 can be configured not to perform the information detection process based on the light receiving signal S1 corresponding to the reflected light generated by the detection light L1C emitted at the timing.
  • the processor 20 determines which of the light emitting elements 41 emits the detection light L1. Can be grasped beforehand toward the boundary portion 12b. Therefore, the processor 20 can be configured not to perform the information detection process based on the light receiving signal S1 corresponding to the reflected light generated by the detection light L1C emitted from the light emitting element 41.
  • the position corresponding to the boundary portion 12b where the behavior is unpredictable is excluded from the information detection targets. Can be suppressed.
  • FIG. 5A illustrates a boundary portion 12b of the light-transmitting cover 12 surrounded by a dashed line V in FIG. 3 in an enlarged manner.
  • the surface of the light-transmitting cover 12 at the boundary portion 12b may be an opaque portion 12c that has been subjected to opacity processing for at least the wavelength of the detection light L1.
  • the opacity treatment include a treatment for forming a fine rugged surface to make the surface polished glass, a treatment for painting the surface, and the like.
  • the detection light L1 can be prevented from passing through the boundary portion 12b, occurrence of unexpected behavior of the detection light L1 accompanying the passage of the light transmitting cover 12 can be prevented.
  • the position corresponding to the boundary portion 12b can be excluded from information detection targets without performing any special processing on the processor 20 side.
  • the position corresponding to the boundary portion 12b where the behavior is unpredictable is excluded from the information detection targets. Can be suppressed.
  • the surface of the light-transmitting cover 12 at the boundary portion 12b can be formed as a curved surface 12d.
  • the area excluded from the target of information detection be minimized. Therefore, it is desirable that the area of the opaque portion 12c be minimized.
  • the surface of the translucent cover 12 at the boundary portion 12b as the curved surface 12d, it is easy to perform the opacity treatment while minimizing the area of the opaque portion 12c.
  • the moldability of the light-transmitting cover 12 (ease of removal from a mold or the like) is improved.
  • processor 20 may be realized by a general-purpose microprocessor operating in cooperation with a memory, or may be realized by a dedicated integrated circuit such as a microcontroller, an FPGA, or an ASIC.
  • the processor 20 can be arranged at any position in the vehicle.
  • the processor 20 may be provided as a part of a main ECU that performs central control processing in the vehicle, or may be provided as a part of a sub ECU that is interposed between the main ECU and the LiDAR sensor unit 14.
  • the left front sensor device 10 may include a lamp unit 15.
  • the lamp unit 15 is disposed in the accommodation room 13.
  • the lamp unit 15 is a device that emits visible light to the outside of the vehicle 100.
  • Examples of the lamp unit 15 include a headlight unit, a vehicle width light unit, a direction indicator light unit, and a fog light unit.
  • the term "lamp unit” refers to a component unit of a component that can be distributed as a single unit while having a desired lighting function.
  • the lamp units 15 are arranged at four corners of the vehicle 100. The four corners are also places where there are few obstacles when detecting information outside the vehicle 100. By arranging the LiDAR sensor unit 14 such that the lamp unit 15 and the accommodation room 13 are shared, information outside the vehicle 100 can be efficiently detected.
  • the front left sensor device 10 can include a sensor bracket 43 and a lamp bracket 53.
  • the sensor bracket 43 and the lamp bracket 53 are independent of each other.
  • the LiDAR sensor unit 14 is supported by the sensor bracket 43.
  • the lamp unit 15 is supported by a lamp bracket 53.
  • the front left sensor device 10 can include a sensor aiming mechanism 44 and a lamp aiming mechanism 54.
  • the sensor aiming mechanism 44 is a mechanism for adjusting the detection reference direction of the LiDAR sensor unit 14.
  • the lamp aiming mechanism 54 is a mechanism for adjusting the illumination reference direction of the lamp unit 15.
  • the sensor aiming mechanism 44 includes a first screw 441 and a second screw 442.
  • the first screw 441 and the second screw 442 are operable from outside the housing 11.
  • the lamp aiming mechanism 54 includes a first screw 541 and a second screw 542.
  • the first screw 541 and the second screw 542 are operable from outside the housing 11.
  • the left front sensor device 10 may include a common bracket 16.
  • the LiDAR sensor unit 14 and the lamp unit 15 are supported by a bracket 16.
  • the front left sensor device 10 may include the swivel actuator 55.
  • the swivel actuator 55 can be controlled by the processor 20. As illustrated in FIG. 7A, the swivel actuator 55 changes the illumination reference direction of the lamp unit 15 in the left-right direction by rotating the bracket 16 about the rotation shaft 16a.
  • the detection reference direction of the LiDAR sensor unit 14 supported by the common bracket 16 also changes in the same direction. Since the LiDAR sensor unit 14 has a relatively wide detectable range in the left-right direction, even if the detection reference direction changes, the influence on the detection of information is relatively small.
  • the left front sensor device 10 may include a swivel actuator 45 as illustrated in FIG.
  • the swivel actuator 45 can be controlled by the processor 20.
  • the swivel actuator 45 changes the detection reference direction of the LiDAR sensor unit 14 in the left-right direction as illustrated in FIG. 7B by rotating the LiDAR sensor unit 14 about the rotation shaft 16b. Thereby, the influence of the rotation of the bracket 16 by the swivel actuator 55 can be offset.
  • the front left sensor device 10 preferably includes the leveling actuator 46 and the leveling actuator 56 independently.
  • the leveling actuator 46 changes the detection reference direction of the LiDAR sensor unit 14 in the vertical direction.
  • the leveling actuator 56 changes the detection reference direction of the lamp unit 15 in the vertical direction.
  • the LiDAR sensor unit 14 can be replaced with a TOF (Time of Flight) camera unit.
  • the TOF camera unit includes a light emitting element and a light receiving element.
  • the detection light emitted from the light emitting element is reflected by an object located outside the vehicle, and enters the light receiving element as reflected light.
  • the distance to the object is calculated based on the time from when the detection light is emitted from the light emitting element to when the reflected light enters the light receiving element.
  • a right front sensor device having a symmetrical configuration with the left front sensor device 10 illustrated in FIG. 1 may be mounted on the right front portion RF of the vehicle 100 illustrated in FIG.
  • the right front portion RF is a region located on the right side of the center of the vehicle 100 in the left-right direction and on the front side of the center of the vehicle 100 in the front-rear direction.
  • the configuration of the front left sensor device 10 is also applicable to the rear left sensor device.
  • the rear left sensor device is mounted on the rear left portion LB of the vehicle 100 illustrated in FIG.
  • the left rear portion LB is an area located on the left side of the center of the vehicle 100 in the left-right direction and on the rear side of the center of the vehicle 100 in the front-rear direction.
  • the basic configuration of the left rear sensor device may be symmetrical with the front left sensor device 10 in the front-rear direction.
  • the configuration of the front left sensor device 10 is also applicable to the rear right sensor device.
  • the right rear sensor device is mounted on a right rear portion RB of the vehicle 100 illustrated in FIG.
  • the right rear portion RB is a region located on the right side of the center of the vehicle 100 in the left-right direction and on the rear side of the center of the vehicle 100 in the front-rear direction.
  • the basic configuration of the right rear sensor device can be symmetrical to the left rear sensor device described above.

Abstract

発光素子(41)は、車両の外部に向けて検出光(L1)を出射する。受光素子(42)は、反射光(L2)に基づく受光信号(S1)を出力する。プロセッサ(20)は、受光信号(S1)に基づいて車両の外部の情報を検出する。透光カバー(12)は、車両の外面の一部を形成し、検出光(L1)の通過を許容する複数の平坦部(12a)を有している。プロセッサ(20)は、隣接する複数の平坦部(12a)の境界部(12b)に対応する位置を、情報の検出対象から除外する。

Description

センサシステム
 本開示は、車両に搭載されるセンサシステムに関する。
 車両の運転支援技術を実現するためには、当該車両の外部の情報を検出するためのセンサを車体に搭載する必要がある。そのようなセンサの例としては、LiDAR(Light Detection and Ranging)センサが挙げられる(例えば、特許文献1を参照)。
 LiDARセンサは、発光素子と受光素子を備えている。発光素子は、検出光を車両の外部へ向けて出射する。検出光は、車両の外部に位置する物体により反射され、反射光として受光素子に入射する。受光素子は、反射光に基づく信号を出力する。当該信号に基づいて、車両の外部の情報が検出される。
日本国特許出願公開2010-185769号公報
 汚れや飛石からの保護を目的として、LiDARセンサは、車両の外面の一部を形成する透光カバーで覆われている。したがって、上記の検出光は、透光カバーを通過して車両の外部に向かう。透光カバーは、検出光を屈折させる。これにより、透光カバーに入射する検出光の延長線上にある点と、透光カバーから出射した検出光が到達する点との間に差異が生じる。この差異は、車両の外部の情報の検出に影響を及ぼす。
 したがって、車両の外部の情報を検出するための光の通過を許容する透光カバーが情報の検出に与える影響を抑制することが求められている。
 上記の要求に応えるための第一態様は、車両に搭載されるセンサシステムであって、
 前記車両の外部に向けて検出光を出射する発光素子と、
 反射光に基づく信号を出力する受光素子と、
 前記信号に基づいて前記車両の外部の情報を検出するプロセッサと、
 前記車両の外面の一部を形成し、前記検出光の通過を許容する複数の平坦部を有している透光カバーと、
を備えており、
 前記プロセッサは、隣接する前記複数の平坦部の境界部に対応する位置を、前記情報の検出対象から除外する。
 このような構成によれば、検出光が透光カバーを通過する際の屈折を小さくできるだけでなく、挙動が予期できない境界部に対応する位置が情報検出の対象から除外されるので、透光カバーが情報の検出に与える影響を抑制できる。
 第一態様に係るセンサシステムは、以下のように構成されうる。
 前記境界部における前記透光カバーの表面は、少なくとも前記検出光の波長に対する不透明化処理がなされている。
 このような構成によれば、検出光が境界部を通過しないようにできるので、透光カバーの通過に伴う検出光の予期できない挙動の発生を防止できる。
 上記の目的を達成するための第二態様は、車両に搭載されるセンサシステムであって、
 前記車両の外部に向けて検出光を出射する発光素子と、
 反射光に基づく信号を出力する受光素子と、
 前記信号に基づいて前記車両の外部の情報を検出するプロセッサと、
 前記車両の外面の一部を形成し、前記検出光の通過を許容する複数の平坦部を有している透光カバーと、
を備えており、
 隣接する前記複数の平坦部の境界部における前記透光カバーの表面は、少なくとも前記検出光の波長に対する不透明化処理がなされている。
 このような構成によれば、検出光が境界部を通過しないようにできるので、透光カバーの通過に伴う検出光の予期できない挙動の発生を防止できる。この場合、プロセッサの側において特別な処理を行なわなくとも、境界部に対応する位置が情報検出の対象から除外されうる。加えて、検出光が透光カバーを通過する際の屈折を小さくできるので、透光カバーが情報の検出に与える影響を抑制できる。
 第二態様に係るセンサシステムは、以下のように構成されうる。
 前記境界部における前記透光カバーの表面は、湾曲している。
 情報検出の対象から除外される領域は最小限とされることが望ましい。したがって、不透明部の面積は、最小限とされることが望ましい。境界部における透光カバーの表面が湾曲面として形成されることにより、不透明部の面積を最小限としつつも、不透明化処理を施すことが容易になる。また、透光カバーの成形性(金型からの抜きやすさなど)が向上する。
 第一態様と第二態様に係るセンサシステムは、以下のように構成されうる。
 前記発光素子と前記受光素子は、LiDARセンサユニットとTOFカメラユニットのいずれかの一部である。
 本明細書において用いられる「センサユニット」という語は、所望の情報検出機能を備えつつ、それ自身が単体で流通可能な部品の構成単位を意味する。
 本明細書において用いられる「運転支援」という語は、運転操作(ハンドル操作、加速、減速)、走行環境の監視、および運転操作のバックアップの少なくとも一つを少なくとも部分的に行なう制御処理を意味する。すなわち、「運転支援」という語は、衝突被害軽減ブレーキ機能やレーンキープアシスト機能のような部分的な運転支援から完全自動運転動作までを含む意味である。
一実施形態に係る左前センサ装置の構成を例示している。 図1の左前センサ装置の車両における位置を示している。 図1の左前センサ装置を含むセンサシステムの構成を示している。 比較例に係る透光カバーを示している。 比較例に係る透光カバーを示している。 図3のセンサシステムにおける透光カバーの別例を示している。 図3のセンサシステムにおける透光カバーの別例を示している。 図1の左前センサ装置の別構成例を示している。 図6の左前センサ装置の動作を例示している。 図6の左前センサ装置の動作を例示している。
 添付の図面を参照しつつ、実施形態の例について以下詳細に説明する。以下の説明に用いる各図面では、各部材を認識可能な大きさとするために縮尺を適宜変更している。
 添付の図面において、矢印Fは、図示された構造の前方向を示している。矢印Bは、図示された構造の後方向を示している。矢印Uは、図示された構造の上方向を示している。矢印Dは、図示された構造の下方向を示している。矢印Lは、図示された構造の左方向を示している。矢印Rは、図示された構造の右方向を示している。以降の説明に用いる「左」および「右」は、運転席から見た左右の方向を示している。
 図1は、一実施形態に係る左前センサ装置10の構成を例示している。左前センサ装置10は、図2に例示される車両100の左前部LFに配置される。左前部LFは、車両100の左右方向における中央よりも左側、かつ車両100の前後方向における中央よりも前側に位置する領域である。
 図1に例示されるように、左前センサ装置10は、ハウジング11と透光カバー12を備えている。ハウジング11は、透光カバー12とともに収容室13を区画している。透光カバー12は、車両100の外面の一部を形成している。
 左前センサ装置10は、LiDARセンサユニット14を備えている。LiDARセンサユニット14は、収容室13内に配置されている。
 図3に例示されるように、LiDARセンサユニット14は、発光素子41と受光素子42を備えている。透光カバー12は、発光素子41と受光素子42を覆っている。
 発光素子41は、車両100の外部へ向けて検出光L1を出射するように構成されている。検出光L1としては、例えば波長905nmの赤外光が使用されうる。発光素子41としては、レーザダイオードや発光ダイオードなどの半導体発光素子が使用されうる。
 LiDARセンサユニット14は、検出光L1を所望の方向へ照射するための不図示の光学系を適宜に備えうる。LiDARセンサユニット14は、検出光L1の照射方向を変更して検出領域内を走査するための不図示の走査機構を備えうる。
 受光素子42は、入射した光量に応じた受光信号S1を出力するように構成されている。受光素子42としては、フォトダイオード、フォトトランジスタ、フォトレジスタなどが使用されうる。LiDARセンサユニット14は、受光信号S1を増幅するための不図示の増幅回路を備えうる。
 発光素子41、受光素子42、および透光カバー12は、センサシステム1を構成している。センサシステム1は、さらにプロセッサ20を備えている。プロセッサ20は、所望のタイミングで発光素子41に検出光L1を出射させる制御信号S0を出力する。プロセッサ20は、受光素子42から出力された受光信号S1を受信する。
 プロセッサ20は、反射光L2に対応する受光信号S1に基づいて車両100の外部の情報を検出する。例えば、プロセッサ20は、ある方向へ検出光L1を出射したタイミングから反射光L2を検出するまでの時間に基づいて、反射光L2に関連付けられた物体までの距離を取得できる。また、そのような距離データを検出位置と関連付けて集積することにより、反射光L2に関連付けられた物体の形状に係る情報を取得できる。これに加えてあるいは代えて、検出光L1と反射光L2の波形の相違に基づいて、反射光L2に関連付けられた物体の材質などの属性に係る情報を取得できる。
 透光カバー12は、複数の平坦部12aを有している。プロセッサ20は、隣接する複数の平坦部12aの境界部12bに対応する位置を、情報の検出対象から除外するように構成されている。
 図4Aは、比較例に係る透光カバー12Aと発光素子41Aを示している。本例においては、透光カバー12Aは、弧形状の断面を有している。透光カバー12Aと発光素子41Aは、発光素子41Aより出射される検出光L0の発光中心(光源位置や走査中心など)に弧形状の曲率中心が一致するように配置されている。
 このような配置によれば、発光素子41Aから出射される検出光L0は、その方向に依らず、屈折を伴わずに透光カバー12Aを通過できる。しかしながら、このような透光カバー12Aの形状や発光素子41との位置関係は、センサ装置を設計する上での大きな制約となりうる。
 加えて、図4Bに例示されるように、検出光L0の発光中心と弧形状の曲率中心が一致していないと、透光カバー12Aの湾曲した表面によって検出光L0が大きく屈折してしまう。すなわち、部品の位置決めに高い精度が求められるだけでなく、振動や経年に伴う位置ずれによって情報検出精度が影響を受けやすい。
 他方、図3に例示される本実施形態においては、発光素子41から出射された検出光L1は、透光カバー12における平坦部12aの通過を許容される。
 このような構成によれば、検出光L1を透光カバー12に対して垂直に入射させることが容易になる。この場合、透光カバー12の通過に際して検出光L1は屈折しない。例えば、図3に例示される検出光L1Aは、透光カバー12に対して垂直に入射している。この状態から透光カバー12と発光素子41が左右方向に相対変位しても、検出光L1Aが透光カバー12に対して垂直に入射している状態が維持されうる。
 加えて、図3に例示される検出光L1Bのように、平坦部12aに対して斜めに入射がなされても、図4Bに例示される湾曲面に対する入射時と比較すると、検出光L1Bの屈折量は小さい。
 しかしながら、このような有利な効果が得られる複数の平坦部12aを設けることにより、隣接する複数の平坦部12aの境界部12bが形成されることが避けられない。境界部12bにおいては、透光カバー12の通過に伴う検出光L1Cの挙動が予期できない。したがって、プロセッサ20は、境界部12bへ向けて出射された検出光L1Cより生じた反射光L2に基づく情報の検出を行なわないように構成される。
 例えば、検出光L1の出射方向が周期的に変わる走査が行なわれる場合、発光素子41と境界部12bの位置関係は既知であるので、プロセッサ20は、どのタイミングで出射された検出光が境界部12bへ向かうのかを予め把握可能である。したがって、プロセッサ20は、当該タイミングで出射された検出光L1Cにより生じた反射光に対応する受光信号S1に基づいて情報検出処理を行なわないように構成されうる。
 あるいは、複数の発光素子41が様々な方向へ検出光L1を出射する構成の場合、やはり境界部12bとの位置関係は既知であるので、プロセッサ20は、どの発光素子41から出射された検出光が境界部12bへ向かうのかを予め把握可能である。したがって、プロセッサ20は、当該発光素子41から出射された検出光L1Cにより生じた反射光に対応する受光信号S1に基づいて情報検出処理を行なわないように構成されうる。
 検出光L1が透光カバー12を通過する際の屈折を小さくできるだけでなく、挙動が予期できない境界部12bに対応する位置が情報検出の対象から除外されるので、透光カバー12が情報の検出に与える影響を抑制できる。
 図5Aは、図3において一点鎖線Vで囲まれた透光カバー12の境界部12bを拡大して例示している。境界部12bにおける透光カバー12の表面は、少なくとも検出光L1の波長に対する不透明化処理がなされた不透明部12cとされうる。不透明化処理の例としては、微細な凹凸を形成することにより表面を磨りガラス状にする処理や、表面に塗装を行なう処理などが挙げられる。
 このような構成によれば、検出光L1が境界部12bを通過しないようにできるので、透光カバー12の通過に伴う検出光L1の予期できない挙動の発生を防止できる。この場合、プロセッサ20の側において特別な処理を行なわなくとも、境界部12bに対応する位置が情報検出の対象から除外されうる。
 検出光L1が透光カバー12を通過する際の屈折を小さくできるだけでなく、挙動が予期できない境界部12bに対応する位置が情報検出の対象から除外されるので、透光カバー12が情報の検出に与える影響を抑制できる。
 図5Bに例示されるように、境界部12bにおける透光カバー12の表面は、湾曲面12dとして形成されうる。
 情報検出の対象から除外される領域は最小限とされることが望ましい。したがって、不透明部12cの面積は、最小限とされることが望ましい。境界部12bにおける透光カバー12の表面が湾曲面12dとして形成されることにより、不透明部12cの面積を最小限としつつも、不透明化処理を施すことが容易になる。また、透光カバー12の成形性(金型からの抜きやすさなど)が向上する。
 これまで説明したプロセッサ20の機能は、メモリと協働して動作する汎用マイクロプロセッサにより実現されてもよいし、マイクロコントローラ、FPGA、ASICなどの専用集積回路によって実現されてもよい。
 プロセッサ20は、車両における任意の位置に配置されうる。プロセッサ20は、車両における中央制御処理を担うメインECUの一部として提供されてもよいし、メインECUとLiDARセンサユニット14の間に介在するサブECUの一部として提供されてもよい。
 図1に例示されるように、左前センサ装置10は、ランプユニット15を備えうる。ランプユニット15は、収容室13内に配置される。ランプユニット15は、車両100の外方へ可視光を照射する装置である。ランプユニット15としては、前照灯ユニット、車幅灯ユニット、方向指示灯ユニット、霧灯ユニットなどが例示されうる。本明細書でも用いられる「ランプユニット」という語は、所望の照明機能を備えつつ、それ自身が単体で流通可能な部品の構成単位を意味する。
 ランプユニット15は、車両100の四隅部に配置されることが一般的である。四隅部は、車両100の外部の情報を検出するに際しての障害物が少ない箇所でもある。ランプユニット15と収容室13を共有するようにLiDARセンサユニット14が配置されることにより、車両100の外部の情報を効率的に検出できる。
 左前センサ装置10は、センサブラケット43とランプブラケット53を備えうる。センサブラケット43とランプブラケット53は、互いに独立している。LiDARセンサユニット14は、センサブラケット43に支持される。ランプユニット15は、ランプブラケット53に支持される。
 左前センサ装置10は、センサエイミング機構44とランプエイミング機構54を備えうる。センサエイミング機構44は、LiDARセンサユニット14の検出基準方向を調節するための機構である。ランプエイミング機構54は、ランプユニット15の照明基準方向を調節するための機構である。
 センサエイミング機構44は、第一スクリュー441と第二スクリュー442を備えている。第一スクリュー441と第二スクリュー442は、ハウジング11の外側から操作可能とされている。
 第一スクリュー441が操作されると、不図示の支点を中心としてセンサブラケット43の姿勢が左右方向に変化する。これにより、LiDARセンサユニット14の検出基準方向が、左右方向に変化する。第二スクリュー442が操作されると、不図示の支点を中心としてセンサブラケット43の姿勢が上下方向に変化する。これにより、LiDARセンサユニット14の検出基準方向が、上下方向に変化する。第一スクリュー441と第二スクリュー442の各々は、外部からの制御信号により動作するアクチュエータに置き換えられうる。
 ランプエイミング機構54は、第一スクリュー541と第二スクリュー542を備えている。第一スクリュー541と第二スクリュー542は、ハウジング11の外側から操作可能とされている。
 第一スクリュー541が操作されると、不図示の支点を中心としてランプブラケット53の姿勢が左右方向に変化する。これにより、ランプユニット15の検出基準方向が、左右方向に変化する。第二スクリュー542が操作されると、不図示の支点を中心としてランプブラケット53の姿勢が上下方向に変化する。これにより、ランプユニット15の検出基準方向が、上下方向に変化する。第一スクリュー541と第二スクリュー542の各々は、外部からの制御信号により動作するアクチュエータに置き換えられうる。
 あるいは、図6に例示されるように、左前センサ装置10は、共通のブラケット16を備えうる。LiDARセンサユニット14とランプユニット15は、ブラケット16に支持される。
 この場合、左前センサ装置10は、スイブルアクチュエータ55を備えうる。スイブルアクチュエータ55は、プロセッサ20により制御されうる。図7Aに例示されるように、スイブルアクチュエータ55は、回動軸16aを中心としてブラケット16を回動させることにより、ランプユニット15の照明基準方向を左右方向に変化させる。
 共通のブラケット16に支持されているLiDARセンサユニット14の検出基準方向もまた、同方向に変化する。LiDARセンサユニット14は、左右方向の検出可能範囲が比較的広いので、検出基準方向が変化しても情報の検出に及ぶ影響は比較的小さい。
 しかしながら、LiDARセンサユニット14の検出基準方向の厳密な調節が必要であれば、図6に例示されるように、左前センサ装置10は、スイブルアクチュエータ45を備えうる。スイブルアクチュエータ45は、プロセッサ20により制御されうる。スイブルアクチュエータ45は、回動軸16bを中心としてLiDARセンサユニット14を回動させることにより、図7Bに例示されるように、LiDARセンサユニット14の検出基準方向を左右方向に変化させる。これにより、スイブルアクチュエータ55によるブラケット16の回動の影響を相殺できる。
 LiDARセンサユニット14は、上下方向の検出可能範囲が比較的狭いので、左前センサ装置10は、レベリングアクチュエータ46とレベリングアクチュエータ56を独立して備えることが好ましい。レベリングアクチュエータ46は、LiDARセンサユニット14の検出基準方向を、上下方向に変化させる。レベリングアクチュエータ56は、ランプユニット15の検出基準方向を、上下方向に変化させる。
 上記の各実施形態は、本開示の理解を容易にするための例示にすぎない。上記の各実施形態に係る構成は、本開示の趣旨を逸脱しなければ、適宜に変更・改良されうる。
 LiDARセンサユニット14は、TOF(Time of Flight)カメラユニットで置き換えられうる。TOFカメラユニットは、発光素子と受光素子を備えている。発光素子から出射された検出光は、車両の外部に位置する物体によって反射され、反射光として受光素子に入射する。発光素子より検出光が出射されてから反射光が受光素子に入射するまでの時間に基づいて、当該物体までの距離が算出される。検出光を二次元的に走査しつつ、カメラにより取得された二次元画像の各画素に算出された距離情報を関連付けることによって、当該物体の形状に係る情報を取得できる。
 図2に例示される車両100の右前部RFには、図1に例示される左前センサ装置10と左右対称の構成を有する右前センサ装置が搭載されうる。右前部RFは、車両100の左右方向における中央よりも右側、かつ車両100の前後方向における中央よりも前側に位置する領域である。
 左前センサ装置10の構成は、左後センサ装置にも適用可能である。左後センサ装置は、図2に例示される車両100の左後部LBに搭載される。左後部LBは、車両100の左右方向における中央よりも左側、かつ車両100の前後方向における中央よりも後側に位置する領域である。左後センサ装置の基本的な構成は、左前センサ装置10と前後対称でありうる。
 左前センサ装置10の構成は、右後センサ装置にも適用可能である。右後センサ装置は、図2に例示される車両100の右後部RBに搭載される。右後部RBは、車両100の左右方向における中央よりも右側、かつ車両100の前後方向における中央よりも後側に位置する領域である。右後センサ装置の基本的な構成は、上述の左後センサ装置と左右対称でありうる。
 本出願の記載の一部を構成するものとして、2018年8月7日に提出された日本国特許出願2018-148279号の内容が援用される。

Claims (5)

  1.  車両に搭載されるセンサシステムであって、
     前記車両の外部に向けて検出光を出射する発光素子と、
     反射光に基づく信号を出力する受光素子と、
     前記信号に基づいて前記車両の外部の情報を検出するプロセッサと、
     前記車両の外面の一部を形成し、前記検出光の通過を許容する複数の平坦部を有している透光カバーと、
    を備えており、
     前記プロセッサは、隣接する前記複数の平坦部の境界部に対応する位置を、前記情報の検出対象から除外する、
    センサシステム。
  2.  前記境界部における前記透光カバーの表面は、少なくとも前記検出光の波長に対する不透明化処理がなされている、
    請求項1に記載のセンサシステム。
  3.  車両に搭載されるセンサシステムであって、
     前記車両の外部に向けて検出光を出射する発光素子と、
     反射光に基づく信号を出力する受光素子と、
     前記信号に基づいて前記車両の外部の情報を検出するプロセッサと、
     前記車両の外面の一部を形成し、前記検出光の通過を許容する複数の平坦部を有している透光カバーと、
    を備えており、
     隣接する前記複数の平坦部の境界部における前記透光カバーの表面は、少なくとも前記検出光の波長に対する不透明化処理がなされている、
    センサシステム。
  4.  前記境界部における前記透光カバーの表面は、湾曲している、
    請求項1から3のいずれか一項に記載のセンサシステム。
  5.  前記発光素子と前記受光素子は、LiDARセンサユニットとTOFカメラユニットのいずれかの一部である、
    請求項1から4のいずれか一項に記載のセンサシステム。
PCT/JP2019/028824 2018-08-07 2019-07-23 センサシステム WO2020031685A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US17/265,608 US20210165103A1 (en) 2018-08-07 2019-07-23 Sensor system
JP2020536436A JP7379339B2 (ja) 2018-08-07 2019-07-23 センサシステム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018148279 2018-08-07
JP2018-148279 2018-08-07

Publications (1)

Publication Number Publication Date
WO2020031685A1 true WO2020031685A1 (ja) 2020-02-13

Family

ID=69414102

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/028824 WO2020031685A1 (ja) 2018-08-07 2019-07-23 センサシステム

Country Status (4)

Country Link
US (1) US20210165103A1 (ja)
JP (1) JP7379339B2 (ja)
CN (2) CN110824455A (ja)
WO (1) WO2020031685A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022050394A1 (ja) * 2020-09-04 2022-03-10 株式会社小糸製作所 センサ装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016050447A1 (de) * 2014-10-02 2016-04-07 Valeo Schalter Und Sensoren Gmbh Fensterkappe für das gehäuse einer abtastenden optoelektronischen messvorrichtung und gehäuse mit einer solchen
JP2017138298A (ja) * 2016-02-03 2017-08-10 コニカミノルタ株式会社 光走査型の対象物検知装置
JP2018009831A (ja) * 2016-07-12 2018-01-18 パイオニア株式会社 情報処理装置、光学機器、制御方法、プログラム及び記憶媒体
US20180074175A1 (en) * 2016-05-18 2018-03-15 James Thomas O'Keeffe Laser range finder with dynamically positioned detector aperture

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080002176A1 (en) 2005-07-08 2008-01-03 Lockheed Martin Corporation Lookdown and loitering ladar system
JP5156476B2 (ja) 2008-05-14 2013-03-06 株式会社キーエンス 光走査型光電スイッチ
JP5711925B2 (ja) 2010-09-22 2015-05-07 日本信号株式会社 光測距装置
JP5822063B2 (ja) 2011-07-12 2015-11-24 株式会社Ihi レーザレーダ装置
RU2700296C2 (ru) 2014-10-17 2019-09-16 Коммонвелт Сайентифик Энд Индастриал Рисерч Организейшн Установка и система для определения расстояния
CN105988102B (zh) 2015-02-09 2019-01-18 株式会社理光 相对方位角计算方法和装置、以及相对定位方法
CN206193242U (zh) 2016-10-13 2017-05-24 北京飞思迈尔光电科技有限公司 一种光学扫描传感器

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016050447A1 (de) * 2014-10-02 2016-04-07 Valeo Schalter Und Sensoren Gmbh Fensterkappe für das gehäuse einer abtastenden optoelektronischen messvorrichtung und gehäuse mit einer solchen
JP2017138298A (ja) * 2016-02-03 2017-08-10 コニカミノルタ株式会社 光走査型の対象物検知装置
US20180074175A1 (en) * 2016-05-18 2018-03-15 James Thomas O'Keeffe Laser range finder with dynamically positioned detector aperture
JP2018009831A (ja) * 2016-07-12 2018-01-18 パイオニア株式会社 情報処理装置、光学機器、制御方法、プログラム及び記憶媒体

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022050394A1 (ja) * 2020-09-04 2022-03-10 株式会社小糸製作所 センサ装置

Also Published As

Publication number Publication date
CN110824455A (zh) 2020-02-21
US20210165103A1 (en) 2021-06-03
JPWO2020031685A1 (ja) 2021-08-10
CN211263757U (zh) 2020-08-14
JP7379339B2 (ja) 2023-11-14

Similar Documents

Publication Publication Date Title
JP6786302B2 (ja) 照明装置
US11333743B2 (en) Lamp device, sensor system, and sensor device
WO2018051909A1 (ja) センサシステム
JP7061071B2 (ja) センサシステム、センサモジュール、およびランプ装置
US10481271B2 (en) Automotive lighting system for a vehicle
US10696209B2 (en) Vehicle lamp tool and method for controlling vehicle lamp tool
US11609327B2 (en) Target detecting device
CN105450947B (zh) 车辆光学传感器系统
JP2019039759A (ja) センサシステム、および当該センサシステムを備えるランプユニット
WO2020031685A1 (ja) センサシステム
WO2021166849A1 (ja) 車両用灯具
GB2208434A (en) Detecting water droplets on a vehicle window and controlling windscreen wiper in response thereto
US20230408659A1 (en) Vehicle component with image sensor aimed at fiducial marker
WO2020017379A1 (ja) 測距装置
JP2020020709A (ja) センサシステム
JP2006510523A (ja) 多機能照明装置
WO2020017491A1 (ja) センサシステム
WO2020032009A1 (ja) センサシステム
WO2021065437A1 (ja) 測距装置
JP2021139798A (ja) センサユニット、および照明装置
JP2019152588A (ja) 対象物検出装置
EP4202496A1 (en) Automotive lighting arrangement and automotive vehicle
EP4201741A1 (en) Automotive lighting device and automotive vehicle
WO2021135973A1 (zh) 照明探测灯组及车辆
WO2023153438A1 (ja) 投光器、受光器、及び測定装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19847759

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020536436

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19847759

Country of ref document: EP

Kind code of ref document: A1