WO2020022206A1 - 測距装置 - Google Patents

測距装置 Download PDF

Info

Publication number
WO2020022206A1
WO2020022206A1 PCT/JP2019/028428 JP2019028428W WO2020022206A1 WO 2020022206 A1 WO2020022206 A1 WO 2020022206A1 JP 2019028428 W JP2019028428 W JP 2019028428W WO 2020022206 A1 WO2020022206 A1 WO 2020022206A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
time
processor
distance
light receiving
Prior art date
Application number
PCT/JP2019/028428
Other languages
English (en)
French (fr)
Inventor
真太郎 杉本
正人 五味
Original Assignee
株式会社小糸製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社小糸製作所 filed Critical 株式会社小糸製作所
Priority to US17/263,252 priority Critical patent/US20210190949A1/en
Priority to CN201980050201.3A priority patent/CN112513574B/zh
Priority to JP2020532353A priority patent/JPWO2020022206A1/ja
Publication of WO2020022206A1 publication Critical patent/WO2020022206A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles

Definitions

  • the present disclosure relates to a distance measuring device mounted on a vehicle.
  • Patent Document 1 discloses a LiDAR (Light Detecting and Ranging) sensor unit as an example of a distance sensor mounted on a vehicle.
  • the LiDAR sensor unit detects the distance to the object that has generated the reflected light based on the time from when the detection light is emitted to when the reflected light is received.
  • One mode for meeting the above demand is a distance measuring device mounted on a vehicle, A light emitting element for emitting detection light, A light receiving element, A processor that calculates a distance to an object that has generated the reflected light based on a time from when the detection light is emitted from the light emitting element to when the reflected light is incident on the light receiving element, A light-transmitting cover that covers the light-emitting element and the light-receiving element and forms a part of an outer surface of the vehicle; With The processor calculates the distance at least after a lapse of time from when the detection light is emitted to when the reflected light reflected by the inner surface of the light transmitting cover enters the light receiving element.
  • the light-emitting element and the light-receiving element are covered by a light-transmitting cover that forms a part of the outer surface of the vehicle, part of the detection light emitted from the light-emitting element is reflected by the inner surface of the light-transmitting cover, and is reflected as internal reflected light. It may be incident on the light receiving element.
  • the processor may recognize that an object exists at the position of the light transmitting cover.
  • the processor can calculate the distance to the object after the lapse of time from the time when the detection light is emitted to the time when the internally reflected light enters the light receiving element. Therefore, it is possible to eliminate the influence of the internal reflection of the light transmitting cover on the calculation of the distance to the object by the processor. Therefore, the measurement accuracy of the distance measuring device is improved.
  • the above distance measuring device can be configured as follows. A timer that starts measuring time based on the emission of the detection light, The processor calculates the distance after the timer measures at least the time from when the detection light is emitted to when the reflected light reflected by the inner surface of the light transmitting cover enters the light receiving element. .
  • the timer starts measuring the time based on the emission of the detection light from the light emitting element, so that the time can be measured more accurately.
  • the above distance measuring device can be configured as follows.
  • a timer that starts measuring time after at least the time from when the detection light is emitted to when the reflected light reflected by the inner surface of the light transmitting cover enters the light receiving element,
  • the processor calculates the distance based on the time measured by the timer.
  • the processor does not receive the light. Distance cannot be calculated based on. This is because the measurement of the time used for calculating the distance has not been started by the timer. Since the processor does not need to limit the reception of the output from the light receiving element, an increase in processing load can be suppressed.
  • the above distance measuring device can be configured as follows.
  • a lamp unit is provided in a space defined by the translucent cover and emits visible light to the outside of the vehicle.
  • lamp units are arranged at four corners of a vehicle. The four corners are also places where there are few obstacles when detecting information outside the vehicle.
  • the light emitting element and the light receiving element By arranging the light emitting element and the light receiving element such that the space defined by the light transmitting cover is shared with the lamp unit, information outside the vehicle can be efficiently detected.
  • light emitted from the lamp unit may be reflected by the inner surface of the light transmitting cover.
  • the influence of such internal reflection on the calculation of the distance to the object by the processor may be excluded.
  • the above distance measuring device can be configured as follows.
  • the light emitting element and the light receiving element are a part of at least one of a LiDAR sensor unit, a TOF camera unit, and a millimeter wave radar unit.
  • the term “light” refers to electromagnetic waves having any wavelength at which desired information can be detected.
  • the term “light” in this specification is used to include not only visible light but also ultraviolet light, infrared light, millimeter waves, and microwaves.
  • lamp unit used in this specification means a component unit of a part that can provide a desired lighting function and can be distributed as a single unit.
  • sensor unit means a component unit of a part that can provide a desired information detection function and can be distributed by itself.
  • FIG. 1 illustrates a configuration of a left-front distance measuring apparatus according to an embodiment.
  • 2 illustrates a position of the left front distance measuring device in FIG. 1 in a vehicle.
  • FIG. 2 shows a first configuration example of a left front distance measuring apparatus in FIG. 1.
  • FIG. 3B shows an operation example of the front left range finder of FIG.
  • FIG. 3B shows an operation example of the front left range finder of FIG. 2 shows a second example of the configuration of the left front distance measuring apparatus in FIG. 1.
  • 5A shows an operation example of the left front distance measuring apparatus of FIG. 5A.
  • 5A shows an operation example of the left front distance measuring apparatus of FIG. 5A.
  • 3 shows a third example of the configuration of the left front range finder of FIG. 1.
  • FIG. 7B shows an operation example of the left front distance measuring apparatus of FIG. 7A.
  • FIG. 7B shows an operation example of the left front distance measuring apparatus of FIG. 7A.
  • arrow F indicates the forward direction of the illustrated structure.
  • Arrow B indicates the backward direction of the illustrated structure.
  • Arrow U indicates the upward direction of the illustrated structure.
  • Arrow D indicates the downward direction of the illustrated structure.
  • Arrow L indicates the left direction of the illustrated structure.
  • Arrow R indicates the right direction of the illustrated structure. “Left” and “right” used in the following description indicate left and right directions viewed from the driver's seat.
  • FIG. 1 illustrates a configuration of a front left range finder 1 according to one embodiment.
  • the front left distance measuring device 1 is arranged in a front left portion LF of the vehicle 100 illustrated in FIG.
  • the left front part LF is an area located on the left side of the center of the vehicle 100 in the left-right direction and on the front side of the center of the vehicle 100 in the front-rear direction.
  • the front left range finder 1 includes a housing 11 and a light-transmitting cover 12.
  • the housing 11 defines a housing chamber 13 together with the light-transmitting cover 12.
  • the translucent cover 12 forms a part of the outer surface of the vehicle 100.
  • the front left range finder 1 includes the LiDAR sensor unit 14.
  • the LiDAR sensor unit 14 is arranged in the accommodation room 13.
  • FIG. 3A shows a first configuration example of the front left distance measuring device 1.
  • the LiDAR sensor unit 14 includes a light emitting element 41 and a light receiving element 42.
  • the translucent cover 12 covers the light emitting element 41 and the light receiving element 42.
  • the light emitting element 41 is configured to emit the detection light L1 to the outside of the vehicle 100.
  • the detection light L1 for example, infrared light having a wavelength of 905 nm can be used.
  • a semiconductor light emitting element such as a laser diode or a light emitting diode can be used.
  • the LiDAR sensor unit 14 may appropriately include an optical system (not shown) for irradiating the detection light L1 in a desired direction.
  • the LiDAR sensor unit 14 may include a scanning mechanism (not shown) for changing the irradiation direction of the detection light L1 to scan the detection area.
  • the light receiving element 42 is configured to output a light receiving signal S1 corresponding to the amount of incident light.
  • a photodiode, a phototransistor, a photoresistor, or the like can be used as the light receiving element 42.
  • the LiDAR sensor unit 14 may include an amplifier circuit (not shown) for amplifying the light receiving signal S1.
  • the front left range finder 1 includes a processor 15.
  • the processor 15 is arranged in the accommodation room 13.
  • the processor 15 may be built in the LiDAR sensor unit 14.
  • the processor 15 outputs a control signal S0 for causing the light emitting element 41 to emit the detection light L1 at a desired timing.
  • the processor 15 receives the light receiving signal S1 output from the light receiving element 42.
  • the processor 15 has an internal timer 15a for measuring time.
  • the processor 15 calculates the distance to the object 200 that has generated the reflected light L2 based on the time from when the detection light L1 is emitted from the light emitting element 41 to when the reflected light L2 enters the light receiving element 42.
  • the LiDAR sensor unit 14 can acquire information on the shape of the object 200 associated with the reflected light L2 by accumulating the data on the distance thus calculated in association with the irradiation direction of the detection light L1.
  • the processor 15 sets a time longer than the time T1 from the time t0 at which the detection light L1 is emitted to the time at which the reflected light L3 reflected by the inner surface 12a of the light transmitting cover 12 enters the light receiving element 42. Is configured to calculate the distance after elapse of.
  • the reflected light L4 reflected by the virtual object 201 located at a position away from the inner surface 12a of the translucent cover 12 by the distance d outside the vehicle 100 from the time t0 is a light receiving element. It is configured to calculate the distance after a lapse of time T2 up to the time when the light is incident on the light source 42.
  • the distance d is set as a value that is significant for distance measurement (object detection) of an object located outside the vehicle 100. In other words, the distance d is set as a value that can exclude detection of an object that is too close to the light transmitting cover 12.
  • FIGS. 3B and 4 show processing examples for realizing such an operation.
  • the processor 15 starts measuring time from time t0 when the light emitting element 41 emits the detection light L1 (STEP 11).
  • the measurement of time is performed by an internal timer 15a provided in the processor 15.
  • the time t0 may be a timing at which the processor 15 outputs the control signal S0 to the light emitting element 41.
  • the processor 15 determines whether the time T measured by the internal timer 15a has reached T2 (STEP 12). If the measured time T has not reached T2 (N in STEP12), this determination processing is repeated.
  • the processor 15 starts receiving the light receiving signal S1 output from the light receiving element 42 (STEP 13). That is, after the elapse of the time T2, the processor 15 can calculate the distance to the object associated with the light reception signal S1, based on the time from the time t0 to the time when the light reception signal S1 is received. The measurement of time by the internal timer 15a is continued.
  • the processor 15 determines whether the light receiving signal S1 has been received (STEP 14). If the light receiving signal S1 has not been received (N in STEP14), this determination processing is repeated, and the time measurement by the internal timer 15a is continued.
  • the processor 15 stops measuring the time by the internal timer 15a (STEP15).
  • the light receiving signal S1 output by the reflected light L2 from the object 200 being incident on the light receiving element 42 is received by the processor 15 after a lapse of time T3 from time t0. I have.
  • the processor 15 calculates the distance to the object 200 based on the time T3 (STEP 16 in FIG. 4).
  • a period P1 indicates a period during which time is measured by the internal timer 15a of the processor 15.
  • the period P2 indicates a period during which the processor 15 can receive the light receiving signal S1 from the light receiving element 42. In other words, the processor 15 does not calculate the distance based on the received light signal S1 even if the received light signal S1 is output by the reflected light entering the light receiving element 42 before the time T2 elapses.
  • the light emitting element 41 and the light receiving element 42 are covered by the light transmitting cover 12 which forms a part of the outer surface of the vehicle 100.
  • a part of the detection light L1 emitted from the light emitting element 41 may be reflected by the inner surface 12a of the light transmitting cover 12, and may enter the light receiving element 42 as reflected light L3.
  • the processor 15 may recognize that an object exists at the position of the light transmitting cover 12.
  • the reception of the light reception signal S1 by the processor 15 is started,
  • the calculation of the distance to is possible. Therefore, it is possible to eliminate the influence of the internal reflection of the translucent cover 12 on the calculation of the distance to the object by the processor 15. Therefore, the measurement accuracy of the front left distance measuring device 1 is improved.
  • the reception of the light receiving signal S1 by the processor 15 that is, the calculation of the distance to the object
  • the processing load is suppressed particularly when the detection light L1 passing through the light transmitting cover 12 is scanned. .
  • FIG. 5A shows a second configuration example of the front left distance measuring device 1. Elements that are the same as or equivalent to those in the first configuration example shown in FIG. 3A are given the same reference numerals, and repeated descriptions are omitted.
  • the front left ranging device 1 further includes a beam splitter 16, a light receiving element 17, and a timer 18.
  • the beam splitter 16 allows a part of the detection light L1 emitted from the light emitting element 41 to pass therethrough, and reflects another part as reflected light L5 toward the light receiving element 17. If a similar function can be realized, the beam splitter 16 can be replaced by at least one appropriate optical element.
  • the reflected light L5 from the beam splitter 16 enters the light receiving element 17.
  • the light receiving element 17 is configured to output a light receiving signal S2 in response to the incidence of the reflected light L5.
  • a photodiode, a phototransistor, a photoresistor, or the like can be used as the light receiving element 17. That is, the fact that the detection light L1 is emitted from the light emitting element 41 can be detected based on the fact that the light receiving signal S2 is output from the light receiving element 17.
  • the timer 18 is configured to start measuring time when receiving the light receiving signal S2 output from the light receiving element 17. That is, the timer 18 is configured to start measuring time based on the emission of the detection light L1 from the light emitting element 41.
  • the timer 18 is communicably connected to the processor 15.
  • the processor 15 sets a time longer than the time T1 from the time t0 at which the detection light L1 is emitted to the time at which the reflected light L3 reflected by the inner surface 12a of the light transmitting cover 12 enters the light receiving element 42. Is configured to calculate the distance after elapse of.
  • FIGS. 5B and 6 show processing examples for realizing such an operation.
  • the timer 18 is in a standby state until the light receiving signal S2 is output from the light receiving element 17 (N in STEP 21).
  • the timer 18 is started. That is, the timer 18 substantially starts measuring time from time t0 when the light emitting element 41 emits the detection light L1 (STEP 22).
  • the timer 18 determines whether the measured time T has reached T1 (STEP 23). If the measured time T has not reached T1 (N in STEP23), this determination processing is repeated.
  • the timer 18 notifies the processor 15.
  • the processor 15 starts receiving the light receiving signal S1 output from the light receiving element 42 (STEP 24). That is, after the elapse of the time T1, the processor 15 can calculate the distance to the object associated with the light reception signal S1, based on the time from the time t0 to the time when the light reception signal S1 is received. The measurement of the time by the timer 18 is continued.
  • the processor 15 determines whether the light receiving signal S1 has been received (STEP 25). If the light receiving signal S1 has not been received (N in STEP25), this determination process is repeated, and the time measurement by the timer 18 is continued.
  • the processor 15 stops measuring the time by the timer 18 (STEP26).
  • the light receiving signal S1 output by the reflected light L2 from the object 200 incident on the light receiving element 42 is received by the processor 15 after a lapse of time T3 from time t0. I have.
  • the processor 15 calculates the distance to the object 200 based on the time T3 (STEP 27 in FIG. 6).
  • a period P3 indicates a period during which the timer 18 measures the time.
  • the period P4 indicates a period during which the processor 15 can receive the light receiving signal S1 from the light receiving element 42. In other words, the processor 15 does not calculate the distance based on the received light signal S1 even if the received light signal S1 is output by the reflected light entering the light receiving element 42 before the time T1 has elapsed.
  • the reception of the light reception signal S1 by the processor 15 is started, and Can be calculated. Therefore, it is possible to eliminate the influence of the internal reflection of the translucent cover 12 on the calculation of the distance to the object by the processor 15. Therefore, the measurement accuracy of the front left distance measuring device 1 is improved.
  • the timer 18 starts measuring the time T1 based on the emission of the detection light L1 from the light emitting element 41, the time T1 can be measured more accurately.
  • the distance to the inner surface 12a of the light-transmitting cover 12 may change according to the emission direction of the detection light L1. Even in such a case, the time T1 that changes according to the distance to the inner surface 12a can be accurately set and measured.
  • the configuration using the beam splitter 16, the light receiving element 17, and the timer 18 illustrated in FIG. 5A is also applicable to the first configuration example illustrated in FIG. 3A. That is, the measurement of the time T2 by the internal timer 15a of the processor 15 may be performed by the timer 18 started based on the emission of the detection light L1 from the light emitting element 41.
  • the measurement of the time T1 may be performed by the internal timer 15a of the processor 15.
  • FIG. 7A shows a third configuration example of the front left distance measuring device 1. Elements that are the same as or equivalent to those in the first configuration example shown in FIG. 3A are given the same reference numerals, and repeated descriptions are omitted.
  • the front left range finder 1 further includes a timer 19.
  • the timer 19 is communicably connected to the processor 15.
  • the processor 15 sets a time longer than the time T1 from the time t0 at which the detection light L1 is emitted to the time at which the reflected light L3 reflected by the inner surface 12a of the light transmitting cover 12 enters the light receiving element 42. Is configured to calculate the distance after elapse of.
  • FIG. 7B and FIG. 8 show processing examples for realizing such an operation.
  • the processor 15 starts measuring time from time t0 when the light emitting element 41 emits the detection light L1 (STEP 31).
  • the measurement of time is performed by an internal timer 15a provided in the processor 15.
  • the time t0 may be a timing at which the processor 15 outputs the control signal S0 to the light emitting element 41.
  • the processor 15 determines whether the time T measured by the internal timer 15a has reached T1 (STEP 32). If the measured time T has not reached T1 (N in STEP32), this determination processing is repeated.
  • the processor 15 activates the timer 19 to start measuring the time (STEP33).
  • the processor 15 determines whether the light receiving signal S1 has been received (STEP 34). If the light receiving signal S1 has not been received (N in STEP34), this determination processing is repeated, and the time measurement by the timer 19 is continued.
  • the processor 15 stops measuring the time by the timer 19 (STEP35).
  • the light receiving signal S1 output when the reflected light L2 from the object 200 is incident on the light receiving element 42 is received by the processor 15 after a lapse of time T3 from time t0. I have.
  • the processor 15 calculates the distance to the object 200 based on the time measured by the timer 19 (STEP 36 in FIG. 8).
  • the time measured by the timer 19 is (T3-T1).
  • the processor 15 obtains the value of the time T3 by adding the time T1 measured by the internal timer 15a to the time (T3-T1) measured by the timer 19, and obtains the value of the object 200 corresponding to the value of the time T3. Can be calculated.
  • the correspondence between the time value measured by the timer 19 and the distance value to the object may be held in a table or the like in advance. In this case, the processor 15 can directly calculate the distance to the object 200 based on the time measured by the timer 19 and this correspondence.
  • a period P5 indicates a period during which time measurement is performed by the timer 19.
  • the period P6 indicates a period during which the processor 15 can receive the light receiving signal S1 from the light receiving element 42.
  • the processor 15 cannot calculate the distance based on the light receiving signal S1 even if the light receiving signal S1 is output by the reflected light entering the light receiving element 42 before the time T1 elapses. This is because the measurement of the time used for calculating the distance has not been started by the timer 19.
  • the processor 15 does not need to limit the reception of the light receiving signal S1 from the light receiving element 42. Therefore, an increase in the processing load on the processor 15 can be suppressed.
  • the light receiving signal S1 output from the light receiving element 42 can also be input to the timer 19.
  • the timer 19 may be configured to stop measuring the time in response to the reception of the light receiving signal S1 and notify the processor 15 of the measured time. In this case, the delay in the timing of the measurement stop caused by passing through the processor 15 can be suppressed, and the accuracy of the time measurement by the timer 19 is improved.
  • the front left range finder 1 may include a lamp unit 20.
  • the lamp unit 20 is disposed in the accommodation room 13.
  • the lamp unit 20 is a device that emits visible light to the outside of the vehicle 100. Examples of the lamp unit 20 include a headlight unit, a vehicle width light unit, a direction indicator light unit, and a fog light unit.
  • the lamp units 20 are arranged at four corners of the vehicle 100. The four corners are also places where there are few obstacles when detecting information outside the vehicle 100.
  • the LiDAR sensor unit 14 By arranging the LiDAR sensor unit 14 so that the lamp unit 20 and the accommodation room 13 are shared, information outside the vehicle 100 can be efficiently detected.
  • light emitted from the lamp unit 20 can be reflected by the inner surface 12a of the light transmitting cover 12.
  • processor 15 may be realized by a general-purpose microprocessor operating in cooperation with a memory, or may be realized by a dedicated integrated circuit such as a microcontroller, an FPGA, or an ASIC.
  • a right front distance measuring device having a symmetrical configuration with the left front distance measuring device 1 illustrated in FIG. 1 may be mounted on the right front portion RF of the vehicle 100 illustrated in FIG.
  • the right front portion RF is a region located on the right side of the center of the vehicle 100 in the left-right direction and on the front side of the center of the vehicle 100 in the front-rear direction.
  • the configuration of the front left range finder 1 is also applicable to the rear left range finder.
  • the rear left distance measuring device is mounted on the rear left portion LB of the vehicle 100 illustrated in FIG.
  • the left rear portion LB is an area located on the left side of the center of the vehicle 100 in the left-right direction and on the rear side of the center of the vehicle 100 in the front-rear direction.
  • the basic configuration of the rear left range finder may be symmetrical with the front left range finder 1.
  • the configuration of the front left range finder 1 is also applicable to the rear right range finder.
  • the right rear distance measuring device is mounted on a right rear portion RB of the vehicle 100 illustrated in FIG.
  • the right rear portion RB is a region located on the right side of the center of the vehicle 100 in the left-right direction and on the rear side of the center of the vehicle 100 in the front-rear direction.
  • the basic configuration of the right rear distance measuring device may be symmetric with the left rear distance measuring device described above.
  • the LiDAR sensor unit 14 can be replaced with an appropriate sensor unit that can be used for distance measurement to the object 200 located outside the vehicle 100.
  • Examples of such a sensor unit include a TOF camera unit and a millimeter-wave radar unit.
  • a configuration using a plurality of types of measurement methods may be built in a single sensor unit.
  • the wavelength of the detection light L1 emitted by the light emitting element 41 and the wavelength at which the light receiving element 42 has sensitivity can be appropriately determined according to the measurement method used.

Abstract

透光カバー(12)は、発光素子(41)と受光素子(42)を覆い、車両の外面の一部を形成する。プロセッサ(15)は、発光素子(41)より検出光(L1)が出射されてから受光素子に反射光(L2)が入射するまでの時間に基づいて、反射光(L2)を生じた物体(200)までの距離を算出する。プロセッサ(15)は、少なくとも検出光(L1)が出射されてから透光カバー(12)の内面(12a)により反射された反射光(L3)が受光素子(42)に入射するまでの時間の経過後に、距離の算出を行なう。

Description

測距装置
 本開示は、車両に搭載される測距装置に関する。
 特許文献1は、車両に搭載される距離センサの一例としてLiDAR(Light Detecting and Ranging)センサユニットを開示している。当該LiDARセンサユニットは、検出光を出射してから反射光が受光されるまでの時間に基づいて、当該反射光を生じた物体までの距離を検出する。
日本国特許出願公開2018-049014号公報
 上記のように車両に搭載される測距装置の測定精度を向上させることが求められている。
 上記の要求に応えるための一態様は、車両に搭載される測距装置であって、
 検出光を出射する発光素子と、
 受光素子と、
 前記発光素子より前記検出光が出射されてから前記受光素子に反射光が入射するまでの時間に基づいて、当該反射光を生じた物体までの距離を算出するプロセッサと、
 前記発光素子と前記受光素子を覆い、前記車両の外面の一部を形成する透光カバーと、
を備えており、
 前記プロセッサは、少なくとも前記検出光が出射されてから前記透光カバーの内面により反射された反射光が前記受光素子に入射するまでの時間の経過後に、前記距離の算出を行なう。
 車両の外面の一部を形成する透光カバーによって発光素子と受光素子が覆われる構成の場合、発光素子から出射された検出光の一部が透光カバーの内面によって反射され、内面反射光として受光素子に入射することがありうる。内面反射光に基づく受光信号が受光素子から出力されると、プロセッサは、透光カバーの位置に物体が存在すると認識してしまう可能性がある。
 上記の構成例によれば、検出光が出射された時刻から内面反射光が受光素子に入射する時刻までの時間の経過後に、プロセッサによる物体までの距離の算出が可能とされる。そのため、透光カバーの内面反射がプロセッサによる物体までの距離算出に与える影響を排除できる。したがって、測距装置の測定精度が向上する。
 上記の測距装置は、以下のように構成されうる。
 前記検出光の出射に基づいて時間の計測を開始するタイマを備えており、
 前記プロセッサは、少なくとも前記検出光が出射されてから前記透光カバーの内面により反射された反射光が前記受光素子に入射するまでの時間が前記タイマにより計測された後に、前記距離の算出を行なう。
 このような構成によれば、発光素子からの検出光の出射に基づいてタイマが時間の測定を開始するので、時間のより正確な測定が可能になる。
 あるいは、上記の測距装置は、以下のように構成されうる。
 少なくとも前記検出光が出射されてから前記透光カバーの内面により反射された反射光が前記受光素子に入射するまでの時間が経過した後に時間の計測を開始するタイマを備えており、
 前記プロセッサは、前記タイマにより計測された時間に基づいて、前記距離の算出を行なう。
 このような構成によれば、検出光が出射された時刻から内面反射光が受光素子に入射する時刻までの時間が経過する前に受光素子に反射光が入射しても、プロセッサは、この受光に基づく距離の算出を行なえない。距離の算出に用いられる時間の計測がタイマによって開始されていないからである。プロセッサは、受光素子からの出力の受け付けを制限する必要がないので、処理負荷の増大を抑制できる。
 上記の測距装置は、以下のように構成されうる。
 前記透光カバーにより区画される空間内に配置されており、前記車両の外部に可視光を出射するランプユニットを備えている。
 ランプユニットは、車両の四隅部に配置されることが一般的である。四隅部は、車両の外部の情報を検出するに際しての障害物が少ない箇所でもある。透光カバーにより区画される空間をランプユニットと共有するように発光素子と受光素子が配置されることにより、車両の外部の情報を効率的に検出できる。他方、ランプユニットから照射された光が透光カバーの内面によって反射されうる。しかしながら、前述のように、そのような内面反射がプロセッサによる物体までの距離算出に与える影響も排除されうる。
 上記の測距装置は、以下のように構成されうる。
 前記発光素子と前記受光素子は、LiDARセンサユニット、TOFカメラユニット、およびミリ波レーダユニットの少なくとも一つの一部である。
 本明細書において用いられる「光」という語は、所望の情報を検出可能な任意の波長を有する電磁波を意味する。例えば、本明細書における「光」という語は、可視光のみならず、紫外光や赤外光、ミリ波やマイクロ波を含む意味で用いられる。
 本明細書において用いられる「ランプユニット」という語は、所望の照明機能を備えつつ、それ自身が単体で流通可能な部品の構成単位を意味する。
 本明細書において用いられる「センサユニット」という語は、所望の情報検出機能を備えつつ、それ自身が単体で流通可能な部品の構成単位を意味する。
一実施形態に係る左前測距装置の構成を例示している。 図1の左前測距装置の車両における位置を例示している。 図1の左前測距装置の第一構成例を示している。 図3Aの左前測距装置の動作例を示している。 図3Aの左前測距装置の動作例を示している。 図1の左前測距装置の第二構成例を示している。 図5Aの左前測距装置の動作例を示している。 図5Aの左前測距装置の動作例を示している。 図1の左前測距装置の第三構成例を示している。 図7Aの左前測距装置の動作例を示している。 図7Aの左前測距装置の動作例を示している。
 添付の図面を参照しつつ、実施形態の例について以下詳細に説明する。以下の説明に用いる各図面では、各部材を認識可能な大きさとするために縮尺を適宜変更している。
 添付の図面において、矢印Fは、図示された構造の前方向を示している。矢印Bは、図示された構造の後方向を示している。矢印Uは、図示された構造の上方向を示している。矢印Dは、図示された構造の下方向を示している。矢印Lは、図示された構造の左方向を示している。矢印Rは、図示された構造の右方向を示している。以降の説明に用いる「左」および「右」は、運転席から見た左右の方向を示している。
 図1は、一実施形態に係る左前測距装置1の構成を例示している。左前測距装置1は、図2に例示される車両100の左前部LFに配置される。左前部LFは、車両100の左右方向における中央よりも左側、かつ車両100の前後方向における中央よりも前側に位置する領域である。
 図1に示されるように、左前測距装置1は、ハウジング11と透光カバー12を備えている。ハウジング11は、透光カバー12とともに収容室13を区画している。透光カバー12は、車両100の外面の一部を形成している。
 左前測距装置1は、LiDARセンサユニット14を備えている。LiDARセンサユニット14は、収容室13内に配置されている。
 図3Aは、左前測距装置1の第一構成例を示している。LiDARセンサユニット14は、発光素子41と受光素子42を備えている。透光カバー12は、発光素子41と受光素子42を覆っている。
 発光素子41は、車両100の外部へ向けて検出光L1を出射するように構成されている。検出光L1としては、例えば波長905nmの赤外光が使用されうる。発光素子41としては、レーザダイオードや発光ダイオードなどの半導体発光素子が使用されうる。
 LiDARセンサユニット14は、検出光L1を所望の方向へ照射するための不図示の光学系を適宜に備えうる。LiDARセンサユニット14は、検出光L1の照射方向を変更して検出領域内を走査するための不図示の走査機構を備えうる。
 受光素子42は、入射した光量に応じた受光信号S1を出力するように構成されている。受光素子42としては、フォトダイオード、フォトトランジスタ、フォトレジスタなどが使用されうる。LiDARセンサユニット14は、受光信号S1を増幅するための不図示の増幅回路を備えうる。
 左前測距装置1は、プロセッサ15を備えている。プロセッサ15は、収容室13内に配置されている。プロセッサ15は、LiDARセンサユニット14に内蔵されてもよい。プロセッサ15は、所望のタイミングで発光素子41に検出光L1を出射させる制御信号S0を出力する。プロセッサ15は、受光素子42から出力された受光信号S1を受信する。
 プロセッサ15は、時間を測定するための内部タイマ15aを備えている。プロセッサ15は、発光素子41より検出光L1が出射されてから受光素子42に反射光L2が入射するまでの時間に基づいて、反射光L2を生じた物体200までの距離を算出する。LiDARセンサユニット14は、そのように算出された距離に係るデータを検出光L1の照射方向と関連付けて集積することにより、反射光L2に関連付けられた物体200の形状に係る情報を取得できる。
 本構成例においては、プロセッサ15は、検出光L1が出射された時刻t0から透光カバー12の内面12aにより反射された反射光L3が受光素子42に入射する時刻までの時間T1よりも長い時間の経過後に距離の算出を行なうように構成されている。
 より具体的には、上記の時刻t0から透光カバー12の内面12aよりも車両100の外方へ距離dだけ離れた箇所に位置する仮想的な物体201により反射された反射光L4が受光素子42に入射する時刻までの時間T2の経過後に距離の算出を行なうように構成されている。距離dは、車両100の外部に位置する物体の測距(物体の検出)が意味を持つ値として設定される。換言すると、透光カバー12に近すぎる物体の検出を排除しうる値として距離dが設定される。
 図3Bと図4は、このような動作を実現するための処理例を示している。まず、プロセッサ15は、発光素子41が検出光L1を出射した時刻t0より時間の測定を開始する(STEP11)。時間の測定は、プロセッサ15が備えている内部タイマ15aによって行なわれる。例えば、時刻t0は、プロセッサ15が発光素子41へ制御信号S0を出力するタイミングとされうる。
 プロセッサ15は、内部タイマ15aにより測定された時間TがT2に達したかを判断する(STEP12)。測定された時間TがT2に達していなければ(STEP12においてN)、この判断処理が繰り返される。
 測定された時間がT2に達すると(STEP12においてY)、プロセッサ15は、受光素子42から出力される受光信号S1の受け付けを開始する(STEP13)。すなわち、時間T2の経過後、プロセッサ15は、時刻t0から受光信号S1を受信した時刻までの時間に基づいて、受光信号S1に関連付けられた物体までの距離を算出可能になる。内部タイマ15aによる時間の測定は継続される。
 プロセッサ15は、受光信号S1を受信したかを判断する(STEP14)。受光信号S1が受信されていなければ(STEP14においてN)、この判断処理が繰り返されて内部タイマ15aによる時間の測定が継続される。
 受光信号S1が受信されると(STEP14においてY)、プロセッサ15は、内部タイマ15aによる時間の測定を停止する(STEP15)。図3Aと図3Bに示される例の場合、物体200からの反射光L2が受光素子42に入射したことにより出力された受光信号S1は、時刻t0から時間T3の経過後にプロセッサ15により受信されている。プロセッサ15は、時間T3に基づいて、物体200までの距離を算出する(図4におけるSTEP16)。
 図3Bにおいて、期間P1は、プロセッサ15の内部タイマ15aによる時間の測定が行なわれている期間を示している。期間P2は、プロセッサ15が受光素子42からの受光信号S1を受信可能な期間を示している。換言すると、時間T2が経過する前に受光素子42に反射光が入射することによって受光信号S1が出力されても、プロセッサ15は、この受光信号S1に基づく距離の算出を行なわない。
 LiDARセンサユニット14が収容室13内に配置される構成の場合、車両100の外面の一部を形成する透光カバー12によって発光素子41と受光素子42が覆われる。これにより、発光素子41から出射された検出光L1の一部が透光カバー12の内面12aによって反射され、反射光L3として受光素子42に入射することがありうる。反射光L3に基づく受光信号S1が受光素子42により出力されると、プロセッサ15は、透光カバー12の位置に物体が存在すると認識してしまう可能性がある。
 上記の構成例によれば、検出光L1が出射された時刻t0から反射光L3が受光素子42に入射する時刻までの時間T1の経過後に、プロセッサ15による受光信号S1の受信が開始され、物体までの距離の算出が可能とされる。そのため、透光カバー12の内面反射がプロセッサ15による物体までの距離算出に与える影響を排除できる。したがって、左前測距装置1の測定精度が向上する。
 より具体的には、検出光L1が出射された時刻t0から透光カバー12の内面12aよりも車両100の外方へ距離dだけ離れた箇所に位置する仮想的な物体201により反射された反射光L4が受光素子42に入射する時刻までの時間T2の経過後に、プロセッサ15による受光信号S1の受信(すなわち物体までの距離の算出)が開始される。そのため、車両100の外部に位置しつつも透光カバー12に近すぎる物体が有意な測距を妨げる事態を回避できる。距離dは、透光カバー12の内面12aの形状に依らず比較的自由に設定できるので、特に透光カバー12を通過する検出光L1が走査される場合においては、処理の負荷が抑制される。
 図5Aは、左前測距装置1の第二構成例を示している。図3Aに示される第一構成例と同一または同等の要素については、同一の参照符号を付与し、繰り返しとなる説明は省略する。
 本例に係る左前測距装置1は、ビームスプリッタ16、受光素子17、およびタイマ18をさらに備えている。
 ビームスプリッタ16は、発光素子41から出射された検出光L1の一部の通過を許容しつつ、別の一部を反射光L5として受光素子17へ向けて反射する。同様の機能を実現できるのであれば、ビームスプリッタ16は、少なくとも一つの適宜の光学素子で置き換えられうる。
 ビームスプリッタ16からの反射光L5は、受光素子17に入射する。受光素子17は、反射光L5の入射に応答して受光信号S2を出力するように構成されている。受光素子17としては、フォトダイオード、フォトトランジスタ、フォトレジスタなどが使用されうる。すなわち、受光素子17から受光信号S2が出力された事実をもって、発光素子41から検出光L1が出射されたことが検出されうる。
 タイマ18は、受光素子17から出力された受光信号S2を受信すると時間の測定を開始するように構成されている。すなわち、タイマ18は、発光素子41からの検出光L1の出射に基づいて時間の計測を開始するように構成されている。タイマ18は、プロセッサ15と通信可能に接続されている。
 本構成例においては、プロセッサ15は、検出光L1が出射された時刻t0から透光カバー12の内面12aにより反射された反射光L3が受光素子42に入射する時刻までの時間T1よりも長い時間の経過後に距離の算出を行なうように構成されている。
 図5Bと図6は、このような動作を実現するための処理例を示している。受光素子17から受光信号S2が出力されるまで、タイマ18は待機状態にある(STEP21においてN)。
 発光素子41からの検出光L1の出射に伴い、受光素子17から受光信号S2が出力されると(STEP21においてY)、タイマ18が起動される。すなわち、タイマ18は、実質的に発光素子41が検出光L1を出射した時刻t0より時間の計測を開始する(STEP22)。
 タイマ18は、測定された時間TがT1に達したかを判断する(STEP23)。測定された時間TがT1に達していなければ(STEP23においてN)、この判断処理が繰り返される。
 測定された時間TがT1に達すると(STEP23においてY)、タイマ18は、プロセッサ15に対して通知を行なう。この通知に応答して、プロセッサ15は、受光素子42から出力される受光信号S1の受け付けを開始する(STEP24)。すなわち、時間T1の経過後、プロセッサ15は、時刻t0から受光信号S1を受信した時刻までの時間に基づいて、受光信号S1に関連付けられた物体までの距離を算出可能になる。タイマ18による時間の測定は継続される。
 プロセッサ15は、受光信号S1を受信したかを判断する(STEP25)。受光信号S1が受信されていなければ(STEP25においてN)、この判断処理が繰り返されてタイマ18による時間の測定が継続される。
 受光信号S1が受信されると(STEP25においてY)、プロセッサ15は、タイマ18による時間の測定を停止させる(STEP26)。図5Aと図5Bに示される例の場合、物体200からの反射光L2が受光素子42に入射したことにより出力された受光信号S1は、時刻t0から時間T3の経過後にプロセッサ15により受信されている。プロセッサ15は、時間T3に基づいて、物体200までの距離を算出する(図6におけるSTEP27)。
 図5Bにおいて、期間P3は、タイマ18による時間の測定が行なわれている期間を示している。期間P4は、プロセッサ15が受光素子42からの受光信号S1を受信可能な期間を示している。換言すると、時間T1が経過する前に受光素子42に反射光が入射することによって受光信号S1が出力されても、プロセッサ15は、この受光信号S1に基づく距離の算出を行なわない。
 本構成例によれば、検出光L1が出射された時刻t0から反射光L3が受光素子42に入射する時刻までの時間T1の経過後に、プロセッサ15による受光信号S1の受信が開始され、物体までの距離の算出が可能とされる。そのため、透光カバー12の内面反射がプロセッサ15による物体までの距離算出に与える影響を排除できる。したがって、左前測距装置1の測定精度が向上する。
 さらに、発光素子41からの検出光L1の出射に基づいてタイマ18が時間T1の測定を開始するので、時間T1のより正確な測定が可能になる。特に透光カバー12を通過する検出光L1が走査される場合においては、透光カバー12の内面12aまでの距離が検出光L1の出射方向に応じて変化しうる。このような場合においても、内面12aまでの距離に応じて変化する時間T1を正確に設定し、測定できる。
 図5Aに例示されるビームスプリッタ16、受光素子17、およびタイマ18を用いる構成は、図3Aに示される第一構成例にも適用可能である。すなわち、プロセッサ15の内部タイマ15aによる時間T2の測定は、発光素子41からの検出光L1の出射に基づいて起動されるタイマ18によって行なわれてもよい。
 逆に、本構成例に係るビームスプリッタ16、受光素子17、およびタイマ18を用いた時間T1の測定に代えて、プロセッサ15の内部タイマ15aによって時間T1の測定が行なわれてもよい。
 図7Aは、左前測距装置1の第三構成例を示している。図3Aに示される第一構成例と同一または同等の要素については、同一の参照符号を付与し、繰り返しとなる説明は省略する。
 本例に係る左前測距装置1は、タイマ19をさらに備えている。タイマ19は、プロセッサ15と通信可能に接続されている。
 本構成例においては、プロセッサ15は、検出光L1が出射された時刻t0から透光カバー12の内面12aにより反射された反射光L3が受光素子42に入射する時刻までの時間T1よりも長い時間の経過後に距離の算出を行なうように構成されている。
 図7Bと図8は、このような動作を実現するための処理例を示している。まず、プロセッサ15は、発光素子41が検出光L1を出射した時刻t0より時間の測定を開始する(STEP31)。時間の測定は、プロセッサ15が備えている内部タイマ15aによって行なわれる。例えば、時刻t0は、プロセッサ15が発光素子41へ制御信号S0を出力するタイミングとされうる。
 プロセッサ15は、内部タイマ15aにより測定された時間TがT1に達したかを判断する(STEP32)。測定された時間TがT1に達していなければ(STEP32においてN)、この判断処理が繰り返される。
 測定された時間TがT1に達すると(STEP32においてY)、プロセッサ15は、タイマ19を起動して時間の測定を開始させる(STEP33)。
 プロセッサ15は、受光信号S1を受信したかを判断する(STEP34)。受光信号S1が受信されていなければ(STEP34においてN)、この判断処理が繰り返されてタイマ19による時間の測定が継続される。
 受光信号S1が受信されると(STEP34においてY)、プロセッサ15は、タイマ19による時間の測定を停止させる(STEP35)。図7Aと図7Bに示される例の場合、物体200からの反射光L2が受光素子42に入射したことにより出力された受光信号S1は、時刻t0から時間T3の経過後にプロセッサ15により受信されている。プロセッサ15は、タイマ19により測定された時間に基づいて、物体200までの距離を算出する(図8におけるSTEP36)。
 上記の例においては、タイマ19により測定された時間は、(T3-T1)である。例えば、プロセッサ15は、タイマ19により測定された時間(T3-T1)に内部タイマ15aで測定された時間T1を加算して時間T3の値を取得し、当該時間T3の値に対応する物体200までの距離を算出しうる。あるいは、時間T1は既知であるので、タイマ19により測定された時間値と物体までの距離値の対応関係が予めテーブルなどに保持されうる。この場合、プロセッサ15は、タイマ19により測定された時間とこの対応関係に基づいて、物体200までの距離を直接的に算出しうる。
 図7Bにおいて、期間P5は、タイマ19による時間の測定が行なわれている期間を示している。期間P6は、プロセッサ15が受光素子42からの受光信号S1を受信可能な期間を示している。換言すると、時間T1が経過する前に受光素子42に反射光が入射することによって受光信号S1が出力されても、プロセッサ15は、この受光信号S1に基づく距離の算出を行なえない。距離の算出に用いられる時間の計測がタイマ19によって開始されていないからである。
 本構成例によれば、検出光L1が出射された時刻t0から反射光L3が受光素子42に入射する時刻までの時間T1の経過後に、タイマ19による時間の測定が開始され、物体までの距離の算出が可能とされる。そのため、透光カバー12の内面反射がプロセッサ15による物体までの距離算出に与える影響を排除できる。したがって、左前測距装置1の測定精度が向上する。
 さらに、プロセッサ15は、受光素子42からの受光信号S1の受信を制限する必要がない。したがって、プロセッサ15による処理負荷の増大を抑制できる。
 なお、図7Aに破線で例示されるように、受光素子42から出力される受光信号S1は、タイマ19にも入力されうる。この場合、タイマ19は、受光信号S1の受信に応答して時間の測定を停止し、測定された時間をプロセッサ15に通知するように構成されうる。この場合、プロセッサ15を経由することによる測定停止のタイミングの遅延を抑制できるので、タイマ19による時間の測定精度が向上する。
 図1に例示されるように、左前測距装置1は、ランプユニット20を備えうる。ランプユニット20は、収容室13内に配置される。ランプユニット20は、車両100の外方へ可視光を照射する装置である。ランプユニット20としては、前照灯ユニット、車幅灯ユニット、方向指示灯ユニット、霧灯ユニットなどが例示されうる。
 ランプユニット20は、車両100の四隅部に配置されることが一般的である。四隅部は、車両100の外部の情報を検出するに際しての障害物が少ない箇所でもある。ランプユニット20と収容室13を共有するようにLiDARセンサユニット14が配置されることにより、車両100の外部の情報を効率的に検出できる。他方、ランプユニット20から照射された光が透光カバー12の内面12aによって反射されうる。しかしながら、上記の各構成例によれば、そのような内面反射がプロセッサ15による物体までの距離算出に与える影響も排除できる。
 これまで説明したプロセッサ15の機能は、メモリと協働して動作する汎用マイクロプロセッサにより実現されてもよいし、マイクロコントローラ、FPGA、ASICなどの専用集積回路によって実現されてもよい。
 上記の実施形態は、本開示の理解を容易にするための例示にすぎない。上記の実施形態に係る構成は、本開示の趣旨を逸脱しなければ、適宜に変更・改良されうる。
 図2に例示される車両100の右前部RFには、図1に例示される左前測距装置1と左右対称の構成を有する右前測距装置が搭載されうる。右前部RFは、車両100の左右方向における中央よりも右側、かつ車両100の前後方向における中央よりも前側に位置する領域である。
 左前測距装置1の構成は、左後測距装置にも適用可能である。左後測距装置は、図2に例示される車両100の左後部LBに搭載される。左後部LBは、車両100の左右方向における中央よりも左側、かつ車両100の前後方向における中央よりも後側に位置する領域である。左後測距装置の基本的な構成は、左前測距装置1と前後対称でありうる。
 左前測距装置1の構成は、右後測距装置にも適用可能である。右後測距装置は、図2に例示される車両100の右後部RBに搭載される。右後部RBは、車両100の左右方向における中央よりも右側、かつ車両100の前後方向における中央よりも後側に位置する領域である。右後測距装置の基本的な構成は、上述の左後測距装置と左右対称でありうる。
 LiDARセンサユニット14は、車両100の外部に位置する物体200までの測距に用いられうる適宜のセンサユニットで置き換えられうる。そのようなセンサユニットとしては、TOFカメラユニットやミリ波レーダユニットが例示されうる。複数種の測定手法を用いる構成が単一のセンサユニットに内蔵されていてもよい。発光素子41により出射される検出光L1の波長、および受光素子42が感度を有する波長は、使用される測定手法に応じて適宜に定められうる。
 本出願の記載の一部を構成するものとして、2018年7月27日に提出された日本国特許出願2018-141097号の内容が援用される。

Claims (5)

  1.  車両に搭載される測距装置であって、
     検出光を出射する発光素子と、
     受光素子と、
     前記発光素子より前記検出光が出射されてから前記受光素子に反射光が入射するまでの時間に基づいて、当該反射光を生じた物体までの距離を算出するプロセッサと、
     前記発光素子と前記受光素子を覆い、前記車両の外面の一部を形成する透光カバーと、
    を備えており、
     前記プロセッサは、少なくとも前記検出光が出射されてから前記透光カバーの内面により反射された反射光が前記受光素子に入射するまでの時間の経過後に、前記距離の算出を行なう、
    測距装置。
  2.  前記検出光の出射に基づいて時間の計測を開始するタイマを備えており、
     前記プロセッサは、少なくとも前記検出光が出射されてから前記透光カバーの内面により反射された反射光が前記受光素子に入射するまでの時間が前記タイマにより計測された後に、前記距離の算出を行なう、
    請求項1に記載の測距装置。
  3.  少なくとも前記検出光が出射されてから前記透光カバーの内面により反射された反射光が前記受光素子に入射するまでの時間が経過した後に時間の計測を開始するタイマを備えており、
     前記プロセッサは、前記タイマにより計測された時間に基づいて、前記距離の算出を行なう、
    請求項1に記載の測距装置。
  4.  前記透光カバーにより区画される空間内に配置されており、前記車両の外部に可視光を出射するランプユニットを備えている、
    請求項1から3のいずれか一項に記載の測距装置。
  5.  前記発光素子と前記受光素子は、LiDARセンサユニット、TOFカメラユニット、およびミリ波レーダユニットの少なくとも一つの一部である、
    請求項1から4のいずれか一項に記載の測距装置。
PCT/JP2019/028428 2018-07-27 2019-07-19 測距装置 WO2020022206A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US17/263,252 US20210190949A1 (en) 2018-07-27 2019-07-19 Ranging device
CN201980050201.3A CN112513574B (zh) 2018-07-27 2019-07-19 测距装置
JP2020532353A JPWO2020022206A1 (ja) 2018-07-27 2019-07-19 測距装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018141097 2018-07-27
JP2018-141097 2018-07-27

Publications (1)

Publication Number Publication Date
WO2020022206A1 true WO2020022206A1 (ja) 2020-01-30

Family

ID=69181607

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/028428 WO2020022206A1 (ja) 2018-07-27 2019-07-19 測距装置

Country Status (4)

Country Link
US (1) US20210190949A1 (ja)
JP (1) JPWO2020022206A1 (ja)
CN (1) CN112513574B (ja)
WO (1) WO2020022206A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113419252A (zh) * 2021-06-10 2021-09-21 Oppo广东移动通信有限公司 飞行时间模组、终端及深度检测方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10153417A (ja) * 1996-11-26 1998-06-09 Ishikawajima Harima Heavy Ind Co Ltd 形状計測装置及び方法
JPH10227857A (ja) * 1997-02-14 1998-08-25 Nikon Corp 光波測距装置
JP2012237580A (ja) * 2011-05-10 2012-12-06 Honda Motor Co Ltd 車両のレーザーレーダーユニット
JP2017003785A (ja) * 2015-06-11 2017-01-05 株式会社リコー 光走査装置、物体検出装置及びセンシング装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10153417A (ja) * 1996-11-26 1998-06-09 Ishikawajima Harima Heavy Ind Co Ltd 形状計測装置及び方法
JPH10227857A (ja) * 1997-02-14 1998-08-25 Nikon Corp 光波測距装置
JP2012237580A (ja) * 2011-05-10 2012-12-06 Honda Motor Co Ltd 車両のレーザーレーダーユニット
JP2017003785A (ja) * 2015-06-11 2017-01-05 株式会社リコー 光走査装置、物体検出装置及びセンシング装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113419252A (zh) * 2021-06-10 2021-09-21 Oppo广东移动通信有限公司 飞行时间模组、终端及深度检测方法

Also Published As

Publication number Publication date
CN112513574A (zh) 2021-03-16
US20210190949A1 (en) 2021-06-24
CN112513574B (zh) 2023-08-22
JPWO2020022206A1 (ja) 2021-08-02

Similar Documents

Publication Publication Date Title
US9891432B2 (en) Object detection device and sensing apparatus
US9618622B2 (en) Optical object-detection device having a MEMS and motor vehicle having such a detection device
WO2018051909A1 (ja) センサシステム
US20170199272A1 (en) Optical reflection sensor and electronic device
JP7074881B2 (ja) 波長変換を備えたlidar測定システム
JP6737296B2 (ja) 対象物検出装置
KR20230126704A (ko) 전송 광학 전력 모니터를 사용하는 LiDAR 시스템
JP2015007623A (ja) 走行支援装置、車両
US20050201096A1 (en) Object detecting apparatus for vehicle
US11215699B2 (en) Lamp device
US20200300988A1 (en) Electronic apparatus and method
US20230065210A1 (en) Optical distance measuring device
WO2020022206A1 (ja) 測距装置
KR102041633B1 (ko) 물체 인식 시스템
WO2020017379A1 (ja) 測距装置
US20230028749A1 (en) Lidar with multi-range channels
US20210165103A1 (en) Sensor system
JPWO2019234180A5 (ja)
WO2021065437A1 (ja) 測距装置
JP2020076763A5 (ja)
JP2020020709A (ja) センサシステム
JP2002286844A (ja) 距離測定装置
JPH07253461A (ja) 距離測定装置
WO2020032009A1 (ja) センサシステム
WO2021235317A1 (ja) 光学測距装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19840500

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020532353

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19840500

Country of ref document: EP

Kind code of ref document: A1