WO2020032009A1 - センサシステム - Google Patents

センサシステム Download PDF

Info

Publication number
WO2020032009A1
WO2020032009A1 PCT/JP2019/030850 JP2019030850W WO2020032009A1 WO 2020032009 A1 WO2020032009 A1 WO 2020032009A1 JP 2019030850 W JP2019030850 W JP 2019030850W WO 2020032009 A1 WO2020032009 A1 WO 2020032009A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
light
detection light
sensor system
emitting element
Prior art date
Application number
PCT/JP2019/030850
Other languages
English (en)
French (fr)
Inventor
雄介 戸塚
Original Assignee
株式会社小糸製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社小糸製作所 filed Critical 株式会社小糸製作所
Priority to JP2020535781A priority Critical patent/JPWO2020032009A1/ja
Publication of WO2020032009A1 publication Critical patent/WO2020032009A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B26/00Optical devices or arrangements for the control of light using movable or deformable optical elements
    • G02B26/08Optical devices or arrangements for the control of light using movable or deformable optical elements for controlling the direction of light
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Definitions

  • the present disclosure relates to a sensor system mounted on a vehicle.
  • a sensor for detecting information outside the vehicle In order to assist driving of a vehicle, it is necessary to mount a sensor for detecting information outside the vehicle on the vehicle body.
  • a sensor for detecting information outside the vehicle on the vehicle body.
  • An example of such a sensor is a LiDAR (Light Detection and Ranging) sensor (for example, see Patent Document 1).
  • a first aspect for responding to the above demand is a sensor system mounted on a vehicle, A first light emitting element that emits first detection light toward the outside of the vehicle, A second light emitting element that emits second detection light toward the outside of the vehicle, An optical element that allows passage of the first detection light and the second detection light, With The first light emitting element and the second light emitting element are arranged in a direction corresponding to a vertical direction of the vehicle, The optical element is configured to reduce a vertical interval between the first detection light and the second detection light as the light passes.
  • the first detection light and the second detection light travel while the vertical interval is narrowed by the optical element. Therefore, even at a relatively long distance, it is possible to detect the presence of an object (an obstacle on the road or the like) whose dimension in the direction corresponding to the vertical direction of the vehicle is relatively small. That is, the information detection resolution in the direction corresponding to the vertical direction of the vehicle can be increased.
  • a second aspect for responding to the above demand is a sensor system mounted on a vehicle, A first light emitting element that emits first detection light toward the outside of the vehicle, A second light emitting element that emits second detection light toward the outside of the vehicle, A first optical element that allows the passage of the first detection light, A second optical element that allows the passage of the second detection light, A scanning mechanism that changes the emission direction of the first detection light and the second detection light in a direction that intersects the vertical direction of the vehicle, By displacing the first optical element and the second optical element for each scanning cycle of the scanning mechanism, the first detection light and the second detection light passing through the first optical element and the second optical element A driving mechanism for changing the traveling direction of the driving mechanism to a direction corresponding to the vertical direction, It has.
  • the traveling direction of the first detection light and the second detection light changes in a direction corresponding to the up-down direction of the vehicle for each scanning cycle of the scanning mechanism.
  • the spatial information detection resolution in the same direction can be increased while substantially maintaining the information detectable range. Therefore, even at a relatively long distance, it is possible to detect the presence of an object (an obstacle on the road or the like) whose dimension in the direction corresponding to the vertical direction of the vehicle is relatively small.
  • the sensor systems according to the first and second aspects can be configured as follows.
  • the first light emitting element and the second light emitting element are a part of any of a LiDAR sensor unit, a TOF camera unit, and a millimeter wave sensor unit.
  • a third aspect for responding to the above demand is a sensor system mounted on a vehicle, A light-emitting element that emits detection light toward the outside of the vehicle, An optical element that allows passage of the detection light, A scanning mechanism that changes an emission direction of the detection light in a direction that intersects a vertical direction of the vehicle, A drive mechanism that changes the traveling direction of the detection light that has passed through the optical element to a direction corresponding to the up-down direction by displacing the optical element for each scanning cycle of the scanning mechanism, It has.
  • the traveling direction of the detection light changes in a direction corresponding to the up-down direction of the vehicle for each scanning cycle of the scanning mechanism, so that the possibility of detecting information in the same direction increases. That is, it is possible to increase the substantial information detection resolution in the direction corresponding to the up-down direction of the vehicle while using at least one detection light. Therefore, even at a relatively long distance, it is possible to detect the presence of an object (an obstacle on the road or the like) whose dimension in the direction corresponding to the vertical direction of the vehicle is relatively small.
  • the sensor system according to the third aspect can be configured as follows.
  • the amount of change in the traveling direction by the drive mechanism changes according to the speed of the vehicle.
  • the higher the vehicle speed the faster it is required to detect an object such as an obstacle on a road located farther away.
  • the higher the vehicle speed the higher the information detection resolution in the direction corresponding to the up-down direction of the vehicle by the detection light, so that the request can be satisfied.
  • a fourth aspect for responding to the above demand is a sensor system mounted on a vehicle, A sensor system mounted on a vehicle, A light-emitting element that emits detection light toward the outside of the vehicle, A scanning mechanism that changes an emission direction of the detection light in a direction corresponding to a vertical direction of the vehicle, A processor that changes at least one of a light emission frequency of the light emitting element and a scanning speed by the scanning mechanism according to an emission direction of the detection light, It has.
  • the information detection resolution in the direction corresponding to the up and down direction of the vehicle can be changed within the scanning range of the detection light by the scanning mechanism. That is, the information detection resolution in the direction corresponding to the up-down direction of the vehicle can be increased as necessary while using at least one detection light.
  • the sensor system according to the fourth aspect can be configured as follows.
  • the processor changes at least one of an emission frequency of the detection light and a scanning speed of the scanning mechanism according to a speed of the vehicle.
  • the higher the vehicle speed the faster it is required to detect an object such as an obstacle on a road located farther away.
  • the higher the vehicle speed the higher the information detection resolution in the direction corresponding to the up-down direction of the vehicle by the detection light, so that the request can be satisfied.
  • the sensor systems according to the third and fourth aspects can be configured as follows.
  • the first light emitting element and the second light emitting element are part of any of a LiDAR sensor unit, a TOF camera unit, and a millimeter wave sensor unit.
  • sensor unit means a component unit of a part that can provide a desired information detection function and can be distributed by itself.
  • the term "light” refers to electromagnetic waves having any wavelength at which desired information can be detected.
  • “light” is a concept that includes not only visible light but also ultraviolet light, infrared light, millimeter waves, and microwaves.
  • driving assistance refers to a control process that at least partially performs at least one of a driving operation (steering operation, acceleration, deceleration), monitoring of a driving environment, and a backup of the driving operation. . That is, the term “driving assistance” as used in this specification is meant to include from partial driving assistance such as a collision damage reduction braking function and a lane keeping assist function to a fully automatic driving operation.
  • FIG. 1 illustrates a configuration of a left front sensor system according to a first embodiment.
  • 2 illustrates a position of the left front sensor system in FIG. 1 in a vehicle.
  • 9 illustrates a configuration of a left front sensor system according to a second embodiment.
  • 9 illustrates a configuration of a front left sensor system according to a third embodiment.
  • 14 illustrates a configuration of a left front sensor system according to a fourth embodiment.
  • arrow F indicates the forward direction of the illustrated structure.
  • Arrow B indicates the backward direction of the illustrated structure.
  • Arrow U indicates the upward direction of the illustrated structure.
  • Arrow D indicates the downward direction of the illustrated structure.
  • Arrow L indicates the left direction of the illustrated structure.
  • Arrow R indicates the right direction of the illustrated structure. “Left” and “right” used in the following description indicate left and right directions viewed from the driver's seat.
  • FIG. 1 illustrates the configuration of the front left sensor system 10 according to the first embodiment.
  • the front left sensor system 10 is arranged in a front left portion LF of the vehicle 100 illustrated in FIG.
  • the left front part LF is an area located on the left side of the center of the vehicle 100 in the left-right direction and on the front side of the center of the vehicle 100 in the front-rear direction.
  • the left front sensor system 10 includes a housing 11 and a light transmitting cover 12.
  • the housing 11 defines a housing chamber 13 together with the light-transmitting cover 12.
  • the translucent cover 12 forms a part of the outer surface of the vehicle 100.
  • the front left sensor system 10 includes a LiDAR sensor unit 14.
  • the LiDAR sensor unit 14 is arranged in the accommodation room 13.
  • the LiDAR sensor unit 14 includes the first light emitting element 141.
  • the first light emitting element 141 emits the first detection light L1 to the outside of the vehicle 100.
  • the first detection light L1 for example, infrared light having a wavelength of 905 nm can be used.
  • a semiconductor light emitting element such as a laser diode or a light emitting diode can be used.
  • the LiDAR sensor unit 14 includes the second light emitting element 142.
  • the second light emitting element 142 emits the second detection light L2 to the outside of the vehicle 100.
  • the second detection light L2 for example, infrared light having a wavelength of 905 nm can be used.
  • a semiconductor light emitting element such as a laser diode or a light emitting diode can be used.
  • the first light emitting element 141 and the second light emitting element 142 are arranged in a direction corresponding to the vertical direction of the vehicle 100.
  • the LiDAR sensor unit 14 may include a scanning mechanism (not shown) that changes each of the emission direction of the first detection light L1 and the emission direction of the second detection light L2 to a direction crossing the vertical direction of the vehicle 100.
  • a scanning mechanism (not shown) that changes each of the emission direction of the first detection light L1 and the emission direction of the second detection light L2 to a direction crossing the vertical direction of the vehicle 100.
  • the detection area defined outside the vehicle 100 can be scanned in a direction intersecting the vertical direction of the vehicle 100.
  • the front left sensor system 10 includes a processor 15.
  • the processor 15 causes the first light emitting element 141 to emit the first detection light L1 by inputting a control signal to the first light emitting element 141.
  • the processor 15 causes the second light emitting element 142 to emit the second detection light L2 by inputting a control signal to the second light emitting element 142.
  • the first detection light L1 emitted from the first light emitting element 141 is reflected by an object located outside the vehicle, and returns as first reflected light.
  • the first reflected light is incident on a first light receiving element (not shown).
  • the first light receiving element is configured to output a first light receiving signal according to the amount of incident light.
  • a photodiode, a phototransistor, a photoresistor, or the like can be used as the first light receiving element.
  • the second detection light L2 emitted from the second light emitting element 142 is reflected by an object located outside the vehicle and returns as second reflected light.
  • the second reflected light enters a second light receiving element (not shown).
  • the second light receiving element is configured to output a second light receiving signal according to the amount of incident light.
  • a photodiode, a phototransistor, a photoresistor, or the like can be used as the second light receiving element.
  • the processor 15 receives the first light receiving signal and the second light receiving signal.
  • Processor 15 detects information external to vehicle 100 based on these signals. For example, the processor 15 can acquire the distance to the object associated with the first reflected light based on the time from when the first detection light L1 is emitted in a certain direction to when the first reflected light is detected. Further, by accumulating such distance data in association with the emission direction of the first detection light L1, it is possible to acquire information on the shape of the object associated with the first reflected light. The same applies to the second detection light L2.
  • the processor 15 can acquire information related to an attribute such as a material of an object associated with the first reflected light based on a difference between the amounts of the first detection light L1 and the first reflected light. .
  • the processor 15 can acquire information relating to the difference in the light amount in association with the emission direction of the first detection light L1, it is possible to acquire information relating to the surface state of the object associated with the first reflected light. The same applies to the second detection light L2.
  • processor 15 may be realized by a general-purpose microprocessor operating in cooperation with a general-purpose memory, or may be realized by a dedicated integrated circuit such as a microcontroller, an FPGA, or an ASIC.
  • the processor 15 can be arranged at any position in the vehicle.
  • Processor 15 may be provided as a part of a main ECU that performs central control processing in vehicle 100, or may be provided as a part of a sub ECU that is interposed between main ECU and LiDAR sensor unit 14. Alternatively, the processor 15 may be built in the LiDAR sensor unit 14.
  • the front left sensor system 10 includes the optical element 16.
  • the optical element 16 is disposed between the light-transmitting cover 12 and the LiDAR sensor unit 14 in the accommodation room 13.
  • the optical element 16 allows the passage of the first detection light L1 and the second detection light L2.
  • the optical element 16 is configured to narrow the vertical distance between the first detection light L1 and the second detection light L2 as the light passes.
  • the term “pass” for an optical element means that light incident on the optical element exits the optical element through transmission or reflection.
  • the first detection light L1 and the second detection light L2 travel while the interval in the vertical direction is narrowed by the optical element 16. Therefore, even in a relatively distant place, the presence of an object (an obstacle on the road or the like) having a relatively small dimension in the vertical direction of the vehicle 100 can be detected. That is, the information detection resolution in the direction corresponding to the vertical direction of the vehicle 100 can be increased.
  • the detectable range in the same direction is narrowed. Therefore, it is desirable that the first detection light L1 and the second detection light L2 be emitted toward a region where the detection resolution is given priority over the detection range.
  • the number of light emitting elements provided in the LiDAR sensor unit 14 may be three or more.
  • optical elements 16 are arbitrary as long as the above-mentioned optical functions can be realized.
  • the optical element 16 include a lens, a prism, a mirror, and a combination thereof.
  • a right front sensor system having a symmetrical configuration with the left front sensor system 10 illustrated in FIG. 1 may be mounted on the right front RF of the vehicle 100 illustrated in FIG.
  • the right front portion RF is a region located on the right side of the center of the vehicle 100 in the left-right direction and on the front side of the center of the vehicle 100 in the front-rear direction.
  • the configuration of the front left sensor system 10 is also applicable to the rear left sensor system.
  • the rear left sensor system is mounted on the rear left portion LB of the vehicle 100 illustrated in FIG.
  • the left rear portion LB is an area located on the left side of the center of the vehicle 100 in the left-right direction and on the rear side of the center of the vehicle 100 in the front-rear direction.
  • the basic configuration of the left rear sensor system can be symmetrical with the front left sensor system 10.
  • the configuration of the front left sensor system 10 is also applicable to the rear right sensor system.
  • the right rear sensor system is mounted on a right rear RB of the vehicle 100 illustrated in FIG.
  • the right rear portion RB is a region located on the right side of the center of the vehicle 100 in the left-right direction and on the rear side of the center of the vehicle 100 in the front-rear direction.
  • the basic configuration of the right rear sensor system may be symmetrical to the left rear sensor system described above.
  • FIG. 3 illustrates the configuration of the front left sensor system 20 according to the second embodiment.
  • the front left sensor system 20 is disposed in the front left portion LF of the vehicle 100 illustrated in FIG.
  • Components that are substantially the same as those of the left front sensor system 10 according to the first embodiment are given the same reference numerals, and repeated descriptions are omitted.
  • the front left sensor system 20 includes a scanning mechanism 25.
  • the scanning mechanism 25 changes each of the emission direction of the first detection light L1 and the emission direction of the second detection light L2 to a direction that intersects the vertical direction of the vehicle 100. Thereby, the detection area defined outside the vehicle 100 is scanned in a direction intersecting the vertical direction of the vehicle 100.
  • the scanning mechanism 25 can be realized by various known methods.
  • the emission direction of the first detection light L1 and the emission direction of the second detection light L2 are obtained by displacing a support that supports the first light emitting element 141 and the second light emitting element 142 by a MEMS (Micro Electro Mechanical Systems) mechanism.
  • MEMS Micro Electro Mechanical Systems
  • the first detection light L1 and the second detection light L2 emitted from the fixed first light emitting element 141 and second light emitting element 142 are reflected by a rotating optical system such as a polygon mirror or a rotary blade.
  • the emission direction of the first detection light L1 and the emission direction of the second detection light L2 can be indirectly changed.
  • the left front sensor system 20 includes the first optical element 261.
  • the first optical element 261 is arranged between the light transmitting cover 12 and the first light emitting element 141 in the accommodation room 13.
  • the first optical element 261 allows the first detection light L1 to pass.
  • Examples of the first optical element 261 include at least one of a lens, a prism, and a mirror.
  • the left front sensor system 20 includes the second optical element 262.
  • the second optical element 262 is arranged between the light transmitting cover 12 and the second light emitting element 142 in the accommodation room 13.
  • the second optical element 262 permits the passage of the second detection light L2.
  • Examples of the second optical element 262 include at least one of a lens, a prism, and a mirror.
  • the front left sensor system 20 includes a drive mechanism 27.
  • the drive mechanism 27 displaces the first optical element 261 and the second optical element 262 to move the first detection light L1 passing through the first optical element 261 and the second detection light passing through the second optical element 262.
  • the traveling direction of the light L2 can be changed to a direction corresponding to the vertical direction of the vehicle 100.
  • the term "displacement” as used herein means a change in at least one of the position and the posture.
  • the drive mechanism 27 can be configured by a known actuator or the like.
  • the front left sensor system 20 includes a processor 28.
  • the processor 28 controls the emission of the first detection light L1 by the first light emitting element 141 and the emission of the second detection light L2 by the second light emitting element 142, similarly to the processor 15 according to the first embodiment. Further, similarly to the processor 15 according to the first embodiment, the processor 28 is provided outside the vehicle 100 based on the first reflected light generated by the first detected light L1 and the second reflected light generated by the second detected light L2. Is detected.
  • the processor 28 inputs a control signal to each of the scanning mechanism 25 and the driving mechanism 27 to realize the interlocking of both. Specifically, the processor 28 controls the driving mechanism 27 so that the first optical element 261 and the second optical element 262 are arranged at the positions indicated by the solid lines in the drawing.
  • the scanning by the second detection light L2 is performed by the scanning mechanism 25. This operation is called a first scan.
  • the optical path of the first detection light L1 and the optical path of the second detection light L2 during the first scanning are illustrated by solid lines in FIG.
  • the processor 28 controls the driving mechanism 27 so that the first optical element 261 and the second optical element 262 are arranged at positions exemplified by broken lines in the drawing, and in this state, the first detection is performed.
  • the scanning mechanism 25 performs scanning with the light L1 and the second detection light L2. This operation is called a second scan.
  • the optical path of the first detection light L1 and the optical path of the second detection light L2 during the second scanning are illustrated by broken lines in FIG.
  • the first detection light L1 and the second detection light L2 at the time of the second scanning travel downward below the first detection light L1 and the second detection light L2 at the time of the first scanning. Therefore, the first detection light L1 during the second scanning travels between the first detection light L1 and the second detection light L2 during the first scanning in the vertical direction.
  • the magnitude of the amount of change in the path of the first detection light L1 and the second detection light L2 by the drive mechanism 27 is determined by the amount of change ⁇ z in the vertical direction of the detection light at a position separated by a specific distance, and It is preferable that the distance between the light L1 and the second detection light L2 is set to be half the vertical distance I.
  • the processor 28 controls the scanning mechanism 25 and the driving mechanism 27 so that the first scanning and the second scanning are performed alternately. That is, the change of the traveling direction of the first detection light L1 and the second detection light L2 by the driving mechanism 27 is performed for each scanning cycle of the scanning mechanism 25.
  • the front left sensor system 20 cannot detect the presence of the object T.
  • the object T is provided for detection by the first detection light L1 during the second scan.
  • the traveling direction of the first detection light L1 and the traveling direction of the second detection light L2 change in a direction corresponding to the vertical direction of the vehicle 100 for each scanning cycle of the scanning mechanism 25. While substantially maintaining the information detectable range in the direction corresponding to the vertical direction of the vehicle 100, the spatial information detection resolution in the same direction can be increased (temporal information detection resolution decreases). Therefore, even at a relatively long distance, the presence of an object (an obstacle on the road or the like) having a relatively small dimension in the direction corresponding to the up-down direction of the vehicle 100 can be detected.
  • processor 28 may be realized by a general-purpose microprocessor operating in cooperation with a general-purpose memory, or may be realized by a dedicated integrated circuit such as a microcontroller, an FPGA, or an ASIC.
  • the processor 28 can be arranged at any position in the vehicle.
  • Processor 28 may be provided as a part of a main ECU that performs central control processing in vehicle 100, or may be provided as a part of a sub ECU that is interposed between main ECU and LiDAR sensor unit 14. Alternatively, the processor 28 may be built in the LiDAR sensor unit 14.
  • a right front sensor system having a symmetrical configuration with the left front sensor system 20 illustrated in FIG. 3 may be mounted on the right front portion RF of the vehicle 100 illustrated in FIG.
  • the right front portion RF is a region located on the right side of the center of the vehicle 100 in the left-right direction and on the front side of the center of the vehicle 100 in the front-rear direction.
  • the configuration of the front left sensor system 20 is also applicable to the rear left sensor system.
  • the rear left sensor system is mounted on the rear left portion LB of the vehicle 100 illustrated in FIG.
  • the left rear portion LB is an area located on the left side of the center of the vehicle 100 in the left-right direction and on the rear side of the center of the vehicle 100 in the front-rear direction.
  • the basic configuration of the left rear sensor system may be symmetrical with the front left sensor system 20.
  • the configuration of the front left sensor system 20 is also applicable to the rear right sensor system.
  • the right rear sensor system is mounted on a right rear RB of the vehicle 100 illustrated in FIG.
  • the right rear portion RB is a region located on the right side of the center of the vehicle 100 in the left-right direction and on the rear side of the center of the vehicle 100 in the front-rear direction.
  • the basic configuration of the right rear sensor system may be symmetrical to the left rear sensor system described above.
  • FIG. 4 illustrates the configuration of the front left sensor system 30 according to the third embodiment.
  • the front left sensor system 30 is disposed in a front left portion LF of the vehicle 100 illustrated in FIG.
  • Components that are substantially the same as those of the left front sensor system 10 according to the first embodiment are given the same reference numerals, and repeated descriptions are omitted.
  • the front left sensor system 30 includes a LiDAR sensor unit 34.
  • the LiDAR sensor unit 34 is arranged in the accommodation room 13.
  • the LiDAR sensor unit 34 includes the light emitting element 340.
  • Light emitting element 340 emits detection light L0 toward the outside of vehicle 100.
  • the detection light L0 for example, infrared light having a wavelength of 905 nm can be used.
  • a semiconductor light emitting element such as a laser diode or a light emitting diode can be used.
  • the front left sensor system 30 includes a scanning mechanism 35.
  • the scanning mechanism 35 changes the emission direction of the detection light L0 to a direction corresponding to the vertical direction of the vehicle 100.
  • the detection area defined outside the vehicle 100 is scanned in a direction corresponding to the up-down direction of the vehicle 100.
  • the scanning mechanism 35 can be realized by various known methods. For example, by displacing the support that supports the light emitting element 340 by the MEMS mechanism, the emission direction of the detection light L0 can be directly changed. Alternatively, the detection light L0 emitted from the fixed light emitting element 340 is reflected by a rotating optical system such as a polygon mirror or a rotary blade, so that the emission direction of the detection light L0 can be indirectly changed.
  • a rotating optical system such as a polygon mirror or a rotary blade
  • the front left sensor system 30 includes an optical element 36.
  • the optical element 36 is disposed between the light transmitting cover 12 and the light emitting element 340 in the accommodation room 13.
  • the optical element 36 allows the detection light L0 to pass through.
  • Examples of the optical element 36 include at least one of a lens, a prism, and a mirror.
  • the front left sensor system 30 includes a drive mechanism 37.
  • the drive mechanism 37 can change the traveling direction of the detection light L0 passing through the optical element 36 to a direction corresponding to the up-down direction of the vehicle 100 by displacing the optical element 36.
  • the term "displacement” as used herein means a change in at least one of the position and the posture.
  • the drive mechanism 37 can be configured by a known actuator or the like.
  • the front left sensor system 30 includes a processor 38.
  • the processor 38 causes the light emitting element 340 to emit the detection light L0 by inputting a control signal to the light emitting element 340.
  • the detection light L0 emitted from the light emitting element 340 is reflected by an object located outside the vehicle, and returns as reflected light.
  • the reflected light enters a light receiving element (not shown).
  • the light receiving element is configured to output a light receiving signal according to the amount of incident light.
  • a photodiode, a phototransistor, a photoresistor, or the like can be used as the light receiving element.
  • the processor 38 receives the light receiving signal.
  • Processor 38 detects information external to vehicle 100 based on the light reception signal. For example, the processor 38 can acquire the distance to the object associated with the reflected light based on the time from when the detection light L0 is emitted in a certain direction to when the reflected light is detected. Further, by accumulating such distance data in association with the emission direction of the detection light L0, it is possible to acquire information on the shape of the object associated with the reflected light.
  • the processor 38 can acquire information on attributes such as the material of the object associated with the reflected light based on the difference between the detected light L0 and the amount of reflected light. By accumulating the data relating to the difference in light amount in association with the emission direction of the detection light L0, it is possible to acquire information relating to the surface state of the object associated with the reflected light.
  • the processor 38 inputs a control signal to each of the scanning mechanism 35 and the driving mechanism 37 to realize the interlocking of both. Specifically, the processor 38 controls the driving mechanism 37 so as to dispose the optical element 36 at a position indicated by a solid line in the drawing, and causes the scanning mechanism 35 to perform scanning with the detection light L0 in this state. This operation is called a first scan.
  • the detection light L0 during the first scan is illustrated by a solid line in FIG.
  • the processor 38 controls the driving mechanism 37 so as to dispose the optical element 36 at the position indicated by the broken line in the drawing, and in this state, causes the scanning mechanism 35 to perform scanning with the detection light L0. .
  • This operation is called a second scan.
  • the optical path of the detection light L0 during the execution of the second scanning is illustrated by a broken line in FIG. In the present example, the detection light L0 during the second scanning travels downward from the detection light L0 during the first scanning.
  • the processor 38 controls the scanning mechanism 35 and the driving mechanism 37 so that the first scanning and the second scanning are performed alternately. That is, the change of the traveling direction of the detection light L0 by the driving mechanism 37 is performed for each scanning cycle of the scanning mechanism 35.
  • the presence of the object T cannot be detected by the detection light L0 emitted during the first scanning. However, the presence of the object T can be detected by the detection light L0 emitted during the second scan.
  • the traveling direction of the detection light L0 changes in a direction corresponding to the up-down direction of the vehicle 100 for each scanning cycle of the scanning mechanism 35, so that there is a possibility of detecting information in the same direction. Increase. That is, it is possible to increase the substantial information detection resolution in the direction corresponding to the vertical direction of the vehicle 100 while using at least one detection light L0. Therefore, even at a relatively long distance, the presence of an object (an obstacle on the road or the like) having a relatively small dimension in the direction corresponding to the up-down direction of the vehicle 100 can be detected.
  • the processor 38 can acquire information indicating the speed of the vehicle 100 from a vehicle speed sensor (not shown). In this case, the processor 38 can change the amount of change ⁇ z in the traveling direction of the detection light L0 by the drive mechanism 37 according to the speed of the vehicle 100. Specifically, the processor 38 controls the drive mechanism 37 such that the change amount ⁇ z decreases as the speed of the vehicle 100 increases.
  • the higher the vehicle speed the faster it is required to detect an object such as an obstacle on a road located farther away.
  • the higher the vehicle speed the higher the information detection resolution of the detection light L0 in the direction corresponding to the up-down direction of the vehicle 100, so that the request can be satisfied.
  • processor 38 may be realized by a general-purpose microprocessor operating in cooperation with a general-purpose memory, or may be realized by a dedicated integrated circuit such as a microcontroller, an FPGA, or an ASIC.
  • the processor 38 can be arranged at any position in the vehicle.
  • Processor 38 may be provided as a part of a main ECU that performs central control processing in vehicle 100, or may be provided as a part of a sub ECU that is interposed between main ECU and LiDAR sensor unit 34. Alternatively, the processor 38 may be built in the LiDAR sensor unit 34.
  • a right front sensor system having a symmetrical configuration with the left front sensor system 30 illustrated in FIG. 4 may be mounted on the right front RF of the vehicle 100 illustrated in FIG.
  • the right front portion RF is a region located on the right side of the center of the vehicle 100 in the left-right direction and on the front side of the center of the vehicle 100 in the front-rear direction.
  • the configuration of the front left sensor system 30 is also applicable to the rear left sensor system.
  • the rear left sensor system is mounted on the rear left portion LB of the vehicle 100 illustrated in FIG.
  • the left rear portion LB is an area located on the left side of the center of the vehicle 100 in the left-right direction and on the rear side of the center of the vehicle 100 in the front-rear direction.
  • the basic configuration of the rear left sensor system can be symmetrical with the front left sensor system 30.
  • the configuration of the front left sensor system 30 is also applicable to the rear right sensor system.
  • the right rear sensor system is mounted on a right rear RB of the vehicle 100 illustrated in FIG.
  • the right rear portion RB is a region located on the right side of the center of the vehicle 100 in the left-right direction and on the rear side of the center of the vehicle 100 in the front-rear direction.
  • the basic configuration of the right rear sensor system may be symmetrical to the left rear sensor system described above.
  • FIG. 5 illustrates the configuration of the front left sensor system 40 according to the fourth embodiment.
  • the front left sensor system 40 is arranged in a front left portion LF of the vehicle 100 illustrated in FIG.
  • Components that are substantially the same as those of the left front sensor system 10 according to the first embodiment are given the same reference numerals, and repeated descriptions are omitted.
  • the front left sensor system 40 includes a LiDAR sensor unit 44.
  • the LiDAR sensor unit 44 is arranged in the accommodation room 13.
  • the LiDAR sensor unit 44 includes a light emitting element 440.
  • Light emitting element 440 emits detection light L0 toward the outside of vehicle 100.
  • the detection light L0 for example, infrared light having a wavelength of 905 nm can be used.
  • a semiconductor light emitting element such as a laser diode or a light emitting diode can be used.
  • the front left sensor system 40 includes a scanning mechanism 45.
  • the scanning mechanism 45 changes the emission direction of the detection light L0 to a direction corresponding to the vertical direction of the vehicle 100.
  • the detection area defined outside the vehicle 100 is scanned in a direction corresponding to the up-down direction of the vehicle 100.
  • the scanning mechanism 45 can be realized by various known methods. For example, by displacing the support that supports the light emitting element 440 by the MEMS mechanism, the emission direction of the detection light L0 can be directly changed. Alternatively, the emission direction of the detection light L0 can be indirectly changed by reflecting the detection light L0 emitted from the fixed light emitting element 440 by a rotating optical system such as a polygon mirror or a rotary blade.
  • a rotating optical system such as a polygon mirror or a rotary blade.
  • the front left sensor system 40 includes a processor 46.
  • the processor 46 causes the light emitting element 440 to emit the detection light L0 by inputting a control signal to the light emitting element 440.
  • the detection light L0 emitted from the light emitting element 440 is reflected by an object located outside the vehicle, and returns as reflected light.
  • the reflected light enters a light receiving element (not shown).
  • the light receiving element is configured to output a light receiving signal according to the amount of incident light.
  • a photodiode, a phototransistor, a photoresistor, or the like can be used as the light receiving element.
  • the processor 46 receives the light receiving signal.
  • Processor 46 detects information external to vehicle 100 based on the received light signal. For example, the processor 46 can acquire the distance to the object associated with the reflected light based on the time from when the detection light L0 is emitted in a certain direction to when the reflected light is detected. Further, by accumulating such distance data in association with the emission direction of the detection light L0, it is possible to acquire information on the shape of the object associated with the reflected light.
  • the processor 46 can acquire information related to attributes such as the material of the object associated with the reflected light based on the difference between the amount of the detected light L0 and the amount of the reflected light. By accumulating the data relating to the difference in light amount in association with the emission direction of the detection light L0, it is possible to acquire information relating to the surface state of the object associated with the reflected light.
  • FIG. 5 illustrates all the optical paths that the detection light L0 can take during one scan by the scanning mechanism 45.
  • Each detection light L0 is emitted at the timing when the control signal is input from the processor 46 to the light emitting element 440.
  • the information detection resolution in the direction corresponding to the vertical direction of the vehicle 100 changes during one scan by the scanning mechanism 45.
  • the vertical interval I1 between the detection lights L0 at a position separated by a specific distance in the relatively lower detection area is the vertical distance I1 between the detection lights L0 at the position in the relatively upper detection area. It is narrower than the interval I2. That is, the information detection resolution in the vertical direction in the detection area relatively lower is increased.
  • the processor 46 is configured to change at least one of the emission frequency of the light emitting element 440 and the scanning speed of the scanning mechanism 45.
  • the emission frequency of the light emitting element 440 may be changed while the scanning speed of the detection light L0 by the scanning mechanism 45 is kept constant. Specifically, when the detection light L0 is emitted relatively downward, a control signal is input from the processor 46 to the light emitting element 440 compared to when the detection light L0 is emitted relatively upward. The time interval of the light emitting element 440 becomes shorter (that is, the light emitting frequency of the light emitting element 440 becomes higher). Accordingly, the number of times that the detection light L0 is emitted from the light emitting element 440 per unit time increases. As a result, the information detection resolution in the vertical direction in the detection area relatively lower is increased.
  • the scanning speed of the detection light L0 by the scanning mechanism 45 can be changed while the emission frequency of the light emitting element 440 is kept constant. Specifically, when the detection light L0 is emitted relatively downward, the scanning speed of the detection light L0 by the scanning mechanism 45 is lower than when the detection light L0 is emitted relatively upward. Be killed. This method also increases the number of times that the detection light L0 is emitted from the light emitting element 440 per unit time. As a result, the information detection resolution in the vertical direction in the detection area relatively lower is increased.
  • the dimension of the object T in the direction corresponding to the vertical direction of the vehicle 100 is smaller than the vertical interval I2 between the detection lights L0 at positions separated by a specific distance, and is smaller than the interval I1. Is also big. Therefore, the object T is not detected by the detection light L0 emitted relatively upward, but can be detected by the detection light L0 emitted relatively downward.
  • the information detection resolution in the direction corresponding to the vertical direction of the vehicle 100 can be changed within the scanning range of the detection light L0 by the scanning mechanism 45. That is, it is possible to increase the information detection resolution in the direction corresponding to the up-down direction of the vehicle 100 as needed while using at least one detection light L0.
  • the information detection resolution in the direction corresponding to the up and down direction of the vehicle 100 by the detection light L0 emitted relatively downward is increased.
  • an object such as an obstacle on the road can be detected more accurately.
  • the information detection resolution in the direction corresponding to the up and down direction of the vehicle 100 by the detection light L0 emitted relatively upward can be increased.
  • the processor 46 can obtain information indicating the speed of the vehicle 100 from a vehicle speed sensor (not shown). In this case, the processor 46 can change at least one of the emission frequency of the light emitting element 440 and the scanning speed of the scanning mechanism 45 according to the speed of the vehicle 100.
  • the processor 46 controls the light emitting element 440 so that the light emitting frequency increases as the speed of the vehicle 100 increases. Additionally or alternatively, the processor 46 controls the scanning mechanism 45 such that the higher the speed of the vehicle 100, the lower the scanning speed.
  • the higher the vehicle speed the faster it is required to detect an object such as an obstacle on a road located farther away.
  • the higher the vehicle speed the higher the information detection resolution of the detection light L0 in the direction corresponding to the up-down direction of the vehicle 100, so that the request can be satisfied.
  • processor 46 may be realized by a general-purpose microprocessor operating in cooperation with a general-purpose memory, or may be realized by a dedicated integrated circuit such as a microcontroller, an FPGA, or an ASIC.
  • the processor 46 can be arranged at any position in the vehicle.
  • the processor 46 may be provided as a part of a main ECU that performs central control processing in the vehicle 100, or may be provided as a part of a sub ECU that is interposed between the main ECU and the LiDAR sensor unit 44. Alternatively, the processor 46 may be built in the LiDAR sensor unit 44.
  • a right front sensor system having a symmetrical configuration with the left front sensor system 40 illustrated in FIG. 5 may be mounted on the right front RF of the vehicle 100 illustrated in FIG.
  • the right front portion RF is a region located on the right side of the center of the vehicle 100 in the left-right direction and on the front side of the center of the vehicle 100 in the front-rear direction.
  • the configuration of the front left sensor system 40 is also applicable to the rear left sensor system.
  • the rear left sensor system is mounted on the rear left portion LB of the vehicle 100 illustrated in FIG.
  • the left rear portion LB is an area located on the left side of the center of the vehicle 100 in the left-right direction and on the rear side of the center of the vehicle 100 in the front-rear direction.
  • the basic configuration of the left rear sensor system can be symmetrical with the front left sensor system 40.
  • the configuration of the front left sensor system 40 is also applicable to the rear right sensor system.
  • the right rear sensor system is mounted on a right rear RB of the vehicle 100 illustrated in FIG.
  • the right rear portion RB is a region located on the right side of the center of the vehicle 100 in the left-right direction and on the rear side of the center of the vehicle 100 in the front-rear direction.
  • the basic configuration of the right rear sensor system may be symmetrical to the left rear sensor system described above.
  • At least one of the LiDAR sensor unit 14, the LiDAR sensor unit 34, and the LiDAR sensor unit 44 can be replaced by an appropriate sensor unit including a light emitting element, a light receiving element, and a scanning mechanism.
  • a sensor unit include a TOF (Time @ of @ Flight) camera unit and a millimeter-wave sensor unit.
  • the wavelength of the detection light emitted by the light emitting element and the wavelength at which the light receiving element has sensitivity can be appropriately determined according to the detection method used.

Abstract

第一発光素子(141)は、車両の外部へ向けて第一検出光(L1)を出射する。第二発光素子(142)は、車両の外部へ向けて第二検出光(L2)を出射する。光学素子(16)は、第一検出光(L1)と第二検出光(L2)の通過を許容する。第一発光素子(141)と第二発光素子(142)は、車両の上下方向に対応する向きに配列されている。光学素子(16)は、通過に伴って第一検出光(L1)と第二検出光(L2)の上下方向の間隔を狭めるように構成されている。

Description

センサシステム
 本開示は、車両に搭載されるセンサシステムに関する。
 車両の運転支援のために、当該車両の外部の情報を検出するためのセンサを車体に搭載する必要がある。そのようなセンサの例としては、LiDAR(Light Detection and Ranging)センサが挙げられる(例えば、特許文献1を参照)。
日本国特許出願公開2010-185769号公報
 車両の上下方向に対応する向きの情報検出分解能を高めたセンサシステムを提供することが求められている。
 上記の要求に応えるための第一態様は、車両に搭載されるセンサシステムであって、
 前記車両の外部へ向けて第一検出光を出射する第一発光素子と、
 前記車両の外部へ向けて第二検出光を出射する第二発光素子と、
 前記第一検出光と前記第二検出光の通過を許容する光学素子と、
を備えており、
 前記第一発光素子と前記第二発光素子は、前記車両の上下方向に対応する向きに配列されており、
 前記光学素子は、前記通過に伴って前記第一検出光と前記第二検出光の前記上下方向の間隔を狭めるように構成されている。
 このような構成によれば、第一検出光と第二検出光は、光学素子によって上下方向の間隔が狭められつつ進行する。したがって、比較的遠方においても、車両の上下方向に対応する向きの寸法が比較的小さな物体(路上の障害物など)の存在を検出できる。すなわち、車両の上下方向に対応する向きの情報検出分解能を高めることができる。
 上記の要求に応えるための第二態様は、車両に搭載されるセンサシステムであって、
 前記車両の外部へ向けて第一検出光を出射する第一発光素子と、
 前記車両の外部へ向けて第二検出光を出射する第二発光素子と、
 前記第一検出光の通過を許容する第一光学素子と、
 前記第二検出光の通過を許容する第二光学素子と、
 前記車両の上下方向と交差する向きに前記第一検出光と前記第二検出光の出射方向を変化させる走査機構と、
 前記走査機構の走査周期ごとに前記第一光学素子と前記第二光学素子を変位させることにより、前記第一光学素子と前記第二光学素子を通過した前記第一検出光と前記第二検出光の進行方向を前記上下方向に対応する向きに変化させる駆動機構と、
を備えている。
 このような構成によれば、走査機構の走査周期ごとに、車両の上下方向に対応する向きに第一検出光と第二検出光の進行方向が変化するので、車両の上下方向に対応する向きの情報検出可能範囲を実質的に維持したまま、同方向における空間的な情報検出分解能を高めることができる。よって、比較的遠方においても、車両の上下方向に対応する向きの寸法が比較的小さな物体(路上の障害物など)の存在を検出できる。
 第一態様と第二態様に係るセンサシステムは、以下のように構成されうる。
 前記第一発光素子と前記第二発光素子は、LiDARセンサユニット、TOFカメラユニット、ミリ波センサユニットのいずれかの一部である。
 上記の要求に応えるための第三態様は、車両に搭載されるセンサシステムであって、
 前記車両の外部へ向けて検出光を出射する発光素子と、
 前記検出光の通過を許容する光学素子と、
 前記車両の上下方向と交差する向きに前記検出光の出射方向を変化させる走査機構と、
 前記走査機構の走査周期ごとに前記光学素子を変位させることにより、前記光学素子を通過した前記検出光の進行方向を前記上下方向に対応する向きに変化させる駆動機構と、
を備えている。
 このような構成によれば、走査機構の走査周期ごとに、車両の上下方向に対応する向きに検出光の進行方向が変化するので、同方向における情報検出の可能性が高まる。すなわち、少なくとも一本の検出光を用いつつも、車両の上下方向に対応する向きの実質的な情報検出分解能を高めることができる。よって、比較的遠方においても、車両の上下方向に対応する向きの寸法が比較的小さな物体(路上の障害物など)の存在を検出できる。
 第三態様に係るセンサシステムは、以下のように構成されうる。
 前記駆動機構による前記進行方向の変化量は、前記車両の速度に応じて変化する。
 車速が高いほど、遠方に位置する路上の障害物などの物体をより早く検出することが求められる。上記のような構成によれば、車速が高いほど検出光による車両の上下方向に対応する向きの情報検出分解能が高められるので、当該要求に応えることができる。
 上記の要求に応えるための第四態様は、車両に搭載されるセンサシステムであって、
 車両に搭載されるセンサシステムであって、
 前記車両の外部へ向けて検出光を出射する発光素子と、
 前記車両の上下方向に対応する向きに前記検出光の出射方向を変化させる走査機構と、
 前記検出光の出射方向に応じて、前記発光素子の発光周波数と前記走査機構による走査速度の少なくとも一方を変更するプロセッサと、
を備えている。
 このような構成によれば、走査機構による検出光の走査範囲内で、車両の上下方向に対応する向きの情報検出分解能を変化させることができる。すなわち、少なくとも一本の検出光を用いつつ、必要に応じて車両の上下方向に対応する向きの情報検出分解能を高めることができる。
 第四態様に係るセンサシステムは、以下のように構成されうる。
 前記プロセッサは、前記車両の速度に応じて前記検出光の発光周波数と前記走査機構による走査速度の少なくとも一方を変更する。
 車速が高いほど、遠方に位置する路上の障害物などの物体をより早く検出することが求められる。上記のような構成によれば、車速が高いほど検出光による車両の上下方向に対応する向きの情報検出分解能が高められるので、当該要求に応えることができる。
 第三態様と第四態様に係るセンサシステムは、以下のように構成されうる。
 前記第一発光素子と前記第二発光素子は、LiDARセンサユニット、TOFカメラユニット、ミリ波センサユニットのいずれかの一部である。
 本明細書において用いられる「センサユニット」という語は、所望の情報検出機能を備えつつ、それ自身が単体で流通可能な部品の構成単位を意味する。
 本明細書において用いられる「光」という語は、所望の情報を検出可能な任意の波長を有する電磁波を意味する。例えば、「光」とは、可視光のみならず、紫外光や赤外光、ミリ波やマイクロ波を含む概念である。
 本明細書において用いられる「運転支援」という語は、運転操作(ハンドル操作、加速、減速)、走行環境の監視、および運転操作のバックアップの少なくとも一つを少なくとも部分的に行なう制御処理を意味する。すなわち、本明細書において用いられる「運転支援」という語は、衝突被害軽減ブレーキ機能やレーンキープアシスト機能のような部分的な運転支援から完全自動運転動作までを含む意味である。
第一実施形態に係る左前センサシステムの構成を例示している。 図1の左前センサシステムの車両における位置を例示している。 第二実施形態に係る左前センサシステムの構成を例示している。 第三実施形態に係る左前センサシステムの構成を例示している。 第四実施形態に係る左前センサシステムの構成を例示している。
 添付の図面を参照しつつ、実施形態の例について以下詳細に説明する。以下の説明に用いる各図面では、各部材を認識可能な大きさとするために縮尺を適宜変更している。
 添付の図面において、矢印Fは、図示された構造の前方向を示している。矢印Bは、図示された構造の後方向を示している。矢印Uは、図示された構造の上方向を示している。矢印Dは、図示された構造の下方向を示している。矢印Lは、図示された構造の左方向を示している。矢印Rは、図示された構造の右方向を示している。以降の説明に用いる「左」および「右」は、運転席から見た左右の方向を示している。
 図1は、第一実施形態に係る左前センサシステム10の構成を例示している。左前センサシステム10は、図2に例示される車両100の左前部LFに配置される。左前部LFは、車両100の左右方向における中央よりも左側、かつ車両100の前後方向における中央よりも前側に位置する領域である。
 図1に例示されるように、左前センサシステム10は、ハウジング11と透光カバー12を備えている。ハウジング11は、透光カバー12とともに収容室13を区画している。透光カバー12は、車両100の外面の一部を形成している。
 左前センサシステム10は、LiDARセンサユニット14を備えている。LiDARセンサユニット14は、収容室13内に配置されている。
 LiDARセンサユニット14は、第一発光素子141を備えている。第一発光素子141は、車両100の外部へ向けて第一検出光L1を出射する。第一検出光L1としては、例えば波長905nmの赤外光が使用されうる。第一発光素子141としては、レーザダイオードや発光ダイオードなどの半導体発光素子が使用されうる。
 LiDARセンサユニット14は、第二発光素子142を備えている。第二発光素子142は、車両100の外部へ向けて第二検出光L2を出射する。第二検出光L2としては、例えば波長905nmの赤外光が使用されうる。第二発光素子142としては、レーザダイオードや発光ダイオードなどの半導体発光素子が使用されうる。
 第一発光素子141と第二発光素子142は、車両100の上下方向に対応する向きに配列されている。
 LiDARセンサユニット14は、第一検出光L1の出射方向と第二検出光L2の出射方向の各々を車両100の上下方向と交差する向きへ変更する不図示の走査機構を備えうる。これにより、車両100の外部に規定される検出領域が、車両100の上下方向と交差する向きに走査されうる。
 左前センサシステム10は、プロセッサ15を備えている。プロセッサ15は、第一発光素子141に制御信号を入力することにより、第一発光素子141に第一検出光L1を出射させる。プロセッサ15は、第二発光素子142に制御信号を入力することにより、第二発光素子142に第二検出光L2を出射させる。
 第一発光素子141から出射された第一検出光L1は、車両の外部に位置する物体により反射され、第一反射光として戻ってくる。第一反射光は、不図示の第一受光素子に入射する。第一受光素子は、入射光量に応じた第一受光信号を出力するように構成される。第一受光素子としては、フォトダイオード、フォトトランジスタ、フォトレジスタなどが使用されうる。
 第二発光素子142から出射された第二検出光L2は、車両の外部に位置する物体により反射され、第二反射光として戻ってくる。第二反射光は、不図示の第二受光素子に入射する。第二受光素子は、入射光量に応じた第二受光信号を出力するように構成される。第二受光素子としては、フォトダイオード、フォトトランジスタ、フォトレジスタなどが使用されうる。
 プロセッサ15は、第一受光信号と第二受光信号を受信する。プロセッサ15は、これらの信号に基づいて、車両100の外部の情報を検出する。例えば、プロセッサ15は、ある方向へ第一検出光L1を出射したタイミングから第一反射光を検出するまでの時間に基づいて、第一反射光に関連付けられた物体までの距離を取得できる。また、そのような距離データを第一検出光L1の出射方向と関連付けて集積することにより、第一反射光に関連付けられた物体の形状に係る情報を取得できる。第二検出光L2についても同様である。
 これに加えてあるいは代えて、プロセッサ15は、第一検出光L1と第一反射光の光量の相違に基づいて、第一反射光に関連付けられた物体の材質などの属性に係る情報を取得できる。光量の相違に係るデータを、第一検出光L1の出射方向と関連付けて集積することにより、第一反射光に関連付けられた物体の表面状態に係る情報を取得できる。第二検出光L2についても同様である。
 上記のようなプロセッサ15の機能は、汎用メモリと協働して動作する汎用マイクロプロセッサにより実現されてもよいし、マイクロコントローラ、FPGA、ASICなどの専用集積回路によって実現されてもよい。
 プロセッサ15は、車両における任意の位置に配置されうる。プロセッサ15は、車両100における中央制御処理を担うメインECUの一部として提供されてもよいし、メインECUとLiDARセンサユニット14の間に介在するサブECUの一部として提供されてもよい。あるいは、プロセッサ15は、LiDARセンサユニット14に内蔵されてもよい。
 左前センサシステム10は、光学素子16を備えている。光学素子16は、収容室13内において、透光カバー12とLiDARセンサユニット14の間に配置されている。光学素子16は、第一検出光L1と第二検出光L2の通過を許容している。光学素子16は、通過に伴って第一検出光L1と第二検出光L2の上下方向の間隔を狭めるように構成されている。
 本明細書において用いられる、光学素子に係る「通過」という語は、光学素子に対して入射した光が、透過または反射を通じて当該光学素子から出射することを意味する。
 比較例として図中に破線で示されているのは、光学素子16が存在しない場合における第一検出光L1の光路と第二検出光L2の光路である。車両100の上下方向に対応する向きの寸法が第一検出光L1と第二検出光L2の同方向における間隔Iよりも小さい物体Tは、いずれの検出光に対しても反射光を生じない。この場合、左前センサシステム10は、当該物体Tの存在を検出できない。
 他方、本実施形態の構成によれば、第一検出光L1と第二検出光L2は、光学素子16によって上下方向の間隔が狭められつつ進行する。したがって、比較的遠方においても、車両100の上下方向に対応する向きの寸法が比較的小さな物体(路上の障害物など)の存在を検出できる。すなわち、車両100の上下方向に対応する向きの情報検出分解能を高めることができる。
 車両100の上下方向に対応する向きの検出分解能が高まる代わりに、同方向における検出可能範囲は狭まる。したがって、第一検出光L1と第二検出光L2は、検出可能範囲の広さよりも検出分解能の高さが優先される領域へ向けて出射されることが望ましい。
 LiDARセンサユニット14が備える発光素子の数は、三つ以上であってもよい。
 上記の光学的機能を実現できるのであれば、光学素子16の数は任意である。光学素子16の例としては、レンズ、プリズム、ミラー、およびそれらの組合せが挙げられる。
 図2に例示される車両100の右前部RFには、図1に例示される左前センサシステム10と左右対称の構成を有する右前センサシステムが搭載されうる。右前部RFは、車両100の左右方向における中央よりも右側、かつ車両100の前後方向における中央よりも前側に位置する領域である。
 左前センサシステム10の構成は、左後センサシステムにも適用可能である。左後センサシステムは、図2に例示される車両100の左後部LBに搭載される。左後部LBは、車両100の左右方向における中央よりも左側、かつ車両100の前後方向における中央よりも後側に位置する領域である。左後センサシステムの基本的な構成は、左前センサシステム10と前後対称でありうる。
 左前センサシステム10の構成は、右後センサシステムにも適用可能である。右後センサシステムは、図2に例示される車両100の右後部RBに搭載される。右後部RBは、車両100の左右方向における中央よりも右側、かつ車両100の前後方向における中央よりも後側に位置する領域である。右後センサシステムの基本的な構成は、上述の左後センサシステムと左右対称でありうる。
 図3は、第二実施形態に係る左前センサシステム20の構成を例示している。左前センサシステム20は、図2に例示される車両100の左前部LFに配置される。第一実施形態に係る左前センサシステム10のものと実質的に同じ構成要素については、同一の参照符号を付与し、繰り返しとなる説明は省略する。
 左前センサシステム20は、走査機構25を備えている。走査機構25は、第一検出光L1の出射方向と第二検出光L2の出射方向の各々を車両100の上下方向と交差する向きへ変更する。これにより、車両100の外部に規定される検出領域が、車両100の上下方向と交差する向きに走査される。
 走査機構25は、様々な周知の手法により実現されうる。例えば、第一発光素子141と第二発光素子142を支持する支持体をMEMS(Micro Electro Mechanical Systems)機構によって変位させることにより、第一検出光L1の出射方向と第二検出光L2の出射方向が直接的に変更されうる。あるいは、固定された第一発光素子141と第二発光素子142からそれぞれ出射された第一検出光L1と第二検出光L2を、ポリゴンミラーやロータリーブレードのような回転光学系で反射することによって、第一検出光L1の出射方向と第二検出光L2の出射方向が間接的に変更されうる。
 左前センサシステム20は、第一光学素子261を備えている。第一光学素子261は、収容室13内において、透光カバー12と第一発光素子141の間に配置されている。第一光学素子261は、第一検出光L1の通過を許容している。第一光学素子261の例としては、レンズ、プリズム、およびミラーの少なくとも一つが挙げられる。
 左前センサシステム20は、第二光学素子262を備えている。第二光学素子262は、収容室13内において、透光カバー12と第二発光素子142の間に配置されている。第二光学素子262は、第二検出光L2の通過を許容している。第二光学素子262の例としては、レンズ、プリズム、およびミラーの少なくとも一つが挙げられる。
 左前センサシステム20は、駆動機構27を備えている。駆動機構27は、第一光学素子261と第二光学素子262を変位させることにより、第一光学素子261を通過した第一検出光L1の進行方向と第二光学素子262を通過した第二検出光L2の進行方向を、車両100の上下方向に対応する向きに変更できる。ここで用いられる「変位」という語は、位置と姿勢の少なくとも一方の変化を意味する。駆動機構27は、周知のアクチュエータなどによって構成されうる。
 左前センサシステム20は、プロセッサ28を備えている。プロセッサ28は、第一実施形態に係るプロセッサ15と同様に、第一発光素子141による第一検出光L1と第二発光素子142による第二検出光L2の出射を制御する。また、プロセッサ28は、第一実施形態に係るプロセッサ15と同様に、第一検出光L1により生じた第一反射光および第二検出光L2により生じた第二反射光に基づく、車両100の外部の情報の検出を行なう。
 加えて、プロセッサ28は、走査機構25と駆動機構27のそれぞれに制御信号を入力し、両者の連動を実現する。具体的には、プロセッサ28は、図中に実線で示される位置に第一光学素子261と第二光学素子262を配置させるように駆動機構27を制御し、この状態で第一検出光L1と第二検出光L2による走査を走査機構25に実行させる。この動作を第一走査と称する。第一走査が行なわれている間の第一検出光L1の光路と第二検出光L2の光路は、図3に実線で例示されている。
 第一走査が終了すると、プロセッサ28は、図中に破線で例示される位置に第一光学素子261と第二光学素子262を配置させるように駆動機構27を制御し、この状態で第一検出光L1と第二検出光L2による走査を走査機構25に実行させる。この動作を第二走査と称する。第二走査が行なわれている間の第一検出光L1の光路と第二検出光L2の光路は、図3に破線で例示されている。
 本例においては、第二走査時における第一検出光L1と第二検出光L2は、第一走査時における第一検出光L1と第二検出光L2よりも下方へ向かって進行する。したがって、第二走査時における第一検出光L1は、上下方向について第一走査時における第一検出光L1と第二検出光L2の間を進行する。駆動機構27による第一検出光L1と第二検出光L2の進路の変化量の大きさは、特定の距離だけ離れた位置における検出光の上下方向の変化量Δzが、当該位置における第一検出光L1と第二検出光L2の上下方向の間隔Iの半分となるように定められることが好ましい。
 プロセッサ28は、上述の第一走査と第二走査が交互に実行されるように、走査機構25と駆動機構27を制御する。すなわち、駆動機構27による第一検出光L1と第二検出光L2の進行方向の変更が、走査機構25の走査周期ごとになされる。
 図3に例示される例においては、車両100の上下方向に対応する向きの寸法が第一検出光L1と第二検出光L2の同方向における間隔Iよりも小さい物体Tは、第一走査時におけるいずれの検出光に対しても反射光を生じない。この場合、左前センサシステム20は、当該物体Tの存在を検出できない。しかしながら、当該物体Tは、第二走査時における第一検出光L1によって検出に供される。
 本実施形態の構成によれば、第一検出光L1の進行方向と第二検出光L2の進行方向が、走査機構25の走査周期ごとに車両100の上下方向に対応する向きに変化するので、車両100の上下方向に対応する向きの情報検出可能範囲を実質的に維持したまま、同方向における空間的な情報検出分解能を高めることができる(時間的な情報検出分解能は低下する)。よって、比較的遠方においても、車両100の上下方向に対応する向きの寸法が比較的小さな物体(路上の障害物など)の存在を検出できる。
 上記のようなプロセッサ28の機能は、汎用メモリと協働して動作する汎用マイクロプロセッサにより実現されてもよいし、マイクロコントローラ、FPGA、ASICなどの専用集積回路によって実現されてもよい。
 プロセッサ28は、車両における任意の位置に配置されうる。プロセッサ28は、車両100における中央制御処理を担うメインECUの一部として提供されてもよいし、メインECUとLiDARセンサユニット14の間に介在するサブECUの一部として提供されてもよい。あるいは、プロセッサ28は、LiDARセンサユニット14に内蔵されてもよい。
 図2に例示される車両100の右前部RFには、図3に例示される左前センサシステム20と左右対称の構成を有する右前センサシステムが搭載されうる。右前部RFは、車両100の左右方向における中央よりも右側、かつ車両100の前後方向における中央よりも前側に位置する領域である。
 左前センサシステム20の構成は、左後センサシステムにも適用可能である。左後センサシステムは、図2に例示される車両100の左後部LBに搭載される。左後部LBは、車両100の左右方向における中央よりも左側、かつ車両100の前後方向における中央よりも後側に位置する領域である。左後センサシステムの基本的な構成は、左前センサシステム20と前後対称でありうる。
 左前センサシステム20の構成は、右後センサシステムにも適用可能である。右後センサシステムは、図2に例示される車両100の右後部RBに搭載される。右後部RBは、車両100の左右方向における中央よりも右側、かつ車両100の前後方向における中央よりも後側に位置する領域である。右後センサシステムの基本的な構成は、上述の左後センサシステムと左右対称でありうる。
 図4は、第三実施形態に係る左前センサシステム30の構成を例示している。左前センサシステム30は、図2に例示される車両100の左前部LFに配置される。第一実施形態に係る左前センサシステム10のものと実質的に同じ構成要素については、同一の参照符号を付与し、繰り返しとなる説明は省略する。
 左前センサシステム30は、LiDARセンサユニット34を備えている。LiDARセンサユニット34は、収容室13内に配置されている。
 LiDARセンサユニット34は、発光素子340を備えている。発光素子340は、車両100の外部へ向けて検出光L0を出射する。検出光L0としては、例えば波長905nmの赤外光が使用されうる。発光素子340としては、レーザダイオードや発光ダイオードなどの半導体発光素子が使用されうる。
 左前センサシステム30は、走査機構35を備えている。走査機構35は、検出光L0出射方向を車両100の上下方向に対応する向きへ変更する。これにより、車両100の外部に規定される検出領域が、車両100の上下方向に対応する向きに走査される。
 走査機構35は、様々な周知の手法により実現されうる。例えば、発光素子340を支持する支持体をMEMS機構によって変位させることにより、検出光L0の出射方向が直接的に変更されうる。あるいは、固定された発光素子340から出射された検出光L0を、ポリゴンミラーやロータリーブレードのような回転光学系で反射することによって、検出光L0の出射方向が間接的に変更されうる。
 左前センサシステム30は、光学素子36を備えている。光学素子36は、収容室13内において、透光カバー12と発光素子340の間に配置されている。光学素子36は、検出光L0の通過を許容している。光学素子36の例としては、レンズ、プリズム、およびミラーの少なくとも一つが挙げられる。
 左前センサシステム30は、駆動機構37を備えている。駆動機構37は、光学素子36を変位させることにより、光学素子36を通過した検出光L0の進行方向を、車両100の上下方向に対応する向きに変更できる。ここで用いられる「変位」という語は、位置と姿勢の少なくとも一方の変化を意味する。駆動機構37は、周知のアクチュエータなどによって構成されうる。
 左前センサシステム30は、プロセッサ38を備えている。プロセッサ38は、発光素子340に制御信号を入力することにより、発光素子340に検出光L0を出射させる。
 発光素子340から出射された検出光L0は、車両の外部に位置する物体により反射され、反射光として戻ってくる。反射光は、不図示の受光素子に入射する。受光素子は、入射光量に応じた受光信号を出力するように構成される。受光素子としては、フォトダイオード、フォトトランジスタ、フォトレジスタなどが使用されうる。
 プロセッサ38は、受光信号を受信する。プロセッサ38は、受光信号に基づいて、車両100の外部の情報を検出する。例えば、プロセッサ38は、ある方向へ検出光L0を出射したタイミングから反射光を検出するまでの時間に基づいて、反射光に関連付けられた物体までの距離を取得できる。また、そのような距離データを検出光L0の出射方向と関連付けて集積することにより、反射光に関連付けられた物体の形状に係る情報を取得できる。
 これに加えてあるいは代えて、プロセッサ38は、検出光L0と反射光の光量の相違に基づいて、反射光に関連付けられた物体の材質などの属性に係る情報を取得できる。光量の相違に係るデータを、検出光L0の出射方向と関連付けて集積することにより、反射光に関連付けられた物体の表面状態に係る情報を取得できる。
 加えて、プロセッサ38は、走査機構35と駆動機構37のそれぞれに制御信号を入力し、両者の連動を実現する。具体的には、プロセッサ38は、図中に実線で示される位置に光学素子36を配置させるように駆動機構37を制御し、この状態で検出光L0による走査を走査機構35に実行させる。この動作を第一走査と称する。第一走査が行なわれている間の検出光L0は、図4に実線で例示されている。
 第一走査が終了すると、プロセッサ38は、図中に破線で示される位置に光学素子36を配置させるように駆動機構37を制御し、この状態で検出光L0による走査を走査機構35に実行させる。この動作を第二走査と称する。第二走査が行なわれている間の検出光L0の光路は、図4に破線で例示されている。本例においては、第二走査時における検出光L0は、第一走査時における検出光L0よりも下方へ向かって進行する。
 プロセッサ38は、上述の第一走査と第二走査が交互に実行されるように、走査機構35と駆動機構37を制御する。すなわち、駆動機構37による検出光L0の進行方向の変更が、走査機構35の走査周期ごとになされる。
 図4に例示される例においては、第一走査時に出射される検出光L0によっては、物体Tの存在を検出できない。しかしながら、第二走査時に出射される検出光L0によっては、物体Tの存在を検出できる。
 したがって、本実施形態の構成によれば、走査機構35の走査周期ごとに、車両100の上下方向に対応する向きに検出光L0の進行方向が変化するので、同方向における情報検出の可能性が高まる。すなわち、少なくとも一本の検出光L0を用いつつも、車両100の上下方向に対応する向きの実質的な情報検出分解能を高めることができる。よって、比較的遠方においても、車両100の上下方向に対応する向きの寸法が比較的小さな物体(路上の障害物など)の存在を検出できる。
 プロセッサ38は、図示しない車速センサから車両100の速度を示す情報を取得しうる。この場合、プロセッサ38は、車両100の速度に応じて、駆動機構37による検出光L0の進行方向の変化量Δzを変更しうる。具体的には、プロセッサ38は、車両100の速度が高いほど変化量Δzが小さくなるように、駆動機構37を制御する。
 車速が高いほど、遠方に位置する路上の障害物などの物体をより早く検出することが求められる。上記のような構成によれば、車速が高いほど検出光L0による車両100の上下方向に対応する向きの情報検出分解能が高められるので、当該要求に応えることができる。
 上記のようなプロセッサ38の機能は、汎用メモリと協働して動作する汎用マイクロプロセッサにより実現されてもよいし、マイクロコントローラ、FPGA、ASICなどの専用集積回路によって実現されてもよい。
 プロセッサ38は、車両における任意の位置に配置されうる。プロセッサ38は、車両100における中央制御処理を担うメインECUの一部として提供されてもよいし、メインECUとLiDARセンサユニット34の間に介在するサブECUの一部として提供されてもよい。あるいは、プロセッサ38は、LiDARセンサユニット34に内蔵されてもよい。
 図2に例示される車両100の右前部RFには、図4に例示される左前センサシステム30と左右対称の構成を有する右前センサシステムが搭載されうる。右前部RFは、車両100の左右方向における中央よりも右側、かつ車両100の前後方向における中央よりも前側に位置する領域である。
 左前センサシステム30の構成は、左後センサシステムにも適用可能である。左後センサシステムは、図2に例示される車両100の左後部LBに搭載される。左後部LBは、車両100の左右方向における中央よりも左側、かつ車両100の前後方向における中央よりも後側に位置する領域である。左後センサシステムの基本的な構成は、左前センサシステム30と前後対称でありうる。
 左前センサシステム30の構成は、右後センサシステムにも適用可能である。右後センサシステムは、図2に例示される車両100の右後部RBに搭載される。右後部RBは、車両100の左右方向における中央よりも右側、かつ車両100の前後方向における中央よりも後側に位置する領域である。右後センサシステムの基本的な構成は、上述の左後センサシステムと左右対称でありうる。
 図5は、第四実施形態に係る左前センサシステム40の構成を例示している。左前センサシステム40は、図2に例示される車両100の左前部LFに配置される。第一実施形態に係る左前センサシステム10のものと実質的に同じ構成要素については、同一の参照符号を付与し、繰り返しとなる説明は省略する。
 左前センサシステム40は、LiDARセンサユニット44を備えている。LiDARセンサユニット44は、収容室13内に配置されている。
 LiDARセンサユニット44は、発光素子440を備えている。発光素子440は、車両100の外部へ向けて検出光L0を出射する。検出光L0としては、例えば波長905nmの赤外光が使用されうる。発光素子440としては、レーザダイオードや発光ダイオードなどの半導体発光素子が使用されうる。
 左前センサシステム40は、走査機構45を備えている。走査機構45は、検出光L0出射方向を車両100の上下方向に対応する向きへ変更する。これにより、車両100の外部に規定される検出領域が、車両100の上下方向に対応する向きに走査される。
 走査機構45は、様々な周知の手法により実現されうる。例えば、発光素子440を支持する支持体をMEMS機構によって変位させることにより、検出光L0の出射方向が直接的に変更されうる。あるいは、固定された発光素子440から出射された検出光L0を、ポリゴンミラーやロータリーブレードのような回転光学系で反射することによって、検出光L0の出射方向が間接的に変更されうる。
 左前センサシステム40は、プロセッサ46を備えている。プロセッサ46は、発光素子440に制御信号を入力することにより、発光素子440に検出光L0を出射させる。
 発光素子440から出射された検出光L0は、車両の外部に位置する物体により反射され、反射光として戻ってくる。反射光は、不図示の受光素子に入射する。受光素子は、入射光量に応じた受光信号を出力するように構成される。受光素子としては、フォトダイオード、フォトトランジスタ、フォトレジスタなどが使用されうる。
 プロセッサ46は、受光信号を受信する。プロセッサ46は、受光信号に基づいて、車両100の外部の情報を検出する。例えば、プロセッサ46は、ある方向へ検出光L0を出射したタイミングから反射光を検出するまでの時間に基づいて、反射光に関連付けられた物体までの距離を取得できる。また、そのような距離データを検出光L0の出射方向と関連付けて集積することにより、反射光に関連付けられた物体の形状に係る情報を取得できる。
 これに加えてあるいは代えて、プロセッサ46は、検出光L0と反射光の光量の相違に基づいて、反射光に関連付けられた物体の材質などの属性に係る情報を取得できる。光量の相違に係るデータを、検出光L0の出射方向と関連付けて集積することにより、反射光に関連付けられた物体の表面状態に係る情報を取得できる。
 図5においては、走査機構45による一度の走査中に検出光L0がとりうる全ての光路が例示されている。各検出光L0は、発光素子440にプロセッサ46から制御信号が入力されたタイミングで出射される。同図から明らかなように、走査機構45による一度の走査中に、車両100の上下方向に対応する向きの情報検出分解能が変化している。具体的には、比較的下方の検出領域の特定の距離だけ離れた位置における検出光L0同士の上下方向の間隔I1は、比較的上方の検出領域の当該位置における検出光L0同士の上下方向の間隔I2よりも狭い。すなわち、比較的下方の検出領域における上下方向の情報検出分解能が高められている。
 このような動作を実現するために、プロセッサ46は、発光素子440の発光周波数と走査機構45による走査速度の少なくとも一方を変更するように構成されている。
 一例として、走査機構45による検出光L0の走査速度は一定に維持されつつ、発光素子440の発光周波数が変更されうる。具体的には、検出光L0が比較的下方へ向かって出射される場合に、検出光L0が比較的上方へ向かって出射される場合よりも、プロセッサ46から発光素子440へ制御信号が入力される時間間隔が短くされる(すなわち、発光素子440の発光周波数が高くなる)。これにより、発光素子440から検出光L0が出射される単位時間当たりの回数が増える。結果として、比較的下方の検出領域における上下方向の情報検出分解能が高められる。
 別例として、発光素子440の発光周波数は一定に維持されつつ、走査機構45による検出光L0の走査速度が変更されうる。具体的には、検出光L0が比較的下方へ向かって出射される場合に、検出光L0が比較的上方へ向かって出射される場合よりも、走査機構45による検出光L0の走査速度が低くされる。この手法によっても、発光素子440から検出光L0が出射される単位時間当たりの回数が増える。結果として、比較的下方の検出領域における上下方向の情報検出分解能が高められる。
 図5に例示される例において、物体Tの車両100の上下方向に対応する向きの寸法は、特定の距離だけ離れた位置における検出光L0同士の上下方向の間隔I2よりも小さく、間隔I1よりも大きい。したがって、物体Tは、比較的上方へ向けて出射される検出光L0によっては検出されないが、比較的下方へ向けて出射される検出光L0によっては検出されうる。
 本実施形態の構成によれば、走査機構45による検出光L0の走査範囲内で、車両100の上下方向に対応する向きの情報検出分解能を変化させることができる。すなわち、少なくとも一本の検出光L0を用いつつ、必要に応じて車両100の上下方向に対応する向きの情報検出分解能を高めることができる。
 図5に例示される例においては、比較的下方へ向けて出射される検出光L0による車両100の上下方向に対応する向きの情報検出分解能が高められている。この場合、例えば路上の障害物などの物体をより正確に検出できる。しかしながら、比較的上方の空間における物体のより正確な検出が求められる場合、比較的上方に向けて出射される検出光L0による車両100の上下方向に対応する向きの情報検出分解能が高められうる。
 プロセッサ46は、図示しない車速センサから車両100の速度を示す情報を取得しうる。この場合、プロセッサ46は、車両100の速度に応じて、発光素子440の発光周波数と走査機構45による走査速度の少なくとも一方を変更しうる。
 具体的には、プロセッサ46は、車両100の速度が高いほど発光周波数が高くなるように、発光素子440を制御する。これに加えてあるいは代えて、プロセッサ46は、車両100の速度が高いほど走査速度が遅くなるように、走査機構45を制御する。
 車速が高いほど、遠方に位置する路上の障害物などの物体をより早く検出することが求められる。上記のような構成によれば、車速が高いほど検出光L0による車両100の上下方向に対応する向きの情報検出分解能が高められるので、当該要求に応えることができる。
 上記のようなプロセッサ46の機能は、汎用メモリと協働して動作する汎用マイクロプロセッサにより実現されてもよいし、マイクロコントローラ、FPGA、ASICなどの専用集積回路によって実現されてもよい。
 プロセッサ46は、車両における任意の位置に配置されうる。プロセッサ46は、車両100における中央制御処理を担うメインECUの一部として提供されてもよいし、メインECUとLiDARセンサユニット44の間に介在するサブECUの一部として提供されてもよい。あるいは、プロセッサ46は、LiDARセンサユニット44に内蔵されてもよい。
 図2に例示される車両100の右前部RFには、図5に例示される左前センサシステム40と左右対称の構成を有する右前センサシステムが搭載されうる。右前部RFは、車両100の左右方向における中央よりも右側、かつ車両100の前後方向における中央よりも前側に位置する領域である。
 左前センサシステム40の構成は、左後センサシステムにも適用可能である。左後センサシステムは、図2に例示される車両100の左後部LBに搭載される。左後部LBは、車両100の左右方向における中央よりも左側、かつ車両100の前後方向における中央よりも後側に位置する領域である。左後センサシステムの基本的な構成は、左前センサシステム40と前後対称でありうる。
 左前センサシステム40の構成は、右後センサシステムにも適用可能である。右後センサシステムは、図2に例示される車両100の右後部RBに搭載される。右後部RBは、車両100の左右方向における中央よりも右側、かつ車両100の前後方向における中央よりも後側に位置する領域である。右後センサシステムの基本的な構成は、上述の左後センサシステムと左右対称でありうる。
 上記の各実施形態は、本開示の理解を容易にするための例示にすぎない。上記の各実施形態に係る構成は、本開示の趣旨を逸脱しなければ、適宜に変更・改良されうる。
 LiDARセンサユニット14、LiDARセンサユニット34、およびLiDARセンサユニット44の少なくとも一つは、発光素子、受光素子、および走査機構を備える適宜のセンサユニットにより置き換えられうる。そのようなセンサユニットとしては、TOF(Time of Flight)カメラユニットやミリ波センサユニットが挙げられる。発光素子により出射される検出光の波長、および受光素子が感度を有する波長は、使用される検出手法に応じて適宜に定められうる。
 本出願の記載の一部を構成するものとして、2018年8月7日に提出された日本国特許出願2018-148280号の内容が援用される。

Claims (8)

  1.  車両に搭載されるセンサシステムであって、
     前記車両の外部へ向けて第一検出光を出射する第一発光素子と、
     前記車両の外部へ向けて第二検出光を出射する第二発光素子と、
     前記第一検出光と前記第二検出光の通過を許容する光学素子と、
    を備えており、
     前記第一発光素子と前記第二発光素子は、前記車両の上下方向に対応する向きに配列されており、
     前記光学素子は、前記通過に伴って前記第一検出光と前記第二検出光の前記上下方向の間隔を狭めるように構成されている、
    センサシステム。
  2.  車両に搭載されるセンサシステムであって、
     前記車両の外部へ向けて第一検出光を出射する第一発光素子と、
     前記車両の外部へ向けて第二検出光を出射する第二発光素子と、
     前記第一検出光の通過を許容する第一光学素子と、
     前記第二検出光の通過を許容する第二光学素子と、
     前記車両の上下方向と交差する向きに前記第一検出光と前記第二検出光の出射方向を変化させる走査機構と、
     前記走査機構の走査周期ごとに前記第一光学素子と前記第二光学素子を変位させることにより、前記第一光学素子と前記第二光学素子を通過した前記第一検出光と前記第二検出光の進行方向を前記上下方向に対応する向きに変化させる駆動機構と、
    を備えている、
    センサシステム。
  3.  車両に搭載されるセンサシステムであって、
     前記車両の外部へ向けて検出光を出射する発光素子と、
     前記検出光の通過を許容する光学素子と、
     前記車両の上下方向と交差する向きに前記検出光の出射方向を変化させる走査機構と、
     前記走査機構の走査周期ごとに前記光学素子を変位させることにより、前記光学素子を通過した前記検出光の進行方向を前記上下方向に対応する向きに変化させる駆動機構と、
    を備えている、
    センサシステム。
  4.  前記駆動機構による前記進行方向の変化量は、前記車両の速度に応じて変化する、
    請求項3に記載のセンサシステム。
  5.  車両に搭載されるセンサシステムであって、
     前記車両の外部へ向けて検出光を出射する発光素子と、
     前記車両の上下方向に対応する向きに前記検出光の出射方向を変化させる走査機構と、
     前記検出光の出射方向に応じて、前記発光素子の発光周波数と前記走査機構による走査速度の少なくとも一方を変更するプロセッサと、
    を備えている、
    センサシステム。
  6.  前記プロセッサは、前記車両の速度に応じて前記検出光の発光周波数と前記走査機構による走査速度の少なくとも一方を変更する、
    請求項5に記載のセンサシステム。
  7.  前記第一発光素子と前記第二発光素子は、LiDARセンサユニット、TOFカメラユニット、ミリ波センサユニットのいずれかの一部である、
    請求項1または2に記載のセンサシステム。
  8.  前記発光素子は、LiDARセンサユニット、TOFカメラユニット、ミリ波センサユニットのいずれかの一部である、
    請求項3から6のいずれか一項に記載のセンサシステム。
PCT/JP2019/030850 2018-08-07 2019-08-06 センサシステム WO2020032009A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020535781A JPWO2020032009A1 (ja) 2018-08-07 2019-08-06 センサシステム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018148280 2018-08-07
JP2018-148280 2018-08-07

Publications (1)

Publication Number Publication Date
WO2020032009A1 true WO2020032009A1 (ja) 2020-02-13

Family

ID=69413509

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/030850 WO2020032009A1 (ja) 2018-08-07 2019-08-06 センサシステム

Country Status (2)

Country Link
JP (1) JPWO2020032009A1 (ja)
WO (1) WO2020032009A1 (ja)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58192015A (ja) * 1982-05-04 1983-11-09 Toshiba Corp 複数光束走査装置
JP2006030147A (ja) * 2004-07-22 2006-02-02 Hitachi Ltd 環境認識システムおよび移動機構
JP2006329971A (ja) * 2005-04-27 2006-12-07 Sanyo Electric Co Ltd 検出装置
JP2007214564A (ja) * 2006-02-06 2007-08-23 Avago Technologies General Ip (Singapore) Private Ltd 面発光レーザ(vcsel)アレイ・レーザスキャナ
JP2008096112A (ja) * 2006-10-05 2008-04-24 Denso Corp レーダ装置
JP2013105120A (ja) * 2011-11-16 2013-05-30 Ricoh Co Ltd 光走査装置
JP2016176721A (ja) * 2015-03-18 2016-10-06 株式会社リコー 物体検出装置、センシング装置、及び移動体装置
WO2017183530A1 (ja) * 2016-04-21 2017-10-26 コニカミノルタ株式会社 対象物検出装置
WO2018031266A1 (en) * 2016-08-12 2018-02-15 Microvision, Inc. Devices and methods for adjustable resolution depth mapping

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002207183A (ja) * 2001-01-10 2002-07-26 Asahi Optical Co Ltd マルチビーム光源走査装置
JP2004013021A (ja) * 2002-06-10 2004-01-15 Ricoh Co Ltd 光源装置及び光源モジュール及び光走査装置並びに画像形成装置
JP4289288B2 (ja) * 2004-12-03 2009-07-01 セイコーエプソン株式会社 光源装置及び画像表示装置

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58192015A (ja) * 1982-05-04 1983-11-09 Toshiba Corp 複数光束走査装置
JP2006030147A (ja) * 2004-07-22 2006-02-02 Hitachi Ltd 環境認識システムおよび移動機構
JP2006329971A (ja) * 2005-04-27 2006-12-07 Sanyo Electric Co Ltd 検出装置
JP2007214564A (ja) * 2006-02-06 2007-08-23 Avago Technologies General Ip (Singapore) Private Ltd 面発光レーザ(vcsel)アレイ・レーザスキャナ
JP2008096112A (ja) * 2006-10-05 2008-04-24 Denso Corp レーダ装置
JP2013105120A (ja) * 2011-11-16 2013-05-30 Ricoh Co Ltd 光走査装置
JP2016176721A (ja) * 2015-03-18 2016-10-06 株式会社リコー 物体検出装置、センシング装置、及び移動体装置
WO2017183530A1 (ja) * 2016-04-21 2017-10-26 コニカミノルタ株式会社 対象物検出装置
WO2018031266A1 (en) * 2016-08-12 2018-02-15 Microvision, Inc. Devices and methods for adjustable resolution depth mapping

Also Published As

Publication number Publication date
JPWO2020032009A1 (ja) 2021-09-09

Similar Documents

Publication Publication Date Title
JP6554246B2 (ja) センサシステム
KR101551667B1 (ko) 라이다 센서 시스템
EP2808700B1 (en) Drive assist device, and vehicle using drive assist device
JP6737296B2 (ja) 対象物検出装置
EP3584117A1 (en) Vehicle lamp tool and method for controlling vehicle lamp tool
JP2016206084A (ja) 車両用障害物検出装置
KR102252942B1 (ko) 광대역 레이저 펄스를 이용해서 물체를 탐지하기 위한 방법 및 장치
US20060092004A1 (en) Optical sensor
WO2019172117A1 (ja) センサシステム、および画像データ生成装置
WO2020032009A1 (ja) センサシステム
JP7379339B2 (ja) センサシステム
CN112213854B (zh) 光学装置、车载系统和移动装置
WO2020017379A1 (ja) 測距装置
WO2020022206A1 (ja) 測距装置
WO2020170678A1 (ja) 車両用センシングシステム及び車両
WO2020022185A1 (ja) センサシステム
US20220026533A1 (en) Sensor system
JP2020020709A (ja) センサシステム
US11624806B2 (en) Systems and apparatuses for mitigating LiDAR noise, vibration, and harshness
JP7070355B2 (ja) 車両用前照灯
US20220373650A1 (en) Ranging device
US11871130B2 (en) Compact perception device
US20230305124A1 (en) Methods and systems of window blockage detection for lidar
WO2021065436A1 (ja) 発光装置、および受光装置
CN117355766A (zh) 用于检测物体的检测装置的具有射束移位装置的发射装置、相应的检测装置、车辆和操作发射装置的方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19848094

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020535781

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19848094

Country of ref document: EP

Kind code of ref document: A1