WO2020110936A1 - センサシステム - Google Patents

センサシステム Download PDF

Info

Publication number
WO2020110936A1
WO2020110936A1 PCT/JP2019/045786 JP2019045786W WO2020110936A1 WO 2020110936 A1 WO2020110936 A1 WO 2020110936A1 JP 2019045786 W JP2019045786 W JP 2019045786W WO 2020110936 A1 WO2020110936 A1 WO 2020110936A1
Authority
WO
WIPO (PCT)
Prior art keywords
sensor unit
lamp housing
vehicle
sensor
actuator
Prior art date
Application number
PCT/JP2019/045786
Other languages
English (en)
French (fr)
Inventor
宙 井上
Original Assignee
株式会社小糸製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社小糸製作所 filed Critical 株式会社小糸製作所
Priority to CN201980078327.1A priority Critical patent/CN113167889A/zh
Priority to US17/296,800 priority patent/US20220026533A1/en
Priority to EP19891437.6A priority patent/EP3889642A4/en
Priority to JP2020557665A priority patent/JP7356451B2/ja
Publication of WO2020110936A1 publication Critical patent/WO2020110936A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/87Combinations of radar systems, e.g. primary radar and secondary radar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4811Constructional features, e.g. arrangements of optical elements common to transmitter and receiver
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9323Alternative operation using light waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93271Sensor installation details in the front of the vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93272Sensor installation details in the back of the vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93275Sensor installation details in the bumper area
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93277Sensor installation details in the lights

Definitions

  • the present disclosure relates to a sensor system mounted on a vehicle.
  • Patent Document 1 discloses a radar as such a sensor unit.
  • a plurality of radars are mounted on a vehicle in order to widen a detectable area of information.
  • the plurality of radars are fixed to a lamp chamber of a lamp device that illuminates the outside of the vehicle, an inside of a front bumper, a door mirror, and the like.
  • driving support used in the present specification means a control process for at least partially performing at least one of driving operation (steering wheel operation, acceleration, deceleration, etc.), monitoring of traveling environment, and backup of driving operation. To do. That is, it is meant to include partial driving support such as a collision damage reduction braking function and a lane keep assist function to fully automatic driving operation.
  • One aspect for meeting the above requirements is a sensor system mounted on a vehicle, A sensor unit arranged outside the lamp housing in the vehicle to detect information outside the vehicle; An actuator capable of changing at least one of a position and an attitude of the sensor unit with respect to the lamp housing, A processor for controlling the operation of the actuator, Is equipped with.
  • the restrictions due to the layout can be reduced.
  • the degree of freedom of changing at least one of the attitude and the position of the sensor unit is increased, and it becomes easy to move the area where information outside the vehicle can be detected to a desired position. Therefore, the information detection capability of the sensor system mounted on the vehicle can be improved.
  • the sensor system described above may be configured as follows. Changing the position of the sensor unit involves translation.
  • the position of the sensor unit with respect to the lamp housing can be changed with an actuator having a relatively simple configuration.
  • the sensor system described above may be configured as follows.
  • the lamp housing includes a left lamp housing and a right lamp housing,
  • the sensor unit is A first sensor unit arranged to the right of the left lamp housing,
  • a second sensor unit arranged to the left of the right lamp housing, Is included.
  • the lamp housing includes a left lamp housing and a right lamp housing,
  • the sensor unit is A first sensor unit arranged to the left of the left lamp housing, A second sensor unit arranged to the right of the right lamp housing, Is included.
  • the sensor unit is A first sensor unit arranged to the left of the lamp housing, A second sensor unit arranged to the right of the lamp housing, Is included.
  • the sensor system described above may be configured as follows.
  • the processor controls the operation of the actuator so as to widen the range in which the information can be detected by either the first sensor unit or the second sensor unit.
  • the sensor system described above may be configured as follows.
  • the processor controls the operation of the actuator so as to change at least one of a position and an area of a region where the information can be detected by both the first sensor unit and the second sensor unit.
  • sensor unit used in the present specification means a constituent unit of a component that has a desired information detection function and can be distributed by itself.
  • FIG. 1 illustrates a configuration of a sensor system according to an embodiment.
  • 2 shows an example of the arrangement of the sensor units in FIG. 3 shows an example of the operation of the sensor unit of FIG. 3 shows an example of the operation of the sensor unit of FIG. 5 shows another example of the operation of the sensor unit of FIG. 9 shows another example of the operation of the sensor unit of FIG. 9 shows another example of the operation of the sensor unit of FIG. 9 shows another example of the operation of the sensor unit of FIG. 9 shows another example of the operation of the sensor unit of FIG. 9 shows another example of the operation of the sensor unit of FIG. 9 shows another example of the operation of the sensor unit of FIG. 9 shows another example of the operation of the sensor unit of FIG. 9 shows another example of the operation of the sensor unit of FIG. 9 shows another example of the operation of the sensor unit of FIG. 9 shows another example of the operation of the sensor unit of FIG. 9 shows another example of the operation of the sensor unit of FIG. 9 shows another example of the operation of the sensor unit of FIG. 9 shows another example of the operation of the sensor
  • FIG. 9 shows another example of the operation of the sensor unit of FIG. 9 shows another example of the operation of the sensor unit of FIG. 9 shows another example of the operation of the sensor unit of FIG. 9 shows another example of the operation of the sensor unit of FIG. 9 shows another example of the operation of the sensor unit of FIG. 9 shows another example of the operation of the sensor unit of FIG. 9 shows another example of the operation of the sensor unit of FIG. 9 shows another example of the operation of the sensor unit of FIG. 9 shows another example of the operation of the sensor unit of FIG. 9 shows another example of the operation of the sensor unit of FIG. 9 shows another example of the operation of the sensor unit of FIG. 9 shows another example of the operation of the sensor unit of FIG. 9 shows another example of the operation of the sensor unit of FIG. 9 shows another example of the operation of the sensor unit of FIG. 9 shows another example of the operation of the sensor unit of FIG. 9 shows another example of the operation of the sensor unit of FIG. 9 shows another example of the operation of the sensor unit of FIG. 9 shows another example of the operation of the sensor unit of FIG.
  • FIG. 9 shows another example of the operation of the sensor unit of FIG. 9 shows another example of the operation of the sensor unit of FIG. 9 shows another example of the operation of the sensor unit of FIG. 9 shows another example of the operation of the sensor unit of FIG. 9 shows another example of the operation of the sensor unit of FIG. 9 shows another example of the operation of the sensor unit of FIG. 3 shows another example of the arrangement of the sensor units in FIG. 9 shows an example of the operation of the sensor unit of FIG. 9 shows an example of the operation of the sensor unit of FIG. 3 shows another example of the arrangement of the sensor units in FIG. 3 shows another example of the arrangement of the sensor units in FIG. 12 shows an example of the operation of the sensor unit shown in FIG. 12 shows an example of the operation of the sensor unit shown in FIG.
  • the arrow F indicates the forward direction of the illustrated structure.
  • Arrow B indicates the rearward direction of the illustrated structure.
  • the arrow U indicates the upward direction of the illustrated structure.
  • the arrow D indicates the downward direction of the illustrated structure.
  • the arrow L indicates the left direction of the illustrated structure.
  • the arrow R indicates the right direction of the illustrated structure. “Left” and “right” used in the following description indicate the left and right directions as viewed from the driver's seat.
  • FIG. 1 schematically illustrates the configuration of a sensor system 1 according to an embodiment.
  • the sensor system 1 is mounted on the vehicle 100 illustrated in FIG.
  • the sensor system 1 includes a sensor unit 2.
  • the sensor unit 2 is a device for detecting information outside the vehicle 100.
  • the sensor unit 2 is configured to output a detection signal SD according to the detected information.
  • the sensor unit 2 may be, for example, a LiDAR (Light Detection and Ranging) sensor unit.
  • the LiDAR sensor unit includes a configuration that emits detection light toward a detection region outside the vehicle 100, and a configuration that detects return light (not shown) as a result of the detection light being reflected by an object existing in the detection region. ing. Infrared light having a wavelength of 905 nm can be used as the detection light, for example.
  • the LiDAR sensor unit may include a scanning mechanism (not shown) that changes the emission direction of the detection light. Thereby, the detection area defined outside the vehicle 100 can be scanned by the detection light.
  • the LiDAR sensor unit can acquire the distance to the object associated with the return light, for example, based on the time from when the detection light is emitted in a certain direction to when the return light is detected. Further, by accumulating such distance data in association with the detection position, it is possible to acquire information relating to the shape of the object associated with the return light. In addition to or instead of this, it is possible to acquire information related to attributes such as the material of the object associated with the return light based on the difference in the waveforms of the emitted light and the return light.
  • the sensor unit 2 can be, for example, a camera unit.
  • the camera unit includes an image sensor that acquires an image of the outside of the vehicle 100.
  • the wavelength of light to which the image sensor has sensitivity may be visible light or infrared light.
  • the camera unit may be a TOF (Time of Flight) camera unit that also acquires distance information to a subject for each pixel.
  • TOF Time of Flight
  • the sensor unit 2 can be, for example, a millimeter wave radar unit.
  • the millimeter wave radar unit has a configuration for transmitting a millimeter wave and a configuration for receiving a reflected wave as a result of the millimeter wave being reflected by an object existing outside the vehicle 100.
  • millimeter wave frequencies include 24 GHz, 26 GHz, 76 GHz, and 79 GHz.
  • the millimeter wave radar unit can acquire the distance to the object associated with the reflected wave, for example, based on the time from the timing of transmitting the millimeter wave in a certain direction to the reception of the reflected wave. Further, by accumulating such distance data in association with the detection position, it is possible to acquire information related to the movement of the object associated with the reflected wave.
  • the vehicle 100 includes a plurality of lamp housings 101.
  • Each lamp housing 101 houses a lamp unit.
  • the lamp unit is a device that emits visible light to the outside of the vehicle 100. Examples of the lamp unit include a headlight, a turn signal light, a marker light, a tail light, a brake light, and a fog light.
  • the sensor unit 2 is arranged outside each lamp housing 101. In the example shown in FIG. 2, the sensor unit 2 is arranged at the front end portion of the vehicle 100 in the center region of the vehicle 100 in the left-right direction.
  • the sensor system 1 includes an actuator 3.
  • the actuator 3 is configured so that the attitude of the sensor unit 2 with respect to the lamp housing 101 can be changed.
  • the actuator 3 includes a mechanism for rotating the sensor unit 2 about the yaw axis AY, a mechanism for rotating the sensor unit 2 about the pitch axis AP, and a mechanism for rotating the sensor unit 2 about the roll axis AR. It may have at least one.
  • a well-known configuration can be applied to each mechanism, and detailed description thereof will be omitted.
  • the sensor system 1 includes a processor 4.
  • the processor 4 can be arranged at an appropriate position in the vehicle 100.
  • the processor 4 may be provided as a general-purpose microprocessor that operates in cooperation with a general-purpose memory, or may be provided as part of a dedicated integrated circuit device. Examples of the general-purpose microprocessor may include a CPU, MPU, GPU and the like. A RAM or a ROM can be exemplified as the general-purpose memory.
  • the general-purpose microprocessor may be a part of another control device (ECU or the like) mounted on the vehicle 100. As the dedicated integrated circuit element, a microcontroller, ASIC, FPGA, etc. can be exemplified.
  • the processor 4 is configured to be able to output a control signal SC that controls the operation of the actuator 3.
  • the control signal SC may be output based on a command C from another control device, or may be output based on a determination made by the processor 4 itself.
  • the detection signal SD from the sensor unit 2 may be used for such a determination.
  • An appropriate signal conversion circuit may be provided between the processor 4 and the actuator 3 according to the specifications of the actuator 3.
  • FIG. 3A illustrates the initial state of the sensor unit 2.
  • the sensor unit 2 can detect information in the detection area DA in front of the vehicle 100.
  • a person walking in front of the vehicle 100 is located within the detection area DA.
  • FIG. 3B exemplifies a state in which the sensor unit 2 is rotated counterclockwise in FIG. 3 around the pitch axis AP. That is, the attitude of the sensor unit 2 with respect to the lamp housing 101 is changed.
  • the changing operation is realized by the actuator 3 having a mechanism for rotating the sensor unit 2 about the pitch axis AP based on the control signal SC from the processor 4.
  • a dog prone in front of the vehicle 100 is located within the detection area DA.
  • the position of this dog corresponds to the blind spot of the detection area DA in the initial state shown in FIG. 3A. That is, by changing the posture of the sensor unit 2 by the actuator 3, the position of the detection area DA is moved, and it is possible to detect the dog located in the blind spot in the initial state.
  • the sensor unit 2 is arranged outside the lamp housing 101. Therefore, with respect to the change of the posture of the sensor unit 2, it is possible to reduce restrictions on the shape of the lamp housing 101 itself and the layout of the lamp units housed in the lamp housing 101. In other words, the degree of freedom in changing the posture of the sensor unit 2 is increased, and it becomes easy to move the detection area DA to a desired position. Therefore, the information detection capability of the sensor system 1 mounted on the vehicle 100 can be improved.
  • the actuator 3 can change the position of the sensor unit 2 with respect to the lamp housing 101. For example, the actuator 3 translates the sensor unit 2 along the pitch axis AP, the sensor unit 2 translates along the yaw axis AY, and the sensor unit 2 translates along the roll axis AR. At least one of the mechanisms may be provided. A well-known configuration can be applied to each mechanism, and detailed description thereof will be omitted.
  • FIG. 4 shows an example of the operation of the sensor system 1 configured as described above.
  • the detection area DA of the sensor unit 2 is at the position shown by the alternate long and short dash line.
  • the actuator 3 translates the sensor unit 2 along the pitch axis AP based on the control signal SC from the processor 4
  • the detection area DA translates in the left-right direction of the vehicle 100.
  • the actuator 3 translates the sensor unit 2 along the yaw axis AY based on the control signal SC from the processor 4
  • the detection area DA translates in the vertical direction of the vehicle 100.
  • the sensor unit 2 Since the sensor unit 2 is arranged outside the lamp housing 101, it is possible to reduce restrictions on the position of the sensor unit 2 due to the shape of the lamp housing 101 itself and the layout of the lamp unit housed in the lamp housing 101. In other words, the degree of freedom in changing the position of the sensor unit 2 is increased, and it becomes easy to move the detection area DA to a desired position. Therefore, the information detection capability of the sensor system 1 mounted on the vehicle 100 can be improved.
  • the change of the position of the sensor unit 2 with respect to the lamp housing 101 involves a parallel movement
  • the change of the position can be realized by an actuator having a relatively simple structure.
  • the sensor unit 2 can also be arranged at the rear end portion of the vehicle 100 in the central region in the left-right direction of the vehicle 100.
  • the actuator 3 and the processor 4 can be arranged at appropriate positions according to the position of the sensor unit 2.
  • the processor 4 may be provided as an element independent of the processor 4 associated with the sensor unit 2 arranged at the front end of the vehicle 100, or may be associated with the sensor unit 2 arranged at the front end of the vehicle 100. The functions may be shared with the processor 4.
  • 5A to 5C schematically illustrate the initial positional relationship between the sensor unit 2 arranged in the front part of the vehicle 100 and the lamp housing 101.
  • 5D to 5F illustrate a state in which the sensor unit 2 is translated upward along the yaw axis AY.
  • the arrow DR indicates the detection reference direction of the sensor unit 2.
  • FIG. 5G shows an example in which the posture of the sensor unit 2 is changed from the state shown in FIG. 5D around the pitch axis AP.
  • FIG. 5H shows an example in which the posture of the sensor unit 2 is changed from the state shown in FIG. 5E around the roll axis AR.
  • FIG. 5I shows an example in which the attitude of the sensor unit 2 is changed from the state shown in FIG. 5F around the yaw axis AY.
  • 6A to 6C schematically illustrate an initial positional relationship between the sensor unit 2 arranged at the front part of the vehicle 100 and the lamp housing 101.
  • 6D to 6F exemplify a state in which the sensor unit 2 is translated forward along the roll axis AR.
  • FIG. 6G shows an example in which the posture of the sensor unit 2 is changed from the state illustrated in FIG. 6D around the pitch axis AP.
  • FIG. 6H shows an example in which the posture of the sensor unit 2 is changed from the state illustrated in FIG. 6E about the roll axis AR.
  • FIG. 6I shows an example in which the attitude of the sensor unit 2 is changed from the state illustrated in FIG. 6F around the yaw axis AY.
  • 7A to 7C schematically illustrate the initial positional relationship between the sensor unit 2 arranged in the front part of the vehicle 100 and the lamp housing 101.
  • 7D to 7F exemplify a state in which the sensor unit 2 is translated leftward along the pitch axis AP.
  • FIG. 7G shows an example in which the posture of the sensor unit 2 is changed from the state illustrated in FIG. 7D around the pitch axis AP.
  • FIG. 7H shows an example in which the posture of the sensor unit 2 is changed from the state illustrated in FIG. 7E around the roll axis AR.
  • FIG. 7I shows an example in which the posture of the sensor unit 2 is changed from the state illustrated in FIG. 7F around the yaw axis AY.
  • the sensor system 1 may include a left front sensor unit 2LF and a right front sensor unit 2RF.
  • the above description regarding the sensor unit 2 can be applied.
  • the actuator 3 includes an actuator that changes at least one of the posture and position of the left front sensor unit 2LF and an actuator that changes at least one of the posture and position of the right front sensor unit 2RF.
  • an element for controlling the actuator associated with the left front sensor unit 2LF and an element for controlling the actuator associated with the right front sensor unit 2RF may be separately provided, or both may be provided by a common element. The actuator may be controlled.
  • the front left sensor unit 2LF is arranged to the right of the front left lamp housing 101LF.
  • the front right sensor unit 2RF is arranged leftward of the front right lamp housing 101RF.
  • the front left lamp housing 101LF is an example of a left lamp housing.
  • the front right lamp housing 101RF is an example of a right lamp housing.
  • the front left sensor unit 2LF is an example of a first sensor unit.
  • the front right sensor unit 2RF is an example of a second sensor unit.
  • FIG. 9A illustrates a vehicle 100 traveling toward an intersection.
  • FIG. 9B illustrates the vehicle 100 closer to the intersection.
  • the actuator 3 rotates the front left sensor unit 2LF in the counterclockwise direction in the figure around the yaw axis AY. At least one of the parallel movement along the yaw axis AY, the parallel movement along the pitch axis AP, and the parallel movement along the roll axis AR described with reference to FIGS. 5A to 7I may be combined. As a result, the position of the front left detection area DAL with respect to the front left lamp housing 101LF is changed from the initial state.
  • the front left detection region DAL is a region in which information outside the vehicle 100 can be detected by the front left sensor unit 2LF.
  • the actuator 3 rotates the front right sensor unit 2RF clockwise around the yaw axis AY. At least one of the parallel movement along the yaw axis AY, the parallel movement along the pitch axis AP, and the parallel movement along the roll axis AR described with reference to FIGS. 5A to 7I may be combined. As a result, the position of the front right detection area DAR with respect to the front right lamp housing 101RF is changed from the initial state.
  • the front right detection area DAR is an area in which information outside the vehicle 100 can be detected by the front right sensor unit 2RF.
  • the range in which the information outside the vehicle 100 can be detected by either the left front sensor unit 2LF or the right front sensor unit 2RF is expanded compared to the initial state illustrated in FIG. 9A.
  • the detection area is expanded so as to include not only the road near the intersection but also the sidewalk.
  • each sensor unit is arranged outside the lamp housing and at least one of the posture and the position thereof is changed by the actuator 3, the change control of the position of the detection area appropriate for the situation including the above example is performed. It can be realized with a high degree of freedom.
  • FIGS. 9A and 9B can also be realized by the arrangement of the left front sensor unit 2LF and the right front sensor unit 2RF illustrated in FIG.
  • the front left sensor unit 2LF is arranged to the left of the front left lamp housing 101LF.
  • the front right sensor unit 2RF is arranged to the right of the front right lamp housing 101RF.
  • the front left lamp housing 101LF is an example of a left lamp housing.
  • the front right lamp housing 101RF is an example of a right lamp housing.
  • the front left sensor unit 2LF is an example of a first sensor unit.
  • the front right sensor unit 2RF is an example of a second sensor unit.
  • the “left lamp housing” means a lamp housing located on the left side of the right lamp housing when viewed from the inside of the vehicle 100.
  • the “right lamp housing” means a lamp housing located on the right side of the left lamp housing when viewed from the inside of the vehicle 100.
  • the left rear lamp housing 101LB is an example of the left lamp housing
  • the left front lamp housing 101LF is an example of the right lamp housing.
  • the sensor unit 2 may include a left rear sensor unit 2LB.
  • the left rear sensor unit 2LB is an example of the first sensor unit
  • the front left sensor unit 2LF is an example of the second sensor unit. The position of each detection region may be changed based on the cooperation of the two sensor units depending on the situation outside the vehicle 100.
  • the right rear lamp housing 101RB is an example of the left lamp housing
  • the left rear lamp housing 101LB is an example of the right lamp housing.
  • the sensor unit 2 may include a right rear sensor unit 2RB.
  • the right rear sensor unit 2RB is an example of the first sensor unit
  • the left rear sensor unit 2LB is an example of the second sensor unit. The position of each detection region may be changed based on the cooperation of the two sensor units depending on the situation outside the vehicle 100.
  • the right front lamp housing 101RF is an example of the left lamp housing
  • the right rear lamp housing 101RB is an example of the right lamp housing
  • the front right sensor unit 2RF is an example of the first sensor unit
  • the rear left sensor unit 2LB is an example of the second sensor unit. The position of each detection region may be changed based on the cooperation of the two sensor units depending on the situation outside the vehicle 100.
  • the sensor system 1 may include a first left front sensor unit 21LF and a second left front sensor unit 22LF.
  • the above description regarding the sensor unit 2 can be applied.
  • the actuator 3 includes an actuator that changes at least one of the posture and position of the first left front sensor unit 21LF and an actuator that changes at least one of the posture and position of the second left front sensor unit 22LF.
  • an element for controlling an actuator associated with the first left front sensor unit 21LF and an element for controlling an actuator associated with the second left front sensor unit 22LF may be separately provided or common. Both actuators may be controlled by the element of.
  • the first left front sensor unit 21LF is arranged to the left of the left front lamp housing 101LF.
  • the second left front sensor unit 22LF is arranged to the right of the left front lamp housing 101LF.
  • the first left front sensor unit 21LF is an example of the first sensor unit.
  • the second left front sensor unit 22LF is an example of the second sensor unit.
  • FIG. 12A illustrates the vehicle 100 traveling toward a curved path to the left.
  • FIG. 12B illustrates the vehicle 100 in a state of being approached by a curved road to the left.
  • the actuator 3 rotates the first left front sensor unit 21LF in the clockwise direction in the figure about the yaw axis AY. At least one of the parallel movement along the yaw axis AY, the parallel movement along the pitch axis AP, and the parallel movement along the roll axis AR described with reference to FIGS. 5A to 7I may be combined. As a result, the position of the first detection area DA1 with respect to the left front lamp housing 101LF is changed from the initial state.
  • the first detection area DA1 is an area in which information outside the vehicle 100 can be detected by the first left front sensor unit 21LF.
  • the actuator 3 rotates the second left front sensor unit 22LF in the counterclockwise direction in the figure around the yaw axis AY. At least one of the parallel movement along the yaw axis AY, the parallel movement along the pitch axis AP, and the parallel movement along the roll axis AR described with reference to FIGS. 5A to 7I may be combined. As a result, the position of the second detection area DA2 with respect to the left front lamp housing 101LF is changed from the initial state.
  • the second detection area DA2 is an area in which information outside the vehicle 100 can be detected by the second left front sensor unit 22LF.
  • the position with respect to the left front lamp housing 101LF of the area where information outside the vehicle 100 can be detected by both the first left front sensor unit 21LF and the second left front sensor unit 22LF is changed from the initial state illustrated in FIG. 12A.
  • the area where the detection areas of both sensor units overlap is an area where the detection resolution is relatively enhanced.
  • a region with high detection resolution is arranged on the sidewalk around the curved road, and the area of the region is widened.
  • each sensor unit is arranged outside the lamp housing and at least one of its posture and position is changed by the actuator 3, the change control of the detection resolution appropriate for the situation including the above example is highly flexible. Can be realized in degrees. At least one of the position and the area of the region having high detection resolution can be changed according to the situation outside the vehicle 100.
  • the sensor unit 2 may include a first right front sensor unit 21RF and a second right front sensor unit 22RF.
  • the first right front sensor unit 21RF is arranged leftward of the right front lamp housing 101RF.
  • the second right front sensor unit 22RF is arranged to the right of the right front lamp housing 101RF.
  • the first right front sensor unit 21RF is an example of the first sensor unit.
  • the second front right sensor unit 22RF is an example of a second sensor unit. Similar to the example of the first left front sensor unit 21LF and the second left front sensor unit 22LF described with reference to FIG. 12A and FIG. 12B, the first right front sensor unit 21RF and the second right front sensor unit 21RF depending on the external situation of the vehicle 100. The position of each detection region may be changed based on the cooperation of the sensor unit 22RF.
  • the sensor unit 2 may include a first left rear sensor unit 21LB and a second left rear sensor unit 22LB.
  • the first left rear sensor unit 21LB is arranged to the left of the left rear lamp housing 101LB.
  • the second left rear sensor unit 22LB is arranged to the right of the left rear lamp housing 101LB.
  • the first left rear sensor unit 21LB is an example of the first sensor unit.
  • the second left rear sensor unit 22LB is an example of the second sensor unit. Similar to the example of the first left front sensor unit 21LF and the second left front sensor unit 22LF described with reference to FIG. 12A and FIG. 12B, the first left rear sensor unit 21LB and the second left rear sensor unit 21LB may be selected depending on the external condition of the vehicle 100. The position of each detection region can be changed based on the cooperation of the left rear sensor unit 22LB.
  • the sensor unit 2 may include a first right rear sensor unit 21RB and a second right rear sensor unit 22RB.
  • the first right rear sensor unit 21RB is arranged to the left of the right rear lamp housing 101RB.
  • the second right rear sensor unit 22RB is arranged to the right of the right rear lamp housing 101RB.
  • the first right rear sensor unit 21RB is an example of the first sensor unit.
  • the second right rear sensor unit 22RB is an example of the second sensor unit.
  • the first right rear sensor unit 21RB and the second right rear sensor unit 21RB The position of each detection region can be changed based on the cooperation of the right rear sensor unit 22RB.
  • the change of the position of the sensor unit 2 is realized by at least one of the parallel movement along the yaw axis AY, the parallel movement along the pitch axis AP, and the parallel movement along the roll axis AR.
  • the direction of translation of the sensor unit 2 need not be along these axes. Further, the position of the sensor unit 2 may be changed without parallel movement.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Lighting Device Outwards From Vehicle And Optical Signal (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

センサユニット(2)は、車両の外部の情報を検出するために当該車両におけるランプハウジング(101)の外側に配置される。アクチュエータ(3)は、センサユニット(2)のランプハウジング(101)に対する位置と姿勢の少なくとも一方を変更可能である。プロセッサ(4)は、アクチュエータ(3)の動作を制御する。

Description

センサシステム
 本開示は、車両に搭載されるセンサシステムに関する。
 車両の運転支援を行なうために、当該車両の外部の情報を検出するためのセンサユニットが車体に搭載される。特許文献1は、そのようなセンサユニットとしてのレーダを開示している。情報の検出可能領域を広げるために、複数のレーダが車両に搭載されている。複数のレーダは、車両の外部を照明するランプ装置の灯室内、フロントバンパの内側、ドアミラーなどに固定されている。
 本明細書において用いられる「運転支援」という語は、運転操作(ハンドル操作、加速、減速など)、走行環境の監視、および運転操作のバックアップの少なくとも一つを少なくとも部分的に行なう制御処理を意味する。すなわち、衝突被害軽減ブレーキ機能やレーンキープアシスト機能のような部分的な運転支援から完全自動運転動作までを含む意味である。
日本国特許出願公開2007-106199号公報
 車両に搭載されるセンサシステムの情報検出能力を向上することが求められている。
 上記の要求に応えるための一態様は、車両に搭載されるセンサシステムであって、
 前記車両の外部の情報を検出するために当該車両におけるランプハウジングの外側に配置されるセンサユニットと、
 前記センサユニットの前記ランプハウジングに対する位置と姿勢の少なくとも一方を変更可能なアクチュエータと、
 前記アクチュエータの動作を制御するプロセッサと、
を備えている。
 このような構成によれば、センサユニットがランプハウジングの外側に配置されているので、センサユニットの姿勢と位置の少なくとも一方の変更に関して、ランプハウジング自体の形状やランプハウジング内に収容されたランプユニットのレイアウトによる制約を軽減できる。換言すると、センサユニットの姿勢と位置の少なくとも一方の変更自由度が高まり、車両の外部の情報を検出可能な領域を所望の位置へ移動させることが容易になる。したがって、車両に搭載されるセンサシステムの情報検出能力を向上できる。
 上記のセンサシステムは、以下のように構成されうる。
 前記センサユニットの前記位置の変更は、平行移動を伴う。
 このような構成によれば、比較的簡易な構成のアクチュエータでセンサユニットのランプハウジングに対する位置の変更を実現できる。また、センサユニットの姿勢変更と平行移動を適宜に組み合わせることにより、初期状態ではとり得ない姿勢をセンサユニットにとらせることができる場合がある。したがって、車両の外部の情報を検出可能な領域の移動範囲と移動自由度をより高めることができる。
 上記のセンサシステムは、以下のように構成されうる。
 前記ランプハウジングは、左ランプハウジングと右ランプハウジングを含んでおり、
 前記センサユニットは、
  前記左ランプハウジングよりも右方に配置される第一センサユニットと、
  前記右ランプハウジングよりも左方に配置される第二センサユニットと、
を含んでいる。
 あるいは、上記のセンサシステムは、以下のように構成されうる。
 前記ランプハウジングは、左ランプハウジングと右ランプハウジングを含んでおり、
 前記センサユニットは、
  前記左ランプハウジングよりも左方に配置される第一センサユニットと、
  前記右ランプハウジングよりも右方に配置される第二センサユニットと、
を含んでいる。
 あるいは、上記のセンサシステムは、以下のように構成されうる。
 前記センサユニットは、
  前記ランプハウジングよりも左方に配置される第一センサユニットと、
  前記ランプハウジングよりも右方に配置される第二センサユニットと、
を含んでいる。
 上記のセンサシステムは、以下のように構成されうる。
 前記プロセッサは、前記第一センサユニットと前記第二センサユニットのいずれかにより前記情報を検出可能な範囲を広げるように、前記アクチュエータの動作を制御する。
 上記のセンサシステムは、以下のように構成されうる。
 前記プロセッサは、前記第一センサユニットと前記第二センサユニットの双方により前記情報を検出可能な領域の位置と面積の少なくとも一方を変更するように、前記アクチュエータの動作を制御する。
 本明細書において用いられる「センサユニット」という語は、所望の情報検出機能を備えつつ、それ自身が単体で流通可能な部品の構成単位を意味する。
一実施形態に係るセンサシステムの構成を例示している。 図1のセンサユニットの配置の一例を示している。 図2のセンサユニットの動作の一例を示している。 図2のセンサユニットの動作の一例を示している。 図2のセンサユニットの動作の別例を示している。 図1のセンサユニットの動作の別例を示している。 図1のセンサユニットの動作の別例を示している。 図1のセンサユニットの動作の別例を示している。 図1のセンサユニットの動作の別例を示している。 図1のセンサユニットの動作の別例を示している。 図1のセンサユニットの動作の別例を示している。 図1のセンサユニットの動作の別例を示している。 図1のセンサユニットの動作の別例を示している。 図1のセンサユニットの動作の別例を示している。 図1のセンサユニットの動作の別例を示している。 図1のセンサユニットの動作の別例を示している。 図1のセンサユニットの動作の別例を示している。 図1のセンサユニットの動作の別例を示している。 図1のセンサユニットの動作の別例を示している。 図1のセンサユニットの動作の別例を示している。 図1のセンサユニットの動作の別例を示している。 図1のセンサユニットの動作の別例を示している。 図1のセンサユニットの動作の別例を示している。 図1のセンサユニットの動作の別例を示している。 図1のセンサユニットの動作の別例を示している。 図1のセンサユニットの動作の別例を示している。 図1のセンサユニットの動作の別例を示している。 図1のセンサユニットの動作の別例を示している。 図1のセンサユニットの動作の別例を示している。 図1のセンサユニットの動作の別例を示している。 図1のセンサユニットの動作の別例を示している。 図1のセンサユニットの動作の別例を示している。 図1のセンサユニットの配置の別例を示している。 図8のセンサユニットの動作の一例を示している。 図8のセンサユニットの動作の一例を示している。 図1のセンサユニットの配置の別例を示している。 図1のセンサユニットの配置の別例を示している。 図11のセンサユニットの動作の一例を示している。 図11のセンサユニットの動作の一例を示している。
 添付の図面を参照しつつ、実施形態の例について以下詳細に説明する。以下の説明に用いる各図面では、各部材を認識可能な大きさとするために縮尺を適宜変更している。
 添付の図面において、矢印Fは、図示された構造の前方向を示している。矢印Bは、図示された構造の後方向を示している。矢印Uは、図示された構造の上方向を示している。矢印Dは、図示された構造の下方向を示している。矢印Lは、図示された構造の左方向を示している。矢印Rは、図示された構造の右方向を示している。以降の説明に用いる「左」および「右」は、運転席から見た左右の方向を示している。
 図1は、一実施形態に係るセンサシステム1の構成を模式的に例示している。センサシステム1は、図2に例示される車両100に搭載される。
 センサシステム1は、センサユニット2を備えている。センサユニット2は、車両100の外部の情報を検出するための装置である。センサユニット2は、検出された情報に応じた検出信号SDを出力するように構成されている。
 センサユニット2は、例えばLiDAR(Light Detection and Ranging)センサユニットでありうる。LiDARセンサユニットは、車両100の外部における検出領域に向けて検出光を出射する構成、および検出光が検出領域内に存在する物体に反射した結果の戻り光(不図示)を検出する構成を備えている。検出光としては、例えば波長905nmの赤外光が使用されうる。LiDARセンサユニットは、検出光の出射方向を変更する不図示の走査機構を備えうる。これにより、車両100の外部に規定される検出領域が、検出光により走査されうる。
 LiDARセンサユニットは、例えば、ある方向へ検出光を出射したタイミングから戻り光を検出するまでの時間に基づいて、当該戻り光に関連付けられた物体までの距離を取得できる。また、そのような距離データを検出位置と関連付けて集積することにより、戻り光に関連付けられた物体の形状に係る情報を取得できる。これに加えてあるいは代えて、出射光と戻り光の波形の相違に基づいて、戻り光に関連付けられた物体の材質などの属性に係る情報を取得できる。
 センサユニット2は、例えばカメラユニットでありうる。カメラユニットは、車両100の外部の画像を取得する撮像素子を備えている。撮像素子が感度を有する光の波長は、可視光であってもよいし、赤外光であってもよい。カメラユニットは、画素ごとに被写体までの距離情報も取得するTOF(Time of Flight)カメラユニットであってもよい。
 センサユニット2は、例えばミリ波レーダユニットでありうる。ミリ波レーダユニットは、ミリ波を発信する構成、および当該ミリ波が車両100の外部に存在する物体に反射した結果の反射波を受信する構成を備えている。ミリ波の周波数の例としては、24GHz、26GHz、76GHz、79GHzなどが挙げられる。ミリ波レーダユニットは、例えば、ある方向へミリ波を発信したタイミングから反射波を受信するまでの時間に基づいて、当該反射波に関連付けられた物体までの距離を取得できる。また、そのような距離データを検出位置と関連付けて集積することにより、反射波に関連付けられた物体の動きに係る情報を取得できる。
 図2に例示されるように、車両100は、複数のランプハウジング101を備えている。各ランプハウジング101は、ランプユニットを収容している。ランプユニットは、車両100の外部に可視光を出射する装置である。ランプユニットとしては、前照灯、方向指示灯、標識灯、尾灯、制動灯、霧灯などが例示されうる。
 センサユニット2は、各ランプハウジング101の外側に配置されている。図2に示される例においては、センサユニット2は、車両100の左右方向の中央領域における車両100の前端部に配置されている。
 図1に例示されるように、センサシステム1は、アクチュエータ3を備えている。アクチュエータ3は、センサユニット2のランプハウジング101に対する姿勢を変更できるように構成されている。
 具体的には、ピッチ軸AP、ヨー軸AY、およびロール軸ARの少なくとも一つが、センサユニット2について定められうる。アクチュエータ3は、ヨー軸AYを中心としてセンサユニット2を回動させる機構、ピッチ軸APを中心としてセンサユニット2を回動させる機構、およびロール軸ARを中心としてセンサユニット2を回動させる機構の少なくとも一つを備えうる。各機構には周知の構成を適用可能であるので、詳細な説明は省略する。
 センサシステム1は、プロセッサ4を備えている。プロセッサ4は、車両100における適宜の位置に配置されうる。プロセッサ4は、汎用メモリと協働して動作する汎用マイクロプロセッサとして提供されてもよいし、専用集積回路素子の一部として提供されてもよい。汎用マイクロプロセッサとしては、CPU、MPU、GPUなどが例示されうる。汎用メモリとしては、RAMやROMが例示されうる。汎用マイクロプロセッサは、車両100に搭載されている他の制御装置(ECUなど)の一部であってもよい。専用集積回路素子としては、マイクロコントローラ、ASIC、FPGAなどが例示されうる。
 プロセッサ4は、アクチュエータ3の動作を制御する制御信号SCを出力可能に構成されている。制御信号SCは、他の制御装置からの指令Cに基づいて出力されてもよいし、プロセッサ4自体が行なう判断に基づいて出力されてもよい。そのような判断には、センサユニット2からの検出信号SDが利用されてもよい。アクチュエータ3の仕様に応じて、プロセッサ4とアクチュエータ3の間には、適宜の信号変換回路が設けられうる。
 図3Aと図3Bを参照しつつ、上記のように構成されたセンサシステム1の動作の一例を説明する。図3Aは、センサユニット2の初期状態を例示している。センサユニット2は、車両100の前方における検出領域DA内の情報を検出できる。図示の例においては、車両100の前方を歩行中の人物が、検出領域DA内に位置している。
 図3Bは、センサユニット2がピッチ軸APを中心として同図における反時計方向へ回動された状態を例示している。すなわち、センサユニット2のランプハウジング101に対する姿勢が変更されている。変更動作は、プロセッサ4からの制御信号SCに基づいて、ピッチ軸APを中心としてセンサユニット2を回動させる機構を備えたアクチュエータ3によって実現されている。
 図3Bに示される例においては、車両100の前方において伏せている犬が、検出領域DA内に位置している。この犬の位置は、図3Aに示される初期状態における検出領域DAの死角に対応している。すなわち、アクチュエータ3によってセンサユニット2の姿勢が変更されることにより、検出領域DAの位置が移動し、初期状態における死角に位置している犬の検出が可能とされている。
 前述のように、センサユニット2は、ランプハウジング101の外側に配置されている。したがって、センサユニット2の姿勢変更に関して、ランプハウジング101自体の形状やランプハウジング101内に収容されたランプユニットのレイアウトによる制約を軽減できる。換言すると、センサユニット2の姿勢の変更自由度が高まり、所望の位置へ検出領域DAを移動させることが容易になる。したがって、車両100に搭載されるセンサシステム1の情報検出能力を向上できる。
 これに加えてあるいは代えて、アクチュエータ3は、センサユニット2のランプハウジング101に対する位置を変更しうる。例えば、アクチュエータ3は、センサユニット2をピッチ軸APに沿って平行移動させる機構、センサユニット2をヨー軸AYに沿って平行移動させる機構、およびセンサユニット2をロール軸ARに沿って平行移動させる機構の少なくとも一つを備えうる。各機構には周知の構成を適用可能であるので、詳細な説明は省略する。
 図4は、上記のように構成されたセンサシステム1の動作の一例を示している。初期状態においては、センサユニット2の検出領域DAは、一点鎖線で示される位置にある。プロセッサ4からの制御信号SCに基づいてアクチュエータ3がセンサユニット2をピッチ軸APに沿って平行移動させると、検出領域DAは車両100の左右方向へ平行移動する。プロセッサ4からの制御信号SCに基づいてアクチュエータ3がセンサユニット2をヨー軸AYに沿って平行移動させると、検出領域DAは車両100の上下方向へ平行移動する。
 センサユニット2は、ランプハウジング101の外側に配置されているので、センサユニット2の位置変更に関して、ランプハウジング101自体の形状やランプハウジング101内に収容されたランプユニットのレイアウトによる制約を軽減できる。換言すると、センサユニット2の位置の変更自由度が高まり、所望の位置へ検出領域DAを移動させることが容易になる。したがって、車両100に搭載されるセンサシステム1の情報検出能力を向上できる。
 特にランプハウジング101に対するセンサユニット2の位置の変更が、平行移動を伴うものであるので、比較的簡易な構成のアクチュエータで位置の変更を実現できる。
 図2に例示されるように、センサユニット2は、車両100の左右方向の中央領域における車両100の後端部にも配置されうる。アクチュエータ3とプロセッサ4は、当該センサユニット2の位置に応じた適宜の位置に配置されうる。プロセッサ4は、車両100の前端部に配置されたセンサユニット2に関連付けられたプロセッサ4とは独立した素子として提供されてもよいし、車両100の前端部に配置されたセンサユニット2に関連付けられたプロセッサ4と機能を共有してもよい。
 図5Aから図5Cは、車両100の前部に配置されたセンサユニット2とランプハウジング101の初期位置関係を模式的に例示している。図5Dから図5Fは、センサユニット2がヨー軸AYに沿って上方へ平行移動された状態を例示している。矢印DRは、センサユニット2の検出基準方向を示している。
 図5Gは、図5Dに示される状態からセンサユニット2の姿勢がピッチ軸APを中心として変更された例を示している。図5Hは、図5Eに示される状態からセンサユニット2の姿勢がロール軸ARを中心として変更された例を示している。図5Iは、図5Fに示される状態からセンサユニット2の姿勢がヨー軸AYを中心として変更された例を示している。
 図6Aから図6Cは、車両100の前部に配置されたセンサユニット2とランプハウジング101の初期位置関係を模式的に例示している。図6Dから図6Fは、センサユニット2がロール軸ARに沿って前方へ平行移動された状態を例示している。
 図6Gは、図6Dに例示される状態からセンサユニット2の姿勢がピッチ軸APを中心として変更された例を示している。図6Hは、図6Eに例示される状態からセンサユニット2の姿勢がロール軸ARを中心として変更された例を示している。図6Iは、図6Fに例示される状態からセンサユニット2の姿勢がヨー軸AYを中心として変更された例を示している。
 図7Aから図7Cは、車両100の前部に配置されたセンサユニット2とランプハウジング101の初期位置関係を模式的に例示している。図7Dから図7Fは、センサユニット2がピッチ軸APに沿って左方へ平行移動された状態を例示している。
 図7Gは、図7Dに例示される状態からセンサユニット2の姿勢がピッチ軸APを中心として変更された例を示している。図7Hは、図7Eに例示される状態からセンサユニット2の姿勢がロール軸ARを中心として変更された例を示している。図7Iは、図7Fに例示される状態からセンサユニット2の姿勢がヨー軸AYを中心として変更された例を示している。
 ヨー軸AYに沿う平行移動、ピッチ軸APに沿う平行移動、およびロール軸ARに沿う平行移動の少なくとも一つと、ヨー軸AYを中心とする回動、ピッチ軸APを中心とする回動、およびロール軸ARを中心とする回動の少なくとも一つとを適宜に組み合わせることにより、初期状態ではとり得ない姿勢をセンサユニット2にとらせることができる場合がある。したがって、検出領域DAの移動範囲と移動自由度をより高めることができる。
 図8に例示されるように、センサシステム1は、左前センサユニット2LFと右前センサユニット2RFを含みうる。各センサユニットの構成は、前述したセンサユニット2に係る説明を適用可能である。
 この場合、図示を省略するが、アクチュエータ3は、左前センサユニット2LFの姿勢と位置の少なくとも一方を変更するアクチュエータと、右前センサユニット2RFの姿勢と位置の少なくとも一方を変更するアクチュエータを含む。プロセッサ4に関しては、左前センサユニット2LFに対応付けられたアクチュエータを制御する素子と右前センサユニット2RFに対応付けられたアクチュエータを制御する素子とが個別に設けられてもよいし、共通の素子によって両アクチュエータが制御されてもよい。
 左前センサユニット2LFは、左前ランプハウジング101LFよりも右方に配置されている。右前センサユニット2RFは、右前ランプハウジング101RFよりも左方に配置されている。左前ランプハウジング101LFは、左ランプハウジングの一例である。右前ランプハウジング101RFは、右ランプハウジングの一例である。左前センサユニット2LFは、第一センサユニットの一例である。右前センサユニット2RFは、第二センサユニットの一例である。
 図9Aと図9Bを参照しつつ、このように構成されたセンサシステム1の動作の一例を説明する。図9Aは、交差点に向かって走行中の車両100を例示している。図9Bは、交差点により接近した状態の車両100を例示している。
 図9Bに例示される状態において、プロセッサ4からの制御信号SCに基づいて、アクチュエータ3は、左前センサユニット2LFを、ヨー軸AYを中心として同図における反時計回り方向へ回動させる。図5Aから図7Iを参照して説明したヨー軸AYに沿う平行移動、ピッチ軸APに沿う平行移動、およびロール軸ARに沿う平行移動の少なくとも一つが組み合わせられてもよい。これにより、左前検出領域DALの左前ランプハウジング101LFに対する位置が、初期状態から変更される。左前検出領域DALは、左前センサユニット2LFにより車両100の外部の情報を検出可能な領域である。
 同様に、プロセッサ4からの制御信号SCに基づいて、アクチュエータ3は、右前センサユニット2RFを、ヨー軸AYを中心として同図における時計回り方向へ回動させる。図5Aから図7Iを参照して説明したヨー軸AYに沿う平行移動、ピッチ軸APに沿う平行移動、およびロール軸ARに沿う平行移動の少なくとも一つが組み合わせられてもよい。これにより、右前検出領域DARの右前ランプハウジング101RFに対する位置が、初期状態から変更される。右前検出領域DARは、右前センサユニット2RFにより車両100の外部の情報を検出可能な領域である。
 結果として、左前センサユニット2LFと右前センサユニット2RFのいずれかによって車両100の外部の情報を検出可能な範囲が、図9Aに例示される初期状態よりも広げられる。本例においては、交差点付近の道路だけでなく歩道まで含むように、検出領域が広げられている。
 各センサユニットがランプハウジングの外側に配置されており、その姿勢と位置の少なくとも一方がアクチュエータ3によって変更されるので、上記の例を含む状況に応じた適切な検出領域の位置の変更制御が、高い自由度で実現されうる。
 図9Aと図9Bを参照して説明した動作は、図10に例示される左前センサユニット2LFと右前センサユニット2RFの配置によっても実現されうる。
 左前センサユニット2LFは、左前ランプハウジング101LFよりも左方に配置されている。右前センサユニット2RFは、右前ランプハウジング101RFよりも右方に配置されている。左前ランプハウジング101LFは、左ランプハウジングの一例である。右前ランプハウジング101RFは、右ランプハウジングの一例である。左前センサユニット2LFは、第一センサユニットの一例である。右前センサユニット2RFは、第二センサユニットの一例である。
 本明細書において、「左ランプハウジング」とは、車両100の内側から見て右ランプハウジングよりも左側に位置しているランプハウジングを意味する。本明細書において、「右ランプハウジング」とは、車両100の内側から見て左ランプハウジングよりも右側に位置しているランプハウジングを意味する。
 したがって、左前ランプハウジング101LFと左後ランプハウジング101LBの関係においては、左後ランプハウジング101LBが左ランプハウジングの一例であり、左前ランプハウジング101LFが右ランプハウジングの一例である。図8と図10に例示されるように、センサユニット2は、左後センサユニット2LBを含みうる。この場合、左後センサユニット2LBが第一センサユニットの一例であり、左前センサユニット2LFが第二センサユニットの一例である。車両100の外部の状況に応じて、この二つのセンサユニットの連携に基づく各検出領域の位置の変更が行なわれうる。
 同様に、左後ランプハウジング101LBと右後ランプハウジング101RBの関係においては、右後ランプハウジング101RBが左ランプハウジングの一例であり、左後ランプハウジング101LBが右ランプハウジングの一例である。図8と図10に例示されるように、センサユニット2は、右後センサユニット2RBを含みうる。この場合、右後センサユニット2RBが第一センサユニットの一例であり、左後センサユニット2LBが第二センサユニットの一例である。車両100の外部の状況に応じて、この二つのセンサユニットの連携に基づく各検出領域の位置の変更が行なわれうる。
 同様に、右後ランプハウジング101RBと右前ランプハウジング101RFの関係においては、右前ランプハウジング101RFが左ランプハウジングの一例であり、右後ランプハウジング101RBが右ランプハウジングの一例である。この場合、右前センサユニット2RFが第一センサユニットの一例であり、左後センサユニット2LBが第二センサユニットの一例である。車両100の外部の状況に応じて、この二つのセンサユニットの連携に基づく各検出領域の位置の変更が行なわれうる。
 図11に例示されるように、センサシステム1は、第一左前センサユニット21LFと第二左前センサユニット22LFを含みうる。各センサユニットの構成は、前述したセンサユニット2に係る説明を適用可能である。
 この場合、図示を省略するが、アクチュエータ3は、第一左前センサユニット21LFの姿勢と位置の少なくとも一方を変更するアクチュエータと、第二左前センサユニット22LFの姿勢と位置の少なくとも一方を変更するアクチュエータを含む。プロセッサ4に関しては、第一左前センサユニット21LFに対応付けられたアクチュエータを制御する素子と第二左前センサユニット22LFに対応付けられたアクチュエータを制御する素子とが個別に設けられてもよいし、共通の素子によって両アクチュエータが制御されてもよい。
 第一左前センサユニット21LFは、左前ランプハウジング101LFよりも左方に配置されている。第二左前センサユニット22LFは、左前ランプハウジング101LFよりも右方に配置されている。第一左前センサユニット21LFは、第一センサユニットの一例である。第二左前センサユニット22LFは、第二センサユニットの一例である。
 図12Aと図12Bを参照しつつ、このように構成されたセンサシステム1の動作の一例を説明する。図12Aは、左方への曲路に向かって走行中の車両100を例示している。図12Bは、左方への曲路により接近した状態の車両100を例示している。
 図12Bに例示される状態において、プロセッサ4からの制御信号SCに基づいて、アクチュエータ3は、第一左前センサユニット21LFを、ヨー軸AYを中心として同図における時計回り方向へ回動させる。図5Aから図7Iを参照して説明したヨー軸AYに沿う平行移動、ピッチ軸APに沿う平行移動、およびロール軸ARに沿う平行移動の少なくとも一つが組み合わせられてもよい。これにより、第一検出領域DA1の左前ランプハウジング101LFに対する位置が、初期状態から変更される。第一検出領域DA1は、第一左前センサユニット21LFにより車両100の外部の情報を検出可能な領域である。
 同様に、プロセッサ4からの制御信号SCに基づいて、アクチュエータ3は、第二左前センサユニット22LFを、ヨー軸AYを中心として同図における反時計回り方向へ回動させる。図5Aから図7Iを参照して説明したヨー軸AYに沿う平行移動、ピッチ軸APに沿う平行移動、およびロール軸ARに沿う平行移動の少なくとも一つが組み合わせられてもよい。これにより、第二検出領域DA2の左前ランプハウジング101LFに対する位置が、初期状態から変更される。第二検出領域DA2は、第二左前センサユニット22LFにより車両100の外部の情報を検出可能な領域である。
 結果として、第一左前センサユニット21LFと第二左前センサユニット22LFの双方により車両100の外部の情報を検出可能な領域の左前ランプハウジング101LFに対する位置が、図12Aに例示される初期状態から変更される。両センサユニットの検出領域が重なっている領域は、検出分解能が相対的に高められている領域である。本例においては、曲路周辺の歩道に検出分解能が高い領域が配置されるとともに、当該領域の面積が広げられている。
 各センサユニットがランプハウジングの外側に配置されており、その姿勢と位置の少なくとも一方がアクチュエータ3によって変更されるので、上記の例を含む状況に応じた適切な検出分解能の変更制御が、高い自由度で実現されうる。検出分解能が高い領域の位置と面積は、車両100の外部の状況に応じて少なくとも一方が変更されうる。
 図11に例示されるように、センサユニット2は、第一右前センサユニット21RFと第二右前センサユニット22RFを含みうる。第一右前センサユニット21RFは、右前ランプハウジング101RFよりも左方に配置されている。第二右前センサユニット22RFは、右前ランプハウジング101RFよりも右方に配置されている。第一右前センサユニット21RFは、第一センサユニットの一例である。第二右前センサユニット22RFは、第二センサユニットの一例である。図12Aと図12Bを参照して説明した第一左前センサユニット21LFと第二左前センサユニット22LFの例と同様に、車両100の外部の状況に応じて、第一右前センサユニット21RFと第二右前センサユニット22RFの連携に基づく各検出領域の位置の変更が行なわれうる。
 図11に例示されるように、センサユニット2は、第一左後センサユニット21LBと第二左後センサユニット22LBを含みうる。第一左後センサユニット21LBは、左後ランプハウジング101LBよりも左方に配置されている。第二左後センサユニット22LBは、左後ランプハウジング101LBよりも右方に配置されている。第一左後センサユニット21LBは、第一センサユニットの一例である。第二左後センサユニット22LBは、第二センサユニットの一例である。図12Aと図12Bを参照して説明した第一左前センサユニット21LFと第二左前センサユニット22LFの例と同様に、車両100の外部の状況に応じて、第一左後センサユニット21LBと第二左後センサユニット22LBの連携に基づく各検出領域の位置の変更が行なわれうる。
 図11に例示されるように、センサユニット2は、第一右後センサユニット21RBと第二右後センサユニット22RBを含みうる。第一右後センサユニット21RBは、右後ランプハウジング101RBよりも左方に配置されている。第二右後センサユニット22RBは、右後ランプハウジング101RBよりも右方に配置されている。第一右後センサユニット21RBは、第一センサユニットの一例である。第二右後センサユニット22RBは、第二センサユニットの一例である。図12Aと図12Bを参照して説明した第一左前センサユニット21LFと第二左前センサユニット22LFの例と同様に、車両100の外部の状況に応じて、第一右後センサユニット21RBと第二右後センサユニット22RBの連携に基づく各検出領域の位置の変更が行なわれうる。
 上記の実施形態は、本開示の理解を容易にするための例示にすぎない。上記の実施形態に係る構成は、本開示の趣旨を逸脱しなければ、適宜に変更や改良がなされうる。
 上記の実施形態においては、センサユニット2の位置の変更は、ヨー軸AYに沿う平行移動、ピッチ軸APに沿う平行移動、およびロール軸ARに沿う平行移動の少なくとも一つによって実現されている。しかしながら、センサユニット2の平行移動の向きは、これらの軸に沿っていなくてもよい。また、センサユニット2の位置の変更は、平行移動を伴わずに行なわれてもよい。
 本開示の一部を構成するものとして、2018年11月27日に提出された日本国特許出願2018-220991号の内容が援用される。

Claims (7)

  1.  車両に搭載されるセンサシステムであって、
     前記車両の外部の情報を検出するために当該車両におけるランプハウジングの外側に配置されるセンサユニットと、
     前記センサユニットの前記ランプハウジングに対する位置と姿勢の少なくとも一方を変更可能なアクチュエータと、
     前記アクチュエータの動作を制御するプロセッサと、
    を備えている、
    センサシステム。
  2.  前記センサユニットの前記位置の変更は、平行移動を伴う、
    請求項1に記載のセンサシステム。
  3.  前記ランプハウジングは、左ランプハウジングと右ランプハウジングを含んでおり、
     前記センサユニットは、
      前記左ランプハウジングよりも右方に配置される第一センサユニットと、
      前記右ランプハウジングよりも左方に配置される第二センサユニットと、
    を含んでいる、
    請求項1または2に記載のセンサシステム。
  4.  前記ランプハウジングは、左ランプハウジングと右ランプハウジングを含んでおり、
     前記センサユニットは、
      前記左ランプハウジングよりも左方に配置される第一センサユニットと、
      前記右ランプハウジングよりも右方に配置される第二センサユニットと、
    を含んでいる、
    請求項1または2に記載のセンサシステム。
  5.  前記センサユニットは、
      前記ランプハウジングよりも左方に配置される第一センサユニットと、
      前記ランプハウジングよりも右方に配置される第二センサユニットと、
    を含んでいる、
    請求項1または2に記載のセンサシステム。
  6.  前記プロセッサは、前記第一センサユニットと前記第二センサユニットのいずれかにより前記情報を検出可能な範囲を広げるように、前記アクチュエータの動作を制御する、
    請求項3から5のいずれか一項に記載のセンサシステム。
  7.  前記プロセッサは、前記第一センサユニットと前記第二センサユニットの双方により前記情報を検出可能な領域の位置と面積の少なくとも一方を変更するように、前記アクチュエータの動作を制御する、
    請求項3から6のいずれか一項に記載のセンサシステム。
PCT/JP2019/045786 2018-11-27 2019-11-22 センサシステム WO2020110936A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201980078327.1A CN113167889A (zh) 2018-11-27 2019-11-22 传感器系统
US17/296,800 US20220026533A1 (en) 2018-11-27 2019-11-22 Sensor system
EP19891437.6A EP3889642A4 (en) 2019-11-22 Sensor system
JP2020557665A JP7356451B2 (ja) 2018-11-27 2019-11-22 センサシステム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-220991 2018-11-27
JP2018220991 2018-11-27

Publications (1)

Publication Number Publication Date
WO2020110936A1 true WO2020110936A1 (ja) 2020-06-04

Family

ID=70854264

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/045786 WO2020110936A1 (ja) 2018-11-27 2019-11-22 センサシステム

Country Status (4)

Country Link
US (1) US20220026533A1 (ja)
JP (1) JP7356451B2 (ja)
CN (1) CN113167889A (ja)
WO (1) WO2020110936A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11769412B2 (en) * 2020-06-10 2023-09-26 Hyundai Mobis Co., Ltd. Rear side warning system and method for vehicle

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05173634A (ja) * 1991-12-25 1993-07-13 Aisin Seiki Co Ltd 車上レーザレーダ装置
JPH06282799A (ja) * 1993-03-25 1994-10-07 Mazda Motor Corp 車両の障害物検知装置
JP2003307561A (ja) * 2002-04-12 2003-10-31 Fuji Heavy Ind Ltd 車両用運転支援装置
JP2007106199A (ja) 2005-10-12 2007-04-26 Mitsuba Corp 車両周辺監視装置
JP2017182589A (ja) * 2016-03-31 2017-10-05 株式会社Subaru 表示装置
US20180088230A1 (en) * 2016-09-23 2018-03-29 Mediatek Inc. Method And Apparatus For Automotive Parking Assistance Using Radar Sensors

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1130416A3 (en) 2000-03-02 2002-01-30 Denso Corporation Forward condition detecting apparatus for vehicles
JP2008146933A (ja) * 2006-12-07 2008-06-26 Koito Mfg Co Ltd 車両用灯具
WO2018051909A1 (ja) * 2016-09-15 2018-03-22 株式会社小糸製作所 センサシステム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05173634A (ja) * 1991-12-25 1993-07-13 Aisin Seiki Co Ltd 車上レーザレーダ装置
JPH06282799A (ja) * 1993-03-25 1994-10-07 Mazda Motor Corp 車両の障害物検知装置
JP2003307561A (ja) * 2002-04-12 2003-10-31 Fuji Heavy Ind Ltd 車両用運転支援装置
JP2007106199A (ja) 2005-10-12 2007-04-26 Mitsuba Corp 車両周辺監視装置
JP2017182589A (ja) * 2016-03-31 2017-10-05 株式会社Subaru 表示装置
US20180088230A1 (en) * 2016-09-23 2018-03-29 Mediatek Inc. Method And Apparatus For Automotive Parking Assistance Using Radar Sensors

Also Published As

Publication number Publication date
US20220026533A1 (en) 2022-01-27
CN113167889A (zh) 2021-07-23
EP3889642A1 (en) 2021-10-06
JP7356451B2 (ja) 2023-10-04
JPWO2020110936A1 (ja) 2021-10-07

Similar Documents

Publication Publication Date Title
KR102355671B1 (ko) 차량 및 그 제어방법
CN109690349B (zh) 传感器系统
KR102671554B1 (ko) 차량 및 그 제어방법
KR102309420B1 (ko) 차량 및 그 제어방법
KR20190100614A (ko) 차량 및 그 제어방법
US10317523B2 (en) Lighting device for a vehicle and vehicle headlight
KR102673055B1 (ko) 차량 및 그 제어방법
JP2004046783A (ja) 自動車の運転補助装置
US10086839B2 (en) Semiautonomous vehicle control system
KR20100019034A (ko) 차량 조명 시스템
WO2020110936A1 (ja) センサシステム
JP7288895B2 (ja) センサシステム、および画像データ生成装置
US20220390082A1 (en) Multiband Adjustable Lights
WO2020017491A1 (ja) センサシステム
CN110271500B (zh) 传感器系统
JPWO2020031685A1 (ja) センサシステム
CN113454418A (zh) 车辆用传感系统及车辆
US20230093096A1 (en) Motor vehicle comprising an optical environment sensor and method for operating a motor vehicle
WO2020032009A1 (ja) センサシステム
JP2019211442A (ja) 作業車に搭載されるレーザレーダ
WO2022196638A1 (ja) センサシステム
US20240174225A1 (en) Vehicle control device, vehicle control method, and storage medium
WO2021172270A1 (ja) センサシステム、制御装置、非一時的なコンピュータ可読媒体、およびコンピュータプログラム
KR20240078025A (ko) 차량용 스마트 비전 센서 시스템
KR102457511B1 (ko) 차량 및 그 제어방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19891437

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020557665

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2019891437

Country of ref document: EP

Effective date: 20210628