WO2019021693A1 - ランプ装置、センサシステム、およびセンサ装置 - Google Patents

ランプ装置、センサシステム、およびセンサ装置 Download PDF

Info

Publication number
WO2019021693A1
WO2019021693A1 PCT/JP2018/023263 JP2018023263W WO2019021693A1 WO 2019021693 A1 WO2019021693 A1 WO 2019021693A1 JP 2018023263 W JP2018023263 W JP 2018023263W WO 2019021693 A1 WO2019021693 A1 WO 2019021693A1
Authority
WO
WIPO (PCT)
Prior art keywords
sensor
vehicle
unit
light
lamp
Prior art date
Application number
PCT/JP2018/023263
Other languages
English (en)
French (fr)
Inventor
宇司 堀
典正 山本
昭貴 金森
松本 昭則
照亮 山本
みなみ 片桐
美昭 伏見
滝井 直樹
靖礼 加藤
Original Assignee
株式会社小糸製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社小糸製作所 filed Critical 株式会社小糸製作所
Priority to EP18838790.6A priority Critical patent/EP3659861A4/en
Priority to CN201880048549.4A priority patent/CN110997406B/zh
Priority to US16/633,465 priority patent/US11333743B2/en
Priority to JP2019532441A priority patent/JP7096823B2/ja
Publication of WO2019021693A1 publication Critical patent/WO2019021693A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4811Constructional features, e.g. arrangements of optical elements common to transmitter and receiver
    • G01S7/4812Constructional features, e.g. arrangements of optical elements common to transmitter and receiver transmitted and received beams following a coaxial path
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F21LIGHTING
    • F21SNON-PORTABLE LIGHTING DEVICES; SYSTEMS THEREOF; VEHICLE LIGHTING DEVICES SPECIALLY ADAPTED FOR VEHICLE EXTERIORS
    • F21S41/00Illuminating devices specially adapted for vehicle exteriors, e.g. headlamps
    • F21S41/20Illuminating devices specially adapted for vehicle exteriors, e.g. headlamps characterised by refractors, transparent cover plates, light guides or filters
    • F21S41/28Cover glass
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/0017Devices integrating an element dedicated to another function
    • B60Q1/0023Devices integrating an element dedicated to another function the element being a sensor, e.g. distance sensor, camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/02Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments
    • B60Q1/04Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights
    • B60Q1/06Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights adjustable, e.g. remotely-controlled from inside vehicle
    • B60Q1/08Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights adjustable, e.g. remotely-controlled from inside vehicle automatically
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/0205Diagnosing or detecting failures; Failure detection models
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/029Adapting to failures or work around with other constraints, e.g. circumvention by avoiding use of failed parts
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F21LIGHTING
    • F21SNON-PORTABLE LIGHTING DEVICES; SYSTEMS THEREOF; VEHICLE LIGHTING DEVICES SPECIALLY ADAPTED FOR VEHICLE EXTERIORS
    • F21S41/00Illuminating devices specially adapted for vehicle exteriors, e.g. headlamps
    • F21S41/10Illuminating devices specially adapted for vehicle exteriors, e.g. headlamps characterised by the light source
    • F21S41/12Illuminating devices specially adapted for vehicle exteriors, e.g. headlamps characterised by the light source characterised by the type of emitted light
    • F21S41/13Ultraviolet light; Infrared light
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F21LIGHTING
    • F21SNON-PORTABLE LIGHTING DEVICES; SYSTEMS THEREOF; VEHICLE LIGHTING DEVICES SPECIALLY ADAPTED FOR VEHICLE EXTERIORS
    • F21S41/00Illuminating devices specially adapted for vehicle exteriors, e.g. headlamps
    • F21S41/50Illuminating devices specially adapted for vehicle exteriors, e.g. headlamps characterised by aesthetic components not otherwise provided for, e.g. decorative trim, partition walls or covers
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F21LIGHTING
    • F21SNON-PORTABLE LIGHTING DEVICES; SYSTEMS THEREOF; VEHICLE LIGHTING DEVICES SPECIALLY ADAPTED FOR VEHICLE EXTERIORS
    • F21S43/00Signalling devices specially adapted for vehicle exteriors, e.g. brake lamps, direction indicator lights or reversing lights
    • F21S43/20Signalling devices specially adapted for vehicle exteriors, e.g. brake lamps, direction indicator lights or reversing lights characterised by refractors, transparent cover plates, light guides or filters
    • F21S43/235Light guides
    • F21S43/236Light guides characterised by the shape of the light guide
    • F21S43/237Light guides characterised by the shape of the light guide rod-shaped
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F21LIGHTING
    • F21SNON-PORTABLE LIGHTING DEVICES; SYSTEMS THEREOF; VEHICLE LIGHTING DEVICES SPECIALLY ADAPTED FOR VEHICLE EXTERIORS
    • F21S43/00Signalling devices specially adapted for vehicle exteriors, e.g. brake lamps, direction indicator lights or reversing lights
    • F21S43/20Signalling devices specially adapted for vehicle exteriors, e.g. brake lamps, direction indicator lights or reversing lights characterised by refractors, transparent cover plates, light guides or filters
    • F21S43/235Light guides
    • F21S43/242Light guides characterised by the emission area
    • F21S43/245Light guides characterised by the emission area emitting light from one or more of its major surfaces
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F21LIGHTING
    • F21SNON-PORTABLE LIGHTING DEVICES; SYSTEMS THEREOF; VEHICLE LIGHTING DEVICES SPECIALLY ADAPTED FOR VEHICLE EXTERIORS
    • F21S43/00Signalling devices specially adapted for vehicle exteriors, e.g. brake lamps, direction indicator lights or reversing lights
    • F21S43/20Signalling devices specially adapted for vehicle exteriors, e.g. brake lamps, direction indicator lights or reversing lights characterised by refractors, transparent cover plates, light guides or filters
    • F21S43/235Light guides
    • F21S43/247Light guides with a single light source being coupled into the light guide
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F21LIGHTING
    • F21SNON-PORTABLE LIGHTING DEVICES; SYSTEMS THEREOF; VEHICLE LIGHTING DEVICES SPECIALLY ADAPTED FOR VEHICLE EXTERIORS
    • F21S45/00Arrangements within vehicle lighting devices specially adapted for vehicle exteriors, for purposes other than emission or distribution of light
    • F21S45/40Cooling of lighting devices
    • F21S45/42Forced cooling
    • F21S45/43Forced cooling using gas
    • F21S45/435Forced cooling using gas circulating the gas within a closed system
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F21LIGHTING
    • F21SNON-PORTABLE LIGHTING DEVICES; SYSTEMS THEREOF; VEHICLE LIGHTING DEVICES SPECIALLY ADAPTED FOR VEHICLE EXTERIORS
    • F21S45/00Arrangements within vehicle lighting devices specially adapted for vehicle exteriors, for purposes other than emission or distribution of light
    • F21S45/40Cooling of lighting devices
    • F21S45/47Passive cooling, e.g. using fins, thermal conductive elements or openings
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4811Constructional features, e.g. arrangements of optical elements common to transmitter and receiver
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4811Constructional features, e.g. arrangements of optical elements common to transmitter and receiver
    • G01S7/4813Housing arrangements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/0205Diagnosing or detecting failures; Failure detection models
    • B60W2050/0215Sensor drifts or sensor failures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/029Adapting to failures or work around with other constraints, e.g. circumvention by avoiding use of failed parts
    • B60W2050/0295Inhibiting action of specific actuators or systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/04Vehicle stop
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2555/00Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
    • B60W2555/20Ambient conditions, e.g. wind or rain
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/50External transmission of data to or from the vehicle for navigation systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/082Selecting or switching between different modes of propelling
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93277Sensor installation details in the lights

Definitions

  • the present disclosure relates to a lamp device mounted on a vehicle, a sensor system, and a sensor device.
  • LiDAR Light Detection and Ranging
  • camera a camera
  • millimeter wave sensor see, for example, Patent Document 1.
  • the four corners of the vehicle body are being considered as locations of sensors that can efficiently acquire information outside the vehicle. These are also places where a lamp device for supplying illumination light to the outside of the vehicle is mounted.
  • the restriction on the layout becomes large.
  • the detectable region of the sensor may interfere with the decorative member. That is, it is difficult to determine the layout of the sensor that can suppress the sense of incongruity in appearance while securing a desired detectable area for the sensor.
  • driving support means control processing that at least partially performs at least one of driving operation (steering wheel operation, acceleration, deceleration), monitoring of a traveling environment, and backup of the driving operation. That is, it includes meaning from partial driving support such as collision damage reduction braking function and lane keeping assist function to fully automatic driving operation.
  • One aspect for achieving the first object described above is a lamp device mounted on a vehicle, With the housing, A cover that defines a lamp chamber for housing a lamp together with the housing and forms a part of an outer surface of the vehicle; A sensor disposed in the lamp chamber for detecting information outside the vehicle; An optical member disposed in the lamp chamber so as to cover at least a part of the sensor from the side where the cover is located; Equipped with The cover has a first transparency to visible light, The optical member includes a low transparency portion at least temporarily having a second transparency lower than the first transparency to the visible light.
  • the “optical member” refers to light emission (emission), light transmission, light reflection, light refraction, light diffraction, light scattering, light scattering, light polarization, light separation, light mixing, and the like. It means a member involved in at least one wavelength selection of light.
  • the senor is arranged in the lamp chamber of the lamp unit.
  • the sensor has a relatively large size and the appearance is significantly different from the lamp, secure an installation place where the sensor can detect information while avoiding interference with the lamp, And there are difficulties in avoiding the sense of incongruity in appearance.
  • the visibility of the sensor is reduced by the low transparent portion of the optical member, so that it is possible to reduce at least the restriction on the discomfort in the appearance. Therefore, the layout restrictions that occur when trying to arrange the sensor in the lamp chamber can be alleviated.
  • the above lamp device can be configured as follows.
  • the optical member is configured to form the low transparent portion by light emission.
  • the above-described lamp device can be configured as follows.
  • the optical member also functions as the lamp.
  • the sensor can be disposed behind the lamp, the limited space in the lamp chamber can be effectively utilized.
  • the senor may be configured to detect the information using reflection by the low transparent portion.
  • the above lamp device can be configured as follows.
  • a support member disposed in the lamp chamber and supporting the sensor and the optical member so as to maintain the relative positional relationship between the sensor and the optical member;
  • An adjustment mechanism that adjusts at least one of the position and the attitude of the support member; Is equipped.
  • the attitude adjustment of the support member is performed to adjust at least one of the detection reference position of the sensor and the light emission direction from the optical member. According to the above configuration, since the relative positional relationship between the sensor and the optical member is maintained by the support member, the adjustment described above and the adjustment for maintaining the effect of reducing the visibility of the sensor by the low transparent portion There is no need to do it individually.
  • One aspect for achieving the second object described above is a sensor system mounted on a vehicle, With the housing, A transparent cover that defines a housing space together with the housing; A sensor disposed in the accommodation space for detecting information outside the vehicle; A light emitter which is disposed at a position which does not disturb the operation of the sensor in the housing space, and emits light in cooperation with the operation of the sensor; Is equipped.
  • the corner of the vehicle in which the lamp is disposed is advantageous as a location of the sensor.
  • the sensor has a relatively large size and the appearance is significantly different from that of the lamp, if the sensor is arranged in the vicinity of the lamp, it is not easy to cause an unpleasant appearance. Absent. In order to reduce such a sense of incongruity, it is common for the sensor to be covered with an opaque cover or the like.
  • the senor in the above configuration, by arranging the sensor in the housing space partitioned by the transparent cover, these are made to be visually recognized. Furthermore, a light emitter that emits light in cooperation with the operation of the sensor is disposed in the housing space. This can provide new commercial value with a new appearance that daresly emphasizes the sensor's presence. In addition, since the sensor is released from the restriction of the necessity of suppressing the presence of the sensor, the degree of freedom of arrangement of the sensor for detecting information outside the vehicle can be improved.
  • the above sensor system can be configured as follows.
  • the light emitter is provided at a position that appears to surround the sensor when viewed from the outside of the vehicle.
  • Such a configuration can provide an appearance that further emphasizes the presence of the sensor.
  • the above sensor system can be configured as follows.
  • the light emitter emits light when the vehicle is performing a driving assistance operation.
  • the above sensor system can be configured as follows.
  • the light emitter is a light guide member.
  • the light guide member is an optical component that has a relatively high degree of freedom in shape selection and can easily secure a wide light emitting area. Therefore, the light emission aspect which can emphasize the presence of a sensor can be implemented easily and flexibly.
  • the above sensor system may be configured as follows.
  • the light emitter is a light source.
  • the above sensor system can be configured as follows.
  • a control unit that controls the operation of the sensor;
  • a support member supported to maintain the relative positional relationship between the light source, the sensor, and the control unit; Is equipped.
  • control unit the sensor, and the light source involved in the cooperative operation can be modularized and disposed in the accommodation space.
  • the above sensor system can be configured as follows.
  • An adjustment mechanism is provided to adjust at least one of the position and the attitude of the support member with respect to the vehicle.
  • Adjustment of at least one of the position and orientation of the support member is performed to adjust at least one of the detection reference position of the sensor and the light emission direction from the light source.
  • the relative positional relationship between the sensor and the light source is maintained by the support member, so if one of the adjustments is made, the result is reflected in the other.
  • One aspect for achieving the above third object is a sensor device mounted on a vehicle, With the housing, A cover which defines a storage chamber with the housing and which forms part of the outer surface of the vehicle; A sensor unit disposed in the storage chamber and detecting information outside the vehicle using detection light; A light control surface provided on at least one of the outer surface of the cover, the inner surface of the cover, and a space located between the cover and the sensor unit, and changing the traveling direction of the detection light; Is equipped.
  • the “sensor unit” means a constituent unit of a part that can be circulated by itself while having a desired information detection function.
  • light control surface means a surface that changes the direction of travel of light by intentionally causing refraction, reflection, diffraction and scattering of light. For example, even when light emitted from the lamp passes through the light transmitting cover in the lamp device, strictly, slight refraction or reflection of light occurs on the surface of the light transmitting cover. However, the surface of such a component intended solely to pass light is distinguished from the "light control surface" described above.
  • light means an electromagnetic wave having any wavelength.
  • light is a concept that includes not only visible light but also ultraviolet light, infrared light, millimeter waves and microwaves.
  • the light control surface appropriately changes the traveling direction of the detection light used for detecting information by the sensor unit, so that the desired detection range can be achieved with a high degree of freedom regardless of the arrangement of the sensor unit. It can be set. In other words, it is possible to ease the restriction on the layout of the sensor unit while setting the detection range in which the information outside the vehicle can be efficiently acquired.
  • One aspect for achieving the fourth problem described above is a sensor system mounted on a vehicle, With the housing, A cover that defines a storage chamber together with the housing and forms a part of an outer surface of the vehicle; A plurality of sensor units disposed in the storage chamber, each detecting information outside the vehicle; Equipped with At least one of the plurality of sensor units has a detection range wider in a second direction corresponding to the direction orthogonal to the first direction than the first direction corresponding to the vertical direction of the vehicle. The plurality of sensor units are arranged in the first direction.
  • the plurality of sensor units By arranging the plurality of sensor units in the direction in which the detection range is narrower, it is possible to prevent the distance between the sensor units from becoming wide even if the overlap of the detection ranges of the adjacent sensor units is reduced. On the other hand, when the detection ranges of the adjacent sensor units are to be matched, the adjustment amount of the detection direction required in each sensor unit can be reduced. Therefore, information on the outside of the vehicle can be efficiently detected while alleviating restrictions relating to the layout when a plurality of sensor units are mounted on the vehicle.
  • the “sensor unit” means a constituent unit of a part that can be circulated by itself while having a desired information detection function.
  • light means an electromagnetic wave having any wavelength.
  • light is a concept that includes not only visible light but also ultraviolet light, infrared light, millimeter waves and microwaves.
  • a first mode for achieving the fifth problem described above is a sensor system mounted on a vehicle, A sensor that detects information outside the vehicle; A communication unit that acquires infrastructure information via communication; A control unit that collates the information detected by the sensor with the infrastructure information acquired by the communication unit at a predetermined timing, and determines that the sensor is not normal if they do not match; Is equipped.
  • the sensor system according to the first aspect can be configured as follows.
  • the communication unit acquires the infrastructure information from map information stored in a storage device mounted on a vehicle.
  • the appropriate infrastructure information is acquired regardless of the external environment (weather, light and dark, radio wave condition, etc.) of the vehicle, and the sensor mounted on the vehicle and acquiring the external information of the vehicle operates normally. You can automatically determine if you
  • the sensor system according to the first aspect can be configured as follows.
  • the communication unit acquires the infrastructure information through communication with the outside of the vehicle.
  • the sensor system according to the first aspect can be configured as follows.
  • the predetermined timing is when the vehicle stops.
  • the sensor system according to the first aspect can be configured as follows. If it is determined that the sensor is not normal, the control unit causes the vehicle to perform at least one of notification processing and cancellation processing of automatic driving support.
  • a second mode for achieving the fifth problem described above is a sensor system mounted on a vehicle, A sensor that detects information related to the brightness outside the vehicle; A light source for illuminating the exterior of the vehicle; A control unit that blinks the light source at a predetermined timing and acquires an output from the sensor; Equipped with The control unit determines that the sensor is not normal when the output from the sensor does not correspond to the blinking.
  • the diagnostic system can be constructed at low cost by utilizing the light source illuminating the outside of the vehicle for determination.
  • the sensor system according to the second aspect can be configured as follows.
  • the blinking is repeated at a frequency that can not be visually recognized by humans.
  • the sensor system according to the second aspect can be configured as follows.
  • the predetermined timing is at the start of the vehicle.
  • the sensor system according to the second aspect can be configured as follows. If it is determined that the sensor is not normal, the control unit causes the vehicle to execute at least one of notification processing and automatic driving cancellation processing.
  • a third aspect for achieving the fifth object described above is a sensor system mounted on a vehicle, A first sensor mounted on a first portion of the vehicle to detect information outside the vehicle; A second sensor mounted on the second part of the vehicle to detect information outside the vehicle; A control unit that collates the information detected by the first sensor with the information detected by the second sensor at a predetermined timing, and determines that one of the first sensor and the second sensor is not normal if they do not match When, Is equipped.
  • the sensor system according to the third aspect can be configured as follows.
  • the external information is environmental information.
  • the sensor system according to the third aspect can be configured as follows.
  • the predetermined timing is periodic.
  • the sensor system according to the third aspect can be configured as follows. If it is determined that one of the first sensor and the second sensor is not normal, the control unit causes the vehicle to execute at least one of notification processing and automatic driving cancellation processing.
  • One aspect for achieving the sixth problem described above is a sensor system mounted on a vehicle, A sensor unit that detects information outside the vehicle including a distance and outputs data corresponding to the information; A processing unit that processes the data to obtain the information; Equipped with The processing unit performs processing excluding data corresponding to a space closer than a predetermined distance from the sensor unit. Sensor system.
  • the “sensor unit” means a constituent unit of a part that can be circulated by itself while having a desired information detection function.
  • the “predetermined distance from the sensor unit” in the present embodiment means the distance from any reference point on the sensor unit.
  • the reference point is a predetermined fixed point.
  • light means an electromagnetic wave having any wavelength.
  • light is a concept that includes not only visible light but also ultraviolet light, infrared light, millimeter waves and microwaves.
  • the above sensor system can be configured as follows.
  • the predetermined distance varies depending on the detection direction of the sensor unit.
  • the above sensor system can be configured as follows.
  • the predetermined distance is a distance to an outer surface of a cover that defines a storage chamber that stores the sensor unit.
  • the above sensor system can be configured as follows.
  • the processing unit acquires a temporal change of a detection result by the sensor unit at the predetermined distance.
  • the above sensor system can be configured as follows.
  • the processing unit acquires information outside the vehicle based on the image while referring to the temporal change.
  • the image data output from the camera unit does not include distance information in principle. Therefore, water droplets, dirt, scratches, etc. on the outer surface of the cover may be reflected in the image acquired by the camera unit.
  • processing for detecting the water droplets, stains, scratches and the like from the image data becomes unnecessary, and an increase in processing load can be suppressed.
  • the structure of the left front lamp device which concerns on 1st embodiment is shown typically. It is a figure showing a vehicle typically.
  • the structure of the 1st sensor unit in the front left lamp apparatus of FIG. 1 and a 2nd sensor unit is shown typically.
  • the structure of the 1st sensor unit and 2nd sensor unit in the left front lamp apparatus which concerns on 2nd embodiment is shown typically.
  • the structure of the 1st sensor unit and 2nd sensor unit in the left front lamp apparatus which concerns on 3rd embodiment is shown typically.
  • the structure concerning the support member and adjustment mechanism in the left front lamp device which concern on 3rd embodiment is shown typically.
  • the structure of the 1st sensor unit and 2nd sensor unit in the left front lamp apparatus which concerns on 4th embodiment is shown typically.
  • the structure of the 1st sensor unit and 2nd sensor unit in the left front lamp apparatus which concerns on 4th embodiment is shown typically.
  • the structure concerning the support member and adjustment mechanism in the left front lamp device which concern on 4th embodiment is shown typically.
  • the structure of the sensor unit in the left front lamp apparatus which concerns on 5th embodiment is shown typically.
  • the structure of the sensor unit in the left front lamp apparatus which concerns on 5th embodiment is shown typically.
  • the structure concerning the support member and adjustment mechanism in the left front lamp apparatus which concern on 5th embodiment is shown typically.
  • the modification of the left front lamp device which concerns on 5th embodiment is shown.
  • the external appearance of the front left sensor system which concerns on 6th embodiment is shown.
  • Fig. 15 shows an external view of a portion of the front left sensor system of Fig. 14; Fig.
  • FIG. 15 shows an external view of a portion of the front left sensor system of Fig. 14; Fig. 15 shows an external view of a portion of the front left sensor system of Fig. 14; FIG. 15 illustrates the configuration of part of the front left sensor system of FIG. 14;
  • the external appearance of the front left sensor system which concerns on 7th embodiment is shown.
  • the modification of front left sensor system concerning a 7th embodiment is shown.
  • the external appearance of the front left sensor system which concerns on 8th embodiment is shown.
  • the structure of the left front lamp device which concerns on 9th embodiment is shown typically.
  • FIG. 23 schematically shows a modification of the front left lamp device of FIG.
  • the structure of the left front lamp device which concerns on 10th embodiment is shown typically.
  • the structure of the left front lamp device which concerns on 11th embodiment is shown typically.
  • the structure of the left front lamp device which concerns on 12th embodiment is shown typically.
  • the configuration of the left front lamp device according to the thirteenth embodiment is schematically shown.
  • the structure of the left front lamp device which concerns on 14th embodiment is shown typically.
  • the configuration of the left front lamp device according to the fifteenth embodiment is schematically shown.
  • the configuration of the front left sensor device according to the sixteenth embodiment is schematically shown.
  • the configuration of the left front sensor system according to the seventeenth embodiment is schematically shown.
  • the detection range of each sensor unit in the front left sensor system of FIG. 31 is shown. It is a figure for demonstrating the advantage of arrangement
  • the configuration of the sensor system according to the eighteenth embodiment is schematically shown.
  • the detection range of the LiDAR sensor unit of the left front lamp apparatus of FIG. 41 is shown.
  • the arrow F indicates the forward direction of the illustrated structure.
  • Arrow B indicates the rearward direction of the illustrated structure.
  • Arrow L indicates the left direction of the illustrated structure.
  • Arrow R indicates the rightward direction of the illustrated structure.
  • Arrow U indicates the upward direction of the illustrated structure.
  • Arrow D indicates the downward direction of the illustrated structure. “Left” and “right” used in the following description indicate the left and right directions as viewed from the driver's seat.
  • FIG. 1 schematically shows the configuration of the front left lamp device 1010 according to the first embodiment.
  • the left front lamp unit 1010 is mounted at the left front corner LF of the vehicle 100 shown in FIG.
  • a front right lamp device having a configuration symmetrical to the front left lamp device 1010 is mounted.
  • the left front lamp device 1010 includes a housing 1011 and a light transmitting cover 1012.
  • Light transmitting cover 1012 forms a part of the outer surface of vehicle 100.
  • the light transmission cover 1012 defines the lamp chamber 1013 together with the housing 1011.
  • the left front lamp unit 1010 includes a first lamp unit 1014.
  • the first lamp unit 1014 is a lamp that emits light toward a region including the front of the vehicle 100.
  • the first lamp unit 1014 is, for example, a headlight.
  • the left front lamp unit 1010 includes a second lamp unit 1015.
  • the second lamp unit 1015 is a lamp that emits light toward a region including the front of the vehicle 100.
  • the second lamp unit 1015 is, for example, a direction indicator light.
  • the left front lamp unit 1010 includes a first sensor unit 1016.
  • the first sensor unit 1016 includes a LiDAR sensor 1161 and a half mirror 1162.
  • the LiDAR sensor 1161 has a configuration for emitting non-visible light, and a configuration for detecting return light resulting from reflection of the non-visible light at least on an object present in front of the vehicle 100.
  • the front of the vehicle 100 is an example of the exterior of the vehicle.
  • the LiDAR sensor 1161 can include a scanning mechanism that sweeps the non-visible light by changing the emission direction (ie, the detection direction) as necessary.
  • infrared light with a wavelength of 905 nm is used as non-visible light.
  • the LiDAR sensor 1161 can obtain the distance to the object associated with the return light based on, for example, the time from when the invisible light is emitted in a certain direction to when the return light is detected. Also, by integrating such distance data in association with the detection position, it is possible to obtain information related to the shape of the object associated with the return light. In addition to or instead of this, information related to an attribute such as the material of the object associated with the return light can be acquired based on the difference between the wavelengths of the emitted light and the return light.
  • the LiDAR sensor 1161 is a sensor that detects at least information in front of the vehicle 100.
  • the LiDAR sensor 1161 outputs a signal corresponding to the attribute (intensity, wavelength, etc.) of the detected return light.
  • the above information is acquired by appropriately processing a signal output from the LiDAR sensor 1161 by an information processing unit (not shown).
  • the information processing unit may be provided in the front left lamp device 1010 or may be mounted on the vehicle 100.
  • the half mirror 1162 is an example of an optical member.
  • the half mirror 1162 has a structure in which a reflective film is vapor-deposited on a transparent substrate.
  • the reflective film is formed of a material that can transmit non-visible light emitted from the LiDAR sensor 1161. Examples of such materials include tin (Sn), silver (Ag), calcium fluoride (CaF 2 ), titanium oxide (TiO 2 ), potassium bromide (KBr).
  • the half mirror 1162 is arranged to cover the detection surface 1161 a of the LiDAR sensor 1161 from the side where the light transmission cover 1012 is located.
  • the visible light coming from the outside of the vehicle 100 through the light transmitting cover 1012 and coming into the lamp chamber 1013 is reflected by the reflective film of the half mirror 1162. Therefore, the half mirror 1162 is viewed from the outside like a mirror, and the visibility of the LiDAR sensor 1161 disposed behind decreases.
  • the “detection surface of the LiDAR sensor” means a surface having a portion through which invisible light related to detection of information passes, of the outer surface exhibiting the appearance of the LiDAR sensor.
  • the light transmitting cover 1012 has a first transparency to visible light.
  • the reflective film of the half mirror 1162 has a second transparency to the visible light. The second transparency is lower than the first transparency.
  • the reflective film of the half mirror 1162 is an example of the low transparent portion.
  • the LiDAR sensor 1161 is disposed in the lamp chamber 1013 of the left front lamp unit 1010.
  • the LiDAR sensor 1161 it is common for the LiDAR sensor 1161 to have relatively large dimensions and have a very different appearance than the lamp. Therefore, it is difficult to secure an installation place where the LiDAR sensor 1161 can detect information while avoiding interference with the lamp, and to avoid a sense of discomfort in appearance.
  • the layout restrictions that occur when trying to place the LiDAR sensor 1161 in the lamp chamber 1013 can be alleviated.
  • the half mirror 1162 covers the detection surface 1161 a of the LiDAR sensor 1161, it allows transmission of non-visible light used for detection. Thus, the half mirror 1162 does not prevent the detection of information by the LiDAR sensor 1161. This fact can also alleviate the layout restrictions that occur when trying to place the LiDAR sensor 1161 in the light chamber 1013.
  • the front left lamp device 1010 includes an extension member 1017.
  • the extension member 1017 is a design component that covers and hides a part of the structure disposed in the lamp chamber 1013 so as not to be visible from the outside of the vehicle 100.
  • the surface of the extension member 1017 is generally mirror finished.
  • the appearance of half mirror 1162 is similar to a mirror finished surface. Therefore, the presence of the half mirror 1162 can suppress the possibility of the appearance of discomfort.
  • the first sensor unit 1016 includes a light blocking member 1163.
  • the light blocking member 1163 is provided to prevent light from entering between the LiDAR sensor 1161 and the half mirror 1162.
  • the light blocking member 1163 is provided to prevent the occurrence of such a situation.
  • the light blocking member 1163 is particularly effective when at least one of the first lamp unit 1014 and the second lamp unit 1015 is lit.
  • the configuration of the first sensor unit 1016 including the half mirror 1162 is also applicable to other sensors that use infrared light to detect information.
  • An example of such a sensor is an infrared camera.
  • the left front lamp unit 1010 is provided with a second sensor unit 1018.
  • the second sensor unit 1018 includes a millimeter wave radar 1181 and a half mirror 1182.
  • the millimeter wave radar 1181 has a configuration for transmitting a millimeter wave, and a configuration for receiving a reflected wave resulting from reflection of the millimeter wave on an object present at least to the left of the vehicle 100.
  • the left side of the vehicle 100 is an example of the outside of the vehicle.
  • a millimeter wave having a frequency of 76 GHz is used. Examples of other frequencies include 24 GHz, 26 GHz, 79 GHz and the like.
  • the millimeter wave radar 1181 can obtain the distance to the object associated with the reflected wave, based on, for example, the time from when the millimeter wave is transmitted in a certain direction to when the reflected wave is received. Also, by integrating such distance data in association with the detection position, it is possible to obtain information related to the movement of the object associated with the reflected wave.
  • the millimeter wave radar 1181 functions as a sensor for acquiring at least information on the left side of the vehicle 100.
  • the millimeter wave radar 1181 outputs a signal corresponding to the detected reflected wave.
  • the above information is acquired by appropriately processing a signal output from the millimeter wave radar 1181 by an information processing unit (not shown).
  • the information processing unit may be provided in the front left lamp device 1010 or may be mounted on the vehicle 100.
  • the half mirror 1182 is an example of an optical member.
  • the half mirror 1182 has a structure in which a reflective film is vapor-deposited on a transparent substrate.
  • the reflective film is formed of a material capable of transmitting millimeter waves emitted from the millimeter wave radar 1181. Examples of such materials include indium (In) and nickel (Ni).
  • the half mirror 1182 is disposed so as to cover the detection surface 1181 a of the millimeter wave radar 1181 from the side where the light transmission cover 1012 is located.
  • the visible light coming from the outside of the vehicle 100 through the translucent cover 1012 and coming into the lamp chamber 1013 is reflected by the reflective film of the half mirror 1182. Therefore, the half mirror 1182 is viewed from the outside like a mirror, and the visibility of the millimeter wave radar 1181 disposed behind decreases.
  • the “detection surface of the millimeter wave radar” means a surface having a portion through which the millimeter waves related to detection of information pass, of the outer surface exhibiting the appearance of the millimeter wave radar.
  • the light transmitting cover 1012 has a first transparency to visible light.
  • the reflective film of the half mirror 1182 has a second transparency to the visible light. The second transparency is lower than the first transparency.
  • the reflective film of the half mirror 1182 is an example of the low transparent portion.
  • the millimeter wave radar 1181 is disposed in the lamp chamber 1013 of the left front lamp unit 1010.
  • the millimeter wave radar 1181 it is common for the millimeter wave radar 1181 to have relatively large dimensions and to have a very different appearance than the lamp. Therefore, it is difficult to secure the installation place where the millimeter wave radar 1181 can detect the information while avoiding the interference with the lamp, and to avoid the discomfort in the appearance.
  • the visibility of the millimeter wave radar 1181 is reduced by the half mirror 1182, so that it is possible to reduce at least the restriction on the sense of incongruity in appearance. Therefore, layout restrictions that occur when trying to arrange the millimeter wave radar 1181 in the light chamber 1013 can be alleviated.
  • the half mirror 1182 covers the detection surface 1181a of the millimeter wave radar 1181, it allows transmission of the millimeter wave used for detection. Therefore, the half mirror 1182 does not prevent the detection of information by the millimeter wave radar 1181. This fact can also alleviate the layout restrictions that occur when trying to place the millimeter wave radar 1181 in the light chamber 1013.
  • the appearance of the half mirror 1182 is similar to the mirror finished surface of the extension member 1017. Therefore, the presence of the half mirror 1182 can suppress the possibility of the appearance of discomfort.
  • a configuration similar to that of the second sensor unit 1018 may be provided to detect information of an area including at least the front of the vehicle 100. That is, in addition to or instead of the LiDAR sensor or the infrared camera, the information of the area including at least the front of the vehicle 100 can be acquired by the millimeter wave radar.
  • a configuration similar to that of the first sensor unit 1016 may be provided to detect information of a region including at least the left side of the vehicle 100. That is, in addition to or instead of the millimeter wave radar, information of a region including at least the front of the vehicle 100 can be acquired by at least one of the LiDAR sensor and the infrared camera.
  • the type and number of sensors for detecting information of an area including at least the front of the vehicle 100 can be appropriately determined according to the specification of the left front lamp device 1010.
  • the type and number of sensors for detecting information of an area including at least the left side of the vehicle 100 can be appropriately determined according to the specification of the left front lamp device 1010.
  • the configuration of the left front lamp unit 1010 is also applicable to the left rear lamp unit.
  • the left rear lamp unit is mounted on the left rear corner LB of the vehicle 100 shown in FIG.
  • the basic configuration of the left rear lamp unit may be symmetrical with the left front lamp unit 1010.
  • the specifications of the first lamp unit 1014 and the second lamp unit 1015 may be changed as appropriate.
  • the specifications of the LiDAR sensor 1161 and the millimeter wave radar 1181 may also be changed as appropriate.
  • the configuration of the front left lamp device 1010 is also applicable to the rear right lamp device.
  • the right rear lamp unit is mounted at the right rear corner RB of the vehicle 100 shown in FIG.
  • the basic configuration of the right rear lamp unit is symmetrical to the left rear lamp unit described above.
  • the left front lamp unit 1020 is mounted on the left front corner LF of the vehicle 100 shown in FIG.
  • a front right lamp device having a configuration symmetrical with the front left lamp device 1020 is mounted.
  • the left front lamp unit 1020 includes a first sensor unit 1026 and a second sensor unit 1028.
  • the other configuration is the same as that of the front left lamp device 1010 according to the first embodiment, and thus the description thereof will not be repeated.
  • the first sensor unit 1026 includes a LiDAR sensor 1261.
  • the configuration of the LiDAR sensor 1261 is the same as that of the LiDAR sensor 1161 according to the first embodiment.
  • the first sensor unit 1026 includes an EL panel 1262.
  • EL is a shorthand for electroluminescence.
  • the EL panel 1262 is an optical member that emits light so as to include a predetermined wavelength based on a control signal input from a drive circuit (not shown).
  • the EL panel 1262 has a transparent substrate. The material of the substrate is selected so as to be transparent not only to visible light but also to non-visible light that the LiDAR sensor 1261 uses to detect information.
  • the EL panel 1262 may be an organic EL panel or an inorganic EL panel. The light emitted from the EL panel 1262 passes through the light transmitting cover 1012 and travels to the outside of the vehicle 100.
  • the EL panel 1262 is arranged to cover the detection surface 1261 a of the LiDAR sensor 1261 from the side where the light transmission cover 1012 (not shown) is located.
  • the EL panel 1262 emits light by itself, a color corresponding to the wavelength of the light is viewed outside the vehicle 100. This reduces the visibility of the LiDAR sensor 1261 disposed behind.
  • the translucent cover 1012 has the first transparency to visible light. It can be said that the EL panel 1262 at least temporarily has a second transparency to the visible light. The second transparency is lower than the first transparency. That is, the EL panel 1262 is configured to form a low transparent portion by light emission.
  • the LiDAR sensor 1261 can detect information in the lamp chamber 1013 while avoiding interference with the lamp, and to avoid an unnatural appearance.
  • the configuration of the present embodiment since the visibility of the LiDAR sensor 1261 is reduced by the EL panel 1262, it is possible to reduce at least the restriction on the sense of incongruity in appearance. Therefore, the layout restrictions that occur when trying to place the LiDAR sensor 1261 in the lamp chamber 1013 can be alleviated.
  • the EL panel 1262 covers the detection surface 1261 a of the LiDAR sensor 1261, it allows transmission of non-visible light used for detection. Thus, the EL panel 1262 does not prevent the detection of information by the LiDAR sensor 1261. This fact can also alleviate the layout restrictions that occur when trying to place the LiDAR sensor 1261 in the light chamber 1013.
  • the color of light emitted from the EL panel 1262 can be determined as appropriate. Therefore, it is possible to provide a lamp device that not only reduces the visibility of the LiDAR sensor 1261 but also exhibits a novel appearance during operation.
  • the configuration of the first sensor unit 1026 including the EL panel 1262 is also applicable to other sensors that use infrared light to detect information.
  • An example of such a sensor is an infrared camera.
  • the second sensor unit 1028 is provided with a millimeter wave radar 1281.
  • the configuration of the millimeter wave radar 1281 is the same as the millimeter wave radar 1181 according to the first embodiment.
  • the second sensor unit 1028 includes an EL panel 1282.
  • the EL panel 1282 is a transparent optical member that emits light so as to include a predetermined wavelength based on a control signal input from a drive circuit (not shown).
  • the EL panel 1282 has a transparent substrate.
  • the material of the base material is selected so as to be transparent to not only visible light but also millimeter waves used by the millimeter wave radar 1281 to detect information.
  • the EL panel 1282 may be an organic EL panel or an inorganic EL panel. The light emitted from the EL panel 1282 passes through the light transmitting cover 1012 and travels to the outside of the vehicle 100.
  • the EL panel 1282 is arranged to cover the detection surface 1281 a of the millimeter wave radar 1281 from the side where the light transmission cover 1012 (not shown) is located.
  • the EL panel 1282 emits light by itself, a color corresponding to the wavelength of the light is viewed on the outside of the vehicle 100. This reduces the visibility of the millimeter wave radar 1281 disposed behind.
  • the translucent cover 1012 has the first transparency to visible light. It can be said that the EL panel 1282 at least temporarily has a second transparency to the visible light. The second transparency is lower than the first transparency. That is, the EL panel 1282 is configured to form a low transparent portion by light emission.
  • the millimeter wave radar 1281 can detect information in the lamp chamber 1013 while avoiding the interference with the lamp, and to avoid the discomfort in the appearance.
  • the visibility of the millimeter wave radar 1281 is reduced by the EL panel 1282, so that at least a restriction relating to a sense of incongruity in appearance can be alleviated. Therefore, the layout restrictions that occur when trying to arrange the millimeter wave radar 1281 in the light chamber 1013 can be alleviated.
  • the EL panel 1282 covers the detection surface 1281 a of the millimeter wave radar 1281, it allows transmission of millimeter waves used for detection. Therefore, the EL panel 1282 does not prevent the detection of information by the millimeter wave radar 1281. This fact can also alleviate the layout restrictions that occur when trying to place the millimeter wave radar 1281 in the light chamber 1013.
  • the color of light emitted from the EL panel 1282 can be determined as appropriate. Therefore, it is possible to provide a lamp device that not only reduces the visibility of the millimeter wave radar 1281 but also exhibits a novel appearance during operation.
  • a configuration similar to that of the second sensor unit 1028 may be provided to detect information of an area including at least the front of the vehicle 100. That is, in addition to or instead of the LiDAR sensor or the infrared camera, the information of the area including at least the front of the vehicle 100 can be acquired by the millimeter wave radar.
  • a configuration similar to that of the first sensor unit 1026 may be provided to detect information of a region including at least the left side of the vehicle 100. That is, in addition to or instead of the millimeter wave radar, information of a region including at least the front of the vehicle 100 can be acquired by at least one of the LiDAR sensor and the infrared camera.
  • the type and number of sensors for detecting information of an area including at least the front of the vehicle 100 can be appropriately determined according to the specification of the left front lamp unit 1020.
  • the type and number of sensors for detecting information of an area including at least the left side of the vehicle 100 can be appropriately determined according to the specification of the left front lamp unit 1020.
  • the configuration of the front left lamp unit 1020 is also applicable to the rear left lamp unit.
  • the left rear lamp unit is mounted on the left rear corner LB of the vehicle 100 shown in FIG.
  • the basic configuration of the left rear lamp unit may be symmetrical with the left front lamp unit 1020.
  • the specifications of the LiDAR sensor 1261 and the millimeter wave radar 1281 may also be changed as appropriate.
  • At least one of the EL panel 1262 and the EL panel 1282 is replaced with at least one of the first lamp unit 1014 and the second lamp unit 1015 as a lamp such as a stop lamp, a brake lamp, a direction indicator lamp Available.
  • the LiDAR sensor, the infrared camera, or the millimeter wave radar can be disposed behind the lamp, the limited space in the lamp chamber can be effectively utilized.
  • the configuration of the front left lamp unit 1020 is also applicable to the rear right lamp unit.
  • the right rear lamp unit is mounted at the right rear corner RB of the vehicle 100 shown in FIG.
  • the basic configuration of the right rear lamp unit is symmetrical to the left rear lamp unit described above.
  • the left front lamp unit 1030 is mounted at the left front corner LF of the vehicle 100 shown in FIG.
  • a front right lamp device having a configuration symmetrical with the front left lamp device 1030 is mounted.
  • the left front lamp unit 1030 includes a first sensor unit 1036 and a second sensor unit 1038.
  • the other configuration is the same as that of the front left lamp device 1010 according to the first embodiment, and thus the description thereof will not be repeated.
  • the first sensor unit 1036 includes a LiDAR sensor 1361.
  • the configuration of the LiDAR sensor 1361 is the same as that of the LiDAR sensor 1161 according to the first embodiment.
  • the first sensor unit 1036 includes a light guide member 1362 and a light source 1363.
  • the light guide member 1362 is a transparent optical member.
  • the light emitted from the light source 1363 enters the light guide member 1362 and is subjected to at least one of internal reflection, scattering, and diffusion. As a result, the light emitted from the light guide member 1362 passes through the light transmitting cover 1012 and travels to the outside of the vehicle 100.
  • the light source 1363 is a lamp light source or a light emitting element configured to emit light including a predetermined wavelength.
  • lamp light sources include incandescent lamps, halogen lamps, discharge lamps, and neon lamps.
  • light emitting elements include light emitting diodes, laser diodes, and EL elements.
  • the light guide member 1362 is disposed so as to partially cover the detection surface 1361 a of the LiDAR sensor 1361 from the side where the light transmitting cover 1012 (not shown) is located.
  • the light guide member 1362 appears to be emitting light in a color corresponding to the wavelength of the light from the outside of the vehicle 100. This reduces the visibility of the LiDAR sensor 1361 disposed behind.
  • the translucent cover 1012 has the first transparency to visible light. It can be said that the light guide member 1362 at least temporarily has a second transparency to the visible light. The second transparency is lower than the first transparency. That is, the light guide member 1362 is configured to form a low transparent portion by light emission.
  • the visibility of the LiDAR sensor 1361 is reduced by the light guide member 1362, so that at least the restriction on the sense of incongruity in appearance can be alleviated. Therefore, the layout restrictions that occur when trying to place the LiDAR sensor 1361 in the lamp chamber 1013 can be alleviated.
  • the color of the light emitted from the light guide member 1362 may be appropriately determined.
  • the material of the light guide member 1362 is preferably selected to be transparent to not only visible light but also non-visible light that the LiDAR sensor 1361 uses to detect information.
  • the light guide member 1362 covers a part of the detection surface 1361 a of the LiDAR sensor 1361, it allows transmission of nonvisible light used for detection. Therefore, the light guide member 1362 does not prevent the detection of information by the LiDAR sensor 1361. This fact can also alleviate the layout restrictions that occur when trying to place the LiDAR sensor 1361 in the light chamber 1013.
  • the light guide member 1362 is configured to avoid a portion of the detection surface 1361 a of the LiDAR sensor 1361 through which non-visible light passes. Is preferably arranged. In this case, the process of removing the information related to the reflection by the light guide member 1362 from the information detected by the LiDAR sensor 1361 can be omitted.
  • the first sensor unit 1036 includes a support member 1364.
  • the support member 1364 is disposed in the lamp chamber 1013.
  • the support member 1364 supports the LiDAR sensor 1361, the light guide member 1362, and the light source 1363.
  • the relative positional relationship between the LiDAR sensor 1361, the light guide member 1362, and the light source 1363 is maintained by the support member 1364.
  • the first sensor unit 1036 is provided with a leveling screw 1365.
  • the horizontal adjustment screw 1365 is an example of an adjustment mechanism.
  • a leveling screw 1365 extends through the housing 1011.
  • the horizontal adjustment screw 1365 is connected to the support member 1364 via a joint (not shown).
  • the head portion 1365 a of the horizontal adjustment screw 1365 is disposed outside the housing 1011.
  • the "horizontal surface” used here does not have to coincide with the exact horizontal surface. The construction itself of the joint is well known, and thus the detailed description is omitted.
  • the first sensor unit 1036 comprises a vertical adjustment screw 1366.
  • the vertical adjustment screw 1366 is an example of an adjustment mechanism.
  • a vertical adjustment screw 1366 extends through the housing 1011.
  • the vertical adjustment screw 1366 is connected to the support member 1364 via a joint (not shown).
  • the head portion 1366 a of the vertical adjustment screw 1366 is disposed outside the housing 1011.
  • the rotation of the vertical adjustment screw 1366 is converted by the above-mentioned joint into a motion that changes the posture of the support member 1364 in the vertical plane.
  • the "vertical plane” used here does not have to coincide with the exact vertical plane.
  • the construction itself of the joint is well known, and thus the detailed description is omitted.
  • the attitude adjustment of the support member 1364 is performed to adjust at least one of the detection reference position of the LiDAR sensor 1361 and the light emission direction from the light guide member 1362. As described above, the relative positional relationship between the LiDAR sensor 1361, the light guide member 1362, and the light source 1363 is maintained by the support member 1364. Therefore, it is not necessary to separately perform the adjustment and the adjustment for maintaining the effect of reducing the visibility of the LiDAR sensor 1361 by the light guide member 1362.
  • the leveling screw 1365 can be replaced by an actuator capable of adjusting at least one of the position and the attitude of the support member 1364 in the horizontal plane.
  • the vertical adjustment screw 1366 can be replaced by an actuator capable of adjusting at least one of the position and the attitude in the vertical plane of the support member 1364.
  • the configuration of the first sensor unit 1036 including the light guide member 1362 and the light source 1363 is also applicable to other sensors that use infrared light to detect information.
  • An example of such a sensor is an infrared camera.
  • the second sensor unit 1038 includes a millimeter wave radar 1381.
  • the configuration of the millimeter wave radar 1381 is the same as the millimeter wave radar 1181 according to the first embodiment.
  • the second sensor unit 1038 includes a light guide member 1382 and a light source 1383.
  • the light guide member 1382 is a transparent optical member.
  • the light emitted from the light source 1383 enters the light guide member 1382 and is subjected to at least one of internal reflection, scattering, and diffusion. As a result, the light emitted from the light guide member 1382 passes through the light transmitting cover 1012 and travels to the outside of the vehicle 100.
  • the light source 1383 is a lamp light source or a light emitting element configured to emit light including a predetermined wavelength.
  • lamp light sources include incandescent lamps, halogen lamps, discharge lamps, and neon lamps.
  • light emitting elements include light emitting diodes, laser diodes, and EL elements.
  • the light guide member 1382 is arranged to partially cover the detection surface 1381 a of the millimeter wave radar 1381 from the side where the light transmission cover 1012 (not shown) is located.
  • the light guide member 1382 appears to be emitting light of a color corresponding to the wavelength of the light from the outside of the vehicle 100. This reduces the visibility of the millimeter wave radar 1381 disposed behind.
  • the translucent cover 1012 has the first transparency to visible light. It can be said that the light guide member 1382 at least temporarily has a second transparency to the visible light. The second transparency is lower than the first transparency. That is, the light guide member 1382 is configured to form a low transparent portion by light emission.
  • the millimeter wave radar 1381 can detect information in the lamp chamber 1013 while avoiding interference with the lamp, and to avoid an unnatural appearance.
  • the visibility of the millimeter wave radar 1381 is reduced by the light guide member 1382. Therefore, at least the restriction relating to the sense of incongruity in appearance can be alleviated. Therefore, the layout restrictions that occur when trying to arrange the millimeter wave radar 1381 in the light chamber 1013 can be alleviated.
  • the color of the light emitted from the light guide member 1382 can be appropriately determined. Therefore, it is possible to provide a lamp device that not only reduces the visibility of the millimeter wave radar 1381 but also exhibits a novel appearance during operation.
  • the light guide member 1382 covers a part of the detection surface 1381a of the millimeter wave radar 1381, it allows transmission of the millimeter wave used for detection. Thus, the light guiding member 1382 does not prevent the detection of information by the millimeter wave radar 1381. This fact can also alleviate the layout restrictions that occur when trying to place the millimeter wave radar 1381 in the light chamber 1013.
  • the second sensor unit 1038 includes a support member 1384.
  • the support member 1384 is disposed in the lamp chamber 1013.
  • the support member 1384 supports the millimeter wave radar 1381, the light guide member 1382, and the light source 1383. The relative positional relationship between the millimeter wave radar 1381, the light guide member 1382 and the light source 1383 is maintained by the support member 1384.
  • the second sensor unit 1038 is provided with a leveling screw 1385.
  • the horizontal adjustment screw 1385 is an example of an adjustment mechanism.
  • a leveling screw 1385 extends through the housing 1011.
  • the horizontal adjustment screw 1385 is connected to the support member 1384 via a joint (not shown).
  • the head portion 1385 a of the horizontal adjustment screw 1385 is disposed outside the housing 1011.
  • the "horizontal surface” used here does not have to coincide with the exact horizontal surface. The construction itself of the joint is well known, and thus the detailed description is omitted.
  • the second sensor unit 1038 includes a vertical adjustment screw 1386.
  • the vertical adjustment screw 1386 is an example of an adjustment mechanism.
  • a vertical adjustment screw 1386 extends through the housing 1011.
  • the vertical adjustment screw 1386 is connected to the support member 1384 via a joint (not shown).
  • the head portion 1386 a of the vertical adjustment screw 1386 is disposed outside the housing 1011.
  • the rotation of the vertical adjustment screw 1386 is converted by the above-mentioned joint into a motion that changes the posture of the support member 1384 in the vertical plane.
  • the "vertical plane” used here does not have to coincide with the exact vertical plane.
  • the construction itself of the joint is well known, and thus the detailed description is omitted.
  • the attitude adjustment of the support member 1384 is performed to adjust at least one of the detection reference position of the millimeter wave radar 1381 and the light emission direction from the light guide member 1382. As described above, the relative positional relationship between the millimeter wave radar 1381, the light guide member 1382 and the light source 1383 is maintained by the support member 1384. Therefore, it is not necessary to separately perform the adjustment described above and the adjustment for maintaining the effect of reducing the visibility of the millimeter wave radar 1381 by the light guide member 1382.
  • the leveling screw 1385 can be replaced by an actuator capable of adjusting at least one of the position and the attitude of the support member 1384 in the horizontal plane.
  • the vertical adjustment screw 1386 can be replaced by an actuator capable of adjusting at least one of the position and the attitude in the vertical plane of the support member 1384.
  • a configuration similar to that of the second sensor unit 1038 may be provided to detect information of an area including at least the front of the vehicle 100. That is, in addition to or instead of the LiDAR sensor or the infrared camera, the information of the area including at least the front of the vehicle 100 can be acquired by the millimeter wave radar.
  • a configuration similar to that of the first sensor unit 1036 may be provided to detect information of a region including at least the left side of the vehicle 100. That is, in addition to or instead of the millimeter wave radar, information of a region including at least the front of the vehicle 100 can be acquired by at least one of the LiDAR sensor and the infrared camera.
  • the type and number of sensors for detecting information of an area including at least the front of the vehicle 100 can be appropriately determined according to the specifications of the left front lamp unit 1030.
  • the type and number of sensors for detecting information of an area including at least the left side of the vehicle 100 can be appropriately determined according to the specification of the left front lamp unit 1030.
  • the configuration of the front left lamp unit 1030 is also applicable to the rear left lamp unit.
  • the left rear lamp unit is mounted on the left rear corner LB of the vehicle 100 shown in FIG.
  • the basic configuration of the left rear lamp unit may be symmetrical with the left front lamp unit 1010.
  • the specifications of the first lamp unit 1014 and the second lamp unit 1015 may be changed as appropriate.
  • the specifications of the LiDAR sensor 1361 and the millimeter wave radar 1381 may also be changed as appropriate.
  • the configuration of the front left lamp unit 1030 is also applicable to the rear right lamp unit.
  • the right rear lamp unit is mounted at the right rear corner RB of the vehicle 100 shown in FIG.
  • the basic configuration of the right rear lamp unit is symmetrical to the left rear lamp unit described above.
  • the left front lamp unit 1040 is mounted on the left front corner LF of the vehicle 100 shown in FIG.
  • a front right lamp device having a configuration symmetrical to the front left lamp device 1040 is mounted.
  • the left front lamp unit 1040 includes a first sensor unit 1046 and a second sensor unit 1048.
  • the other configuration is the same as that of the front left lamp device 1010 according to the first embodiment, and thus the description thereof will not be repeated.
  • the first sensor unit 1046 includes a LiDAR sensor 1461.
  • the configuration of the LiDAR sensor 1461 is the same as that of the LiDAR sensor 1161 according to the first embodiment.
  • the first sensor unit 1046 includes a plurality of louvers 1462.
  • each louver 1462 is an optical member having a surface capable of reflecting non-visible light emitted from the LiDAR sensor 1461.
  • the non-visible light reflected by each louver 1462 passes through the light transmission cover 1012 and goes outward of the vehicle 100.
  • Return light from an object located outside the vehicle 100 is reflected by each louver 1462 and enters the detection surface 1461 a of the LiDAR sensor 1461.
  • the plurality of louvers 1462 are arranged to cover the detection surface 1461 a of the LiDAR sensor 1461 from the side where the light transmission cover 1012 (not shown) is located.
  • Each louver 1462 has an opaque appearance when viewed from the outside of the vehicle 100. Therefore, the visibility of the LiDAR sensor 1461 disposed behind is reduced.
  • the translucent cover 1012 has the first transparency to visible light.
  • Each louver 1462 can be said to have a second transparency to the visible light. The second transparency is lower than the first transparency.
  • Each louver 1462 is an example of the low transparent portion.
  • the LiDAR sensor 1461 detects the information outside the vehicle 100 using the reflection by the low transparent portion.
  • the visibility of the LiDAR sensor 1461 is reduced by the plurality of louvers 1462. Therefore, at least the restriction relating to the sense of incongruity in appearance can be alleviated. Therefore, the layout restrictions that occur when trying to place the LiDAR sensor 1461 in the lamp chamber 1013 can be alleviated.
  • the plurality of louvers 1462 covers the detection surface 1461a of the LiDAR sensor 1461, the plurality of louvers 1462 allow passage by reflection of non-visible light used for detection. Thus, the plurality of louvers 1462 does not prevent the detection of information by the LiDAR sensor 1461. This fact can also alleviate the layout restrictions that occur when trying to place the LiDAR sensor 1461 in the light chamber 1013.
  • the first sensor unit 1046 includes a support member 1464.
  • the support member 1464 is disposed in the lamp chamber 1013.
  • the support member 1464 supports the LiDAR sensor 1461 and a plurality of louvers 1462. The relative positional relationship between the LiDAR sensor 1461 and each louver 1462 is maintained by the support member 1464.
  • the first sensor unit 1046 is provided with a leveling screw 1465.
  • the horizontal adjustment screw 1465 is an example of an adjustment mechanism.
  • a leveling screw 1465 extends through the housing 1011.
  • the horizontal adjustment screw 1465 is connected to the support member 1464 via a joint (not shown).
  • the head portion 1465 a of the horizontal adjustment screw 1465 is disposed outside the housing 1011.
  • the "horizontal surface” used here does not have to coincide with the exact horizontal surface. The construction itself of the joint is well known, and thus the detailed description is omitted.
  • the first sensor unit 1046 is provided with a vertical adjustment screw 1466.
  • the vertical adjustment screw 1466 is an example of an adjustment mechanism.
  • Vertical adjustment screw 1466 extends through housing 1011.
  • the vertical adjustment screw 1466 is connected to the support member 1464 via a joint (not shown).
  • the head portion 1466 a of the vertical adjustment screw 1466 is disposed outside the housing 1011.
  • the rotation of the vertical adjustment screw 1466 is converted by the above-mentioned joint into a motion that changes the posture of the support member 1464 in the vertical plane.
  • the "vertical plane” used here does not have to coincide with the exact vertical plane.
  • the construction itself of the joint is well known, and thus the detailed description is omitted.
  • the attitude adjustment of the support member 1464 is performed to adjust at least one of the detection reference position of the LiDAR sensor 1461 and the light reflection direction from each louver 1462. As described above, the relative positional relationship between the LiDAR sensor 1461 and each louver 1462 is maintained by the support member 1464. Therefore, it is not necessary to separately perform the adjustment and the adjustment for maintaining the effect of reducing the visibility of the LiDAR sensor 1461 by the plurality of louvers 1462.
  • the leveling screw 1465 can be replaced by an actuator capable of adjusting at least one of the position and the attitude of the support member 1464 in the horizontal plane.
  • the vertical adjustment screw 1466 can be replaced by an actuator capable of adjusting at least one of the position and the attitude in the vertical plane of the support member 1464.
  • the configuration of the first sensor unit 1046 comprising a plurality of louvers 1462 is also applicable to other sensors that use infrared light to detect information.
  • An example of such a sensor is an infrared camera.
  • the second sensor unit 1048 is provided with a millimeter wave radar 1481.
  • the configuration of the millimeter wave radar 1481 is the same as the millimeter wave radar 1181 according to the first embodiment.
  • the second sensor unit 1048 includes a plurality of louvers 1482.
  • each louver 1482 is an optical member having a surface capable of reflecting the millimeter wave emitted from the millimeter wave radar 1481.
  • the millimeter waves reflected by each louver 1482 pass through the light transmission cover 1012 and go outward of the vehicle 100.
  • a reflected wave from an object located outside of the vehicle 100 is reflected by each louver 1482 to make the millimeter wave radar incident on the detection surface 1481a of 1481.
  • the plurality of louvers 1482 are arranged to cover the detection surface 1481 a of the millimeter wave radar 1481 from the side where the light transmission cover 1012 (not shown) is located.
  • Each louver 1482 has an opaque appearance when viewed from the outside of the vehicle 100. Therefore, the visibility of the millimeter wave radar 1481 disposed behind is reduced.
  • the translucent cover 1012 has the first transparency to visible light.
  • Each louver 1482 can be said to have a second transparency to the visible light. The second transparency is lower than the first transparency.
  • Each louver 1482 is an example of the low transparent portion.
  • the millimeter wave radar 1481 detects the information outside the vehicle 100 using the reflection by the low transparent portion.
  • the millimeter wave radar 1481 can detect information in the lamp chamber 1013 while avoiding the interference with the lamp, and to avoid the unnatural appearance.
  • the visibility of the millimeter wave radar 1481 is reduced by the plurality of louvers 1482, it is possible to reduce at least the restriction on the sense of incongruity in appearance. Therefore, it is possible to reduce the layout restrictions that occur when trying to arrange the millimeter wave radar 1481 in the lamp chamber 1013.
  • the plurality of louvers 1482 cover the detection surface 1481a of the millimeter wave radar 1481, they allow passage by reflection of the millimeter waves used for detection. Thus, the plurality of louvers 1482 does not interfere with the detection of information by the millimeter wave radar 1481. This fact can also alleviate the layout restrictions that occur when trying to place the millimeter wave radar 1481 in the light chamber 1013.
  • the second sensor unit 1048 includes a support member 1484.
  • the support member 1484 is disposed in the lamp chamber 1013.
  • the support member 1484 supports the millimeter wave radar 1481 and the plurality of louvers 1482. The relative positional relationship between the millimeter wave radar 1481 and each louver 1482 is maintained by the support member 1484.
  • the second sensor unit 1048 is provided with a leveling screw 1485.
  • the horizontal adjustment screw 1485 is an example of an adjustment mechanism.
  • a leveling screw 1485 extends through the housing 1011.
  • the horizontal adjustment screw 1485 is connected to the support member 1484 via a joint (not shown).
  • the head portion 1485 a of the horizontal adjustment screw 1485 is disposed outside the housing 1011.
  • the rotation of the horizontal adjustment screw 1485 is converted by the above-mentioned joint into a motion that changes the posture of the support member 1484 in the horizontal plane.
  • the "horizontal surface” used here does not have to coincide with the exact horizontal surface. The construction itself of the joint is well known, and thus the detailed description is omitted.
  • the second sensor unit 1048 includes a vertical adjustment screw 1486.
  • the vertical adjustment screw 1486 is an example of an adjustment mechanism.
  • a vertical adjustment screw 1486 extends through the housing 1011.
  • the vertical adjustment screw 1486 is connected to the support member 1484 via a joint (not shown).
  • the head portion 1486 a of the vertical adjustment screw 1486 is disposed outside the housing 1011.
  • the rotation of the vertical adjustment screw 1486 is converted by the above-described joint into a motion that changes the posture of the support member 1484 in the vertical plane.
  • the "vertical plane” used here does not have to coincide with the exact vertical plane.
  • the construction itself of the joint is well known, and thus the detailed description is omitted.
  • the attitude adjustment of the support member 1484 is performed to adjust at least one of the detection reference position of the millimeter wave radar 1481 and the light reflection direction from each louver 1482. As described above, the relative positional relationship between the millimeter wave radar 1481 and each louver 1482 is maintained by the support member 1484. Therefore, it is not necessary to separately perform the adjustment and the adjustment for maintaining the effect of reducing the visibility of the millimeter wave radar 1481 by the plurality of louvers 1482.
  • the leveling screw 1485 can be replaced by an actuator capable of adjusting at least one of the position and the attitude of the support member 1484 in the horizontal plane.
  • the vertical adjustment screw 1486 can be replaced by an actuator capable of adjusting at least one of the position and the attitude in the vertical plane of the support member 1484.
  • a configuration similar to that of the second sensor unit 1048 may be provided to detect information of an area including at least the front of the vehicle 100. That is, in addition to or instead of the LiDAR sensor or the infrared camera, the information of the area including at least the front of the vehicle 100 can be acquired by the millimeter wave radar.
  • a configuration similar to that of the first sensor unit 1046 may be provided to detect information of a region including at least the left side of the vehicle 100. That is, in addition to or instead of the millimeter wave radar, information of a region including at least the front of the vehicle 100 can be acquired by at least one of the LiDAR sensor and the infrared camera.
  • the type and number of sensors for detecting information of an area including at least the front of the vehicle 100 can be appropriately determined according to the specifications of the left front lamp unit 1040.
  • the type and number of sensors for detecting information of an area including at least the left side of the vehicle 100 can be appropriately determined according to the specification of the left front lamp unit 1040.
  • the configuration of the left front lamp unit 1040 is also applicable to the left rear lamp unit.
  • the left rear lamp unit is mounted on the left rear corner LB of the vehicle 100 shown in FIG.
  • the basic configuration of the left rear lamp unit may be symmetrical with the left front lamp unit 1010.
  • the specifications of the first lamp unit 1014 and the second lamp unit 1015 may be changed as appropriate.
  • the specifications of the LiDAR sensor 1461 and the millimeter wave radar 1481 can also be changed as appropriate.
  • the configuration of the front left lamp unit 1040 is also applicable to the rear right lamp unit.
  • the right rear lamp unit is mounted at the right rear corner RB of the vehicle 100 shown in FIG.
  • the basic configuration of the right rear lamp unit is symmetrical to the left rear lamp unit described above.
  • the left front lamp device 1050 is mounted at the left front corner LF of the vehicle 100 shown in FIG.
  • a right front lamp device having a configuration symmetrical with the left front lamp device 1050 is mounted.
  • the left front lamp unit 1050 is provided with a sensor unit 1056.
  • the other configuration is the same as that of the front left lamp device 1010 according to the first embodiment, and thus the description thereof will not be repeated.
  • the sensor unit 1056 includes a LiDAR sensor 1561.
  • the configuration of the LiDAR sensor 1561 is the same as that of the LiDAR sensor 1161 according to the first embodiment. That is, the LiDAR sensor 1561 detects information of a region including at least the front of the vehicle 100.
  • the sensor unit 1056 includes an optical member 1562.
  • the optical member 1562 has a configuration in which a metal film 1562 b is formed on the surface of the base 1562 a.
  • the substrate 1562a is made of a material having transparency to non-visible light that the LiDAR sensor 1561 uses to detect information.
  • the metal film 1562 b is formed by a technique such as vapor deposition, adhesion, or hot stamping.
  • the base 1562 a includes a light collector 1562 c.
  • the light collecting unit 1562c has a configuration capable of collecting non-visible light emitted from the LiDAR sensor 1561.
  • the non-visible light collected by the light collecting portion 1562c is emitted from the gap formed between the metal films 1562b.
  • the non-visible light emitted from the optical member 1562 passes through the light transmitting cover 1012 and travels to the outside of the vehicle 100.
  • the metal film 1562b is disposed so as to partially cover the detection surface 1561a of the LiDAR sensor 1561 from the side where the light transmission cover 1012 (not shown) is located.
  • the metal film 1562 b has an opaque appearance when viewed from the outside of the vehicle 100. Therefore, the visibility of the LiDAR sensor 1561 disposed behind decreases.
  • the metal film 1562 b is an example of the low transparent portion.
  • the LiDAR sensor 1561 can detect information in the lamp chamber 1013 while avoiding interference with the lamp, and to avoid an unnatural appearance.
  • the visibility of the LiDAR sensor 1561 is reduced by the metal film 1562b, so that it is possible to reduce at least the restriction on the external appearance of discomfort. Therefore, the layout restrictions that occur when trying to place the LiDAR sensor 1561 in the lamp chamber 1013 can be alleviated.
  • the light collecting unit 1562c allows the passage of nonvisible light used for detection.
  • the optical member 1562 does not prevent the detection of information by the LiDAR sensor 1561. This fact can also alleviate the layout restrictions that occur when trying to place the LiDAR sensor 1561 in the light chamber 1013.
  • the sensor unit 1056 includes a support member 1564.
  • the support member 1564 is disposed in the lamp chamber 1013.
  • the support member 1564 supports the LiDAR sensor 1561 and the optical member 1562. The relative positional relationship between the LiDAR sensor 1561 and the optical member 1562 is maintained by the support member 1564.
  • the sensor unit 1056 is provided with a leveling screw 1565.
  • the horizontal adjustment screw 1565 is an example of an adjustment mechanism.
  • a leveling screw 1565 extends through the housing 1011.
  • the horizontal adjustment screw 1565 is connected to the support member 1564 via a joint (not shown).
  • the head portion 1565 a of the horizontal adjustment screw 1565 is disposed outside the housing 1011.
  • the "horizontal surface” used here does not have to coincide with the exact horizontal surface. The construction itself of the joint is well known, and thus the detailed description is omitted.
  • the sensor unit 1056 is provided with a vertical adjustment screw 1566.
  • the vertical adjustment screw 1566 is an example of an adjustment mechanism.
  • a vertical adjustment screw 1566 extends through the housing 1011.
  • the vertical adjustment screw 1566 is connected to the support member 1564 via a joint (not shown).
  • the head portion 1566 a of the vertical adjustment screw 1566 is disposed outside the housing 1011.
  • the rotation of the vertical adjustment screw 1566 is converted by the above-described joint into a motion that changes the posture of the support member 1564 in the vertical plane.
  • the "vertical plane” used here does not have to coincide with the exact vertical plane.
  • the construction itself of the joint is well known, and thus the detailed description is omitted.
  • the attitude adjustment of the support member 1564 is performed to adjust at least one of the detection reference position of the LiDAR sensor 1561 and the light emission direction from the optical member 1562. As described above, the relative positional relationship between the LiDAR sensor 1561 and the optical member 1562 is maintained by the support member 1564. Therefore, there is no need to separately perform the adjustment and the adjustment for maintaining the effect of the optical member 1562 to reduce the visibility of the LiDAR sensor 1561.
  • the horizontal adjustment screw 1565 can be replaced by an actuator capable of adjusting at least one of the position and the attitude of the support member 1564 in the horizontal plane.
  • the vertical adjustment screw 1566 can be replaced with an actuator capable of adjusting at least one of the position and the attitude in the vertical plane of the support member 1564.
  • the configuration of the sensor unit 1056 including the optical member 1562 is also applicable to other sensors that use infrared light to detect information.
  • An example of such a sensor is an infrared camera.
  • the type and number of sensors for detecting information of an area including at least the front of the vehicle 100 can be appropriately determined according to the specification of the left front lamp device 1050.
  • a configuration similar to that of the sensor unit 1056 may be provided to detect information of a region including at least the left side of the vehicle 100. That is, information of an area including at least the front of the vehicle 100 can be acquired by at least one of the LiDAR sensor and the infrared camera.
  • the type and number of sensors for detecting information of an area including at least the left side of the vehicle 100 can be appropriately determined according to the specification of the left front lamp device 1050.
  • the configuration of the front left lamp unit 1050 is also applicable to the rear left lamp unit.
  • the left rear lamp unit is mounted on the left rear corner LB of the vehicle 100 shown in FIG.
  • the basic configuration of the left rear lamp unit may be symmetrical with the left front lamp unit 1010.
  • the specifications of the first lamp unit 1014 and the second lamp unit 1015 may be changed as appropriate.
  • the specifications of the LiDAR sensor 1561 may also be modified accordingly.
  • the configuration of the left front lamp unit 1050 is also applicable to the right rear lamp unit.
  • the right rear lamp unit is mounted at the right rear corner RB of the vehicle 100 shown in FIG.
  • the basic configuration of the right rear lamp unit is symmetrical to the left rear lamp unit described above.
  • FIG. 13 shows a modification of the front left lamp device 1050 according to the fifth embodiment.
  • an optical member 1562A is provided instead of the above-described optical member 1562.
  • the optical member 1562A includes a light diffusion portion 1562d in place of the above-described light collecting portion 1562c.
  • Such a configuration also allows the passage of non-visible light used by the LiDAR sensor 1561 to detect information while reducing the visibility of the LiDAR sensor 1561 by the metal film 1562b.
  • first to fifth embodiments are merely examples for facilitating the understanding of the present disclosure.
  • Each configuration according to the first to fifth embodiments can be appropriately changed or improved without departing from the spirit of the present disclosure.
  • FIG. 14 shows the appearance of the front left sensor system 2010 according to the sixth embodiment.
  • the front left sensor system 2010 is mounted on the left front corner LF of the vehicle 100 shown in FIG.
  • a front right sensor system having a configuration symmetrical with the front left sensor system 2010 is mounted.
  • the front left sensor system 2010 includes a housing 2011 and a transparent cover 2012.
  • FIG. 15 shows a part of the front left sensor system 2010 with the transparent cover 2012 removed from the state shown in FIG.
  • the housing 2011 and the transparent cover 2012 define a housing space 2013.
  • the front left sensor system 2010 includes a lamp unit 2014, a first sensor unit 2015, and a second sensor unit 2016.
  • the lamp unit 2014, the first sensor unit 2015, and the second sensor unit 2016 are disposed in the housing space 2013.
  • FIG. 16 shows an appearance of a portion of the front left sensor system 2010 in the state shown in FIG. 15 as viewed from the front of the vehicle 100.
  • the lamp unit 2014 includes a light source 2141.
  • a lamp light source or a light emitting element can be used as the light source 2141.
  • lamp light sources include incandescent lamps, halogen lamps, discharge lamps, and neon lamps.
  • a light emitting diode, a laser diode, an organic EL element etc. are mentioned as an example of a light emitting element.
  • four light sources 2141 are provided. However, the number of light sources 2141 can be appropriately determined according to the specifications of the front left sensor system 2010.
  • the lamp unit 2014 is provided with a reflector 2142.
  • the reflector 2142 is configured to reflect light emitted from the light source in a predetermined direction.
  • one reflector 2142 is provided for each of the four light sources 2141.
  • the relationship between the number of light sources 2141 and the number of reflectors 2142 may be appropriately determined according to the specifications of the front left sensor system 2010.
  • the lamp unit 2014 includes a lamp housing 2143.
  • the lamp housing 2143 accommodates the light source 2141 and the reflector 2142.
  • the first sensor unit 2015 includes a first LiDAR sensor 2151.
  • the first LiDAR sensor 2151 has a configuration for emitting non-visible light and a configuration for detecting return light resulting from reflection of the non-visible light at least on an object present in front of the vehicle 100.
  • the front of the vehicle 100 is an example of the exterior of the vehicle.
  • the first LiDAR sensor 2151 can include a scanning mechanism that sweeps the non-visible light by changing the emission direction (ie, the detection direction) as necessary. In the present embodiment, infrared light with a wavelength of 905 nm is used as non-visible light.
  • the first LiDAR sensor 2151 can obtain the distance to the object associated with the return light based on, for example, the time from when the invisible light is emitted in a certain direction to when the return light is detected. Also, by integrating such distance data in association with the detection position, it is possible to obtain information related to the shape of the object associated with the return light. In addition to or instead of this, information related to an attribute such as the material of the object associated with the return light can be acquired based on the difference between the wavelengths of the emitted light and the return light.
  • the first LiDAR sensor 2151 is a sensor that detects at least information in front of the vehicle 100.
  • the first LiDAR sensor 2151 outputs a signal corresponding to the attribute (intensity, wavelength, etc.) of the detected return light.
  • the above information is acquired by appropriately processing the signal output from the first LiDAR sensor 2151 by an information processing unit (not shown).
  • the information processing unit may be included in the front left sensor system 2010 or may be mounted on the vehicle 100.
  • the first sensor unit 2015 includes a first sensor housing 2152.
  • the first sensor housing 2152 houses a first LiDAR sensor 2151.
  • FIG. 17 shows an appearance of a part of the front left sensor system 2010 in the state shown in FIG. 15 as viewed from the left of the vehicle 100.
  • the second sensor unit 2016 includes a second LiDAR sensor 2161.
  • the second LiDAR sensor 2161 has a configuration for emitting non-visible light, and a configuration for detecting return light resulting from reflection of the non-visible light at least on an object present on the left side of the vehicle 100.
  • the left side of the vehicle 100 is an example of the outside of the vehicle.
  • the second LiDAR sensor 2161 may include a scanning mechanism that sweeps the non-visible light by changing the emission direction (ie, the detection direction) as necessary.
  • infrared light with a wavelength of 905 nm is used as non-visible light.
  • the second LiDAR sensor 2161 can obtain the distance to the object associated with the return light based on, for example, the time from when the nonvisible light is emitted in a certain direction to when the return light is detected. Also, by integrating such distance data in association with the detection position, it is possible to obtain information related to the shape of the object associated with the return light. In addition to or instead of this, information related to an attribute such as the material of the object associated with the return light can be acquired based on the difference between the wavelengths of the emitted light and the return light.
  • the second LiDAR sensor 2161 is a sensor that detects at least information on the left side of the vehicle 100.
  • the second LiDAR sensor 2161 outputs a signal corresponding to the attribute (intensity, wavelength, etc.) of the detected return light.
  • the above information is acquired by appropriately processing the signal output from the second LiDAR sensor 2161 by an information processing unit (not shown).
  • the information processing unit may be included in the front left sensor system 2010 or may be mounted on the vehicle 100.
  • the second sensor unit 2016 comprises a second sensor housing 2162.
  • the second sensor housing 2162 houses a second LiDAR sensor 2161.
  • the front left sensor system 2010 includes a pair of first light emitting units 2017.
  • the pair of first light emitting units 2017 is disposed at a position that does not interfere with the detection operation of the first LiDAR sensor 2151 in the housing space 2013.
  • the pair of first light emitting units 2017 is provided in the first sensor housing 2152.
  • the pair of first light emitting units 2017 and the first LiDAR sensor 2151 are arranged in a direction corresponding to the left and right direction of the vehicle 100 as viewed from the front of the vehicle 100.
  • the front left sensor system 2010 includes a pair of second light emitting units 2018.
  • the pair of second light emitting units 2018 is disposed at a position that does not interfere with the detection operation of the second LiDAR sensor 2161 in the accommodation space 2013.
  • the pair of second light emitting units 2018 are provided in the second sensor housing 2162.
  • the pair of second light emitting units 2018 and the second LiDAR sensor 2161 are arranged in a direction corresponding to the front-rear direction of the vehicle 100 when viewed from the left side of the vehicle 100.
  • FIG. 18 shows an appearance of a portion of the left front sensor system 2010 as viewed from above the vehicle 100.
  • Each first light emitting unit 2017 includes a first light source 2171 and a first light guiding member 2172.
  • Each second light emitting unit 2018 includes a second light source 2181 and a second light guiding member 2182.
  • the first light source 2171 is a lamp light source or a light emitting element that emits light including a predetermined wavelength. Examples of the lamp light source and the light emitting element are as described above.
  • the first light guide member 2172 is an optical component configured such that light incident from one end face is emitted to another end face after being subjected to at least one of internal reflection, diffusion, and scattering.
  • the first light guiding member 2172 extends along the outer surface of the first sensor housing 2152.
  • the light emitted from the first light source 2171 enters from the rear end surface of the first light guide member 2172.
  • the incident light is emitted from an end face forming the outer peripheral surface of the first light guide member 2172 through internal reflection and the like. Therefore, when the first light source 2171 is turned on, the entire outer peripheral surface of the first light guide member 2172 is visually recognized as emitting light.
  • the first light guide member 2172 is an example of a light emitter.
  • the second light source 2181 is a lamp light source or a light emitting element that emits light including a predetermined wavelength. Examples of the lamp light source and the light emitting element are as described above.
  • the second light guide member 2182 is an optical component configured such that light incident from one end surface is emitted to another end face after being subjected to at least one of internal reflection, diffusion, and scattering.
  • the second light guiding member 2182 extends along the outer surface of the second sensor housing 2162. Light emitted from the second light source 2181 is incident from the rear end surface of the second light guide member 2182. The incident light is emitted from an end surface forming the outer peripheral surface of the second light guide member 2182 through internal reflection and the like. Therefore, when the second light source 2181 is turned on, the entire outer peripheral surface of the second light guide member 2182 is visually perceived as emitting light.
  • the second light guide member 2182 is an example of a light emitter.
  • the front left sensor system 2010 includes a control unit 2019.
  • the control unit 2019 includes a processor and a memory. Examples of processors include CPUs and MPUs.
  • the memory stores instructions that can be executed by the processor. Examples of the memory include a ROM in which various instructions are stored, and a RAM having a work area in which various instructions executed by the processor are stored.
  • the control unit 2019 may be configured of a processor and a memory included in the ECU mounted on the vehicle 100, or may be configured of a dedicated device such as an ASIC or an FPGA disposed in the accommodation space 2013.
  • the control unit 2019 is configured to light each first light source 2171 in cooperation with the operation of the first LiDAR sensor 2151. That is, the pair of first light emitting units 2017 emit light in cooperation with the operation of the first LiDAR sensor 2151. Specifically, when the detection of information outside the vehicle 100 is being performed by the first LiDAR sensor 2151, each first light source 2171 is turned on. The first light source 2171 may be turned on at the time of activation of the first LiDAR sensor 2151 or at the end of the operation.
  • the lighting mode that is, the light emitting mode (color, constant light emission, blinking, increase / decrease of brightness, etc.) of the first light guide member 2172 may be appropriately determined according to the operation mode of the first LiDAR sensor 2151.
  • the control unit 2019 is configured to light each second light source 2181 in cooperation with the operation of the second LiDAR sensor 2161. That is, the pair of second light emitting units 2018 emits light in cooperation with the operation of the second LiDAR sensor 2161. Specifically, each second light source 2181 is turned on while the detection of information outside the vehicle 100 is being performed by the second LiDAR sensor 2161. The second light source 2181 may be turned on when the second LiDAR sensor 2161 starts up or ends operation.
  • the mode of lighting that is, the mode of light emission (color, constant light emission, blinking, increase / decrease of brightness, etc.) of the second light guide member 2182 may be appropriately determined in accordance with the operation mode of the second LiDAR sensor 2161.
  • the corner of the vehicle in which the lamp is disposed is advantageous as a disposition place of the LiDAR sensor.
  • LiDAR sensors have relatively large dimensions and have a very different appearance than lamps. Therefore, when trying to arrange the LiDAR sensor in the vicinity of the lamp, it is not uncommon to cause a sense of incongruity in appearance. In order to reduce such discomfort, it is common that a method such as covering the LiDAR sensor with an opaque cover is employed.
  • the first LiDAR sensor 2151 and the second LiDAR sensor 2161 are made to be visually recognized. Furthermore, the first light guide member 2172 emitting light in cooperation with the operation of the first LiDAR sensor 2151 and the second light guide member 2182 emitting light in cooperation with the operation of the second LiDAR sensor 2161 are disposed in the housing space 2013 It is done. This can provide new commercial value with a new appearance that daresly emphasizes the presence of LiDAR sensors. Moreover, since it is freed from the restriction that the presence of the LiDAR sensor needs to be suppressed, the freedom of arrangement of the LiDAR sensor can be improved.
  • first light guiding member 2172 and the second light guiding member 2182 are configured to emit light constantly, it is also possible to use them as a daytime lighting lamp or a side lamp.
  • each first light source 2171 is turned on when the vehicle 100 is performing a driving assistance operation using the first LiDAR sensor 2151.
  • the driving support operation means a control process that at least partially performs driving operation (steering wheel operation, acceleration, deceleration), monitoring of the traveling environment, and backup of the driving operation. That is, it includes meaning from partial driving support such as collision damage reduction braking function and lane keeping assist function to fully automatic driving operation.
  • the lighting mode that is, the light emitting mode of the first light guide member 2172 may be changed according to the level of the driving assistance.
  • each second light source 2181 is turned on.
  • the driving support operation means a control process that at least partially performs driving operation (steering wheel operation, acceleration, deceleration), monitoring of the traveling environment, and backup of the driving operation. That is, it includes meaning from partial driving support such as collision damage reduction braking function and lane keeping assist function to fully automatic driving operation.
  • the mode of lighting that is, the mode of light emission of the second light guide member 2182 may be changed.
  • the first light guide member 2172 emits light in cooperation with the operation of the first LiDAR sensor 2151
  • the second light guide member 2182 emits light in cooperation with the operation of the second LiDAR sensor 2161.
  • the light guide member is an optical component that has a relatively high degree of freedom in shape selection and can easily secure a wide light emitting area. Therefore, the light emission aspect which can emphasize the presence of the LiDAR sensor can be easily and flexibly realized.
  • both the first sensor unit 2015 and the second sensor unit 2016 include the LiDAR sensor.
  • at least one of the first sensor unit 2015 and the second sensor unit 2016 may be configured to include other sensors capable of detecting information outside the vehicle 100. Examples of such sensors include millimeter wave radar, ultrasonic sonar, visible light camera, infrared camera and the like.
  • first sensor unit 2015 and the second sensor unit 2016 may be omitted.
  • at least one sensor unit may be provided.
  • a sensor with which the sensor unit is provided a millimeter wave radar, an ultrasonic sonar, a visible light camera, an infrared camera and the like can be mentioned.
  • the configuration of the front left sensor system 2010 is also applicable to the rear left sensor system.
  • the left rear sensor system is mounted on the left rear corner LB of the vehicle 100 shown in FIG.
  • the basic configuration of the left rear sensor system may be symmetrical with the left front sensor system 2010.
  • the specifications of the lamp unit 2014, the first sensor unit 2015, and the second sensor unit 2016 may be changed as appropriate.
  • the configuration of the front left sensor system 2010 is also applicable to the rear right sensor system.
  • the right rear sensor system is mounted on the right rear corner RB of the vehicle 100 shown in FIG.
  • the basic configuration of the right rear sensor system is symmetrical with the above left rear sensor system.
  • a lamp unit 2014 is provided in the housing space 2013.
  • the lamp unit 2014 may be omitted from the front left sensor system 2010.
  • the arrangement of the sensor system is not limited to the corners of the vehicle 100 from the viewpoint of being able to improve the freedom of arrangement of the sensors.
  • FIG. 19A schematically shows the appearance of the front left sensor system 2020 according to the seventh embodiment as viewed from the front of the vehicle 100.
  • the front left sensor system 2020 is mounted on the left front corner LF of the vehicle 100 shown in FIG.
  • a right front lamp device having a symmetrical configuration with the left front sensor system 2020 is mounted on the right front corner RF of the vehicle 100.
  • the front left sensor system 2020 includes a sensor unit 2025 and a pair of light emitting units 2027.
  • the other configuration is the same as that of the front left sensor system 2010 according to the sixth embodiment, and thus the repetitive description will be omitted.
  • the sensor unit 2025 is disposed in the housing space 2013 partitioned by the housing 2011 and the transparent cover 2012.
  • the sensor unit 2025 includes any of the aforementioned LiDAR sensor, millimeter wave radar, ultrasonic sonar, visible light camera, and infrared camera.
  • the pair of light emitting units 2027 is disposed at a position that does not hinder the detection operation by the sensor of the sensor unit 2025 in the housing space 2013. Specifically, the pair of light emitting units 2027 is provided at a position that appears to surround the sensor unit 2025 when viewed from the outside of the vehicle 100.
  • Each light emitting unit 2027 includes a light source 2271 and a light guide member 2272.
  • the light source 2271 is a lamp light source or a light emitting element that emits light including a predetermined wavelength. Examples of the lamp light source and the light emitting element are as described above.
  • the light guide member 2272 is an optical component configured such that light incident from one end surface is emitted from another end surface after being subjected to at least one of internal reflection, diffusion, and scattering. Note that the light source 2271 does not necessarily have to be disposed in the housing space 2013.
  • the light emitted from the light source 2271 enters from the incident end face of the light guide member 2272.
  • the incident light is emitted from the emission end surface forming the outer surface of the light guide member 2272 through internal reflection and the like. Therefore, when the light source 2271 is turned on, the entire emission end face of the light guide member 2272 is visually recognized as emitting light.
  • the light guide member 2272 is an example of a light emitter.
  • the control unit 2019 is configured to light each light source 2271 in cooperation with the operation of the sensor of the sensor unit 2025. That is, the pair of light emitting units 2027 emits light in cooperation with the operation of the sensor. Specifically, when the detection of the information outside the vehicle 100 is performed by the sensor, each light source 2271 is turned on. The light source 2271 may be turned on at the time of activation or end of operation of the sensor.
  • the lighting mode that is, the light emitting mode (color, constant light emission, blinking, increase / decrease of brightness, etc.) of the light guide member 2272 can be appropriately determined according to the operation mode of the sensor.
  • the sensor unit 2025 by disposing the sensor unit 2025 in the housing space 2013 partitioned by the transparent cover 2012, these are made to be visually recognized. Furthermore, a light guide member 2272 that emits light in cooperation with the operation of the sensor of the sensor unit 2025 is disposed in the accommodation space 2013. This can provide new commercial value with a new appearance that daresly emphasizes the sensor's presence. In addition, since the sensor is released from the restriction of the necessity of suppressing the presence of the sensor, the degree of freedom in arranging the sensor for acquiring information outside the vehicle 100 can be improved.
  • the pair of light guide members 2272 are provided at positions that appear to surround the sensor unit 2025 as viewed from the outside of the vehicle 100. This can provide an appearance that further emphasizes the presence of the sensor.
  • the pair of light guide members 2272 always emits light
  • these it is also possible to use these as a daytime lighting lamp or a side lamp.
  • it may be used in combination with a daytime lighting lamp or a side lamp, not shown, which may be disposed in the housing space 2013.
  • each light source 2271 is turned on when the vehicle 100 is performing a driving assistance operation using the sensor of the sensor unit 2025.
  • the lighting mode that is, the light emitting mode of each light emitting unit 2027 may be changed according to the level of the driving support.
  • each light guide member 2272 emits light in cooperation with the operation of the sensor of the sensor unit 2025.
  • the light guide member is an optical component that has a relatively high degree of freedom in shape selection and can easily secure a wide light emitting area. Therefore, the light emission aspect which can emphasize the presence of a sensor can be implemented easily and flexibly.
  • one of the pair of light emitting units 2027 may be omitted as long as a desired presence emphasizing effect on the sensor can be obtained.
  • each light source 2273 is a lamp light source or a light emitting element that emits light including a predetermined wavelength. Examples of the lamp light source and the light emitting element are as described above. Each light source 2273 is an example of a light emitter.
  • the plurality of light sources 2273 are disposed at positions in the housing space 2013 that do not interfere with the detection operation of the sensor of the sensor unit 2025. Specifically, the plurality of light sources 2273 are provided at positions that appear to surround the sensor unit 2025 when viewed from the outside of the vehicle 100.
  • control unit 2019 is configured to light each light source 2273 in cooperation with the operation of the sensor of the sensor unit 2025. That is, the plurality of light sources 2273 emit light in cooperation with the operation of the sensor. Specifically, each light source 2273 is turned on when the detection of information outside the vehicle 100 is performed by the sensor. The light source 2273 may be turned on at the time of activation or end of operation of the sensor.
  • the mode of lighting that is, the mode of light emission of each light source 2273 (color, constant light emission, blinking, increase / decrease of brightness, etc.) may be appropriately determined according to the operation mode of the sensor.
  • the light sources 2273 may be omitted as long as a desired presence emphasizing effect on the sensor can be obtained.
  • the front left sensor system 2020 can include a support member 2028.
  • the support member 2028 is disposed in the housing space 2013.
  • the support member 2028 supports the control unit 2019, the sensor unit 2025, and the plurality of light sources 2273.
  • the relative positional relationship between the control unit 2019, the sensor unit 2025, and the plurality of light sources 2273 is maintained by the support member 2028.
  • control unit 2019, the sensor unit 2025, and the plurality of light sources 2273 involved in the cooperative operation can be modularized and disposed in the accommodation space 2013.
  • a power supply unit 2281 and a communication unit 2282 are provided on the support member 2028.
  • Power feeding unit 2281 receives supply of power from a power supply (not shown) mounted on vehicle 100.
  • the feeding unit 2281 is configured to supply the power to at least the control unit 2019, the sensor unit 2025, and the plurality of light sources 2273.
  • Control unit 2019 is communicably connected to a control device (not shown) mounted on vehicle 100 via communication unit 2282.
  • the control unit 2019 is configured to receive a control signal from the control device via the communication unit 2282 and control operations of the sensor unit 2025 and the plurality of light sources 2273 based on the control signal.
  • the front left sensor system 2020 includes a level adjustment screw 2291.
  • the horizontal adjustment screw 2291 is an example of an adjustment mechanism.
  • a leveling screw 2291 extends through the housing 2011.
  • the horizontal adjustment screw 2291 is connected to the support member 2028 via a joint (not shown).
  • the head portion 2291 a of the horizontal adjustment screw 2291 is disposed outside the housing 2011.
  • the rotation of the horizontal adjustment screw 2291 is converted by the above joint into a motion that changes the posture of the support member 2028 in the horizontal plane.
  • the "horizontal surface” used here does not have to coincide with the exact horizontal surface. The construction itself of the joint is well known, and thus the detailed description is omitted.
  • the front left sensor system 2020 includes a vertical adjustment screw 2292.
  • the vertical adjustment screw 2292 is an example of an adjustment mechanism.
  • a vertical adjustment screw 2292 extends through the housing 2011.
  • the vertical adjustment screw 2292 is connected to the support member 2028 via a joint (not shown).
  • the head portion 2292 a of the vertical adjustment screw 2292 is disposed outside the housing 2011.
  • the rotation of the vertical adjustment screw 2292 is converted by the above joint into a motion that changes the posture of the support member 2028 in the vertical plane.
  • the "vertical plane" used here does not have to coincide with the exact vertical plane.
  • the construction itself of the joint is well known, and thus the detailed description is omitted.
  • the attitude adjustment of the support member 2028 is performed to adjust at least one of the detection reference position of the sensor of the sensor unit 2025 and the light emission direction from each light source 2273. As described above, the relative positional relationship between the sensor unit 2025 and the plurality of light sources 2273 is maintained by the support member 2028. Therefore, if one of the adjustments is made, the result is reflected in the other.
  • the level adjustment screw 2291 can be replaced with an actuator capable of adjusting at least one of the position and the attitude of the support member 2028 in the horizontal plane.
  • the vertical adjustment screw 2292 can be replaced by an actuator capable of adjusting at least one of the position and the attitude in the vertical plane of the support member 2028.
  • the pair of light emitting units 2027 can be replaced with the EL panel 2274.
  • the EL panel is a surface light source capable of emitting light including a predetermined wavelength.
  • the EL panel 2274 may be an organic EL panel or an inorganic EL panel.
  • the EL panel 2274 is an example of a light emitter.
  • the EL panel 2274 is disposed at a position that does not hinder the detection operation by the sensor of the sensor unit 2025 in the housing space 2013. Specifically, the EL panel 2274 is provided at a position that appears to surround the sensor unit 2025 as viewed from the outside of the vehicle 100.
  • control unit 2019 is configured to light the EL panel 2274 in cooperation with the operation of the sensor of the sensor unit 2025. That is, the EL panel 2274 emits light in cooperation with the operation of the sensor. Specifically, when detection of information outside the vehicle 100 is performed by the sensor, the EL panel 2274 is turned on. The EL panel 2274 may be turned on when the sensor is activated or at the end of the operation.
  • the mode of lighting that is, the mode of light emission of the EL panel 2274 (color, constant light emission, blinking, increase / decrease of brightness, etc.) can be appropriately determined according to the operation mode of the sensor.
  • An EL panel is an optical component that has a relatively high degree of freedom in shape selection and can easily secure a wide light emitting region. Moreover, it is not necessary to consider the change of the advancing direction of light like a light guide member. Therefore, also in this example, it is possible to easily and flexibly determine the configuration for realizing the light emission mode capable of emphasizing the presence of the sensor.
  • the configuration of the front left sensor system 2020 is also applicable to the rear left sensor system.
  • the left rear sensor system is mounted on the left rear corner LB of the vehicle 100 shown in FIG.
  • the basic configuration of the left rear sensor system may be symmetrical with the left front sensor system 2020.
  • the specifications of the lamp unit 2014 and the sensor unit 2025 may be changed as appropriate.
  • the configuration of the front left sensor system 2020 is also applicable to the rear right sensor system.
  • the right rear sensor system is mounted on the right rear corner RB of the vehicle 100 shown in FIG.
  • the basic configuration of the right rear sensor system is symmetrical with the above left rear sensor system.
  • a lamp unit 2014 is provided in the housing space 2013.
  • the lamp unit 2014 may be omitted from the front left sensor system 2020.
  • the arrangement of the sensor system is not limited to the corners of the vehicle 100 from the viewpoint of being able to improve the freedom of arrangement of the sensors.
  • FIG. 21A schematically shows the appearance of the left front sensor system 2030 according to the eighth embodiment as viewed from the front of the vehicle 100.
  • the front left sensor system 2030 is mounted on the left front corner LF of the vehicle 100 shown in FIG.
  • a right front lamp device having a symmetrical configuration with the left front sensor system 2030 is mounted at the right front corner RF of the vehicle 100.
  • the front left sensor system 2030 includes a first sensor unit 2035, a second sensor unit 2036, a first light emitting unit 2037, and a second light emitting unit 2038.
  • the other configuration is the same as that of the front left sensor system 2010 according to the sixth embodiment, and thus the repetitive description will be omitted.
  • the first sensor unit 2035 and the second sensor unit 2036 are disposed in the housing space 2013 partitioned by the housing 2011 and the transparent cover 2012.
  • Each of the first sensor unit 2035 and the second sensor unit 2036 includes any of the aforementioned LiDAR sensor, millimeter wave radar, ultrasonic sonar, visible light camera, and infrared camera.
  • the first light emitting unit 2037 is disposed at a position in the housing space 2013 so as not to hinder the detection operation of the sensor of the first sensor unit 2035. Specifically, the first light emitting unit 2037 is provided at a position that appears to surround the first sensor unit 2035 when viewed from the outside of the vehicle 100.
  • the first light emitting unit 2037 has a configuration described with reference to (A) of FIG. 19, a configuration described with reference to (B) of FIG. 19, and a configuration described with reference to (C) of FIG. Either can be taken.
  • the second light emitting unit 2038 is disposed in the accommodation space 2013 at a position that does not hinder the detection operation of the sensor of the second sensor unit 2036. Specifically, the second light emitting unit 2038 is provided at a position that appears to surround the second sensor unit 2036 when viewed from the outside of the vehicle 100.
  • the second light emitting unit 2038 has the configuration described with reference to (A) of FIG. 19, the configuration described with reference to (B) of FIG. 19, and the configuration described with reference to (C) of FIG. Either can be taken.
  • the first sensor unit 2035 and the second sensor unit 2036 are made to be visually recognized. Furthermore, the first light emitting unit 2037 that emits light in cooperation with the operation of the sensor of the first sensor unit 2035, and the second light emitting unit 2038 that emits light in cooperation with the operation of the sensor of the second sensor unit 2036 Is located in This can provide new commercial value with a new look that boldly emphasizes the presence of multiple sensors. In addition, because of the restriction of the necessity of suppressing the presence of a plurality of sensors, it is possible to improve the degree of freedom in arranging the sensors for acquiring information outside the vehicle 100.
  • a position where the first light emitting unit 2037 and the second light emitting unit 2038 appear to individually surround the first sensor unit 2035 and the second sensor unit 2036 when viewed from the outside of the vehicle 100 is provided in This can provide an appearance that further emphasizes the presence of multiple sensors.
  • first light emitting unit 2037 and the second light emitting unit 2038 are configured to emit light constantly, it is also possible to use them as a daytime lighting lamp or a side lamp.
  • the function assigned to the first light emitting unit 2037 and the function assigned to the second light emitting unit 2038 may be the same or different.
  • both the first light emitting unit 2037 and the second light emitting unit 2038 can be used as either a daytime lighting lamp or a side lamp.
  • the first light emitting unit 2037 may be used as one of the daytime lighting lamp and the side lamp
  • the second light emitting unit 2038 may be used as the other.
  • two sensor units are disposed in the housing space 2013.
  • three or more sensor units may be disposed in the accommodation space 2013 according to the specification of the front left sensor system 2030.
  • as many light emitting units as the sensor units are provided at positions where each sensor unit appears to be individually surrounded.
  • the first light emitting unit 2037 and the second light emitting unit 2038 can be replaced with a light emitting unit 2037A.
  • the light emitting unit 2037A is disposed at a position not interfering with the detection operation by the sensor of the first sensor unit 2035 and the detection operation by the sensor of the second sensor unit 2036 in the housing space 2013.
  • the light emitting unit 2037A is provided at a position that appears to individually surround the first sensor unit 2035 and the second sensor unit 2036 when viewed from the outside of the vehicle 100.
  • the light emitting unit 2037A has any of the configuration described with reference to FIG. 19A, the configuration described with reference to FIG. 19B, and the configuration described with reference to FIG. Can take
  • the light emitting unit 2037A is configured to emit light constantly, it is also possible to use these as a daytime lighting lamp or a side lamp. Alternatively, it may be used in combination with a daytime lighting lamp or a side lamp, not shown, which may be disposed in the housing space 2013.
  • two sensor units are disposed in the housing space 2013.
  • three or more sensor units may be disposed in the accommodation space 2013 according to the specification of the front left sensor system 2030.
  • the light emitting units 2037A are shaped and arranged so that each sensor unit appears to be individually surrounded.
  • the first light emitting unit 2037 and the second light emitting unit 2038 can be replaced with a light emitting unit 2037B.
  • the light emitting unit 2037 B is disposed at a position not interfering with the detection operation by the sensor of the first sensor unit 2035 and the detection operation by the sensor of the second sensor unit 2036 in the housing space 2013.
  • the light emitting unit 2037B is provided at a position that appears to surround the first sensor unit 2035 and the second sensor unit 2036 collectively as viewed from the outside of the vehicle 100.
  • the light emitting unit 2037B has one of the configuration described with reference to FIG. 19A, the configuration described with reference to FIG. 19B, and the configuration described with reference to FIG. Can take
  • the light emitting unit 2037B is configured to emit light constantly, it is also possible to use these as a daytime lighting lamp or a side lamp. Alternatively, it may be used in combination with a daytime lighting lamp or a side lamp, not shown, which may be disposed in the housing space 2013.
  • two sensor units are disposed in the housing space 2013.
  • three or more sensor units may be disposed in the accommodation space 2013 according to the specification of the front left sensor system 2030.
  • the light emitting units 2037A are shaped and arranged to appear as if each sensor unit is collectively enclosed.
  • the configuration of the front left sensor system 2030 is also applicable to the rear left sensor system.
  • the left rear sensor system is mounted on the left rear corner LB of the vehicle 100 shown in FIG.
  • the basic configuration of the left rear sensor system may be symmetrical with the left front sensor system 2030.
  • the specifications of the lamp unit 2014, the first sensor unit 2035, and the second sensor unit 2036 may be changed as appropriate.
  • the configuration of the front left sensor system 2030 is also applicable to the rear right sensor system.
  • the right rear sensor system is mounted on the right rear corner RB of the vehicle 100 shown in FIG.
  • the basic configuration of the right rear sensor system is symmetrical with the above left rear sensor system.
  • a lamp unit 2014 is provided in the housing space 2013.
  • the lamp unit 2014 may be omitted from the front left sensor system 2030.
  • the arrangement of the sensor system is not limited to the corners of the vehicle 100 from the viewpoint of being able to improve the freedom of arrangement of the sensors.
  • FIG. 22 schematically shows the configuration of the front left lamp device 3010 according to the ninth embodiment.
  • the left front lamp unit 3010 is mounted on the left front corner LF of the vehicle 100 shown in FIG.
  • a front right lamp device having a configuration symmetrical to the front left lamp device 3010 is mounted.
  • the left front lamp unit 3010 includes a housing 3011 and a translucent cover 3012.
  • Light transmitting cover 3012 forms a part of the outer surface of vehicle 100.
  • the light transmitting cover 3012 defines the lamp chamber 3013 together with the housing 3011.
  • the left front lamp unit 3010 includes a lamp unit 3014.
  • the lamp unit 3014 is a lamp that emits light toward a region including the front of the vehicle 100.
  • the lamp unit 3014 is, for example, a headlight.
  • the left front lamp unit 3010 includes a LiDAR sensor unit 3015.
  • the LiDAR sensor unit 3015 is disposed in the lamp chamber 3013. That is, the lamp chamber 3013 is an example of a storage chamber.
  • the LiDAR sensor unit 3015 has a configuration for emitting non-visible light, and a configuration for detecting return light resulting from reflection of the non-visible light at least on an object present in front of the vehicle 100.
  • the front of the vehicle 100 is an example of the exterior of the vehicle.
  • the LiDAR sensor unit 3015 can include a scanning mechanism that sweeps the non-visible light by changing the emission direction (ie, the detection direction) as necessary.
  • infrared light with a wavelength of 905 nm is used as non-visible light.
  • the LiDAR sensor unit 3015 can obtain the distance to the object associated with the return light based on, for example, the time from when the non-visible light is emitted in a certain direction to when the return light is detected. Also, by integrating such distance data in association with the detection position, it is possible to obtain information related to the shape of the object associated with the return light. In addition to or instead of this, information related to an attribute such as the material of the object associated with the return light can be acquired based on the difference between the wavelengths of the emitted light and the return light.
  • the LiDAR sensor unit 3015 is a sensor that detects at least information on the front of the vehicle 100.
  • the LiDAR sensor unit 3015 outputs a signal corresponding to the attribute (intensity, wavelength, etc.) of the detected return light.
  • the above information is acquired by appropriately processing a signal output from the LiDAR sensor unit 3015 by an information processing unit (not shown).
  • the information processing unit may be provided in the front left lamp device 3010 or may be mounted on the vehicle 100.
  • the light chamber 3013 is an example of the arrangement location of the LiDAR sensor unit 3015 capable of efficiently acquiring information outside the vehicle 100.
  • the LiDAR sensor unit 3015 it is common for the LiDAR sensor unit 3015 to have a relatively large size and to have a very different appearance than the lamp unit 3014. Therefore, when it is going to arrange LiDAR sensor unit 3015 in light room 3013, restrictions concerning a layout become large.
  • an extension member 3016 is provided in the lamp chamber 3013 in order to suppress the above-mentioned discomfort of the LiDAR sensor unit 3015.
  • the “extension member” is a design component that covers and hides a part of the structure disposed in the lamp chamber 3013 so as not to be visible from the outside of the vehicle 100.
  • the dashed-two dotted line LS0 in the same figure has shown the outer edge of the detectable region which the LiDAR sensor unit 3015 originally has.
  • the “detectable area” means an area on the path of detection light (emission light and return light) that the LiDAR sensor unit 3015 uses to detect information.
  • an alternate long and short dash line LS1 in the same figure indicates the outer edge of the detection range of the LiDAR sensor unit 3015 adjusted to avoid interference with the extension member 3016. In this case, if the detection light is allowed to pass through the light transmission cover 3012 without taking any measures, the detectable area becomes narrow.
  • the arrangement of the LiDAR sensor unit 3015 needs to be considered so as to secure a desired detectable area while suppressing the appearance discomfort.
  • the space available in the lamp chamber 3013 is limited, and interference with the lamp unit 3014 or the like also needs to be considered. Therefore, it is difficult to arrange the LiDAR sensor unit 3015 in an appropriate place without increasing the size of the lamp chamber 3013.
  • the lens portion 3017 is provided on the inner surface 3012 a of the light transmitting cover 3012.
  • the lens unit 3017 has a light control surface 3017 a.
  • the light control surface 3017a is concave.
  • the light control surface 3017a is formed of a material that can refract and transmit non-visible light that the LiDAR sensor unit 3015 uses to detect information.
  • the light emitted from the LiDAR sensor unit 3015 passes through the light transmission cover 3012 while being refracted at the light control surface 3017 a.
  • a detectable area equivalent to the original detectable area indicated by the two-dot chain line LS0 is obtained outside the vehicle 100.
  • the return light based on the information of the area is refracted again by the light control surface 3017 a when passing through the light transmission cover 3012, and returns to the LiDAR sensor unit 3015.
  • the light control surface 3017a intentionally changes the traveling direction of the detection light that the LiDAR sensor unit 3015 uses to detect information so as to secure a desired detectable area for the LiDAR sensor unit 3015.
  • the lens portion 3017 capable of controlling the traveling direction of light is provided on the inner surface 3012 a of the light transmitting cover 3012 forming the outer surface of the vehicle 100. Since the degree of freedom in selecting the arrangement and shape of the lens unit 3017 at the portion is relatively high, the restriction on the layout of the LiDAR sensor unit 3015 in the lamp chamber 3013 can be alleviated.
  • FIG. 23 shows a lens unit 3017A according to a modification having such a light control surface 3017a.
  • the position of the light control surface 3017a is such that the detectable area of the LiDAR sensor unit 3015 is located to the right (that is, inward in the vehicle width direction of the vehicle 100) than the original detectable area indicated by the two-dot chain line LS0. It is defined as follows. According to such a configuration, it is possible to secure the detectable area inward in the vehicle width direction, in which the arrangement of the detectable area is relatively difficult, while alleviating the restriction on the layout of the LiDAR sensor unit 3015.
  • the configuration of the front left lamp unit 3010 is also applicable to the rear left lamp unit.
  • the left rear lamp unit is mounted on the left rear corner LB of the vehicle 100 shown in FIG.
  • the basic configuration of the left rear lamp unit may be symmetrical with the left front lamp unit 3010.
  • the specifications of the lamp unit 3014 and the LiDAR sensor unit 3015 may be changed as appropriate.
  • the configuration of the front left lamp unit 3010 is also applicable to the rear right lamp unit.
  • the right rear lamp unit is mounted at the right rear corner RB of the vehicle 100 shown in FIG.
  • the basic configuration of the right rear lamp unit is symmetrical to the left rear lamp unit described above.
  • the detection light which passes through the region located between the right dashed dotted line LS1 and the right dashed double dashed line LS0 in FIG. 23 can not be used for detection of information.
  • a configuration may be employed that can also effectively utilize such detection light.
  • FIG. 24 shows the left front lamp unit 3020 according to the tenth embodiment having such a configuration.
  • the left front lamp unit 3020 is mounted on the left front corner LF of the vehicle 100 shown in FIG.
  • a front right lamp device having a configuration symmetrical to the front left lamp device 3020 is mounted.
  • the components substantially the same as those of the left front lamp unit 3010 according to the ninth embodiment are denoted by the same reference numerals, and the repetitive description will be omitted.
  • the left front lamp unit 3020 is provided with a reflector 3027.
  • the reflector 3027 is disposed in a space located between the light transmitting cover 3012 and the LiDAR sensor unit 3015.
  • the reflector 3027 has a light control surface 3027a.
  • the light control surface 3027a is formed of a material capable of reflecting non-visible light that the LiDAR sensor unit 3015 uses to detect information.
  • the alternate long and short dash line LS2 in FIG. 24 indicates the outer edge of a part of the detectable area that the LiDAR sensor unit 3015 originally has.
  • the light emitted from the LiDAR sensor unit 3015 and passing through the range divided by the alternate long and short dash line LS2 is reflected by the light control surface 3027a and passes through the light transmitting cover 3012.
  • a detectable area different from the detectable area divided by the dashed-dotted line LS1 is obtained.
  • the return light based on the information of the region is reflected by the light control surface 3027 a and returns to the LiDAR sensor unit 3015.
  • the light control surface 3027a intentionally changes the traveling direction of the detection light that the LiDAR sensor unit 3015 uses to detect information so as to secure a desired detectable area for the LiDAR sensor unit 3015.
  • a reflector 3027 capable of controlling the traveling direction of light is provided in a space located between the light transmitting cover 3012 and the LiDAR sensor unit 3015. Since the degree of freedom in selecting the arrangement and shape of the reflectors 3027 at the relevant locations is relatively high, restrictions relating to the layout of the LiDAR sensor unit 3015 in the lamp chamber 3013 can be alleviated.
  • the detection light reflected by the light control surface 3027a of the reflector 3027 is excluded from the detectable area divided by the dashed dotted line LS1 because it interferes with the extension member 3016. Since such detection light can be reflected by the reflector 3027 to form another detectable area, the utilization rate of the detection light of the LiDAR sensor unit 3015 can be increased.
  • a part of the detection light reflected by the light control surface 3027a of the reflector 3027 is further advanced by the light control surface 3017a of the lens unit 3017A. It can be used for direction control.
  • the traveling direction of the detection light may be controlled only by the light control surface 3027 a of the reflector 3027 without providing the lens unit 3017 A.
  • the configuration of the front left lamp unit 3020 is also applicable to the rear left lamp unit.
  • the left rear lamp unit is mounted on the left rear corner LB of the vehicle 100 shown in FIG.
  • the basic configuration of the left rear lamp unit may be symmetrical with the left front lamp unit 3020.
  • the specifications of the lamp unit 3014 and the LiDAR sensor unit 3015 may be changed as appropriate.
  • the configuration of the front left lamp unit 3020 is also applicable to the rear right lamp unit.
  • the right rear lamp unit is mounted at the right rear corner RB of the vehicle 100 shown in FIG.
  • the basic configuration of the right rear lamp unit is symmetrical to the left rear lamp unit described above.
  • the density of detection light in the detectable region is uniform.
  • the scanning distance or scanning angle (scanning pitch) per unit time in the detectable area is constant.
  • the detection light density may be locally changed within the detectable region. For example, in a region where more accurate information detection is required, the detection light density should be high.
  • FIG. 25 shows the left front lamp unit 3030 according to the eleventh embodiment capable of such an operation.
  • the left front lamp unit 3030 is mounted on the left front corner LF of the vehicle 100 shown in FIG.
  • a front right lamp device having a configuration symmetrical to the front left lamp device 3020 is mounted.
  • the components substantially the same as those of the left front lamp unit 3010 according to the ninth embodiment are denoted by the same reference numerals, and the repetitive description will be omitted.
  • the left front lamp unit 3030 is provided with a lens 3037.
  • the lens 3037 is disposed in a space located between the light transmitting cover 3012 and the LiDAR sensor unit 3015.
  • the lens 3037 has a light control surface 3037a.
  • the light control surface 3037a is a convex surface.
  • the light control surface 3037a is formed of a material that can refract and transmit non-visible light that the LiDAR sensor unit 3015 uses to detect information.
  • the light emitted from the LiDAR sensor unit 3015 passes through the light transmission cover 3012 while being refracted at the light control surface 3037a.
  • a detectable region indicated by a two-dot chain line LS3 is obtained outside the vehicle 100.
  • the return light based on the information of the area is refracted again by the light control surface 3037 a when passing through the light transmission cover 3012, and returns to the LiDAR sensor unit 3015.
  • the light control surface 3037a intentionally changes the traveling direction of detection light that the LiDAR sensor unit 3015 uses to detect information so as to secure a desired detectable area for the LiDAR sensor unit 3015.
  • a lens 3037 capable of controlling the traveling direction of light is provided in a space located between the light transmitting cover 3012 and the LiDAR sensor unit 3015. Since the degree of freedom in selecting the arrangement and shape of the lens 3037 at the location is relatively high, restrictions relating to the layout of the LiDAR sensor unit 3015 in the lamp chamber 3013 can be alleviated.
  • the two-dot chain line LS0 in FIG. 25 indicates the outer edge of the detectable area that the LiDAR sensor unit 3015 originally has. That is, a part of the detectable area that the LiDAR sensor unit 3015 originally has can not be used because it interferes with the extension member 3016. In the present embodiment, a part of such detection light is utilized to form a detectable region (a region divided by the two-dot chain line LS3) having a high detection light density. Therefore, the utilization factor of the detection light of the LiDAR sensor unit 3015 can be increased.
  • the scanning distance or scanning angle per unit time of the mechanism in order to form a detectable region with high detection light density as described above There is no need to change).
  • the scanning pitch is apparently small only by letting the detection light pass the lens 3037 while keeping the operation pitch of the mechanism constant. Therefore, it is possible to reduce the load involved in the operation control of the LiDAR sensor unit 3015 while forming a detectable range in which the detection light density is not uniform.
  • the traveling direction of the detection light may be controlled only by the light control surface 3037a of the lens 3037 without providing the lens unit 3017A.
  • the configuration of the front left lamp unit 3030 is also applicable to the rear left lamp unit.
  • the left rear lamp unit is mounted on the left rear corner LB of the vehicle 100 shown in FIG.
  • the basic configuration of the left rear lamp unit may be symmetrical with the left front lamp unit 3030.
  • the specifications of the lamp unit 3014 and the LiDAR sensor unit 3015 may be changed as appropriate.
  • the configuration of the front left lamp unit 3030 is also applicable to the rear right lamp unit.
  • the right rear lamp unit is mounted at the right rear corner RB of the vehicle 100 shown in FIG.
  • the basic configuration of the right rear lamp unit is symmetrical to the left rear lamp unit described above.
  • FIG. 26 shows a left front lamp unit 3040 according to the twelfth embodiment.
  • the left front lamp unit 3040 is mounted at the left front corner LF of the vehicle 100 shown in FIG.
  • a front right lamp device having a configuration symmetrical to the front left lamp device 3040 is mounted.
  • the components substantially the same as those of the left front lamp unit 3010 according to the ninth embodiment are denoted by the same reference numerals, and the repetitive description will be omitted.
  • the left front lamp unit 3040 includes a lens unit 3047.
  • the lens unit 3047 is provided on the outer surface 3012 b of the light transmitting cover 3012.
  • the lens unit 3047 has a light control surface 3047a.
  • the light control surface 3047a is a convex surface having an arc-shaped portion with a constant curvature. More specifically, the center of curvature of the arc-shaped portion coincides with the light source or scanning center of the LiDAR sensor unit 3015.
  • the light control surface 3047a is formed of a material that can transmit non-visible light that the LiDAR sensor unit 3015 uses to detect information.
  • the outer surface 3012 b of the light transmitting cover 3012 has a shape based on the design of the vehicle 100.
  • the shape is independent of the light source or scanning center of the LiDAR sensor unit 3015. Therefore, when the detection light of the LiDAR sensor unit 3015 passes through the light transmitting cover 3012, slight refraction occurs with the change of the medium.
  • the light emitted from the LiDAR sensor unit 3015 passes through the light control surface 3047a without refraction.
  • the return light based on the information of the detectable region passes again through the light control surface 3047a without refraction and returns to the LiDAR sensor unit 3015. Since distortion accompanying the progress of the detection light can be reduced, the detection accuracy of the LiDAR sensor unit 3015 can be improved.
  • the light control surface 3047a maintains the traveling direction of the detection light that the LiDAR sensor unit 3015 uses to detect information. However, compared with the case where the light control surface 3047a is absent, it can be considered that the traveling direction of the detection light is intentionally changed so as to improve the detection accuracy of the LiDAR sensor unit 3015.
  • the lens portion 3047 capable of controlling the traveling direction of light is provided on the outer surface 3012 b of the light transmitting cover 3012 that forms the outer surface of the vehicle 100. Since the degree of freedom in selecting the arrangement and shape of the lens portion 3047 at the location is relatively high, restrictions relating to the layout of the LiDAR sensor unit 3015 in the lamp chamber 3013 can be alleviated.
  • the light control surface 3047 b may be formed on the inner surface 3012 a of the light transmission cover 3012.
  • the light control surface 3047 b is a concave surface having an arc-shaped portion with a constant curvature. More specifically, the center of curvature of the arc-shaped portion coincides with the light source or scanning center of the LiDAR sensor unit 3015.
  • a configuration may be adopted in which only the light control surface 3047 b is provided on the light transmission cover 3012 instead of the light control surface 3047 a.
  • the configuration of the front left lamp unit 3040 is also applicable to the rear left lamp unit.
  • the left rear lamp unit is mounted on the left rear corner LB of the vehicle 100 shown in FIG.
  • the basic configuration of the left rear lamp unit may be symmetrical with the left front lamp unit 3040.
  • the specifications of the lamp unit 3014 and the LiDAR sensor unit 3015 may be changed as appropriate.
  • the configuration of the front left lamp unit 3040 is also applicable to the rear right lamp unit.
  • the right rear lamp unit is mounted at the right rear corner RB of the vehicle 100 shown in FIG.
  • the basic configuration of the right rear lamp unit is symmetrical to the left rear lamp unit described above.
  • FIG. 27 shows a left front lamp unit 3050 according to a thirteenth embodiment.
  • the left front lamp unit 3050 is mounted at the left front corner LF of the vehicle 100 shown in FIG.
  • a right front lamp device having a configuration symmetrical with the left front lamp device 3050 is mounted.
  • the components substantially the same as those of the left front lamp unit 3010 according to the ninth embodiment are denoted by the same reference numerals, and the repetitive description will be omitted.
  • the left front lamp unit 3050 includes a camera unit 3055.
  • the camera unit 3055 is disposed in the lamp chamber 3013.
  • the camera unit 3055 is a device for acquiring image information of an area including the front of the vehicle 100. That is, the camera unit 3055 is an example of a sensor unit.
  • the range divided by the broken line C in FIG. 27 represents the detectable area of the camera unit 3055.
  • the camera unit 3055 outputs a signal corresponding to the acquired image information.
  • the image information is acquired by appropriately processing a signal output from the camera unit 3055 by an information processing unit (not shown).
  • the information processing unit may be provided in the front left lamp device 3050 or may be mounted on the vehicle 100.
  • the left front lamp unit 3050 is provided with a beam splitter 3057.
  • the beam splitter 3057 includes a light control surface 3057a.
  • the light control surface 3057a is formed of a material that allows the invisible light that the LiDAR sensor unit 3015 uses to detect information to pass and the visible light that the camera unit 3055 uses to detect information to reflect in a predetermined direction.
  • the light emitted from the LiDAR sensor unit 3015 passes through the light control surface 3057 a of the beam splitter 3057 and reaches the light control surface 3017 a provided on the translucent cover 3012.
  • the light passes through the light transmitting cover 3012 while being refracted at the light control surface 3017 a.
  • the return light based on the information of the detectable region is refracted again by the light control surface 3017 a when passing through the light transmission cover 3012, and further passes through the light control surface 3057 a and returns to the LiDAR sensor unit 3015.
  • the light coming from the detectable region divided by the broken line C enters the lamp chamber 3013 while being refracted by the light control surface 3017 a when passing through the light transmitting cover 3012.
  • the light is reflected by the light control surface 3057 a of the beam splitter 3057 and reaches the camera unit 3055.
  • the light control surface 3017a intentionally changes the traveling direction of the detection light used by the camera unit 3055 to detect information so as to secure a desired detection range for the camera unit 3055.
  • a light control surface 3017a is shared by the LiDAR sensor unit 3015 and the camera unit 3055.
  • the light control surface 3057a intentionally changes the traveling direction of the detection light used by the camera unit 3055 to detect information so that the desired detection range can be secured for the camera unit 3055 without interfering with the information detection by the LiDAR sensor unit 3015.
  • a beam splitter 3057 capable of controlling the traveling direction of light is provided in a space located between the light transmission cover 3012 and the LiDAR sensor unit 3015. Since the degree of freedom of choice of the arrangement and shape of the beam splitter 3057 at the location is relatively high, restrictions in arranging a plurality of sensors sharing the light control surface provided on the light transmitting cover 3012 in the lamp chamber can be alleviated.
  • the configuration of the beam splitter 3057 may be changed. That is, the light control surface 3057a may be formed of a material that transmits visible light used for detection of information by the camera unit 3055 and reflects non-visible light used for detection of information in the predetermined direction by the LiDAR sensor unit 3015.
  • the configuration of the front left lamp unit 3050 is also applicable to the rear left lamp unit.
  • the left rear lamp unit is mounted on the left rear corner LB of the vehicle 100 shown in FIG.
  • the basic configuration of the left rear lamp unit may be symmetrical with the left front lamp unit 3050.
  • the specifications of the lamp unit 3014 and the LiDAR sensor unit 3015 may be changed as appropriate.
  • the configuration of the front left lamp unit 3050 is also applicable to the rear right lamp unit.
  • the right rear lamp unit is mounted at the right rear corner RB of the vehicle 100 shown in FIG.
  • the basic configuration of the right rear lamp unit is symmetrical to the left rear lamp unit described above.
  • FIG. 28 shows a left front lamp unit 3060 according to the fourteenth embodiment.
  • the left front lamp unit 3060 is mounted at the left front corner LF of the vehicle 100 shown in FIG.
  • a front right lamp device having a configuration symmetrical with the front left lamp device 3060 is mounted.
  • the components substantially the same as those of the left front lamp unit 3010 according to the ninth embodiment are denoted by the same reference numerals, and the repetitive description will be omitted.
  • the left front lamp unit 3060 is provided with a light shielding member 3068.
  • the light shielding member 3068 is disposed in the lamp chamber 3013.
  • the light blocking member 3068 is disposed to surround at least a part of the optical path of the detection light located between the LiDAR sensor unit 3015 and the lens unit 3017.
  • the light blocking member 3068 is formed of a material that suppresses or blocks the passage of light having at least the same wavelength as the detection light. Examples of such materials include metals whose surfaces are oxidized, and graphite.
  • the disturbance light E may come from the outside of the light transmission cover 3012 or may be generated due to internal reflection of the light transmission cover 3012 or the like.
  • this disturbance light E has the same wavelength as the detection light and reaches the LiDAR sensor unit 3015 as shown by a broken line in FIG. 28, information which should not be detected originally is recognized.
  • the light shielding member 3068 is provided to suppress or block the passage of such disturbance light E.
  • the LiDAR sensor unit 3015 detects erroneous information or the accuracy of the detected information is lowered due to the disturbance light E.
  • the configuration of the left front lamp unit 3060 is also applicable to the left rear lamp unit.
  • the left rear lamp unit is mounted on the left rear corner LB of the vehicle 100 shown in FIG.
  • the basic configuration of the left rear lamp unit may be symmetrical with the left front lamp unit 3060.
  • the specifications of the lamp unit 3014 and the LiDAR sensor unit 3015 may be changed as appropriate.
  • the configuration of the front left lamp unit 3060 is also applicable to the rear right lamp unit.
  • the right rear lamp unit is mounted at the right rear corner RB of the vehicle 100 shown in FIG.
  • the basic configuration of the right rear lamp unit is symmetrical to the left rear lamp unit described above.
  • FIG. 29 shows a left front lamp unit 3070 according to the fifteenth embodiment.
  • the left front lamp unit 3070 is mounted at the left front corner LF of the vehicle 100 shown in FIG.
  • a front right lamp device having a configuration symmetrical with the front left lamp device 3070 is mounted.
  • the components substantially the same as those of the left front lamp unit 3010 according to the ninth embodiment are denoted by the same reference numerals, and the repetitive description will be omitted.
  • the left front lamp unit 3070 is provided with a plurality of light shielding members 3078.
  • Each light blocking member 3078 is disposed in the lamp chamber 3013.
  • Each light blocking member 3078 is disposed on the optical path of the detection light located between the LiDAR sensor unit 3015 and the lens unit 3017.
  • Each light blocking member 3078 extends along the traveling direction of the detection light.
  • Each light blocking member 3078 is formed of a material that suppresses or blocks the passage of light having at least the same wavelength as the detection light. Examples of such materials include metals whose surfaces are oxidized, and graphite.
  • each light blocking member 3078 is provided to inhibit or block the passage of such disturbance light E without obstructing the progress of the detection light.
  • the LiDAR sensor unit 3015 detects erroneous information or the accuracy of the detected information is lowered due to the disturbance light E.
  • fine asperities may be formed on the surface of each light blocking member 3078.
  • the disturbance light E may be reflected in a direction different from the traveling direction of the detection light by such a surface structure. Even if part of the disturbance light E is reflected in the same direction as the traveling direction of the detection light, the intensity is reduced, so the LiDAR sensor unit 3015 combines information based on the detection light and information based on the disturbance light E. It can be distinguished.
  • the configuration of the front left lamp unit 3070 is also applicable to the rear left lamp unit.
  • the left rear lamp unit is mounted on the left rear corner LB of the vehicle 100 shown in FIG.
  • the basic configuration of the left rear lamp unit may be symmetrical with the left front lamp unit 3070.
  • the specifications of the lamp unit 3014 and the LiDAR sensor unit 3015 may be changed as appropriate.
  • the configuration of the front left lamp unit 3070 is also applicable to the rear right lamp unit.
  • the right rear lamp unit is mounted at the right rear corner RB of the vehicle 100 shown in FIG.
  • the basic configuration of the right rear lamp unit is symmetrical to the left rear lamp unit described above.
  • the LiDAR sensor unit 3015 is disposed in the lamp chamber 3013.
  • the lamp unit 3014 does not necessarily have to be disposed in the storage chamber divided by the housing 3011 and the light transmitting cover 3012.
  • FIG. 30 shows a front left sensor device 3080 according to the sixteenth embodiment.
  • the front left sensor device 3080 is mounted near the front left lamp device at the front left corner LF of the vehicle 100 shown in FIG. In the vicinity of the right front lamp device at the right front corner RF of the vehicle 100, a right front sensor device having a configuration symmetrical with the left front sensor device 3080 is mounted.
  • the components substantially the same as those of the left front lamp unit 3010 according to the ninth embodiment are denoted by the same reference numerals, and the repetitive description will be omitted.
  • a housing 3011 is divided by the housing 3011 and the light transmitting cover 3012.
  • a LiDAR sensor unit 3015 and a camera unit 3085 are stored in the storage chamber 3083.
  • the camera unit 3085 is a device for acquiring image information of an area including the front of the vehicle 100. That is, the camera unit 3085 is an example of a sensor unit.
  • a range partitioned by a two-dot chain line C0 in FIG. 30 represents a detectable area of the camera unit 3085.
  • the camera unit 3085 outputs a signal corresponding to the acquired image information.
  • the image information is acquired by appropriately processing a signal output from the camera unit 3085 by an information processing unit (not shown).
  • the information processing unit may be provided in the front left sensor device 3080 or may be mounted on the vehicle 100.
  • the light control surface 3017a intentionally changes the traveling direction of the detection light that the LiDAR sensor unit 3015 uses to detect information so as to secure a desired detectable area for the LiDAR sensor unit 3015.
  • the lens portion 3017 capable of controlling the traveling direction of light is provided on the inner surface 3012 a of the light transmitting cover 3012 forming the outer surface of the vehicle 100. Since the degree of freedom in selecting the arrangement and shape of the lens unit 3017 at the location is relatively high, restrictions relating to the layout of the LiDAR sensor unit 3015 in the storage chamber 3083 can be alleviated.
  • the lens unit 3017 is located at a part of the detectable range of the camera unit 3085 (the range divided by the two-dot chain line C0 on the right and the two-dot chain line C1). Distortion corresponding to the shape of the lens unit 3017 occurs in the image corresponding to the portion.
  • the front left sensor device 3080 includes a correction unit 3089.
  • the correction unit 3089 can communicate with the camera unit 3085 and the above-described information processing unit.
  • the correction unit 3089 may be configured by a dedicated device such as an ASIC or an FPGA, or may be one function realized by a processor and a memory included in the above-described information processing unit.
  • the correction unit 3089 is configured to perform processing for correcting image distortion caused by the lens unit 3017. Specifically, processing of correcting image distortion is applied to a signal output from the camera unit 3085 or image information acquired by the information processing unit. Since the optical positional relationship between the camera unit 3085 and the lens unit 3017 is constant, the signal or information requiring correction and the correction amount can be predetermined. The correction unit 3089 applies processing of a predetermined correction amount to a predetermined correction target.
  • the second sensor unit (in the present embodiment) resulting from the presence of the light control surface used by the first sensor unit (in the present embodiment, the LiDAR sensor unit 3015) disposed in the storage chamber Restrictions on the layout of the camera unit 3085) can be relaxed.
  • the configuration of the front left sensor device 3080 is also applicable to the rear left sensor device.
  • the left rear sensor device is mounted near the left rear lamp device at the left rear corner LB of the vehicle 100 shown in FIG.
  • the basic configuration of the left rear sensor device may be symmetrical with the left front sensor device 3080.
  • the specifications of the LiDAR sensor unit 3015 and the camera unit 3085 may be changed as appropriate.
  • the configuration of the front left sensor device 3080 is also applicable to the rear right sensor device.
  • the right rear sensor device is mounted near the right rear lamp device at the right rear corner RB of the vehicle 100 shown in FIG.
  • the basic configuration of the right rear sensor device is symmetrical with the above left rear sensor device.
  • the lens portion 3017 or the lens portion 3017A is provided on the inner surface 3012a of the light transmitting cover 3012.
  • independent optical members having the same optical function may be disposed in the lamp chamber 3013 or the storage chamber 3083.
  • the light control surface 3017 a of the lens unit 3017 or the lens unit 3017 A is a continuous curved surface.
  • the light control surface 3017a may be a surface in which a number of fine steps are arranged to have the same optical function.
  • the LiDAR sensor unit 3015 may be replaced by a millimeter wave radar unit.
  • the millimeter wave is an example of the detection light.
  • the millimeter wave radar unit has a configuration for transmitting a millimeter wave, and a configuration for receiving a reflected wave resulting from reflection of the millimeter wave on an object present outside the vehicle 100. Examples of millimeter wave frequencies include 24 GHz, 26 GHz, 76 GHz and 79 GHz.
  • the millimeter wave radar unit can obtain the distance to the object associated with the reflected wave based on, for example, the time from when the millimeter wave is transmitted in a certain direction to when the reflected wave is received. Also, by integrating such distance data in association with the detection position, it is possible to obtain information related to the movement of the object associated with the reflected wave. That is, the millimeter wave radar unit is an example of a sensor unit that detects information outside the vehicle 100.
  • the millimeter wave radar unit outputs a signal corresponding to the attribute (intensity, wavelength, etc.) of the detected reflected wave.
  • the above information is acquired by appropriately processing a signal output from the millimeter wave radar unit by an information processing unit (not shown).
  • the portion where the lens unit 3017 or the lens unit 3017A is provided does not need to be transparent in the visible light range.
  • An appropriate material can be selected according to the wavelength of detection light for detection of information. For example, when using a millimeter wave radar unit, polyethylene which does not transmit visible light and near infrared light can be selected.
  • the LiDAR sensor unit 3015 can be replaced by an infrared camera unit.
  • the infrared camera unit is an example of a sensor unit that detects information outside the vehicle 100.
  • FIG. 31 schematically shows the configuration of the front left sensor system 4010 according to the seventeenth embodiment.
  • the front left sensor system 4010 is mounted on the left front corner LF of the vehicle 100 shown in FIG.
  • a front right sensor system having a configuration symmetrical with the front left sensor system 4010 is mounted.
  • the direction represented by the arrow U or the arrow D is defined as a first direction.
  • a direction orthogonal to the first direction that is, a direction represented by the arrow L, the arrow R, the arrow F, or the arrow B is defined as a second direction.
  • the front left sensor system 4010 includes a housing 4011 and a translucent cover 4012.
  • the translucent cover 4012 forms a part of the outer surface of the vehicle 100.
  • the light transmitting cover 4012 defines the housing chamber 4013 together with the housing 4011.
  • the front left sensor system 4010 includes a camera unit 4014.
  • the camera unit 4014 is disposed in the storage chamber 4013.
  • the camera unit 4014 is a device for acquiring image information of an area including the front of the vehicle 100.
  • the front of the vehicle 100 is an example of the exterior of the vehicle. That is, the camera unit 4014 is an example of a sensor unit.
  • the camera unit 4014 outputs a signal corresponding to the acquired image information.
  • the image information is acquired by appropriately processing a signal output from the camera unit 4014 by an information processing unit (not shown).
  • the information processing unit may be included in the front left sensor system 4010 or may be mounted on the vehicle 100.
  • the left front sensor system 4010 includes a millimeter wave radar unit 4015.
  • the millimeter wave radar unit 4015 is disposed in the storage chamber 4013.
  • the millimeter wave radar unit 4015 has a configuration for transmitting a millimeter wave, and a configuration for receiving a reflected wave resulting from reflection of the millimeter wave on an object present at least in front of the vehicle 100. Examples of millimeter wave frequencies include 24 GHz, 26 GHz, 76 GHz and 79 GHz.
  • the millimeter wave radar unit 4015 can obtain the distance to the object associated with the reflected wave based on, for example, the time from when the millimeter wave is transmitted in a certain direction to when the reflected wave is received. Also, by integrating such distance data in association with the detection position, it is possible to obtain information related to the movement of the object associated with the reflected wave. That is, the millimeter wave radar unit 4015 is an example of a sensor unit.
  • the millimeter wave radar unit 4015 outputs a signal corresponding to the attribute (intensity, wavelength, etc.) of the detected reflected wave.
  • the above information is acquired by appropriately processing a signal output from the millimeter wave radar unit 4015 by an information processing unit (not shown).
  • the information processing unit may be included in the front left sensor system 4010 or may be mounted on the vehicle 100.
  • the front left sensor system 4010 includes a LiDAR sensor unit 4016.
  • the LiDAR sensor unit 4016 is disposed in the storage chamber 4013.
  • the LiDAR sensor unit 4016 has a configuration for emitting non-visible light, and a configuration for detecting return light resulting from reflection of the non-visible light at least on an object present in front of the vehicle 100.
  • the LiDAR sensor unit 4016 can include a scanning mechanism that sweeps the non-visible light by changing the emission direction (ie, the detection direction) as needed. In the present embodiment, infrared light with a wavelength of 905 nm is used as non-visible light.
  • the LiDAR sensor unit 4016 can obtain the distance to the object associated with the return light based on, for example, the time from when the invisible light is emitted in a certain direction to when the return light is detected. Also, by integrating such distance data in association with the detection position, it is possible to obtain information related to the shape of the object associated with the return light. In addition to or instead of this, information related to an attribute such as the material of the object associated with the return light can be acquired based on the difference between the wavelengths of the emitted light and the return light.
  • the LiDAR sensor unit 4016 is an example of a sensor unit.
  • the LiDAR sensor unit 4016 outputs a signal corresponding to the attribute (intensity, wavelength, etc.) of the detected return light.
  • the above information is acquired by appropriately processing a signal output from the LiDAR sensor unit 4016 by an information processing unit (not shown).
  • the information processing unit may be included in the front left sensor system 4010 or may be mounted on the vehicle 100.
  • FIG. 32 shows the detection range CD of the camera unit 4014, the detection range MD of the millimeter wave radar unit 4015, and the detection range LD of the LiDAR sensor unit 4016.
  • the direction corresponding to the vertical direction of the vehicle 100 is the first direction
  • the direction corresponding to the lateral direction of the vehicle 100 is the second direction.
  • the detection range CD of the camera unit 4014 has a wider detection range in the second direction than in the first direction.
  • the detection range MD of the millimeter wave radar unit 4015 has a wider detection range in the second direction than in the first direction.
  • the detection range LD of the LiDAR sensor unit 4016 has a detection range wider in the second direction than in the first direction.
  • the camera unit 4014, the millimeter wave radar unit 4015, and the LiDAR sensor unit 4016 are arranged in an orientation (first direction) corresponding to the vertical direction of the vehicle 100.
  • the advantages of such a layout will be described with reference to FIGS. 33 and 34.
  • (A) of FIG. 33 a plurality of sensor units each having a wider detection range in the direction (second direction) corresponding to the left-right direction than the direction corresponding to the up-down direction of the vehicle 100 as described above
  • the example arranged in the direction is shown. Since part of detection ranges of adjacent sensor units overlap, it can be said that redundancy is high from the viewpoint of efficiently acquiring information outside the vehicle 100.
  • FIG. 33 shows an example of a configuration in which such redundancy is to be minimized. Since the detection range of each sensor unit is wide in the second direction, an increase in the distance between adjacent sensor units can not be avoided. Therefore, it leads to the enlargement of a storage room.
  • (C) of FIG. 33 shows an example of a configuration in which the detection ranges of the respective sensor units are made to match as much as possible. Since the detection range of each sensor unit is wide in the second direction, the sensor units located on the left and right sides of the central sensor unit require a relatively large adjustment of the detection direction in the second direction.
  • FIG. 34A shows an example in which a plurality of sensor units each having a detection range as described above are arranged in the first direction. Since the detection range of each sensor unit is narrow in the first direction, the overlapping amount between parts of the detection ranges of adjacent sensor units can be relatively small.
  • FIG. 34B shows an example of a configuration to try to minimize such redundancy. Since the detection range of each sensor unit is narrow in the first direction, an increase in the distance between adjacent sensor units can be avoided. Therefore, the enlargement of the storage chamber can be suppressed.
  • (C) of FIG. 34 shows an example of a configuration in which the detection ranges of the respective sensor units are made to match as much as possible. Since the detection range of each sensor unit is narrow in the first direction, the sensor units located on the upper and lower sides of the central sensor unit require a relatively small amount of adjustment of the detection direction in the first direction.
  • the plurality of sensor units in the direction in which the detection range is narrower, it is possible to prevent the distance between the sensor units from becoming wide even if the overlap of the detection ranges of the adjacent sensor units is reduced.
  • the detection ranges of the adjacent sensor units are to be matched, the adjustment amount of the detection direction required in each sensor unit can be reduced. Therefore, information on the outside of the vehicle can be efficiently detected while alleviating the restrictions relating to the layout when a plurality of sensor units are mounted on the vehicle 100.
  • the sensor unit having higher heat buildup is disposed above the sensor unit having lower heat buildup.
  • a sensor unit having higher heat buildup means a sensor unit that emits a higher amount of heat per unit time. Alternatively, it means a sensor unit having a longer operation time when the amount of heat emitted per unit time is the same. Alternatively, it means a sensor unit that has a higher cumulative amount of heat generated between the start and stop of the left front sensor system 4010. For example, even with a sensor unit that generates less heat per unit time, the accumulated heat may be higher if the operation frequency is higher.
  • Heat has the property of being easy to move upward. According to the above configuration, it is possible to suppress the influence of the less heat generating sensor unit from the heat generated by the highly heat generating sensor unit. Further, for example, by arranging the heat countermeasure configuration centrally on the upper portion of the storage chamber 4013, the heat generated from the plurality of sensor units can be efficiently handled.
  • the millimeter wave radar unit 4015 is disposed above the camera unit 4014. That is, the heat generation of the millimeter wave radar unit 4015 is higher than the heat generation of the camera unit 4014.
  • the LiDAR sensor unit 4016 is disposed above the millimeter wave radar unit 4015. That is, the heat generation of the LiDAR sensor unit 4016 is higher than the heat generation of the millimeter wave radar unit 4015.
  • the LiDAR sensor unit 4016 is disposed above the camera unit 4014. That is, the heat generation of the LiDAR sensor unit 4016 is higher than the heat generation of the camera unit 4014.
  • the front left sensor system 4010 includes a heat sink 4017 and a heat sink 4018.
  • the heat sink 4017 is thermally coupled to the millimeter wave radar unit 4015.
  • the heat sink 4018 is thermally coupled to the LiDAR sensor unit 4016.
  • the expression "A is thermally coupled to B" means that heat transfer between A and B is enabled. It is not necessary that A and B be in contact if heat transfer is possible.
  • the heat dissipation of the heat sink 4018 thermally coupled to the LiDAR sensor unit 4016 is higher than the heat dissipation of the heat sink 4017 thermally coupled to the millimeter wave radar unit 4015.
  • Heat sink having higher heat dissipation means a heat sink that can dissipate more heat per unit time. Higher heat dissipation can be realized by appropriately selecting the shape, surface area, material and the like of the heat sink. In the example shown in FIG. 31, the surface area of the heat sink 4018 is larger than the surface area of the heat sink 4017.
  • a heat sink with higher heat dissipation is disposed at a higher position.
  • the heat generated from the plurality of sensor units can be efficiently dissipated.
  • a heat sink with a smaller surface area is disposed at a lower position, it is possible to create a space margin at the lower part of the storage chamber 4013.
  • a heat sink with higher heat dissipation is thermally coupled to the sensor unit with higher heat generation.
  • the heat generated from the plurality of sensor units can be dissipated particularly efficiently.
  • a heat sink is not coupled to the camera unit 4014.
  • a heat sink may be thermally coupled to the camera unit 4014.
  • the heat dissipation of the heat sink can be smaller than the heat dissipation of the heat sink 4017.
  • the front left sensor system 4010 includes a cooling fan 4019.
  • the cooling fan 4019 is a device for cooling the camera unit 4014, the millimeter wave radar unit 4015, and the LiDAR sensor unit 4016.
  • the cooling fan 4019 is a common cooling device for the camera unit 4014, the millimeter wave radar unit 4015, and the LiDAR sensor unit 4016.
  • the front left sensor system 4010 is configured to have a higher heat generation property in the upper part of the storage chamber 4013. Therefore, in order to perform cooling efficiently, the cooling fan 4019 is disposed near the upper end in the arrangement of the camera unit 4014, the millimeter wave radar unit 4015, and the LiDAR sensor unit 4016.
  • the rotation center 4191 of the cooling fan is located above the vertical center position of the vehicle 100 in the arrangement of the camera unit 4014, the millimeter wave radar unit 4015, and the LiDAR sensor unit 4016.
  • the central position is defined as a point on a straight line CL extending in the front-rear direction of the vehicle 100.
  • the straight line CL is a distance from the upper end of the uppermost sensor unit to the tangent UE extending in the front-rear direction of the vehicle 100 and a distance from the lower end of the lowermost sensor unit to the tangent DE extending in the front-rear direction of the vehicle 100 Are equal straight lines.
  • the detection range CD of the camera unit 4014 has a detection reference point CP in the left-right direction of the vehicle 100.
  • detection range MD of millimeter wave radar unit 4015 has detection reference point MP in the left and right direction of vehicle 100
  • detection range LD of LiDAR sensor unit 4016 is the detection reference point LP in the left and right direction of vehicle 100.
  • the detection reference point CP, the detection reference point MP, and the detection reference point LP are aligned in the vertical direction of the vehicle 100.
  • the camera unit 4014, the millimeter wave radar unit 4015, and the LiDAR sensor unit 4016 have no parallax in the left-right direction of the vehicle 100.
  • the front left sensor system 4010 includes a heater 4020.
  • the heater 4020 is configured to supply heat to each of the camera unit 4014, the millimeter wave radar unit 4015, and the LiDAR sensor unit 4016.
  • each sensor unit can be heated to a temperature at which the information detection operation can be performed. Therefore, information detection independent of the external environmental temperature can be realized.
  • the front left sensor system 4010 includes a support member 4021 and an adjustment mechanism 4022.
  • the support member 4021 is a common member that supports the camera unit 4014, the millimeter wave radar unit 4015, and the LiDAR sensor unit 4016.
  • the adjustment mechanism 4022 is a mechanism that adjusts at least one of the position and the attitude of the support member 4021 with respect to the vehicle 100.
  • the adjustment mechanism 4022 can be configured as a so-called aiming screw mechanism.
  • the aiming screw mechanism changes the attitude of the support member 4021 in the horizontal plane (in the plane including the left and right direction and the front and rear direction of the vehicle 100), and the attitude of the support member 4021 in the vertical plane (vertical direction of the vehicle 100) And an aiming screw that changes in the plane including the longitudinal direction).
  • Each aiming screw can be operated by a predetermined jig. Since the aiming screw mechanism itself is well known, the description of the detailed configuration is omitted. Note that the above-mentioned "horizontal surface” does not have to coincide with the exact horizontal surface. Similarly, the "vertical plane” above does not have to coincide with the exact vertical plane.
  • the detection reference position of each sensor unit may be deviated from a desired position due to a tolerance of a vehicle body component or a positional deviation of the housing 4011 with respect to the vehicle body. Therefore, after the front left sensor system 4010 is mounted on the vehicle 100, readjustment of the detection reference position of each sensor unit is performed.
  • the camera unit 4014, the millimeter wave radar unit 4015, and the LiDAR sensor unit 4016 are supported by a common support member 4021. Therefore, through the operation of the adjustment mechanism 4022, adjustment of the detection reference position of each sensor unit can be performed collectively. Therefore, even if the number of sensor units mounted on the vehicle 100 increases, it is possible to reduce the burden of work of adjusting the detection reference position of each sensor unit with respect to the vehicle 100.
  • adjustment mechanism 4022 can include an actuator that adjusts the position of support member 4021 in the vertical plane.
  • the actuator 100 may include an actuator that adjusts the position of the support member 4021 in the direction corresponding to the left and right direction of the vehicle 100 and an actuator that adjusts the position of the support member 4021 in the direction corresponding to the vertical direction of the vehicle 100.
  • the front left sensor system 4010 includes a first extension member 4023.
  • the “extension member” is a design component that covers and hides a part of the structure disposed in the storage chamber 4013 so as not to be visible from the outside of the vehicle 100.
  • FIG. 35 shows an appearance of a portion of the left front sensor system 4010 as viewed from the front of the vehicle 100.
  • the first extension member 4023 has a first portion 4231 disposed between the camera unit 4014 and the millimeter wave radar unit 4015.
  • the presence of the first portion 4231 can make the internal wiring and internal parts located between the camera unit 4014 and the millimeter wave radar unit 4015 invisible from the outside of the vehicle 100.
  • the first portion 4231 can also be used as a heat shield member or a buffer member. By appropriately selecting the position of the first portion 4231, it can also be used as a light blocking member that blocks the entry of internally reflected light into the camera unit 4014.
  • the first extension member 4023 has a second portion 4232 disposed between the millimeter wave radar unit 4015 and the LiDAR sensor unit 4016.
  • the presence of the second portion 4232 can make the internal wiring and internal parts located between the millimeter wave radar unit 4015 and the LiDAR sensor unit 4016 invisible from the outside of the vehicle 100.
  • the second portion 4232 can also be used as a heat shield member or a buffer member.
  • the front left sensor system 4010 includes a second extension member 4024.
  • the second extension member 4024 has an opening 4241.
  • the opening 4241 defines a space that allows displacement of the camera unit 4014, the millimeter wave radar unit 4015, and the adjustment mechanism 4022 of the LiDAR sensor unit 4016. That is, the relative position of the second extension member 4024 and each sensor unit is variable.
  • the opening 4241 of the second extension member 4024 is disposed at a position corresponding to the outer side of the vehicle 100 than the first extension member 4023.
  • the first extension member 4023 has a portion covering the opening 4241 when viewed from the side corresponding to the inside of the vehicle 100.
  • the first extension member 4023 is fixed to the support member 4021. That is, the relative position of the second extension member 4024 and each sensor unit is unchanged.
  • the above seventeenth embodiment is merely an example for facilitating the understanding of the present disclosure.
  • the configuration according to the seventeenth embodiment can be appropriately changed or improved without departing from the spirit of the present disclosure.
  • the front end 4141 of the camera unit 4014, the front end 4151 of the millimeter wave radar unit 4015, and the front end 4161 of the LiDAR sensor unit 4016 are aligned in the direction corresponding to the vertical direction of the vehicle 100.
  • the front end 4151 of the millimeter wave radar unit 4015 is located rearward of the front end 4141 of the camera unit 4014 in the front-rear direction of the vehicle 100 (inside of the vehicle 100).
  • the front end 4161 of the LiDAR sensor unit 4016 is located rearward of the front end 4151 of the millimeter wave radar unit 4015 in the front-rear direction of the vehicle 100 (inside of the vehicle 100). That is, the sensor unit disposed at the upper position in the accommodation chamber 4013 is located rearward of the sensor unit disposed at the lower position in the accommodation chamber 4013 in the longitudinal direction of the vehicle 100 (inside of the vehicle 100). ing.
  • the translucent cover 4012 that defines the storage chamber 4013 has a shape that curves toward the inside of the vehicle 100 as it goes upward.
  • the space utilization efficiency of the storage chamber 4013 can be improved by offset-arranging the plurality of sensor units along the shape.
  • the space corresponding to the lower rear of the accommodation room 4013 shown in FIG. 31 may be used as an space occupied by other components of the front left sensor system 4010 as a space having an increased degree of freedom in layout.
  • the storage chamber 4013 in the seventeenth embodiment may be a lamp chamber in which a lamp unit is housed. Also in this case, since the plurality of sensor units included in the front left sensor system 4010 are arranged in the direction corresponding to the vertical direction of the vehicle 100, it is easy to secure a space in which the lamp units are arranged.
  • the accommodation chamber 4013 In the seventeenth embodiment, three sensor units are accommodated in the accommodation chamber 4013, and the types thereof are different.
  • the number of sensor units accommodated in the accommodation chamber 4013 may be any number of two or more.
  • the type of sensor unit accommodated in the accommodation chamber 4013 can be appropriately selected to allow duplication.
  • the translucent cover 4012 When the plurality of sensor units accommodated in the accommodation chamber 4013 do not include a camera unit and a lamp unit, the translucent cover 4012 may not be transparent for visible light.
  • all of the detection range CD of the camera unit 4014, the detection range MD of the millimeter wave radar unit 4015, and the detection range LD of the LiDAR sensor unit 4016 correspond to the first direction corresponding to the vertical direction of the vehicle 100. Rather, it has a wide detection range in the second direction corresponding to the direction orthogonal to the first direction. However, the condition may be satisfied for at least one of the plurality of sensor units included in the front left sensor system 4010. Even in that case, the effects described with reference to FIGS. 33 and 34 can be obtained.
  • the detection ranges of the plurality of sensor units included in the front left sensor system 4010 are located at least in front of the vehicle 100. Additionally or alternatively, the left front sensor system 4010 may include a plurality of sensor units having a detection range at least on the left side of the vehicle 100.
  • the configuration of the front left sensor system 4010 is also applicable to the rear left sensor system.
  • the left rear sensor system is mounted on the left rear corner LB of the vehicle 100 shown in FIG.
  • the basic configuration of the left rear sensor system may be symmetrical with the left front sensor system 4010. However, the specifications of each sensor unit may be changed as appropriate.
  • the configuration of the front left sensor system 4010 is also applicable to the rear right sensor system.
  • the right rear sensor system is mounted on the right rear corner RB of the vehicle 100 shown in FIG.
  • the basic configuration of the right rear sensor system is symmetrical with the above left rear sensor system.
  • FIG. 37 schematically shows the configuration of a sensor system 5001 according to the eighteenth embodiment.
  • the sensor system 5001 includes a left front illumination device 5011 LF, a right front illumination device 5011 RF, a left rear illumination device 5011 LR, and a right rear illumination device 5011 RR.
  • Sensor system 5001 is mounted on vehicle 100 shown in FIG.
  • the left front illumination device 5011LF is mounted on the left front corner LF of the vehicle 100.
  • the right front illumination device 5011 RF is mounted on the right front corner RF of the vehicle 100.
  • the left rear illumination device 5011LR is mounted on the left rear corner LB of the vehicle 100.
  • the right rear illumination device 5011 RR is mounted on the right rear corner RB of the vehicle 100.
  • the left front illumination device 5011LF is provided with a housing and a light transmitting cover that define the left front light chamber 5012LF.
  • the right front illumination device 5011RF is provided with a housing and a translucent cover that define the right front light chamber 5012RF.
  • the left rear illumination device 5011LR is provided with a housing that divides the left rear light chamber 5012LR and a light transmitting cover.
  • the right rear illumination device 5011 RR includes a housing and a light transmitting cover that define the right rear light chamber 5012 RR.
  • the sensor system 5001 includes a front left LiDAR sensor 5002LF, a front left camera 5003LF, and a front left lamp 5004LF.
  • the left front LiDAR sensor 5002LF, the left front camera 5003LF, and the left front lamp 5004LF are disposed in the left front light chamber 5012LF of the left front illumination device 5011LF.
  • the sensor system 5001 includes a right front LiDAR sensor 5002 RF, a right front camera 5003 RF, and a right front lamp 5004 RF.
  • the front right LiDAR sensor 5002RF, the front right camera 5003RF, and the front right lamp 5004RF are disposed in the right front light chamber 5012RF of the front right lighting device 5011RF.
  • the sensor system 5001 includes a left rear LiDAR sensor 5002LR, a left rear camera 5003LR, and a left rear lamp 5004LR.
  • the left rear LiDAR sensor 5002LR, the left rear camera 5003LR, and the left rear lamp 5004LR are disposed in the left rear light chamber 5012LR of the left rear illumination device 5011LR.
  • the sensor system 5001 includes a right rear LiDAR sensor 5002 RR, a right rear camera 5003 RR, and a right rear lamp 5004 RR.
  • the right rear LiDAR sensor 5002 RR, the right rear camera 5003 RR, and the right rear lamp 5004 RR are disposed in the right rear light chamber 5012 RR of the right rear illumination device 5011 RR.
  • the sensor system 5001 includes a control unit 5005.
  • the control unit 5005 includes a processor and a memory. Examples of processors include CPUs and MPUs.
  • the memory stores instructions that can be executed by the processor. Examples of the memory include a ROM in which various instructions are stored, and a RAM having a work area in which various instructions executed by the processor are stored.
  • the control unit 5005 may be configured by a processor and a memory included in an ECU mounted on the vehicle 100, or may be configured by a dedicated device such as an ASIC or an FPGA.
  • the control unit 5005 is configured to be communicable with each of the front left LiDAR sensor 5002LF, the front right LiDAR sensor 5002RF, the rear left LiDAR sensor 5002LR, and the rear right LiDAR sensor 5002RR. Communication may be performed electrically or optically via a wired connection, or may be performed contactlessly via wireless communication.
  • the left front LiDAR sensor 5002LF, the right front LiDAR sensor 5002RF, the left rear LiDAR sensor 5002LR, and the right rear LiDAR sensor 5002RR are configured to emit non-visible light, and the non-visible light is reflected to an object existing outside the vehicle 100 It has the structure which detects the return light of the result. That is, each of the front left LiDAR sensor 5002LF, the front right LiDAR sensor 5002RF, the rear left LiDAR sensor 5002LR, and the rear right LiDAR sensor 5002RR is a sensor that detects information outside the vehicle 100. In the present embodiment, infrared light with a wavelength of 905 nm is used as non-visible light.
  • Each of the front left LiDAR sensor 5002LF, the front right LiDAR sensor 5002RF, the rear left LiDAR sensor 5002LR, and the rear right LiDAR sensor 5002RR is based on, for example, the time from when the invisible light is emitted in a predetermined direction to when the return light is detected.
  • the distance to the object associated with the return light can be obtained.
  • information related to the shape of the object associated with the return light can be acquired based on the difference between the wavelengths of the emitted light and the return light.
  • Each of the front left LiDAR sensor 5002LF, the front right LiDAR sensor 5002RF, the rear left LiDAR sensor 5002LR, and the rear right LiDAR sensor 5002RR is configured to output a detection signal corresponding to an attribute (such as intensity or wavelength) of the detected return light. It is done.
  • the above information is acquired by appropriately processing detection signals output from each of the front left LiDAR sensor 5002LF, the front right LiDAR sensor 5002RF, the rear left LiDAR sensor 5002LR, and the rear right LiDAR sensor 5002RR by the control unit 5005. .
  • Each of the front left camera 5003LF, the front right camera 5003RF, the rear left camera 5003LR, and the rear right camera 5003RR is an apparatus for photographing a predetermined area outside the vehicle 100. That is, each of front left camera 5003LF, front right camera 5003RF, rear left camera 5003LR, and rear right camera 5003RR functions as a sensor that detects information outside the vehicle 100.
  • the control unit 5005 is configured to be communicable with each of the front left camera 5003LF, the front right camera 5003RF, the rear left camera 5003LR, and the rear right camera 5003RR. Communication may be performed electrically or optically via a wired connection, or may be performed contactlessly via wireless communication.
  • Each of the front left camera 5003LF, the front right camera 5003RF, the rear left camera 5003LR, and the rear right camera 5003RR is configured to output a video signal corresponding to a photographed image.
  • Information outside the vehicle 100 detected by each of the front left camera 5003LF, the front right camera 5003RF, the rear left camera 5003LR, and the rear right camera 5003RR is acquired by the video signal being appropriately processed by the control unit 5005.
  • Each of the front left lamp 5004LF, the front right lamp 5004RF, the rear left lamp 5004LR, and the rear right lamp 5004RR includes an optical system including at least one of a lens and a reflector, and is configured to emit light in a predetermined direction. It is done.
  • a lamp light source or a light emitting element may be used for each of the front left lamp 5004LF, the front right lamp 5004RF, the rear left lamp 5004LR, and the rear right lamp 5004RR.
  • lamp light sources include incandescent lamps, halogen lamps, discharge lamps, and neon lamps.
  • a light emitting diode, a laser diode, an organic EL element etc. are mentioned as an example of a light emitting element.
  • the control unit 5005 is configured to be able to communicate with each of the front left lamp 5004LF, the front right lamp 5004RF, the rear left lamp 5004LR, and the rear right lamp 5004RR. Communication may be performed electrically or optically via a wired connection, or may be performed contactlessly via wireless communication.
  • the control unit 5005 is configured to output a control signal to each of the front left lamp 5004LF, the front right lamp 5004RF, the rear left lamp 5004LR, and the rear right lamp 5004RR.
  • Each of the front left lamp 5004LF, the front right lamp 5004RF, the rear left lamp 5004LR, and the rear right lamp 5004RR performs a light emission operation according to the control signal output from the control unit 5005.
  • the sensor system 5001 includes a communication unit 5006.
  • the communication unit 5006 is configured to be able to communicate with the control unit 5005. Communication may be performed electrically or optically via a wired connection, or may be performed contactlessly via wireless communication.
  • the control unit 5005 is configured to output a control signal to the communication unit 5006 at a predetermined timing.
  • the communication unit 5006 is configured to acquire infrastructure information in response to the control signal.
  • the communication unit 5006 is configured to output the acquired infrastructure information to the control unit 5005.
  • the infrastructure information may include at least one of information on roads and information on buildings on the roads.
  • Examples of information on roads include the number of lanes, the existence of intersections, the existence of pedestrian crossings, the existence of highway entrances, the existence of curves, and the like.
  • Examples of buildings include traffic lights, curved mirrors, footbridges, bus stops, toll plazas of toll roads, and the like.
  • a first operation example of the sensor system 5001 configured as described above will be described with reference to FIG.
  • the control unit 5005 causes the communication unit 5006 to acquire infrastructure information at a predetermined timing. Then, the control unit 5005 includes at least one of a left front LiDAR sensor 5002LF, a left front camera 5003LF, a right front LiDAR sensor 5002RF, a right front camera 5003RF, a left rear LiDAR sensor 5002LR, a left rear camera 5003LR, a right rear LiDAR sensor 5002RR, and a right rear camera 5003RR.
  • the external information of the vehicle 100 acquired through the process and the infrastructure information are collated (step S11).
  • the control unit 5005 determines whether the infrastructure information acquired through the communication unit 5006 matches the information outside the vehicle 100 acquired through the sensor (step S12). For example, when the infrastructure information indicates the presence of a traffic light ahead of the vehicle 100, it is determined whether at least one of the left front LiDAR sensor 5002LF and the left front camera 5003 LF detects the presence of a traffic light ahead of the vehicle 100.
  • step S12 If it is determined that the infrastructure information matches the information acquired through the sensor (Y in step S12), the control unit 5005 determines that the sensor involved in the collation is normal (step S13), and the process is performed. finish.
  • control unit 5005 determines that the sensor involved in the collation is not normal (step S14).
  • the reliability of the judgment can be improved by using the information of the infrastructure whose installation location does not change for judgment.
  • the vehicle 100 can include a storage device 5013.
  • the communication unit 5006 can communicate with the storage device 5013. Communication may be performed electrically or optically via a wired connection, or may be performed contactlessly via wireless communication.
  • the storage device 5013 stores map information.
  • the map information may be used, for example, in a navigation device mounted on the vehicle 100.
  • the map information may be stored in advance in the storage device 5013, or may be downloaded from an external network periodically or as needed.
  • control unit 5005 causes the communication unit 5006 to communicate with the storage device 5013 at a predetermined timing.
  • the communication unit 5006 acquires the above-described infrastructure information from the map information stored in the storage device 5013.
  • a sensor that acquires appropriate infrastructure information regardless of the external environment (weather, light, dark, radio wave state, etc.) of the vehicle 100 and is mounted on the vehicle 100 to acquire information outside the vehicle 100 It can automatically determine if it is working properly.
  • the infrastructure information can also be acquired from the map information stored in the storage device of the portable information terminal possessed by the passenger of the vehicle 100.
  • this storage device is regarded as "a storage device mounted on a vehicle”.
  • the communication unit 5006 may acquire infrastructure information through communication with the outside of the vehicle 100. Examples of such communication include so-called vehicle-to-vehicle communication, so-called road-to-vehicle communication, and wireless communication with an external network.
  • the communication unit 5006 acquires infrastructure information through wireless communication with a vehicle traveling ahead of the vehicle 100 (preceding vehicle or oncoming vehicle).
  • a vehicle traveling ahead has a high probability of already possessing information on where the vehicle 100 will arrive from now. The information can be obtained before reaching the location from such a vehicle.
  • the communication unit 5006 acquires information of the road infrastructure itself through wireless communication with a device embedded in a road infrastructure (a traffic light, a pedestrian crossing, a curve mirror, etc.).
  • a device embedded in a road infrastructure a traffic light, a pedestrian crossing, a curve mirror, etc.
  • the communication unit 5006 can acquire infrastructure information through wireless communication with an entity on an external network that provides map information and road information.
  • the control unit 5005 to cause the communication unit 5006 to acquire the infrastructure information, periodically, at the time of input of a user instruction, detection time of the road infrastructure providing the infrastructure information may be mentioned.
  • acquisition of infrastructure information is performed when the vehicle 100 stops.
  • acquisition of infrastructure information is performed at the time of the stop for the signal waiting in an intersection.
  • the information acquisition by the sensor is performed under the situation where the relative speed of the vehicle 100 and the infrastructure is zero, not only the accuracy of the information can be improved, but also the increase of the processing load can be suppressed.
  • control unit 5005 executes at least one of notification processing (step S15) and cancellation processing of automatic driving support (step S16) on the vehicle 100. It can be done.
  • At least one of visual notification, auditory notification, and tactile notification is performed for the driver through the equipment mounted on the vehicle 100.
  • the automatic driving support means a control process that at least partially performs driving operation (steering wheel operation, acceleration, deceleration), monitoring of the traveling environment, and backup of the driving operation. That is, it includes meaning from partial driving support such as collision damage reduction braking function and lane keeping assist function to fully automatic driving operation.
  • step S16 only driving support control involving a sensor determined to be not normal may be invalidated, or all driving support control may be invalidated.
  • the LiDAR sensor and the camera are illustrated as sensors for detecting information outside the vehicle 100.
  • an appropriate sensor may be mounted on the vehicle 100. Examples of such sensors include millimeter wave radar sensors, ultrasonic sonars, non-visible light cameras.
  • the control unit 5005 blinks the front left lamp 5004LF, the front right lamp 5004RF, the rear left lamp 5004LR, and the rear right lamp 5004RR at a predetermined timing, and from the front left camera 5003LF, the front right camera 5003RF, the rear left camera 5003LR, and the rear right camera 5003RR.
  • the output of is acquired (step S21).
  • Each of the front left lamp 5004LF, the front right lamp 5004RF, the rear left lamp 5004LR, and the rear right lamp 5004RR is an example of a light source.
  • the front left camera 5003LF, the front right camera 5003RF, the rear left camera 5003LR, and the rear right camera 5003RR function as sensors for acquiring information related to the brightness outside the vehicle 100.
  • the blinking operation may be performed for at least one of the front left lamp 5004LF, the front right lamp 5004RF, the rear left lamp 5004LR, and the rear right lamp 5004RR.
  • the left front lamp 5004LF blinks
  • the right front lamp 5004 RF blinks
  • the output from the right front camera 5003 RF is acquired.
  • the left rear lamp 5004LR blinks
  • the output from the left rear camera 5003LR is acquired.
  • the right rear lamp 5004 RR blinks, the output from the right rear camera 5003 RR is acquired.
  • the control unit 5005 determines whether the output obtained from each camera corresponds to the blinking of the light source associated with the camera (step S22). If the camera is normal, the output from the camera corresponds to the change in brightness outside the vehicle 100 due to the blinking of the light source associated with the camera. Therefore, when the blinking of the light source corresponds to the output from the camera associated with the light source (Y in step S22), the control unit 5005 determines that the camera is normal (step S23), End the process.
  • the control unit 5005 determines that the camera is not normal (step S24).
  • a diagnostic system can be built at low cost.
  • the blinking frequency by the control unit 5005 of the front left lamp 5004LF, the front right lamp 5004RF, the rear left lamp 5004LR, and the rear right lamp 5004RR is selected as a value at which human beings can not visually recognize blinking.
  • the blink frequency is 30 Hz or more, and preferably 60 Hz or more.
  • control unit 5005 blinks the front left lamp 5004LF, the front right lamp 5004RF, the rear left lamp 5004LR, and the rear right lamp 5004RR, the lighting start of each light source, periodically, at the time of user instruction input Be
  • the front left lamp 5004LF, the front right lamp 5004RF, the rear left lamp 5004LR, and the rear right lamp 5004RR blink.
  • the camera mounted on the vehicle 100 it is possible to automatically determine whether the camera mounted on the vehicle 100 is operating normally, without giving a sense of incongruity to people around the vehicle 100 even at night.
  • the control unit 5005 performs notification processing (step S25). And / or the cancellation processing (step S26) of the automatic driving support can be performed by the vehicle 100.
  • the definition of autonomous driving support is as described above.
  • At least one of visual notification, auditory notification, and tactile notification is performed for the driver through the equipment mounted on the vehicle 100.
  • step S26 only driving support control involving a camera determined to be not normal may be disabled, or all driving support control may be disabled.
  • the on-vehicle camera is illustrated as a sensor that detects information related to the brightness outside the vehicle 100. Additionally or alternatively, a known sensor for detecting brightness may be mounted on the vehicle 100. The determination as to whether the sensor is normal can be made by blinking the light source that has the highest influence on the brightness detection of the sensor.
  • the control unit 5005 acquires the outputs from the front left camera 5003LF, the front right camera 5003RF, the rear left camera 5003LR, and the rear right camera 5003RR at a predetermined timing, and collates detection information of the respective cameras (step S31).
  • environmental information of the vehicle 100 such as weather and day and night may be mentioned as an example of the detection information provided for the comparison.
  • the control unit 5005 determines whether the information detected by each camera matches (step S32). If all cameras are normal, the detected information will match. Therefore, if the detected information matches (Y in step S32), the control unit 5005 determines that all the cameras are normal (step S33), and ends the process.
  • control unit 5005 determines that one of the cameras is not normal (step S34).
  • the information provided for the determination is the environment information of the vehicle 100, there are few restrictions on when the determination is performed. In addition, environmental information is less likely to cause a large difference in detection results compared to object detection and the like. If the detection results do not match for such information, a high severity anomaly is expected. Therefore, more serious abnormalities can be found.
  • Examples of the predetermined timing at which the control unit 5005 collates the detection results by the front left camera 5003LF, the front right camera 5003RF, the rear left camera 5003LR, and the rear right camera 5003RR include starting of a vehicle and input of a user instruction.
  • control unit 5005 periodically checks the detection results from each camera. In this case, it is possible to easily construct a self-timed diagnosis system of the on-vehicle camera.
  • the control unit 5005 performs notification processing (step S35). And / or the cancellation processing (step S36) of the automatic driving support can be performed by the vehicle 100.
  • the definition of autonomous driving support is as described above.
  • At least one of visual notification, auditory notification, and tactile notification is performed for the driver through the equipment mounted on the vehicle 100.
  • step S36 only driving support control involving a camera determined to be not normal may be disabled, or all driving support control may be disabled.
  • the right front LiDAR sensor 5002RF and the right rear LiDAR sensor 5002RR should be able to detect the presence of the wall.
  • the control unit 5005 collates information detected by the front right LiDAR sensor 5002RF and the rear right LiDAR sensor 5002RR. If the two match, it can be determined that both sensors are operating normally. If the two do not match, it can be determined that either of the two sensors is not normal.
  • sensors to be used can be appropriately selected according to the type of information to be acquired. For example, millimeter wave radar sensors, ultrasonic sonars, non-visible light cameras, brightness sensors, temperature sensors and the like can be mentioned.
  • the determination that the information acquired by the different sensors does not match is not limited to the case where the information does not match completely. If the information can be expressed numerically, it may be determined that the two do not match when the difference between the value acquired by the first sensor and the value acquired by the second sensor is equal to or greater than a predetermined threshold. That is, when the difference between the values acquired from both sensors is less than the threshold, it may be determined that the information acquired by both sensors is identical.
  • the consistency with the information acquired by the third sensor may be determined. . This makes it possible to identify which of the first sensor and the second sensor is abnormal.
  • the eighteenth embodiment described above is merely an example for facilitating the understanding of the present disclosure.
  • the configuration according to the eighteenth embodiment can be appropriately modified and improved without departing from the spirit of the present disclosure.
  • the sensor system 5001 need not include the front left lamp 5004LF, the front right lamp 5004RF, the rear left lamp 5004LR, and the rear right lamp 5004RR.
  • the sensor system 5001 needs to include the front left LiDAR sensor 5002LF, the front right LiDAR sensor 5002RF, the rear left LiDAR sensor 5002LR, the rear right LiDAR sensor 5002RR, and the communication unit 5006. do not do.
  • the sensor system 5001 does not need to include the front left lamp 5004LF, the front right lamp 5004RF, the rear left lamp 5004LR, the rear right lamp 5004RR, and the communication unit 5006.
  • FIG. 41 schematically shows the structure of the left front lamp device 6010 according to the nineteenth embodiment.
  • the left front lamp unit 6010 is mounted on the left front corner LF of the vehicle 100 shown in FIG.
  • a front right lamp device having a configuration symmetrical to the front left lamp device 6010 is mounted.
  • the left front lamp unit 6010 includes a housing 6011 and a translucent cover 6012.
  • Light transmitting cover 6012 forms a part of the outer surface of vehicle 100.
  • the light transmitting cover 6012 defines the lamp chamber 6013 together with the housing 6011.
  • the left front lamp unit 6010 includes a lamp unit 6014.
  • the lamp unit 6014 is a lamp that emits light toward a region including the front of the vehicle 100.
  • the lamp unit 6014 is, for example, a headlight.
  • the left front lamp unit 6010 includes a LiDAR sensor unit 6015.
  • the LiDAR sensor unit 6015 is disposed in the lamp chamber 6013. That is, the lamp chamber 6013 is an example of a storage chamber.
  • the LiDAR sensor unit 6015 has a configuration for emitting non-visible light, and a configuration for detecting return light resulting from reflection of the non-visible light at least on an object present in front of the vehicle 100.
  • the front of the vehicle 100 is an example of the exterior of the vehicle.
  • the LiDAR sensor unit 6015 can be equipped with a scanning mechanism that sweeps the non-visible light by changing the emission direction (that is, the detection direction) as necessary.
  • infrared light with a wavelength of 905 nm is used as non-visible light.
  • the LiDAR sensor unit 6015 can obtain the distance to the object associated with the return light based on, for example, the time from when the invisible light is emitted in a certain direction to when the return light is detected. Also, by integrating such distance data in association with the detection position, it is possible to obtain information related to the shape of the object associated with the return light. In addition to or instead of this, information related to an attribute such as the material of the object associated with the return light can be acquired based on the difference between the wavelengths of the emitted light and the return light.
  • the LiDAR sensor unit 6015 is a sensor that detects information including at least the distance in front of the vehicle 100.
  • the LiDAR sensor unit 6015 outputs data corresponding to the attribute (intensity, wavelength, etc.) of the detected return light.
  • the left front lamp unit 6010 includes a processing unit 6016.
  • the above information is acquired by appropriately processing the data output from the LiDAR sensor unit 6015 by the processing unit 6016.
  • the LiDAR sensor unit 6015 and the processing unit 6016 constitute a sensor system.
  • the processing unit 6016 includes a processor and a memory.
  • processors include CPUs, MPUs, and GPUs.
  • the processor may include multiple processor cores.
  • Examples of the memory include ROM and RAM.
  • the ROM can store a program that executes the above-described processing.
  • the program may include an artificial intelligence program.
  • An example of an artificial intelligence program is a learned neural network by deep learning.
  • the processor can specify at least a part of the program stored in the ROM, deploy it on the RAM, and execute the above process in cooperation with the RAM.
  • the processing unit 6016 is configured to exclude data corresponding to a space closer than a predetermined distance from the LiDAR sensor unit 6015 when performing processing based on the detection result of the LiDAR sensor unit 6015.
  • an area A surrounded by an alternate long and short dash line indicates a detection range of the LiDAR sensor unit 6015.
  • the broken line E1 is a set of points at a predetermined distance from the LiDAR sensor unit 6015.
  • the predetermined distance is defined as a value that will not be assumed to be a detection target (such as a pedestrian or an object having a possibility of collision) near the distance.
  • the processing unit 6016 uniformly excludes data corresponding to a space closer to the LiDAR sensor unit 6015 than the broken line E1. That is, only the data corresponding to the hatched part of the area A is subjected to the process related to the information acquisition.
  • the broken line E1 is a set of points whose distance from the LiDAR sensor unit 6015 is constant regardless of the detection direction. However, the distance from the LiDAR sensor unit 6015 excluded from the data processing target may change according to the detection direction.
  • the dashed line E2 shows such an example. The shape of the broken line E2 is appropriately determined according to the assumed detection target.
  • the area closer to the LiDAR sensor unit 6015 than the broken line E1 or E2 includes the translucent cover 6012 of the left front lamp unit 6010.
  • the presence of the translucent cover 6012 can be detected by the LiDAR sensor unit 6015.
  • the light transmission cover 6012 itself and the inside that is, the inside of the light chamber 6013 itself have a low need for acquiring information outside the vehicle 100.
  • the predetermined distance may be the distance from the LiDAR sensor unit 6015 to the outer surface 6012a (see FIG. 41) of the light transmission cover 6012. In this case, there is no need to consider the presence of the translucent cover 6012 when acquiring information outside the vehicle 100, and an increase in processing load can be suppressed.
  • the distance from the LiDAR sensor unit 6015 to the outer surface 6012a of the translucent cover 6012 changes according to the detection direction.
  • the distance for data exclusion can be easily set.
  • the processing unit 6016 may be configured to obtain temporal changes in detection results by the LiDAR sensor unit 6015 on the outer surface 6012 a of the light transmitting cover 6012.
  • the processing unit 6016 can exclude the result detected in this manner from the target of the process of acquiring information outside the vehicle 100. As a result, the influence of water droplets, dirt, scratches, etc. on the acquisition of information outside the vehicle 100 can be eliminated, and an increase in processing load can be suppressed.
  • the left front lamp unit 6010 can include a camera unit 6017.
  • the camera unit 6017 is disposed in the lamp chamber 6013.
  • the camera unit 6017 is a device for acquiring image information of an area including the front of the vehicle 100.
  • the camera unit 6017 outputs data corresponding to the acquired image information.
  • the image information is acquired by appropriately processing data output from the camera unit 6017 by the processing unit 6016.
  • the processing unit 6016 may be configured to acquire information outside the vehicle 100 based on the data output from the camera unit 6017 while referring to the temporal change in the detection result by the LiDAR sensor unit 6015 described above.
  • the image data output from the camera unit 6017 does not include distance information in principle. Therefore, water droplets, dirt, scratches, etc. on the outer surface 6012 a of the light transmitting cover 6012 may be reflected in the image acquired by the camera unit 6017.
  • processing for detecting the water droplets, stains, scratches and the like from the image data becomes unnecessary, and an increase in processing load can be suppressed.
  • the configuration of the left front lamp unit 6010 is also applicable to the left rear lamp unit.
  • the left rear lamp unit is mounted on the left rear corner LB of the vehicle 100 shown in FIG.
  • the basic configuration of the left rear lamp unit may be symmetrical with the left front lamp unit 6010.
  • the specifications of the lamp unit 6014 and the LiDAR sensor unit 6015 may be changed as appropriate.
  • the configuration of the front left lamp unit 6010 is also applicable to the rear right lamp unit.
  • the right rear lamp unit is mounted at the right rear corner RB of the vehicle 100 shown in FIG.
  • the basic configuration of the right rear lamp unit is symmetrical to the left rear lamp unit described above.
  • the above nineteenth embodiment is merely an example for facilitating the understanding of the present disclosure.
  • the configuration according to the nineteenth embodiment can be appropriately modified and improved without departing from the spirit of the present disclosure.
  • a millimeter wave radar unit can be accommodated in the lamp chamber 6013.
  • the millimeter wave radar unit has a configuration for transmitting a millimeter wave, and a configuration for receiving a reflected wave resulting from reflection of the millimeter wave on an object present outside the vehicle 100.
  • millimeter wave frequencies include 24 GHz, 26 GHz, 76 GHz and 79 GHz.
  • the millimeter wave radar unit can obtain the distance to the object associated with the reflected wave based on, for example, the time from when the millimeter wave is transmitted in a certain direction to when the reflected wave is received. Also, by integrating such distance data in association with the detection position, it is possible to obtain information related to the movement of the object associated with the reflected wave. That is, the millimeter wave radar unit is an example of a sensor unit that detects information including the distance outside the vehicle 100.
  • the millimeter wave radar unit outputs data corresponding to the attribute (intensity, wavelength, etc.) of the detected reflected wave.
  • the above information is acquired by processing the data output from the millimeter wave radar unit appropriately by the processing unit 6016.
  • the front left lamp device 6010 can be configured as a front left sensor device that does not include the lamp unit 6014. If the camera unit 6017 is not provided either, the translucent cover 6012 does not need to be transparent for visible light.
  • the left front lamp unit 6010 includes the processing unit 6016.
  • the control device 101 shown by a broken line in FIG.
  • An example of the control device 101 is an ECU.
  • the ECU may be configured by an integrated circuit such as an ASIC or an FPGA, or may be configured by a combination of a microcontroller and an integrated circuit.

Abstract

透光カバー(1012)は、ハウジング(1011)とともに灯室(1013)を区画し、車両の外面の一部を形成する。LiDARセンサ(1161)は、灯室(1013)内に配置されており、車両の外部の情報を検出する。ハーフミラー(1162)は、透光カバー(1012)が位置している側からLiDARセンサ(1161)を覆うように、灯室(1013)内に配置されている。透光カバー(1012)は、可視光に対して第一の透明性を有している。ハーフミラー(1162)は、当該可視光に対して第一の透明性より低い第二の透明性を有している。

Description

ランプ装置、センサシステム、およびセンサ装置
 本開示は、車両に搭載されるランプ装置、センサシステム、およびセンサ装置に関する。
 車両の運転支援技術を実現するためには、当該車両の外部の情報を検出するためのセンサを車体に搭載する必要がある。そのようなセンサの例としては、LiDAR(Light Detection and Ranging)センサ、カメラ、ミリ波センサが挙げられる(例えば、特許文献1を参照)。
日本国特許出願公開2010-185769号公報
 車両の外部の情報を効率的に取得可能なセンサの配置場所として、車体の四隅(左前隅、右前隅、左後隅、および右後隅)が検討されている。これらは、車両の外部に照明光を供給するランプ装置が搭載されている場所でもある。
 しかしながら、上記のようなセンサは、比較的大きな寸法を有しており、かつ灯具とは大きく異なる外観を呈していることが一般的である。したがって、灯室内あるいはランプ装置の近傍に当該センサを配置しようとすると、灯具との干渉を考慮する必要が生じたり、外観上の違和感を生じることを免れなかったりする。すなわち、灯具との干渉を避けつつセンサが情報を検出可能な設置場所を確保し、かつ外観上の違和感を軽減するのには困難が伴う。
 したがって、車両の外部の情報を検出するセンサを灯室内に配置しようとする際に生じるレイアウト上の制約を軽減するという課題が存在する(第一の課題)。
 これに加えてあるいは代えて、車両の外部の情報を検出するセンサの配置自由度を向上するという課題が存在する(第二の課題)。
 また、ランプ装置内あるいはランプ装置の近傍に上記のようなセンサを配置しようとした場合、レイアウトに係る制約が大きくなる。例えば、外観上の違和感を抑制するためにエクステンションなどの加飾部材を設けると、センサの検出可能領域が当該加飾部材と干渉してしまう場合がある。すなわち、センサについて所望の検出可能領域を確保しつつ、外観上の違和感を抑制しうるセンサのレイアウト決定に困難が伴う。
 したがって、車両に搭載されるセンサ装置のレイアウトに係る制約を緩和しつつ、当該車両の外部の情報を効率的に検出できるようにするという課題が存在する(第三の課題)。
 さらに、より多くの情報を取得するためにセンサの数が増加するにつれ、レイアウトに係る制約が大きくなる。
 したがって、複数のセンサが車両に搭載される場合のレイアウトに係る制約を緩和しつつ、車両の外部の情報を効率的に検出できるようにするという課題が存在する(第四の課題)。
 運転支援技術への依存度が高まるに連れて、上記のようなセンサが正常に動作しているかの重要性も高くなる。
 したがって、車両に搭載されて当該車両の外部の情報を取得するセンサが正常に動作しているかを自動的に判断可能にするという課題が存在する(第五の課題)。
 また、車両の運転支援技術が高度化するにつれ、必要とされる情報処理に係る負荷も増大する。
 したがって、車両の運転支援に必要とされる情報処理に係る負荷の増大を抑制するという課題が存在する(第六の課題)。
 なお、本開示において「運転支援」とは、運転操作(ハンドル操作、加速、減速)、走行環境の監視、および運転操作のバックアップの少なくとも一つを少なくとも部分的に行なう制御処理を意味する。すなわち、衝突被害軽減ブレーキ機能やレーンキープアシスト機能のような部分的な運転支援から完全自動運転動作までを含む意味である。
 上記の第一の課題を達成するための一態様は、車両に搭載されるランプ装置であって、
 ハウジングと、
 灯具を収容するための灯室を前記ハウジングとともに区画し、前記車両の外面の一部を形成するカバーと、
 前記灯室内に配置されており、前記車両の外部の情報を検出するセンサと、
 前記カバーが位置している側から前記センサの少なくとも一部を覆うように前記灯室内に配置されている光学部材と、
を備えており、
 前記カバーは、可視光に対して第一の透明性を有しており、
 前記光学部材は、前記可視光に対して前記第一の透明性より低い第二の透明性を少なくとも一時的に有する低透明部を備えている。
 本態様に関して「光学部材」とは、光の出射(発光)、光の透過、光の反射、光の屈折、光の回折、光の散乱、光の偏光、光の分離、光の混合、および光の波長選択の少なくとも一つに関与する部材を意味する。
 車両の外部の情報を効率的に取得するためには、センサがランプ装置の灯室内に配置されていると有利である。しかしながら、当該センサが比較的大きな寸法を有しており、かつ灯具とは大きく異なる外観を有している場合、灯具との干渉を避けつつ当該センサが情報を検出可能な設置場所を確保し、かつ外観上の違和感を避けるには困難が伴う。
 しかしながら、上記のような構成によれば、光学部材の低透明部によってセンサの視認性が低下されるため、少なくとも外観上の違和感に係る制約を軽減できる。よって、センサを灯室内に配置しようとする際に生じるレイアウト上の制約を軽減できる。
 上記のランプ装置は、以下のように構成されうる。
 前記光学部材は、発光により前記低透明部を形成するように構成されている。
 このような構成によれば、センサの視認性を低下させるだけでなく、動作時において新規な外観を呈するランプ装置を提供できる。
 この場合、上記のランプ装置は、以下のように構成されうる。
 前記光学部材は、前記灯具としても機能する。
 このような構成によれば、灯具の背後にセンサを配置できるため、灯室内の限られた空間を有効に活用できる。
 あるいは、上記のランプ装置において、前記センサは、前記低透明部による反射を利用して前記情報を検出するように構成されてもよい。
 上記のランプ装置は、以下のように構成されうる。
 前記灯室内に配置されており、前記センサと前記光学部材の相対位置関係を維持するように前記センサと前記光学部材を支持している支持部材と、
 前記支持部材の位置と姿勢の少なくとも一方を調節する調節機構と、
を備えている。
 支持部材の姿勢調節は、センサの検出基準位置と光学部材からの光出射方向の少なくとも一方を調節するために行なわれる。上記の構成によれば、センサと光学部材の相対位置関係が支持部材によって維持されているため、前記の調節と、低透明部によりセンサの視認性を低下させる効果を維持するための調整とを個別に行なう必要がない。
 上記の第二の課題を達成するための一態様は、車両に搭載されるセンサシステムであって、
 ハウジングと、
 前記ハウジングとともに収容空間を区画する透明カバーと、
 前記収容空間内に配置されており、前記車両の外部の情報を検出するセンサと、
 前記収容空間内における前記センサの動作を妨げない位置に配置されており、前記センサの動作と連携して発光する発光体と、
を備えている。
 車両の外部の情報を効率的に取得する観点からは、灯具が配置されている車両の隅部は、センサの配置場所として有利である。しかしながら、当該センサが比較的大きな寸法を有しており、かつ灯具とは大きく異なる外観を有している場合、灯具の近傍に当該センサを配置しようとすると、外観上の違和感を生じることを免れない。このような違和感を軽減するためには、当該センサを不透明なカバーで覆うなどの手法が採られることが一般的である。
 他方、上記の構成においては、透明カバーで区画された収容空間内にセンサを配置することにより、敢えてこれらが視認されるようにしている。さらに、センサの動作と連携して発光する発光体が、収容空間内に配置されている。これにより、センサの存在感を敢えて強調する新規な外観を伴う新たな商品価値を提供できる。また、センサの存在感を抑制する必要性という制約から解放されるため、車両の外部の情報を検出するセンサの配置自由度を向上できる。
 上記のセンサシステムは、以下のように構成されうる。
 前記発光体は、前記車両の外方から見て前記センサを包囲しているように見える位置に設けられている。
 このような構成によれば、センサの存在感をさらに強調する外観を提供できる。
 上記のセンサシステムは、以下のように構成されうる。
 前記発光体は、前記車両が運転支援動作を行なっているときに発光する。
 このような構成によれば、車両が運転支援動作中であることを車両の外部からも認知でき、新たな商品価値を提供できる。このような機能の社会的認知が進めば、発光により歩行者や他のドライバーに対して安心感を与えることもできる。
 上記のセンサシステムは、以下のように構成されうる。
 前記発光体は、導光部材である。
 導光部材は、形状の選択自由度が比較的高く、広い発光領域を確保しやすい光学部品である。したがって、センサの存在感を強調できる発光態様を容易かつ柔軟に実現できる。
 あるいは、上記のセンサシステムは、以下のように構成されうる。
 前記発光体は、光源である。
 この場合、導光部材による光の進行方向の変化を考慮する必要がなく、センサの存在感を強調可能な発光態様を実現するための光源の配置を容易かつ柔軟に決定できる。
 この場合、上記のセンサシステムは、以下のように構成されうる。
 前記センサの動作を制御する制御部と、
 前記光源、前記センサ、および前記制御部の相対位置関係を維持するように支持している支持部材と、
を備えている。
 このような構成によれば、連携動作に関与する制御部、センサ、および光源をモジュール化して収容空間内に配置できる。
 この場合、上記のセンサシステムは、以下のように構成されうる。
 前記支持部材の前記車両に対する位置と姿勢の少なくとも一方を調節する調節機構を備えている。
 支持部材の位置と姿勢の少なくとも一方の調節は、センサの検出基準位置と光源からの光出射方向の少なくとも一方を調節するために行なわれる。センサと光源の相対位置関係は、支持部材によって維持されているので、いずれか一方の調節を行なえば、その結果が他方に反映される。
 上記の第三の課題を達成するための一態様は、車両に搭載されるセンサ装置であって、
 ハウジングと、
 収容室を前記ハウジングとともに区画し、前記車両の外面の一部を形成するカバーと、
 前記収容室内に配置されており、検出光を用いて前記車両の外部の情報を検出するセンサユニットと、
 前記カバーの外面、前記カバーの内面、および前記カバーと前記センサユニットの間に位置する空間の少なくとも一つに設けられており、前記検出光の進行方向を変化させる光制御面と、
を備えている。
 本態様に関して「センサユニット」とは、所望の情報検出機能を備えつつ、それ自身が単体で流通可能な部品の構成単位を意味する。
 本態様に関して「光制御面」とは、光の屈折、反射、回折、および散乱を意図的に生じさせることによって光の進行方向を変化させる面を意味する。例えばランプ装置における透光カバーを灯具から出射された光が通過する際にも、厳密には当該透光カバーの表面で僅かな光の屈折や反射が生じている。しかしながら、単に光を通過させることを意図しているこのような部材の表面は、上記の「光制御面」とは区別される。
 本態様に関して「光」とは、任意の波長を有する電磁波を意味する。例えば「光」は、可視光のみならず、紫外光や赤外光、ミリ波やマイクロ波を含む概念である。
 このような構成によれば、センサユニットが情報の検出に用いる検出光の進行方向を光制御面が適宜に変更することにより、センサユニットの配置によらず、所望の検出範囲を高い自由度で設定できる。換言すると、車両の外部の情報を効率的に取得可能な検出範囲を設定しつつも、センサユニットのレイアウトに係る制約を緩和できる。
 上記の第四の課題を達成するための一態様は、車両に搭載されるセンサシステムであって、
 ハウジングと、
 前記ハウジングと共に収容室を区画し、前記車両の外面の一部を形成するカバーと、
 前記収容室内に配置されており、各々が前記車両の外部の情報を検出する複数のセンサユニットと、
を備えており、
 前記複数のセンサユニットの少なくとも一つは、前記車両の上下方向に対応する第一方向よりも当該第一方向に直交する向きに対応する第二方向について広い検出範囲を有しており、
 前記複数のセンサユニットは、前記第一方向に配列されている。
 検出範囲のより狭い方向に複数のセンサユニットを配列することにより、隣接するセンサユニットの検出範囲の重複を少なくしても当該センサユニット同士の間隔が広くなることを回避できる。他方、隣接するセンサユニットの検出範囲を一致させようとする場合において、各センサユニットにおいて必要とされる検出方向の調整量を少なくできる。したがって、複数のセンサユニットが車両に搭載される場合のレイアウトに係る制約を緩和しつつ、車両の外部の情報を効率的に検出できる。
 本態様に関して「センサユニット」とは、所望の情報検出機能を備えつつ、それ自身が単体で流通可能な部品の構成単位を意味する。
 本態様に関して「光」とは、任意の波長を有する電磁波を意味する。例えば「光」は、可視光のみならず、紫外光や赤外光、ミリ波やマイクロ波を含む概念である。
 上記の第五の課題を達成するための第一態様は、車両に搭載されるセンサシステムであって、
 前記車両の外部の情報を検出するセンサと、
 通信を介してインフラ情報を取得する通信部と、
 所定のタイミングで前記センサが検出した情報と前記通信部が取得したインフラ情報を照合し、不一致である場合に前記センサが正常でないと判断する制御部と、
を備えている。
 このような構成によれば、車両に搭載されて車両の外部の情報を取得するセンサが正常に動作しているかを自動的に判断できる。加えて、原則として設置場所が変化しないインフラの情報を判断に利用することにより、判断の信頼性を高めることができる。
 第一態様に係るセンサシステムは、以下のように構成されうる。
 前記通信部は、車両に搭載された記憶装置に記憶されている地図情報から前記インフラ情報を取得する。
 このような構成によれば、車両の外部環境(天候、明暗、電波状態など)に依らず適宜のインフラ情報を取得し、車両に搭載されて車両の外部の情報を取得するセンサが正常に動作しているかを自動的に判断できる。
 第一態様に係るセンサシステムは、以下のように構成されうる。
 前記通信部は、前記車両の外部との通信を通じて前記インフラ情報を取得する。
 このような構成によれば、よりリアルタイム性の高いインフラ情報を取得し、車両に搭載されて車両の外部の情報を取得するセンサが正常に動作しているかを自動的に判断できる。
 第一態様に係るセンサシステムは、以下のように構成されうる。
 前記所定のタイミングは、前記車両が停車したときである。
 このような構成によれば、車両とインフラの相対速度が零である状況下でセンサによる情報取得がなされるため、情報の正確性を向上できるだけでなく処理負荷の増大を抑制できる。
 第一態様に係るセンサシステムは、以下のように構成されうる。
 前記センサが正常でないと判断されると、前記制御部は、報知処理と自動運転支援の解除処理の少なくとも一方を前記車両に実行させる。
 このような構成によれば、センサが正常でない事実を運転者が認識しないまま、当該センサが関与する運転支援制御が継続される事態を回避できる。
 上記の第五の課題を達成するための第二態様は、車両に搭載されるセンサシステムであって、
 前記車両の外部の明るさに係る情報を検出するセンサと、
 前記車両の外部を照明する光源と、
 所定のタイミングで前記光源を点滅させ、前記センサからの出力を取得する制御部と、
を備えており、
 前記制御部は、前記センサからの出力が前記点滅に対応していない場合に当該センサが正常でないと判断する。
 このような構成によれば、車両に搭載されたセンサが正常に動作しているかを自動的に判断できる。加えて、車両の外部を照明する光源を判断に利用することにより、低コストで診断システムを構築できる。
 第二態様に係るセンサシステムは、以下のように構成されうる。
 前記点滅は、人間が視認できない程度の周波数で繰り返される。
 このような構成によれば、夜間であっても、車両の搭乗者だけでなく車両の周囲に居る者に違和感を与えることなく、車両に搭載されたセンサが正常に動作しているかを自動的に判断できる。
 第二態様に係るセンサシステムは、以下のように構成されうる。
 前記所定のタイミングは、前記車両の始動時である。
 このような構成によれば、夜間でなくとも、車両の周囲に居る者に違和感を与えることなく、車両に搭載されたセンサが正常に動作しているかを自動的に判断できる。加えて、正常でないセンサを搭載したまま運転が開始される事態を回避できる。
 第二態様に係るセンサシステムは、以下のように構成されうる。
 前記センサが正常でないと判断されると、前記制御部は、報知処理と自動運転解除処理の少なくとも一方を前記車両に実行させる。
 このような構成によれば、センサが正常でない事実を運転者が認識しないまま、当該センサが関与する運転支援制御が継続される事態を回避できる。
 上記の第五の課題を達成するための第三態様は、車両に搭載されるセンサシステムであって、
 前記車両の第一部分に搭載されて当該車両の外部の情報を検出する第一センサと、
 前記車両の第二部分に搭載されて当該車両の外部の情報を検出する第二センサと、
 所定のタイミングで前記第一センサが検出した情報と前記第二センサが検出した情報を照合し、不一致である場合に前記第一センサと前記第二センサのいずれかが正常でないと判断する制御部と、
を備えている。
 このような構成によれば、車両に搭載されたセンサが正常に動作しているかを自動的かつ容易に判断できる。
 第三態様に係るセンサシステムは、以下のように構成されうる。
 前記外部の情報は、環境情報である。
 このような構成によれば、判断が実行される時機に係る制限が少ない。加えて、環境情報は、物体の検出などと比較して検出結果に大きな差異が生じにくい。そのような情報を対象として検出結果が一致しない場合、深刻度の高い異常が予想される。よって、より深刻度の高い異常を発見できる。
 第三態様に係るセンサシステムは、以下のように構成されうる。
 前記所定のタイミングは、定期的である。
 このような構成によれば、車載センサの自己定期診断システムを容易に構築できる。
 第三態様に係るセンサシステムは、以下のように構成されうる。
 前記第一センサと前記第二センサのいずれかが正常でないと判断されると、前記制御部は、報知処理と自動運転解除処理の少なくとも一方を前記車両に実行させる。
 このような構成によれば、センサが正常でない事実を運転者が認識しないまま、当該センサが関与する運転支援制御が継続される事態を回避できる。
 上記の第六の課題を達成するための一態様は、車両に搭載されるセンサシステムであって、
 距離を含む前記車両の外部の情報を検出し、当該情報に対応するデータを出力するセンサユニットと、
 前記データを処理して前記情報を取得する処理部と、
を備えており、
 前記処理部は、前記センサユニットから所定の距離よりも近い空間に対応するデータを除いて処理を行なう、
センサシステム。
 本態様に関して「センサユニット」とは、所望の情報検出機能を備えつつ、それ自身が単体で流通可能な部品の構成単位を意味する。
 本態様に関して「センサユニットから所定の距離」とは、センサユニットにおける任意の基準点からの距離を意味する。但し、当該基準点は予め定められた不動の点である。
 本態様に関して「光」とは、任意の波長を有する電磁波を意味する。例えば「光」は、可視光のみならず、紫外光や赤外光、ミリ波やマイクロ波を含む概念である。
 このような構成によれば、車両の外部の情報を取得するための処理に供されるデータ量が減り、処理負荷の増大を抑制できる。また、センサユニットから出力されるデータの一部が、予め定められた距離に基づいて一律的に処理対象から除外されるため、データの選別に係る判断処理を省略できる。このことによっても、処理負荷の増大を抑制できる。
 上記のセンサシステムは、以下のように構成されうる。
 前記所定の距離は、前記センサユニットの検出方向に応じて異なる。
 このような構成によれば、処理負荷の増大を抑制しつつ、より複雑な情報検出にも柔軟に対応できる。
 上記のセンサシステムは、以下のように構成されうる。
 前記所定の距離は、前記センサユニットを収容する収容室を区画するカバーの外面までの距離である。
 このような構成によれば、車両の外部の情報取得に際してカバーの存在を考慮する必要がなくなり、処理負荷の増大を抑制できる。
 この場合、上記のセンサシステムは、以下のように構成されうる。
 前記処理部は、前記所定の距離における前記センサユニットによる検出結果の経時変化を取得する。
 このような構成によれば、カバーの外面に付着した水滴や汚れ、カバーの外面に形成された傷などを検出できる。
 この場合、上記のセンサシステムは、以下のように構成されうる。
 前記車両の外部の画像を取得するカメラユニットを備えており、
 前記処理部は、前記経時変化を参照しつつ、前記画像に基づいて前記車両の外部の情報を取得する。
 カメラユニットから出力される画像データには、原理上、距離情報が含まれていない。したがって、カバーの外面上の水滴、汚れ、傷などが、カメラユニットにより取得される画像に写り込む場合がある。センサユニットにより検出された水滴、汚れ、傷などの存在を参照することにより、画像データ中から当該水滴、汚れ、傷などを検出する処理が不要になり、処理負荷の増大を抑制できる。
第一実施形態に係る左前ランプ装置の構成を模式的に示している。 車両を模式的に示す図である。 図1の左前ランプ装置における第一センサユニットと第二センサユニットの構成を模式的に示している。 第二実施形態に係る左前ランプ装置における第一センサユニットと第二センサユニットの構成を模式的に示している。 第三実施形態に係る左前ランプ装置における第一センサユニットと第二センサユニットの構成を模式的に示している。 第三実施形態に係る左前ランプ装置における支持部材と調節機構に係る構成を模式的に示している。 第四実施形態に係る左前ランプ装置における第一センサユニットと第二センサユニットの構成を模式的に示している。 第四実施形態に係る左前ランプ装置における第一センサユニットと第二センサユニットの構成を模式的に示している。 第四実施形態に係る左前ランプ装置における支持部材と調節機構に係る構成を模式的に示している。 第五実施形態に係る左前ランプ装置におけるセンサユニットの構成を模式的に示している。 第五実施形態に係る左前ランプ装置におけるセンサユニットの構成を模式的に示している。 第五実施形態に係る左前ランプ装置における支持部材と調節機構に係る構成を模式的に示している。 第五実施形態に係る左前ランプ装置の変形例を示している。 第六実施形態に係る左前センサシステムの外観を示している。 図14の左前センサシステムの一部の外観を示している。 図14の左前センサシステムの一部の外観を示している。 図14の左前センサシステムの一部の外観を示している。 図14の左前センサシステムの一部の構成を示している。 第七実施形態に係る左前センサシステムの外観を示している。 第七実施形態に係る左前センサシステムの変形例を示している。 第八実施形態に係る左前センサシステムの外観を示している。 第九実施形態に係る左前ランプ装置の構成を模式的に示している。 図22の左前ランプ装置の変形例を模式的に示している。 第十実施形態に係る左前ランプ装置の構成を模式的に示している。 第十一実施形態に係る左前ランプ装置の構成を模式的に示している。 第十二実施形態に係る左前ランプ装置の構成を模式的に示している。 第十三実施形態に係る左前ランプ装置の構成を模式的に示している。 第十四実施形態に係る左前ランプ装置の構成を模式的に示している。 第十五実施形態に係る左前ランプ装置の構成を模式的に示している。 第十六実施形態に係る左前センサ装置の構成を模式的に示している。 第十七実施形態に係る左前センサシステムの構成を模式的に示している。 図31の左前センサシステムにおける各センサユニットの検出範囲を示している。 図31の左前センサシステムにおける複数のセンサユニットの配列の利点を説明するための図である。 図31の左前センサシステムにおける複数のセンサユニットの配列の利点を説明するための図である。 図31の左前センサシステムの一部の外観を示す正面図である。 図31の左前センサシステムの変形例を模式的に示す図である。 第十八実施形態に係るセンサシステムの構成を模式的に示している。 図37のセンサシステムの第一の動作例を示すフローチャートである。 図37のセンサシステムの第二の動作例を示すフローチャートである。 図37のセンサシステムの第三の動作例を示すフローチャートである。 第十九実施形態に係る左前ランプ装置の構成を模式的に示している。 図41の左前ランプ装置のLiDARセンサユニットの検出範囲を示している。
 添付の図面を参照しつつ、実施形態の例について以下詳細に説明する。以下の説明に用いる各図面では、各部材を認識可能な大きさとするために縮尺を適宜変更している。
 添付の図面において、矢印Fは、図示された構造の前方向を示している。矢印Bは、図示された構造の後方向を示している。矢印Lは、図示された構造の左方向を示している。矢印Rは、図示された構造の右方向を示している。矢印Uは、図示された構造の上方向を示している。矢印Dは、図示された構造の下方向を示している。以降の説明に用いる「左」および「右」は、運転席から見た左右の方向を示している。
 図1は、第一実施形態に係る左前ランプ装置1010の構成を模式的に示している。左前ランプ装置1010は、図2に示される車両100の左前隅部LFに搭載される。車両100の右前隅部RFには、左前ランプ装置1010と左右対称の構成を有する右前ランプ装置が搭載される。
 左前ランプ装置1010は、ハウジング1011と透光カバー1012を備えている。透光カバー1012は、車両100の外面の一部を形成する。透光カバー1012は、ハウジング1011とともに灯室1013を区画している。
 左前ランプ装置1010は、第一ランプユニット1014を備えている。第一ランプユニット1014は、車両100の前方を含む領域に向けて光を出射する灯具である。第一ランプユニット1014は、例えば前照灯である。
 左前ランプ装置1010は、第二ランプユニット1015を備えている。第二ランプユニット1015は、車両100の前方を含む領域に向けて光を出射する灯具である。第二ランプユニット1015は、例えば方向指示灯である。
 左前ランプ装置1010は、第一センサユニット1016を備えている。第一センサユニット1016は、LiDARセンサ1161とハーフミラー1162を備えている。
 LiDARセンサ1161は、非可視光を出射する構成、および当該非可視光が少なくとも車両100の前方に存在する物体に反射した結果の戻り光を検出する構成を備えている。車両100の前方は、車両の外部の一例である。LiDARセンサ1161は、必要に応じて出射方向(すなわち検出方向)を変更して当該非可視光を掃引する走査機構を備えうる。本実施形態においては、非可視光として波長905nmの赤外光が使用されている。
 LiDARセンサ1161は、例えば、ある方向へ非可視光を出射したタイミングから戻り光を検出するまでの時間に基づいて、当該戻り光に関連付けられた物体までの距離を取得できる。また、そのような距離データを検出位置と関連付けて集積することにより、戻り光に関連付けられた物体の形状に係る情報を取得できる。これに加えてあるいは代えて、出射光と戻り光の波長の相違に基づいて、戻り光に関連付けられた物体の材質などの属性に係る情報を取得できる。
 すなわち、LiDARセンサ1161は、少なくとも車両100の前方の情報を検出するセンサである。LiDARセンサ1161は、検出された戻り光の属性(強度や波長など)に対応する信号を出力する。上記の情報は、LiDARセンサ1161より出力された信号が不図示の情報処理部によって適宜に処理されることにより取得される。情報処理部は、左前ランプ装置1010が備えていてもよいし、車両100に搭載されていてもよい。
 ハーフミラー1162は、光学部材の一例である。ハーフミラー1162は、透明基材上に反射皮膜が蒸着された構造を有している。反射皮膜は、LiDARセンサ1161から出射される非可視光を透過可能な材料により形成される。そのような材料の例としては、錫(Sn)、銀(Ag)、フッ化カルシウム(CaF)、酸化チタン(TiO)、臭化カリウム(KBr)が挙げられる。
 図1と図3に示されるように、ハーフミラー1162は、透光カバー1012が位置している側からLiDARセンサ1161の検出面1161aを覆うように配置されている。車両100の外方から透光カバー1012を通過して灯室1013内に到来する可視光は、ハーフミラー1162の反射皮膜によって反射される。したがって、ハーフミラー1162は、外方からは鏡のように視認され、背後に配置されているLiDARセンサ1161の視認性が低下する。
 本開示において、「LiDARセンサの検出面」とは、LiDARセンサの外観を呈する外面のうち、情報の検出に関わる非可視光が通過する部分を有する面を意味する。
 この場合、透光カバー1012は、可視光に対して第一の透明性を有していると言える。他方、ハーフミラー1162の反射皮膜は、当該可視光に対して第二の透明性を有していると言える。第二の透明性は、第一の透明性よりも低い。ハーフミラー1162の反射皮膜は、低透明部の一例である。
 車両100の外部の情報を効率的に取得するためには、LiDARセンサ1161が左前ランプ装置1010の灯室1013内に配置されていると有利である。しかしながら、LiDARセンサ1161は、比較的大きな寸法を有しており、かつ灯具とは大きく異なる外観を有していることが一般的である。よって、灯具との干渉を避けつつLiDARセンサ1161が情報を検出可能な設置場所を確保し、かつ外観上の違和感を避けるには困難が伴う。
 しかしながら、本実施形態の構成によれば、ハーフミラー1162によってLiDARセンサ1161の視認性が低下されるため、少なくとも外観上の違和感に係る制約を軽減できる。よって、LiDARセンサ1161を灯室1013内に配置しようとする際に生じるレイアウト上の制約を軽減できる。
 さらに、ハーフミラー1162は、LiDARセンサ1161の検出面1161aを覆ってはいるものの、検出に用いられる非可視光の透過を許容する。したがって、ハーフミラー1162は、LiDARセンサ1161による情報の検出を妨げない。この事実もまた、LiDARセンサ1161を灯室1013内に配置しようとする際に生じるレイアウト上の制約を軽減しうる。
 図1に示されるように、左前ランプ装置1010は、エクステンション部材1017を備えている。エクステンション部材1017は、灯室1013内に配置されている構造の一部を覆い隠して車両100の外側から視認できないようにする意匠部品である。エクステンション部材1017の表面は、鏡面仕上げされていることが一般的である。ハーフミラー1162の外観は、鏡面仕上げされた表面に類似している。したがって、ハーフミラー1162の存在により外観上の違和感が生じるおそれを抑制できる。
 図1に示されるように、第一センサユニット1016は、遮光部材1163を備えている。遮光部材1163は、LiDARセンサ1161とハーフミラー1162の間に光が進入することを防ぐように設けられている。
 ハーフミラー1162の背後から車両100の外方へ向かう光量が増えると、ハーフミラー1162によるLiDARセンサ1161の視認性の抑制効果が低下する。遮光部材1163は、このような事態の発生を防止するために設けられている。遮光部材1163は、第一ランプユニット1014と第二ランプユニット1015の少なくとも一方の点灯時において特に有効である。
 ハーフミラー1162を備える第一センサユニット1016の構成は、情報の検出に赤外光を使用する他のセンサにも適用可能である。そのようなセンサの例としては、赤外線カメラが挙げられる。
 左前ランプ装置1010は、第二センサユニット1018を備えている。第二センサユニット1018は、ミリ波レーダ1181とハーフミラー1182を備えている。
 ミリ波レーダ1181は、ミリ波を発信する構成、および当該ミリ波が車両100の少なくとも左方に存在する物体に反射した結果の反射波を受信する構成を備えている。車両100の左方は、車両の外部の一例である。本実施形態においては、周波数が76GHzのミリ波が使用されている。他の周波数の例としては、24GHz、26GHz、79GHzなどが挙げられる。
 ミリ波レーダ1181は、例えば、ある方向へミリ波を発信したタイミングから反射波を受信するまでの時間に基づいて、当該反射波に関連付けられた物体までの距離を取得できる。また、そのような距離データを検出位置と関連付けて集積することにより、反射波に関連付けられた物体の動きに係る情報を取得できる。
 すなわち、ミリ波レーダ1181は、少なくとも車両100の左方の情報を取得するセンサとして機能する。ミリ波レーダ1181は、検出された反射波に対応する信号を出力する。上記の情報は、ミリ波レーダ1181より出力された信号が不図示の情報処理部によって適宜に処理されることにより取得される。情報処理部は、左前ランプ装置1010が備えていてもよいし、車両100に搭載されていてもよい。
 ハーフミラー1182は、光学部材の一例である。ハーフミラー1182は、透明基材上に反射皮膜が蒸着された構造を有している。反射皮膜は、ミリ波レーダ1181から出射されるミリ波を透過可能な材料により形成される。そのような材料の例としては、インジウム(In)やニッケル(Ni)が挙げられる。
 図1と図3に示されるように、ハーフミラー1182は、透光カバー1012が位置している側からミリ波レーダ1181の検出面1181aを覆うように配置されている。車両100の外方から透光カバー1012を通過して灯室1013内に到来する可視光は、ハーフミラー1182の反射皮膜によって反射される。したがって、ハーフミラー1182は、外方からは鏡のように視認され、背後に配置されているミリ波レーダ1181の視認性が低下する。
 本開示において、「ミリ波レーダの検出面」とは、ミリ波レーダの外観を呈する外面のうち、情報の検出に関わるミリ波が通過する部分を有する面を意味する。
 この場合、透光カバー1012は、可視光に対して第一の透明性を有していると言える。他方、ハーフミラー1182の反射皮膜は、当該可視光に対して第二の透明性を有していると言える。第二の透明性は、第一の透明性よりも低い。ハーフミラー1182の反射皮膜は、低透明部の一例である。
 車両100の外部の情報を効率的に取得するためには、ミリ波レーダ1181が左前ランプ装置1010の灯室1013内に配置されていると有利である。しかしながら、ミリ波レーダ1181は、比較的大きな寸法を有しており、かつ灯具とは大きく異なる外観を有していることが一般的である。よって、灯具との干渉を避けつつミリ波レーダ1181が情報を検出可能な設置場所を確保し、かつ外観上の違和感を避けるには困難が伴う。
 しかしながら、本実施形態の構成によれば、ハーフミラー1182によってミリ波レーダ1181の視認性が低下されるため、少なくとも外観上の違和感に係る制約を軽減できる。よって、ミリ波レーダ1181を灯室1013内に配置しようとする際に生じるレイアウト上の制約を軽減できる。
 さらに、ハーフミラー1182は、ミリ波レーダ1181の検出面1181aを覆ってはいるものの、検出に用いられるミリ波の透過を許容する。したがって、ハーフミラー1182は、ミリ波レーダ1181による情報の検出を妨げない。この事実もまた、ミリ波レーダ1181を灯室1013内に配置しようとする際に生じるレイアウト上の制約を軽減しうる。
 また、ハーフミラー1182の外観は、エクステンション部材1017の鏡面仕上げされた表面に類似している。したがって、ハーフミラー1182の存在により外観上の違和感が生じるおそれを抑制できる。
 第一センサユニット1016に加えてあるいは代えて、少なくとも車両100の前方を含む領域の情報を検出するために、第二センサユニット1018と同様の構成が設けられうる。すなわち、LiDARセンサまたは赤外線カメラに加えてあるいは代えて、少なくとも車両100の前方を含む領域の情報は、ミリ波レーダによって取得されうる。
 第二センサユニット1018に加えてあるいは代えて、少なくとも車両100の左方を含む領域の情報を検出するために、第一センサユニット1016と同様の構成が設けられうる。すなわち、ミリ波レーダに加えてあるいは代えて、少なくとも車両100の前方を含む領域の情報は、LiDARセンサと赤外線カメラの少なくとも一方によって取得されうる。
 少なくとも車両100の前方を含む領域の情報を検出するためのセンサの種別と数は、左前ランプ装置1010の仕様に応じて適宜に定められうる。
 少なくとも車両100の左方を含む領域の情報を検出するためのセンサの種別と数は、左前ランプ装置1010の仕様に応じて適宜に定められうる。
 左前ランプ装置1010の構成は、左後ランプ装置にも適用可能である。左後ランプ装置は、図2に示される車両100の左後隅部LBに搭載される。左後ランプ装置の基本的な構成は、左前ランプ装置1010と前後対称でありうる。但し、第一ランプユニット1014と第二ランプユニット1015の仕様は適宜に変更されうる。LiDARセンサ1161とミリ波レーダ1181の仕様もまた適宜に変更されうる。
 左前ランプ装置1010の構成は、右後ランプ装置にも適用可能である。右後ランプ装置は、図2に示される車両100の右後隅部RBに搭載される。右後ランプ装置の基本的な構成は、上述の左後ランプ装置と左右対称である。
 次に、図4を参照しつつ、第二実施形態に係る左前ランプ装置1020について説明する。左前ランプ装置1020は、図2に示される車両100の左前隅部LFに搭載される。車両100の右前隅部RFには、左前ランプ装置1020と左右対称の構成を有する右前ランプ装置が搭載される。左前ランプ装置1020は、第一センサユニット1026と第二センサユニット1028を備えている。それ以外の構成は第一実施形態に係る左前ランプ装置1010と同じであるため、繰り返しとなる説明は省略する。
 第一センサユニット1026は、LiDARセンサ1261を備えている。LiDARセンサ1261の構成は、第一実施形態に係るLiDARセンサ1161と同一である。
 第一センサユニット1026は、ELパネル1262を備えている。ELは、エレクトロルミネセンスの省略表現である。ELパネル1262は、不図示の駆動回路から入力される制御信号に基づいて所定の波長を含むように自己発光する光学部材である。ELパネル1262は、透明な基材を有している。当該基材の材料は、可視光のみならず、LiDARセンサ1261が情報の検出に用いる非可視光に対しても透過性を有するように選ばれる。ELパネル1262は、有機ELパネルでもよいし、無機ELパネルでもよい。ELパネル1262から出射された光は、透光カバー1012を通過して車両100の外方へ向かう。
 図4に示されるように、ELパネル1262は、透光カバー1012(不図示)が位置する側からLiDARセンサ1261の検出面1261aを覆うように配置されている。ELパネル1262が自己発光すると、当該光の波長に対応する色が車両100の外方において視認される。これにより、背後に配置されているLiDARセンサ1261の視認性が低下する。
 前述のように、透光カバー1012は、可視光に対して第一の透明性を有している。ELパネル1262は、少なくとも一時的に当該可視光に対して第二の透明性を有していると言える。第二の透明性は、第一の透明性よりも低い。すなわち、ELパネル1262は、発光により低透明部を形成するように構成されている。
 前述のように、灯具との干渉を避けつつLiDARセンサ1261が情報を検出可能な設置場所を灯室1013内に確保し、かつ外観上の違和感を避けるには困難が伴う。しかしながら、本実施形態の構成によれば、ELパネル1262によってLiDARセンサ1261の視認性が低下されるため、少なくとも外観上の違和感に係る制約を軽減できる。よって、LiDARセンサ1261を灯室1013内に配置しようとする際に生じるレイアウト上の制約を軽減できる。
 さらに、ELパネル1262は、LiDARセンサ1261の検出面1261aを覆ってはいるものの、検出に用いられる非可視光の透過を許容する。したがって、ELパネル1262は、LiDARセンサ1261による情報の検出を妨げない。この事実もまた、LiDARセンサ1261を灯室1013内に配置しようとする際に生じるレイアウト上の制約を軽減しうる。
 また、ELパネル1262から出射される光の色は、適宜に定められうる。したがって、LiDARセンサ1261の視認性を低下させるだけでなく、動作時において新規な外観を呈するランプ装置を提供できる。
 ELパネル1262を備える第一センサユニット1026の構成は、情報の検出に赤外光を使用する他のセンサにも適用可能である。そのようなセンサの例としては、赤外線カメラが挙げられる。
 第二センサユニット1028は、ミリ波レーダ1281を備えている。ミリ波レーダ1281の構成は、第一実施形態に係るミリ波レーダ1181と同一である。
 第二センサユニット1028は、ELパネル1282を備えている。ELパネル1282は、不図示の駆動回路から入力される制御信号に基づいて所定の波長を含むように自己発光する透明な光学部材である。ELパネル1282は、透明な基材を有している。当該基材の材料は、可視光のみならず、ミリ波レーダ1281が情報の検出に用いるミリ波に対しても透過性を有するように選ばれる。ELパネル1282は、有機ELパネルでもよいし、無機ELパネルでもよい。ELパネル1282から出射された光は、透光カバー1012を通過して車両100の外方へ向かう。
 図4に示されるように、ELパネル1282は、透光カバー1012(不図示)が位置する側からミリ波レーダ1281の検出面1281aを覆うように配置されている。ELパネル1282が自己発光すると、当該光の波長に対応する色が車両100の外方において視認される。これにより、背後に配置されているミリ波レーダ1281の視認性が低下する。
 前述のように、透光カバー1012は、可視光に対して第一の透明性を有している。ELパネル1282は、少なくとも一時的に当該可視光に対して第二の透明性を有していると言える。第二の透明性は、第一の透明性よりも低い。すなわち、ELパネル1282は、発光により低透明部を形成するように構成されている。
 前述のように、灯具との干渉を避けつつミリ波レーダ1281が情報を検出可能な設置場所を灯室1013内に確保し、かつ外観上の違和感を避けるには困難が伴う。しかしながら、本実施形態の構成によれば、ELパネル1282によってミリ波レーダ1281の視認性が低下されるため、少なくとも外観上の違和感に係る制約を軽減できる。よって、ミリ波レーダ1281を灯室1013内に配置しようとする際に生じるレイアウト上の制約を軽減できる。
 さらに、ELパネル1282は、ミリ波レーダ1281の検出面1281aを覆ってはいるものの、検出に用いられるミリ波の透過を許容する。したがって、ELパネル1282は、ミリ波レーダ1281による情報の検出を妨げない。この事実もまた、ミリ波レーダ1281を灯室1013内に配置しようとする際に生じるレイアウト上の制約を軽減しうる。
 また、ELパネル1282から出射される光の色は、適宜に定められうる。したがって、ミリ波レーダ1281の視認性を低下させるだけでなく、動作時において新規な外観を呈するランプ装置を提供できる。
 第一センサユニット1026に加えてあるいは代えて、少なくとも車両100の前方を含む領域の情報を検出するために、第二センサユニット1028と同様の構成が設けられうる。すなわち、LiDARセンサまたは赤外線カメラに加えてあるいは代えて、少なくとも車両100の前方を含む領域の情報は、ミリ波レーダによって取得されうる。
 第二センサユニット1028に加えてあるいは代えて、少なくとも車両100の左方を含む領域の情報を検出するために、第一センサユニット1026と同様の構成が設けられうる。すなわち、ミリ波レーダに加えてあるいは代えて、少なくとも車両100の前方を含む領域の情報は、LiDARセンサと赤外線カメラの少なくとも一方によって取得されうる。
 少なくとも車両100の前方を含む領域の情報を検出するためのセンサの種別と数は、左前ランプ装置1020の仕様に応じて適宜に定められうる。
 少なくとも車両100の左方を含む領域の情報を検出するためのセンサの種別と数は、左前ランプ装置1020の仕様に応じて適宜に定められうる。
 左前ランプ装置1020の構成は、左後ランプ装置にも適用可能である。左後ランプ装置は、図2に示される車両100の左後隅部LBに搭載される。左後ランプ装置の基本的な構成は、左前ランプ装置1020と前後対称でありうる。但し、LiDARセンサ1261とミリ波レーダ1281の仕様もまた適宜に変更されうる。
 特に左後ランプ装置の場合、第一ランプユニット1014と第二ランプユニット1015の少なくとも一方に代えて、ELパネル1262とELパネル1282の少なくとも一方を、ストップランプ、ブレーキランプ、方向指示灯など灯具として利用できる。
 この場合、灯具の背後にLiDARセンサ、赤外線カメラ、またはミリ波レーダを配置できるため、灯室内の限られた空間を有効に活用できる。
 左前ランプ装置1020の構成は、右後ランプ装置にも適用可能である。右後ランプ装置は、図2に示される車両100の右後隅部RBに搭載される。右後ランプ装置の基本的な構成は、上述の左後ランプ装置と左右対称である。
 次に、図5を参照しつつ、第三実施形態に係る左前ランプ装置1030について説明する。左前ランプ装置1030は、図2に示される車両100の左前隅部LFに搭載される。車両100の右前隅部RFには、左前ランプ装置1030と左右対称の構成を有する右前ランプ装置が搭載される。左前ランプ装置1030は、第一センサユニット1036と第二センサユニット1038を備えている。それ以外の構成は第一実施形態に係る左前ランプ装置1010と同じであるため、繰り返しとなる説明は省略する。
 第一センサユニット1036は、LiDARセンサ1361を備えている。LiDARセンサ1361の構成は、第一実施形態に係るLiDARセンサ1161と同一である。
 第一センサユニット1036は、導光部材1362と光源1363を備えている。導光部材1362は透明な光学部材である。光源1363から出射された光は、導光部材1362に入射し、内部反射、散乱、および拡散の少なくとも一つに供される。結果として導光部材1362から出射された光は、透光カバー1012を通過して車両100の外方へ向かう。
 光源1363は、所定の波長を含む光を出射するように構成されたランプ光源または発光素子である。ランプ光源の例としては、白熱ランプ、ハロゲンランプ、放電ランプ、ネオンランプなどが挙げられる。発光素子の例としては、発光ダイオード、レーザダイオード、EL素子などが挙げられる。
 図5に示されるように、導光部材1362は、透光カバー1012(不図示)が位置する側からLiDARセンサ1361の検出面1361aを部分的に覆うように配置されている。光源1363から出射された光が導光部材1362に入射すると、車両100の外方からは、当該光の波長に対応する色で導光部材1362が発光しているように見える。これにより、背後に配置されているLiDARセンサ1361の視認性が低下する。
 前述のように、透光カバー1012は、可視光に対して第一の透明性を有している。導光部材1362は、少なくとも一時的に当該可視光に対して第二の透明性を有していると言える。第二の透明性は、第一の透明性よりも低い。すなわち、導光部材1362は、発光により低透明部を形成するように構成されている。
 前述のように、灯具との干渉を避けつつLiDARセンサ1361が情報を検出可能な設置場所を灯室1013内に確保し、かつ外観上の違和感を避けるには困難が伴う。しかしながら、本実施形態の構成によれば、導光部材1362によってLiDARセンサ1361の視認性が低下されるため、少なくとも外観上の違和感に係る制約を軽減できる。よって、LiDARセンサ1361を灯室1013内に配置しようとする際に生じるレイアウト上の制約を軽減できる。
 また、導光部材1362から出射される光の色は、適宜に定められうる。したがって、LiDARセンサ1361の視認性を低下させるだけでなく、動作時において新規な外観を呈するランプ装置を提供できる。
 導光部材1362の材料は、可視光のみならず、LiDARセンサ1361が情報の検出に用いる非可視光に対しても透過性を有するように選ばれることが好ましい。この場合、導光部材1362は、LiDARセンサ1361の検出面1361aの一部を覆ってはいるものの、検出に用いられる非可視光の透過を許容する。したがって、導光部材1362は、LiDARセンサ1361による情報の検出を妨げない。この事実もまた、LiDARセンサ1361を灯室1013内に配置しようとする際に生じるレイアウト上の制約を軽減しうる。
 LiDARセンサ1361が情報の検出に用いる非可視光に対する導光部材1362の材料の透過性が低い場合、LiDARセンサ1361の検出面1361aのうち非可視光が通過する部分を避けるように導光部材1362が配置されることが好ましい。この場合、LiDARセンサ1361により検出される情報から導光部材1362による反射に係る情報を除去する処理を不要にできる。
 図6に示されるように、第一センサユニット1036は、支持部材1364を備えている。支持部材1364は、灯室1013内に配置されている。支持部材1364は、LiDARセンサ1361、導光部材1362、および光源1363を支持している。LiDARセンサ1361、導光部材1362、および光源1363の相対位置関係は、支持部材1364によって維持されている。
 第一センサユニット1036は、水平調節スクリュー1365を備えている。水平調節スクリュー1365は、調節機構の一例である。水平調節スクリュー1365は、ハウジング1011を貫通して延びている。水平調節スクリュー1365は、不図示のジョイントを介して支持部材1364と連結されている。水平調節スクリュー1365のヘッド部1365aは、ハウジング1011の外側に配置されている。所定の工具によりヘッド部1365aが回転操作されると、水平調節スクリュー1365の回転が、上記のジョイントによって、支持部材1364の姿勢を水平面内で変化させる動きに変換される。なお、ここで用いられている「水平面」が厳密な水平面と一致している必要はない。ジョイントの構成自体は周知であるため、詳細な説明は省略する。
 第一センサユニット1036は、垂直調節スクリュー1366を備えている。垂直調節スクリュー1366は、調節機構の一例である。垂直調節スクリュー1366は、ハウジング1011を貫通して延びている。垂直調節スクリュー1366は、不図示のジョイントを介して支持部材1364と連結されている。垂直調節スクリュー1366のヘッド部1366aは、ハウジング1011の外側に配置されている。所定の工具によりヘッド部1366aが回転操作されると、垂直調節スクリュー1366の回転が、上記のジョイントによって、支持部材1364の姿勢を垂直面内で変化させる動きに変換される。なお、ここで用いられている「垂直面」が厳密な垂直面と一致している必要はない。ジョイントの構成自体は周知であるため、詳細な説明は省略する。
 支持部材1364の姿勢調節は、LiDARセンサ1361の検出基準位置と導光部材1362からの光出射方向の少なくとも一方を調節するために行なわれる。前述のように、LiDARセンサ1361、導光部材1362、および光源1363の相対位置関係は、支持部材1364によって維持されている。したがって、前記の調節と、導光部材1362によりLiDARセンサ1361の視認性を低下させる効果を維持するための調整とを個別に行なう必要がない。
 水平調節スクリュー1365は、支持部材1364の水平面内における位置と姿勢の少なくとも一方を調節可能なアクチュエータで置き換えられうる。垂直調節スクリュー1366は、支持部材1364の垂直面内における位置と姿勢の少なくとも一方を調節可能なアクチュエータで置き換えられうる。
 導光部材1362と光源1363を備える第一センサユニット1036の構成は、情報の検出に赤外光を使用する他のセンサにも適用可能である。そのようなセンサの例としては、赤外線カメラが挙げられる。
 図5に示されるように、第二センサユニット1038は、ミリ波レーダ1381を備えている。ミリ波レーダ1381の構成は、第一実施形態に係るミリ波レーダ1181と同一である。
 第二センサユニット1038は、導光部材1382と光源1383を備えている。導光部材1382は透明な光学部材である。光源1383から出射された光は、導光部材1382に入射し、内部反射、散乱、および拡散の少なくとも一つに供される。結果として導光部材1382から出射された光は、透光カバー1012を通過して車両100の外方へ向かう。
 光源1383は、所定の波長を含む光を出射するように構成されたランプ光源または発光素子である。ランプ光源の例としては、白熱ランプ、ハロゲンランプ、放電ランプ、ネオンランプなどが挙げられる。発光素子の例としては、発光ダイオード、レーザダイオード、EL素子などが挙げられる。
 導光部材1382は、透光カバー1012(不図示)が位置する側からミリ波レーダ1381の検出面1381aを部分的に覆うように配置されている。光源1383から出射された光が導光部材1382に入射すると、車両100の外方からは、当該光の波長に対応する色で導光部材1382が発光しているように見える。これにより、背後に配置されているミリ波レーダ1381の視認性が低下する。
 前述のように、透光カバー1012は、可視光に対して第一の透明性を有している。導光部材1382は、少なくとも一時的に当該可視光に対して第二の透明性を有していると言える。第二の透明性は、第一の透明性よりも低い。すなわち、導光部材1382は、発光により低透明部を形成するように構成されている。
 前述のように、灯具との干渉を避けつつミリ波レーダ1381が情報を検出可能な設置場所を灯室1013内に確保し、かつ外観上の違和感を避けるには困難が伴う。しかしながら、本実施形態の構成によれば、導光部材1382によってミリ波レーダ1381の視認性が低下されるため、少なくとも外観上の違和感に係る制約を軽減できる。よって、ミリ波レーダ1381を灯室1013内に配置しようとする際に生じるレイアウト上の制約を軽減できる。
 また、導光部材1382から出射される光の色は、適宜に定められうる。したがって、ミリ波レーダ1381の視認性を低下させるだけでなく、動作時において新規な外観を呈するランプ装置を提供できる。
 さらに、導光部材1382は、ミリ波レーダ1381の検出面1381aの一部を覆ってはいるものの、検出に用いられるミリ波の透過を許容する。したがって、導光部材1382は、ミリ波レーダ1381による情報の検出を妨げない。この事実もまた、ミリ波レーダ1381を灯室1013内に配置しようとする際に生じるレイアウト上の制約を軽減しうる。
 図6に示されるように、第二センサユニット1038は、支持部材1384を備えている。支持部材1384は、灯室1013内に配置されている。支持部材1384は、ミリ波レーダ1381、導光部材1382、および光源1383を支持している。ミリ波レーダ1381、導光部材1382、および光源1383の相対位置関係は、支持部材1384によって維持されている。
 第二センサユニット1038は、水平調節スクリュー1385を備えている。水平調節スクリュー1385は、調節機構の一例である。水平調節スクリュー1385は、ハウジング1011を貫通して延びている。水平調節スクリュー1385は、不図示のジョイントを介して支持部材1384と連結されている。水平調節スクリュー1385のヘッド部1385aは、ハウジング1011の外側に配置されている。所定の工具によりヘッド部1385aが回転操作されると、水平調節スクリュー1385の回転が、上記のジョイントによって、支持部材1384の姿勢を水平面内で変化させる動きに変換される。なお、ここで用いられている「水平面」が厳密な水平面と一致している必要はない。ジョイントの構成自体は周知であるため、詳細な説明は省略する。
 第二センサユニット1038は、垂直調節スクリュー1386を備えている。垂直調節スクリュー1386は、調節機構の一例である。垂直調節スクリュー1386は、ハウジング1011を貫通して延びている。垂直調節スクリュー1386は、不図示のジョイントを介して支持部材1384と連結されている。垂直調節スクリュー1386のヘッド部1386aは、ハウジング1011の外側に配置されている。所定の工具によりヘッド部1386aが回転操作されると、垂直調節スクリュー1386の回転が、上記のジョイントによって、支持部材1384の姿勢を垂直面内で変化させる動きに変換される。なお、ここで用いられている「垂直面」が厳密な垂直面と一致している必要はない。ジョイントの構成自体は周知であるため、詳細な説明は省略する。
 支持部材1384の姿勢調節は、ミリ波レーダ1381の検出基準位置と導光部材1382からの光出射方向の少なくとも一方を調節するために行なわれる。前述のように、ミリ波レーダ1381、導光部材1382、および光源1383の相対位置関係は、支持部材1384によって維持されている。したがって、前記の調節と、導光部材1382によりミリ波レーダ1381の視認性を低下させる効果を維持するための調整とを個別に行なう必要がない。
 水平調節スクリュー1385は、支持部材1384の水平面内における位置と姿勢の少なくとも一方を調節可能なアクチュエータで置き換えられうる。垂直調節スクリュー1386は、支持部材1384の垂直面内における位置と姿勢の少なくとも一方を調節可能なアクチュエータで置き換えられうる。
 第一センサユニット1036に加えてあるいは代えて、少なくとも車両100の前方を含む領域の情報を検出するために、第二センサユニット1038と同様の構成が設けられうる。すなわち、LiDARセンサまたは赤外線カメラに加えてあるいは代えて、少なくとも車両100の前方を含む領域の情報は、ミリ波レーダによって取得されうる。
 第二センサユニット1038に加えてあるいは代えて、少なくとも車両100の左方を含む領域の情報を検出するために、第一センサユニット1036と同様の構成が設けられうる。すなわち、ミリ波レーダに加えてあるいは代えて、少なくとも車両100の前方を含む領域の情報は、LiDARセンサと赤外線カメラの少なくとも一方によって取得されうる。
 少なくとも車両100の前方を含む領域の情報を検出するためのセンサの種別と数は、左前ランプ装置1030の仕様に応じて適宜に定められうる。
 少なくとも車両100の左方を含む領域の情報を検出するためのセンサの種別と数は、左前ランプ装置1030の仕様に応じて適宜に定められうる。
 左前ランプ装置1030の構成は、左後ランプ装置にも適用可能である。左後ランプ装置は、図2に示される車両100の左後隅部LBに搭載される。左後ランプ装置の基本的な構成は、左前ランプ装置1010と前後対称でありうる。但し、第一ランプユニット1014と第二ランプユニット1015の仕様は適宜に変更されうる。LiDARセンサ1361とミリ波レーダ1381の仕様もまた適宜に変更されうる。
 左前ランプ装置1030の構成は、右後ランプ装置にも適用可能である。右後ランプ装置は、図2に示される車両100の右後隅部RBに搭載される。右後ランプ装置の基本的な構成は、上述の左後ランプ装置と左右対称である。
 次に、図7を参照しつつ、第四実施形態に係る左前ランプ装置1040について説明する。左前ランプ装置1040は、図2に示される車両100の左前隅部LFに搭載される。車両100の右前隅部RFには、左前ランプ装置1040と左右対称の構成を有する右前ランプ装置が搭載される。左前ランプ装置1040は、第一センサユニット1046と第二センサユニット1048を備えている。それ以外の構成は第一実施形態に係る左前ランプ装置1010と同じであるため、繰り返しとなる説明は省略する。
 第一センサユニット1046は、LiDARセンサ1461を備えている。LiDARセンサ1461の構成は、第一実施形態に係るLiDARセンサ1161と同一である。
 第一センサユニット1046は、複数のルーバ1462を備えている。図8に示されるように、各ルーバ1462は、LiDARセンサ1461から出射された非可視光を反射可能な表面を有する光学部材である。各ルーバ1462に反射された非可視光は、透光カバー1012を通過して車両100の外方へ向かう。車両100の外方に位置する物体からの戻り光は、各ルーバ1462に反射されてLiDARセンサ1461の検出面1461aに入射する。
 図7に示されるように、複数のルーバ1462は、透光カバー1012(不図示)が位置する側からLiDARセンサ1461の検出面1461aを覆うように配置されている。各ルーバ1462は、車両100の外方から見て不透明な外観を有している。したがって、背後に配置されているLiDARセンサ1461の視認性が低下する。
 前述のように、透光カバー1012は、可視光に対して第一の透明性を有している。各ルーバ1462は、当該可視光に対して第二の透明性を有していると言える。第二の透明性は、第一の透明性よりも低い。各ルーバ1462は、低透明部の一例である。LiDARセンサ1461は、低透明部による反射を利用して車両100の外部の情報を検出する。
 前述のように、灯具との干渉を避けつつLiDARセンサ1461が情報を検出可能な設置場所を灯室1013内に確保し、かつ外観上の違和感を避けるには困難が伴う。しかしながら、本実施形態の構成によれば、複数のルーバ1462によってLiDARセンサ1461の視認性が低下されるため、少なくとも外観上の違和感に係る制約を軽減できる。よって、LiDARセンサ1461を灯室1013内に配置しようとする際に生じるレイアウト上の制約を軽減できる。
 さらに、複数のルーバ1462は、LiDARセンサ1461の検出面1461aを覆ってはいるものの、検出に用いられる非可視光の反射による通過を許容する。したがって、複数のルーバ1462は、LiDARセンサ1461による情報の検出を妨げない。この事実もまた、LiDARセンサ1461を灯室1013内に配置しようとする際に生じるレイアウト上の制約を軽減しうる。
 図9に示されるように、第一センサユニット1046は、支持部材1464を備えている。支持部材1464は、灯室1013内に配置されている。支持部材1464は、LiDARセンサ1461と複数のルーバ1462を支持している。LiDARセンサ1461と各ルーバ1462の相対位置関係は、支持部材1464によって維持されている。
 第一センサユニット1046は、水平調節スクリュー1465を備えている。水平調節スクリュー1465は、調節機構の一例である。水平調節スクリュー1465は、ハウジング1011を貫通して延びている。水平調節スクリュー1465は、不図示のジョイントを介して支持部材1464と連結されている。水平調節スクリュー1465のヘッド部1465aは、ハウジング1011の外側に配置されている。所定の工具によりヘッド部1465aが回転操作されると、水平調節スクリュー1465の回転が、上記のジョイントによって、支持部材1464の姿勢を水平面内で変化させる動きに変換される。なお、ここで用いられている「水平面」が厳密な水平面と一致している必要はない。ジョイントの構成自体は周知であるため、詳細な説明は省略する。
 第一センサユニット1046は、垂直調節スクリュー1466を備えている。垂直調節スクリュー1466は、調節機構の一例である。垂直調節スクリュー1466は、ハウジング1011を貫通して延びている。垂直調節スクリュー1466は、不図示のジョイントを介して支持部材1464と連結されている。垂直調節スクリュー1466のヘッド部1466aは、ハウジング1011の外側に配置されている。所定の工具によりヘッド部1466aが回転操作されると、垂直調節スクリュー1466の回転が、上記のジョイントによって、支持部材1464の姿勢を垂直面内で変化させる動きに変換される。なお、ここで用いられている「垂直面」が厳密な垂直面と一致している必要はない。ジョイントの構成自体は周知であるため、詳細な説明は省略する。
 支持部材1464の姿勢調節は、LiDARセンサ1461の検出基準位置と各ルーバ1462からの光反射方向の少なくとも一方を調節するために行なわれる。前述のように、LiDARセンサ1461と各ルーバ1462の相対位置関係は、支持部材1464によって維持されている。したがって、前記の調節と、複数のルーバ1462によりLiDARセンサ1461の視認性を低下させる効果を維持するための調整とを個別に行なう必要がない。
 水平調節スクリュー1465は、支持部材1464の水平面内における位置と姿勢の少なくとも一方を調節可能なアクチュエータで置き換えられうる。垂直調節スクリュー1466は、支持部材1464の垂直面内における位置と姿勢の少なくとも一方を調節可能なアクチュエータで置き換えられうる。
 複数のルーバ1462を備える第一センサユニット1046の構成は、情報の検出に赤外光を使用する他のセンサにも適用可能である。そのようなセンサの例としては、赤外線カメラが挙げられる。
 第二センサユニット1048は、ミリ波レーダ1481を備えている。ミリ波レーダ1481の構成は、第一実施形態に係るミリ波レーダ1181と同一である。
 第二センサユニット1048は、複数のルーバ1482を備えている。図8に示されるように、各ルーバ1482は、ミリ波レーダ1481から出射されたミリ波を反射可能な表面を有する光学部材である。各ルーバ1482に反射されたミリ波は、透光カバー1012を通過して車両100の外方へ向かう。車両100の外方に位置する物体からの反射波は、各ルーバ1482に反射されてミリ波レーダを1481の検出面1481aに入射する。
 図7に示されるように、複数のルーバ1482は、透光カバー1012(不図示)が位置する側からミリ波レーダ1481の検出面1481aを覆うように配置されている。各ルーバ1482は、車両100の外方から見て不透明な外観を有している。したがって、背後に配置されているミリ波レーダ1481の視認性が低下する。
 前述のように、透光カバー1012は、可視光に対して第一の透明性を有している。各ルーバ1482は、当該可視光に対して第二の透明性を有していると言える。第二の透明性は、第一の透明性よりも低い。各ルーバ1482は、低透明部の一例である。ミリ波レーダ1481は、低透明部による反射を利用して車両100の外部の情報を検出する。
 前述のように、灯具との干渉を避けつつミリ波レーダ1481が情報を検出可能な設置場所を灯室1013内に確保し、かつ外観上の違和感を避けるには困難が伴う。しかしながら、本実施形態の構成によれば、複数のルーバ1482によってミリ波レーダ1481の視認性が低下されるため、少なくとも外観上の違和感に係る制約を軽減できる。よって、ミリ波レーダ1481を灯室1013内に配置しようとする際に生じるレイアウト上の制約を軽減可能である。
 さらに、複数のルーバ1482は、ミリ波レーダ1481の検出面1481aを覆ってはいるものの、検出に用いられるミリ波の反射による通過を許容する。したがって、複数のルーバ1482は、ミリ波レーダ1481による情報の検出を妨げない。この事実もまた、ミリ波レーダ1481を灯室1013内に配置しようとする際に生じるレイアウト上の制約を軽減可能である。
 図9に示されるように、第二センサユニット1048は、支持部材1484を備えている。支持部材1484は、灯室1013内に配置されている。支持部材1484は、ミリ波レーダ1481と複数のルーバ1482を支持している。ミリ波レーダ1481と各ルーバ1482の相対位置関係は、支持部材1484によって維持されている。
 第二センサユニット1048は、水平調節スクリュー1485を備えている。水平調節スクリュー1485は、調節機構の一例である。水平調節スクリュー1485は、ハウジング1011を貫通して延びている。水平調節スクリュー1485は、不図示のジョイントを介して支持部材1484と連結されている。水平調節スクリュー1485のヘッド部1485aは、ハウジング1011の外側に配置されている。所定の工具によりヘッド部1485aが回転操作されると、水平調節スクリュー1485の回転が、上記のジョイントによって、支持部材1484の姿勢を水平面内で変化させる動きに変換される。なお、ここで用いられている「水平面」が厳密な水平面と一致している必要はない。ジョイントの構成自体は周知であるため、詳細な説明は省略する。
 第二センサユニット1048は、垂直調節スクリュー1486を備えている。垂直調節スクリュー1486は、調節機構の一例である。垂直調節スクリュー1486は、ハウジング1011を貫通して延びている。垂直調節スクリュー1486は、不図示のジョイントを介して支持部材1484と連結されている。垂直調節スクリュー1486のヘッド部1486aは、ハウジング1011の外側に配置されている。所定の工具によりヘッド部1486aが回転操作されると、垂直調節スクリュー1486の回転が、上記のジョイントによって、支持部材1484の姿勢を垂直面内で変化させる動きに変換される。なお、ここで用いられている「垂直面」が厳密な垂直面と一致している必要はない。ジョイントの構成自体は周知であるため、詳細な説明は省略する。
 支持部材1484の姿勢調節は、ミリ波レーダ1481の検出基準位置と各ルーバ1482からの光反射方向の少なくとも一方を調節するために行なわれる。前述のように、ミリ波レーダ1481と各ルーバ1482の相対位置関係は、支持部材1484によって維持されている。したがって、前記の調節と、複数のルーバ1482によりミリ波レーダ1481の視認性を低下させる効果を維持するための調整とを個別に行なう必要がない。
 水平調節スクリュー1485は、支持部材1484の水平面内における位置と姿勢の少なくとも一方を調節可能なアクチュエータで置き換えられうる。垂直調節スクリュー1486は、支持部材1484の垂直面内における位置と姿勢の少なくとも一方を調節可能なアクチュエータで置き換えられうる。
 第一センサユニット1046に加えてあるいは代えて、少なくとも車両100の前方を含む領域の情報を検出するために、第二センサユニット1048と同様の構成が設けられうる。すなわち、LiDARセンサまたは赤外線カメラに加えてあるいは代えて、少なくとも車両100の前方を含む領域の情報は、ミリ波レーダによって取得されうる。
 第二センサユニット1048に加えてあるいは代えて、少なくとも車両100の左方を含む領域の情報を検出するために、第一センサユニット1046と同様の構成が設けられうる。すなわち、ミリ波レーダに加えてあるいは代えて、少なくとも車両100の前方を含む領域の情報は、LiDARセンサと赤外線カメラの少なくとも一方によって取得されうる。
 少なくとも車両100の前方を含む領域の情報を検出するためのセンサの種別と数は、左前ランプ装置1040の仕様に応じて適宜に定められうる。
 少なくとも車両100の左方を含む領域の情報を検出するためのセンサの種別と数は、左前ランプ装置1040の仕様に応じて適宜に定められうる。
 左前ランプ装置1040の構成は、左後ランプ装置にも適用可能である。左後ランプ装置は、図2に示される車両100の左後隅部LBに搭載される。左後ランプ装置の基本的な構成は、左前ランプ装置1010と前後対称でありうる。但し、第一ランプユニット1014と第二ランプユニット1015の仕様は適宜に変更されうる。LiDARセンサ1461とミリ波レーダ1481の仕様もまた適宜に変更されうる。
 左前ランプ装置1040の構成は、右後ランプ装置にも適用可能である。右後ランプ装置は、図2に示される車両100の右後隅部RBに搭載される。右後ランプ装置の基本的な構成は、上述の左後ランプ装置と左右対称である。
 次に、図10を参照しつつ、第五実施形態に係る左前ランプ装置1050について説明する。左前ランプ装置1050は、図2に示される車両100の左前隅部LFに搭載される。車両100の右前隅部RFには、左前ランプ装置1050と左右対称の構成を有する右前ランプ装置が搭載される。左前ランプ装置1050は、センサユニット1056を備えている。それ以外の構成は第一実施形態に係る左前ランプ装置1010と同じであるため、繰り返しとなる説明は省略する。
 センサユニット1056は、LiDARセンサ1561を備えている。LiDARセンサ1561の構成は、第一実施形態に係るLiDARセンサ1161と同一である。すなわち、LiDARセンサ1561は、車両100の少なくとも前方を含む領域の情報を検出する。
 センサユニット1056は、光学部材1562を備えている。光学部材1562は、基材1562aの表面に金属皮膜1562bが形成された構成を有している。基材1562aは、LiDARセンサ1561が情報の検出に用いる非可視光に対して透過性を有する材料からなる。金属皮膜1562bは、蒸着、接着、ホットスタンプなどの手法により形成される。図11に示されるように、基材1562aは、集光部1562cを有している。集光部1562cは、LiDARセンサ1561から出射された非可視光を集光可能な構成を有している。集光部1562cによって集光された非可視光は、金属皮膜1562bの間に形成された隙間から出射される。光学部材1562から出射された非可視光は、透光カバー1012を通過して車両100の外方へ向かう。
 図10に示されるように、金属皮膜1562bは、透光カバー1012(不図示)が位置する側からLiDARセンサ1561の検出面1561aを部分的に覆うように配置されている。金属皮膜1562bは、車両100の外方から見て不透明な外観を有している。したがって、背後に配置されているLiDARセンサ1561の視認性が低下する。金属皮膜1562bは、低透明部の一例である。
 前述のように、灯具との干渉を避けつつLiDARセンサ1561が情報を検出可能な設置場所を灯室1013内に確保し、かつ外観上の違和感を避けるには困難が伴う。しかしながら、本実施形態の構成によれば、金属皮膜1562bによってLiDARセンサ1561の視認性が低下されるため、少なくとも外観上の違和感に係る制約を軽減できる。よって、LiDARセンサ1561を灯室1013内に配置しようとする際に生じるレイアウト上の制約を軽減できる。
 さらに、LiDARセンサ1561の検出面1561aの一部が金属皮膜1562bによって覆ってはいるものの、検出に用いられる非可視光の通過を集光部1562cが許容する。したがって、光学部材1562は、LiDARセンサ1561による情報の検出を妨げない。この事実もまた、LiDARセンサ1561を灯室1013内に配置しようとする際に生じるレイアウト上の制約を軽減しうる。
 図12に示されるように、センサユニット1056は、支持部材1564を備えている。支持部材1564は、灯室1013内に配置されている。支持部材1564は、LiDARセンサ1561と光学部材1562を支持している。LiDARセンサ1561と光学部材1562の相対位置関係は、支持部材1564によって維持されている。
 センサユニット1056は、水平調節スクリュー1565を備えている。水平調節スクリュー1565は、調節機構の一例である。水平調節スクリュー1565は、ハウジング1011を貫通して延びている。水平調節スクリュー1565は、不図示のジョイントを介して支持部材1564と連結されている。水平調節スクリュー1565のヘッド部1565aは、ハウジング1011の外側に配置されている。所定の工具によりヘッド部1565aが回転操作されると、水平調節スクリュー1565の回転が、上記のジョイントによって、支持部材1564の姿勢を水平面内で変化させる動きに変換される。なお、ここで用いられている「水平面」が厳密な水平面と一致している必要はない。ジョイントの構成自体は周知であるため、詳細な説明は省略する。
 センサユニット1056は、垂直調節スクリュー1566を備えている。垂直調節スクリュー1566は、調節機構の一例である。垂直調節スクリュー1566は、ハウジング1011を貫通して延びている。垂直調節スクリュー1566は、不図示のジョイントを介して支持部材1564と連結されている。垂直調節スクリュー1566のヘッド部1566aは、ハウジング1011の外側に配置されている。所定の工具によりヘッド部1566aが回転操作されると、垂直調節スクリュー1566の回転が、上記のジョイントによって、支持部材1564の姿勢を垂直面内で変化させる動きに変換される。なお、ここで用いられている「垂直面」が厳密な垂直面と一致している必要はない。ジョイントの構成自体は周知であるため、詳細な説明は省略する。
 支持部材1564の姿勢調節は、LiDARセンサ1561の検出基準位置と光学部材1562からの光出射方向の少なくとも一方を調節するために行なわれる。前述のように、LiDARセンサ1561と光学部材1562の相対位置関係は、支持部材1564によって維持されている。したがって、前記の調節と、光学部材1562によりLiDARセンサ1561の視認性を低下させる効果を維持するための調整とを個別に行なう必要がない。
 水平調節スクリュー1565は、支持部材1564の水平面内における位置と姿勢の少なくとも一方を調節可能なアクチュエータで置き換えられうる。垂直調節スクリュー1566は、支持部材1564の垂直面内における位置と姿勢の少なくとも一方を調節可能なアクチュエータで置き換えられうる。
 光学部材1562を備えるセンサユニット1056の構成は、情報の検出に赤外光を使用する他のセンサにも適用可能である。そのようなセンサの例としては、赤外線カメラが挙げられる。
 少なくとも車両100の前方を含む領域の情報を検出するためのセンサの種別と数は、左前ランプ装置1050の仕様に応じて適宜に定められうる。
 センサユニット1056に加えてあるいは代えて、少なくとも車両100の左方を含む領域の情報を検出するために、センサユニット1056と同様の構成が設けられうる。すなわち、少なくとも車両100の前方を含む領域の情報は、LiDARセンサと赤外線カメラの少なくとも一方によって取得されうる。
 少なくとも車両100の左方を含む領域の情報を検出するためのセンサの種別と数は、左前ランプ装置1050の仕様に応じて適宜に定められうる。
 左前ランプ装置1050の構成は、左後ランプ装置にも適用可能である。左後ランプ装置は、図2に示される車両100の左後隅部LBに搭載される。左後ランプ装置の基本的な構成は、左前ランプ装置1010と前後対称でありうる。但し、第一ランプユニット1014と第二ランプユニット1015の仕様は適宜に変更されうる。LiDARセンサ1561の仕様もまた適宜に変更されうる。
 左前ランプ装置1050の構成は、右後ランプ装置にも適用可能である。右後ランプ装置は、図2に示される車両100の右後隅部RBに搭載される。右後ランプ装置の基本的な構成は、上述の左後ランプ装置と左右対称である。
 図13は、第五実施形態に係る左前ランプ装置1050の変形例を示している。本例においては、上述の光学部材1562に代えて光学部材1562Aが設けられる。光学部材1562Aは、上述の集光部1562cに代えて、光拡散部1562dを備えている。このような構成によっても、金属皮膜1562bによってLiDARセンサ1561の視認性を低下させつつ、LiDARセンサ1561が情報の検出に用いる非可視光の通過を許容できる。
 上記の第一実施形態から第五実施形態は、本開示の理解を容易にするための例示にすぎない。第一実施形態から第五実施形態に係る各構成は、本開示の趣旨を逸脱しなければ、適宜に変更・改良されうる。
 第一実施形態から第五実施形態を参照して説明した各構成は、使用されるセンサの種別に応じて、相互に組み合わせや置き換えが可能である。
 図14は、第六実施形態に係る左前センサシステム2010の外観を示している。左前センサシステム2010は、図2に示される車両100の左前隅部LFに搭載される。車両100の右前隅部RFには、左前センサシステム2010と左右対称の構成を有する右前センサシステムが搭載される。
 左前センサシステム2010は、ハウジング2011と透明カバー2012を備えている。図15は、図14に示された状態から透明カバー2012を取り外した左前センサシステム2010の一部を示している。ハウジング2011と透明カバー2012は、収容空間2013を区画している。
 左前センサシステム2010は、ランプユニット2014、第一センサユニット2015、および第二センサユニット2016を備えている。ランプユニット2014、第一センサユニット2015、および第二センサユニット2016は、収容空間2013内に配置されている。
 図16は、図15に示された状態の左前センサシステム2010の一部を車両100の前方から見た外観を示している。
 ランプユニット2014は、光源2141を備えている。光源2141としては、ランプ光源や発光素子が使用されうる。ランプ光源の例としては、白熱ランプ、ハロゲンランプ、放電ランプ、ネオンランプなどが挙げられる。発光素子の例としては、発光ダイオード、レーザダイオード、有機EL素子などが挙げられる。本実施形態においては、四つの光源2141が設けられている。しかしながら、光源2141の数は、左前センサシステム2010の仕様に応じて適宜に定められうる。
 ランプユニット2014は、リフレクタ2142を備えている。リフレクタ2142は、光源から出射された光を所定の方向へ向けて反射するように構成されている。本実施形態においては、四つの光源2141の各々に一つのリフレクタ2142が設けられている。しかしながら、光源2141とリフレクタ2142の数の関係は、左前センサシステム2010の仕様に応じて適宜に定められうる。
 ランプユニット2014は、ランプハウジング2143を備えている。ランプハウジング2143は、光源2141とリフレクタ2142を収容している。
 第一センサユニット2015は、第一LiDARセンサ2151を備えている。第一LiDARセンサ2151は、非可視光を出射する構成、および当該非可視光が少なくとも車両100の前方に存在する物体に反射した結果の戻り光を検出する構成を備えている。車両100の前方は、車両の外部の一例である。第一LiDARセンサ2151は、必要に応じて出射方向(すなわち検出方向)を変更して当該非可視光を掃引する走査機構を備えうる。本実施形態においては、非可視光として波長905nmの赤外光が使用されている。
 第一LiDARセンサ2151は、例えば、ある方向へ非可視光を出射したタイミングから戻り光を検出するまでの時間に基づいて、当該戻り光に関連付けられた物体までの距離を取得できる。また、そのような距離データを検出位置と関連付けて集積することにより、戻り光に関連付けられた物体の形状に係る情報を取得できる。これに加えてあるいは代えて、出射光と戻り光の波長の相違に基づいて、戻り光に関連付けられた物体の材質などの属性に係る情報を取得できる。
 すなわち、第一LiDARセンサ2151は、少なくとも車両100の前方の情報を検出するセンサである。第一LiDARセンサ2151は、検出された戻り光の属性(強度や波長など)に対応する信号を出力する。上記の情報は、第一LiDARセンサ2151より出力された信号が図示しない情報処理部によって適宜に処理されることにより取得される。情報処理部は、左前センサシステム2010が備えていてもよいし、車両100に搭載されていてもよい。
 第一センサユニット2015は、第一センサハウジング2152を備えている。第一センサハウジング2152は、第一LiDARセンサ2151を収容している。
 図17は、図15に示された状態の左前センサシステム2010の一部を車両100の左方から見た外観を示している。
 第二センサユニット2016は、第二LiDARセンサ2161を備えている。第二LiDARセンサ2161は、非可視光を出射する構成、および当該非可視光が少なくとも車両100の左方に存在する物体に反射した結果の戻り光を検出する構成を備えている。車両100の左方は、車両の外部の一例である。第二LiDARセンサ2161は、必要に応じて出射方向(すなわち検出方向)を変更して当該非可視光を掃引する走査機構を備えうる。本実施形態においては、非可視光として波長905nmの赤外光が使用されている。
 第二LiDARセンサ2161は、例えば、ある方向へ非可視光を出射したタイミングから戻り光を検出するまでの時間に基づいて、当該戻り光に関連付けられた物体までの距離を取得できる。また、そのような距離データを検出位置と関連付けて集積することにより、戻り光に関連付けられた物体の形状に係る情報を取得できる。これに加えてあるいは代えて、出射光と戻り光の波長の相違に基づいて、戻り光に関連付けられた物体の材質などの属性に係る情報を取得できる。
 すなわち、第二LiDARセンサ2161は、少なくとも車両100の左方の情報を検出するセンサである。第二LiDARセンサ2161は、検出された戻り光の属性(強度や波長など)に対応する信号を出力する。上記の情報は、第二LiDARセンサ2161より出力された信号が図示しない情報処理部によって適宜に処理されることにより取得される。情報処理部は、左前センサシステム2010が備えていてもよいし、車両100に搭載されていてもよい。
 第二センサユニット2016は、第二センサハウジング2162を備えている。第二センサハウジング2162は、第二LiDARセンサ2161を収容している。
 図16に示されるように、左前センサシステム2010は、一対の第一発光ユニット2017を備えている。一対の第一発光ユニット2017は、収容空間2013内における第一LiDARセンサ2151の検出動作を妨げない位置に配置されている。具体的には、一対の第一発光ユニット2017は、第一センサハウジング2152に設けられている。一対の第一発光ユニット2017と第一LiDARセンサ2151は、車両100の前方から見て車両100の左右方向に対応する向きに配列されている。
 図17に示されるように、左前センサシステム2010は、一対の第二発光ユニット2018を備えている。一対の第二発光ユニット2018は、収容空間2013内における第二LiDARセンサ2161の検出動作を妨げない位置に配置されている。具体的には、一対の第二発光ユニット2018は、第二センサハウジング2162に設けられている。一対の第二発光ユニット2018と第二LiDARセンサ2161は、車両100の左方から見て車両100の前後方向に対応する向きに配列されている。
 図18は、左前センサシステム2010の一部を車両100の上方から見た外観を示している。各第一発光ユニット2017は、第一光源2171と第一導光部材2172を含んでいる。各第二発光ユニット2018は、第二光源2181と第二導光部材2182を含んでいる。
 第一光源2171は、所定の波長を含む光を出射するランプ光源または発光素子である。ランプ光源と発光素子の例については上述した通りである。第一導光部材2172は、一端面から入射した光が内部反射、拡散、および散乱の少なくとも一つに供された後に別の端面から出射されるように構成された光学部品である。
 図16と図18に示されるように、第一導光部材2172は、第一センサハウジング2152の外面に沿って延びている。第一光源2171から出射された光は、第一導光部材2172の後端面から入射する。当該入射光は、内部反射などを経て第一導光部材2172の外周面を形成している端面から出射される。したがって、第一光源2171が点灯されると、第一導光部材2172の外周面全体が発光しているように視認される。第一導光部材2172は、発光体の一例である。
 第二光源2181は、所定の波長を含む光を出射するランプ光源または発光素子である。ランプ光源と発光素子の例については上述した通りである。第二導光部材2182は、一端面から入射した光が内部反射、拡散、および散乱の少なくとも一つに供された後に別の端面から出射されるように構成された光学部品である。
 図17と図18に示されるように、第二導光部材2182は、第二センサハウジング2162の外面に沿って延びている。第二光源2181から出射された光は、第二導光部材2182の後端面から入射する。当該入射光は、内部反射などを経て第二導光部材2182の外周面を形成している端面から出射される。したがって、第二光源2181が点灯されると、第二導光部材2182の外周面全体が発光しているように視認される。第二導光部材2182は、発光体の一例である。
 図18に示されるように、左前センサシステム2010は、制御部2019を備えている。制御部2019は、プロセッサとメモリを備えている。プロセッサの例としては、CPUやMPUが挙げられる。メモリは、プロセッサにより実行可能な命令を記憶している。メモリの例としては、各種の命令が記憶されたROMや、プロセッサにより実行される各種命令が記憶されるワークエリアを有しているRAMが挙げられる。制御部2019は、車両100に搭載されたECUが備えているプロセッサとメモリによって構成されてもよいし、収容空間2013内に配置されたASICやFPGAなどの専用デバイスによって構成されてもよい。
 制御部2019は、第一LiDARセンサ2151の動作と連携して各第一光源2171を点灯させるように構成されている。すなわち、一対の第一発光ユニット2017は、第一LiDARセンサ2151の動作と連携して発光する。具体的には、第一LiDARセンサ2151による車両100の外部の情報の検出が行なわれているときに、各第一光源2171が点灯される。第一LiDARセンサ2151の起動時や動作終了時に第一光源2171が点灯されてもよい。点灯の態様、すなわち第一導光部材2172の発光態様(色、常時発光、点滅、明るさの増減など)は、第一LiDARセンサ2151の動作態様に応じて適宜に定められうる。
 制御部2019は、第二LiDARセンサ2161の動作と連携して各第二光源2181を点灯させるように構成されている。すなわち、一対の第二発光ユニット2018は、第二LiDARセンサ2161の動作と連携して発光する。具体的には、第二LiDARセンサ2161による車両100の外部の情報の検出が行なわれているときに、各第二光源2181が点灯される。第二LiDARセンサ2161の起動時や動作終了時に第二光源2181が点灯されてもよい。点灯の態様、すなわち第二導光部材2182の発光態様(色、常時発光、点滅、明るさの増減など)は、第二LiDARセンサ2161の動作態様に応じて適宜に定められうる。
 車両の外部の情報を効率的に取得する観点からは、灯具が配置されている車両の隅部は、LiDARセンサの配置場所として有利である。しかしながら、LiDARセンサは比較的大きな寸法を有しており、かつ灯具とは大きく異なる外観を有している。したがって、灯具の近傍にLiDARセンサを配置しようとすると、外観上の違和感を生じることを免れない。このような違和感を軽減するためには、LiDARセンサを不透明なカバーで覆うなどの手法が採られることが一般的である。
 本実施形態の構成においては、透明カバー2012で区画された収容空間2013内に第一LiDARセンサ2151と第二LiDARセンサ2161を配置することにより、敢えてこれらが視認されるようにしている。さらに、第一LiDARセンサ2151の動作と連携して発光する第一導光部材2172、および第二LiDARセンサ2161の動作と連携して発光する第二導光部材2182が、収容空間2013内に配置されている。これにより、LiDARセンサの存在感を敢えて強調する新規な外観を伴う新たな商品価値を提供できる。また、LiDARセンサの存在感を抑制する必要性という制約から解放されるため、LiDARセンサの配置自由度を向上できる。
 第一導光部材2172と第二導光部材2182が常時発光する構成の場合、これらを昼間点灯ランプや車幅灯として利用することも可能である。
 好ましくは、車両100が第一LiDARセンサ2151を用いて運転支援動作を行なっているときに各第一光源2171が点灯される。運転支援動作は、運転操作(ハンドル操作、加速、減速)、走行環境の監視、および運転操作のバックアップの少なくとも一つを少なくとも部分的に行なう制御処理を意味する。すなわち、衝突被害軽減ブレーキ機能やレーンキープアシスト機能のような部分的な運転支援から完全自動運転動作までを含む意味である。運転支援のレベルに応じて点灯の態様、すなわち第一導光部材2172の発光態様が変更されてもよい。
 同様に、車両100が第二LiDARセンサ2161を用いて運転支援動作を行なっているときに各第二光源2181が点灯される。運転支援動作は、運転操作(ハンドル操作、加速、減速)、走行環境の監視、および運転操作のバックアップの少なくとも一つを少なくとも部分的に行なう制御処理を意味する。すなわち、衝突被害軽減ブレーキ機能やレーンキープアシスト機能のような部分的な運転支援から完全自動運転動作までを含む意味である。運転支援のレベルに応じて点灯の態様、すなわち第二導光部材2182の発光態様が変更されてもよい。
 このような構成によれば、車両100が運転支援動作中であることを車両100の外部からも認知でき、新たな商品価値を提供できる。このような機能の社会的認知が進めば、発光により歩行者や他のドライバーに対して安心感を与えることもできる。
 本実施形態においては、第一LiDARセンサ2151の動作と連携して第一導光部材2172が発光し、第二LiDARセンサ2161の動作と連携して第二導光部材2182が発光する。
 導光部材は、形状の選択自由度が比較的高く、広い発光領域を確保しやすい光学部品である。したがって、LiDARセンサの存在感を強調できる発光態様を容易かつ柔軟に実現できる。
 本実施形態においては、第一センサユニット2015と第二センサユニット2016の双方がLiDARセンサを備えている。しかしながら、第一センサユニット2015と第二センサユニット2016の少なくとも一方は、車両100の外部の情報を検出可能な他のセンサを含むように構成されうる。そのようなセンサの例としては、ミリ波レーダ、超音波ソナー、可視光カメラ、赤外線カメラなどが挙げられる。
 第一センサユニット2015と第二センサユニット2016のいずれかは省略されうる。あるいは、第一センサユニット2015と第二センサユニット2016に加えて、少なくとも一つのセンサユニットが設けられうる。当該センサユニットが備えるセンサの例としては、ミリ波レーダ、超音波ソナー、可視光カメラ、赤外線カメラなどが挙げられる。
 左前センサシステム2010の構成は、左後センサシステムにも適用可能である。左後センサシステムは、図2に示される車両100の左後隅部LBに搭載される。左後センサシステムの基本的な構成は、左前センサシステム2010と前後対称でありうる。但し、ランプユニット2014、第一センサユニット2015、および第二センサユニット2016の仕様は適宜に変更されうる。
 左前センサシステム2010の構成は、右後センサシステムにも適用可能である。右後センサシステムは、図2に示される車両100の右後隅部RBに搭載される。右後センサシステムの基本的な構成は、上述の左後センサシステムと左右対称である。
 本実施形態においては、収容空間2013内にランプユニット2014が設けられている。しかしながら、左前センサシステム2010からランプユニット2014は省略されうる。センサの配置自由度を向上可能という観点からは、センサシステムの配置は、車両100の隅部に限定されない。
 図19の(A)は、第七実施形態に係る左前センサシステム2020を車両100の前方から見た外観を模式的に示している。左前センサシステム2020は、図2に示される車両100の左前隅部LFに搭載される。車両100の右前隅部RFには、左前センサシステム2020と左右対称の構成を有する右前ランプ装置が搭載される。左前センサシステム2020は、センサユニット2025と一対の発光ユニット2027を備えている。それ以外の構成は第六実施形態に係る左前センサシステム2010と同じであるため、繰り返しとなる説明は省略する。
 センサユニット2025は、ハウジング2011と透明カバー2012により区画された収容空間2013内に配置されている。センサユニット2025は、前述のLiDARセンサ、ミリ波レーダ、超音波ソナー、可視光カメラ、赤外線カメラのいずれかを備えている。
 一対の発光ユニット2027は、収容空間2013内におけるセンサユニット2025のセンサによる検出動作を妨げない位置に配置されている。具体的には、一対の発光ユニット2027は、車両100の外方から見てセンサユニット2025を包囲しているように見える位置に設けられている。
 各発光ユニット2027は、光源2271と導光部材2272を含んでいる。光源2271は、所定の波長を含む光を出射するランプ光源または発光素子である。ランプ光源と発光素子の例については上述した通りである。導光部材2272は、一端面から入射した光が内部反射、拡散、および散乱の少なくとも一つに供された後に別の端面から出射されるように構成された光学部品である。なお、光源2271は、必ずしも収容空間2013内に配置されることを要しない。
 光源2271から出射された光は、導光部材2272の入射端面から入射する。当該入射光は、内部反射などを経て導光部材2272の外面を形成している出射端面から出射される。したがって、光源2271が点灯されると、導光部材2272の出射端面全体が発光しているように視認される。導光部材2272は、発光体の一例である。
 制御部2019は、センサユニット2025のセンサの動作と連携して各光源2271を点灯させるように構成されている。すなわち、一対の発光ユニット2027は、当該センサの動作と連携して発光する。具体的には、当該センサによる車両100の外部の情報の検出が行なわれているときに、各光源2271が点灯される。当該センサの起動時や動作終了時に光源2271が点灯されてもよい。点灯の態様、すなわち導光部材2272の発光態様(色、常時発光、点滅、明るさの増減など)は、当該センサの動作態様に応じて適宜に定められうる。
 本実施形態の構成においては、透明カバー2012で区画された収容空間2013内にセンサユニット2025を配置することにより、敢えてこれらが視認されるようにしている。さらに、センサユニット2025のセンサの動作と連携して発光する導光部材2272が収容空間2013内に配置されている。これにより、センサの存在感を敢えて強調する新規な外観を伴う新たな商品価値を提供できる。また、センサの存在感を抑制する必要性という制約から解放されるため、車両100の外部の情報を取得するためのセンサの配置自由度を向上できる。
 特に本実施形態においては、一対の導光部材2272が、車両100の外方から見てセンサユニット2025を包囲しているように見える位置に設けられている。これにより、センサの存在感をさらに強調する外観を提供できる。
 一対の導光部材2272が常時発光する構成の場合、これらを昼間点灯ランプや車幅灯として利用することも可能である。あるいは、収容空間2013内に配置されうる不図示の昼間点灯ランプや車幅灯と併せて使用されうる。
 好ましくは、車両100がセンサユニット2025のセンサを用いて運転支援動作を行なっているときに各光源2271が点灯される。運転支援のレベルに応じて点灯の態様、すなわち各発光ユニット2027の発光態様が変更されてもよい。
 このような構成によれば、車両100が運転支援動作中であることを車両100の外部からも認知でき、新たな商品価値を提供できる。このような機能の社会的認知が進めば、発光により歩行者や他のドライバーに対して安心感を与えることもできる。
 本実施形態においては、センサユニット2025のセンサの動作と連携して各導光部材2272が発光する。
 導光部材は、形状の選択自由度が比較的高く、広い発光領域を確保しやすい光学部品である。したがって、センサの存在感を強調できる発光態様を容易かつ柔軟に実現できる。
 なお、センサに対する所望の存在強調効果が得られるのであれば、一対の発光ユニット2027の一方は省略されうる。
 図19の(B)に示されるように、一対の発光ユニット2027は、複数の光源2273で置き換えられうる。各光源2273は、所定の波長を含む光を出射するランプ光源または発光素子である。ランプ光源と発光素子の例については上述した通りである。各光源2273は、発光体の一例である。
 本変形例において、複数の光源2273は、収容空間2013内におけるセンサユニット2025のセンサによる検出動作を妨げない位置に配置されている。具体的には、複数の光源2273は、車両100の外方から見てセンサユニット2025を包囲しているように見える位置に設けられている。
 この場合、制御部2019は、センサユニット2025のセンサの動作と連携して各光源2273を点灯させるように構成される。すなわち、複数の光源2273は、当該センサの動作と連携して発光する。具体的には、当該センサによる車両100の外部の情報の検出が行なわれているときに、各光源2273が点灯される。当該センサの起動時や動作終了時に光源2273が点灯されてもよい。点灯の態様、すなわち各光源2273の発光態様(色、常時発光、点滅、明るさの増減など)は、当該センサの動作態様に応じて適宜に定められうる。
 本変形例の場合、導光部材による光の進行方向の変化を考慮する必要がなく、センサの存在感を強調可能な発光態様を実現するための光源の配置を容易かつ柔軟に決定できる。
 なお、センサに対する所望の存在強調効果が得られるのであれば、複数の光源2273の一部は省略されうる。
 本例の場合、図20の(A)に示されるような構成が採用されうる。左前センサシステム2020は、支持部材2028を備えうる。支持部材2028は、収容空間2013内に配置される。支持部材2028は、制御部2019、センサユニット2025、および複数の光源2273を支持する。制御部2019、センサユニット2025、および複数の光源2273の相対位置関係は、支持部材2028によって維持される。
 このような構成によれば、連携動作に関与する制御部2019、センサユニット2025、および複数の光源2273をモジュール化して収容空間2013内に配置できる。
 より具体的には、図20の(B)に示されるように、給電部2281と通信部2282が支持部材2028上に設けられている。
 給電部2281は、車両100に搭載されている不図示の電源から電力の供給を受ける。給電部2281は、当該電力を、少なくとも制御部2019、センサユニット2025、および複数の光源2273に供給するように構成されている。
 制御部2019は、通信部2282を介して車両100に搭載されている不図示の制御装置と通信可能に接続される。制御部2019は、通信部2282を介して当該制御装置からの制御信号を受信し、当該制御信号に基づいてセンサユニット2025と複数の光源2273の動作を制御するように構成されている。
 図20の(A)に示されるように、左前センサシステム2020は、水平調節スクリュー2291を備えている。水平調節スクリュー2291は、調節機構の一例である。水平調節スクリュー2291は、ハウジング2011を貫通して延びている。水平調節スクリュー2291は、不図示のジョイントを介して支持部材2028と連結されている。水平調節スクリュー2291のヘッド部2291aは、ハウジング2011の外側に配置されている。所定の工具によりヘッド部2291aが回転操作されると、水平調節スクリュー2291の回転が、上記のジョイントによって、支持部材2028の姿勢を水平面内で変化させる動きに変換される。なお、ここで用いられている「水平面」が厳密な水平面と一致している必要はない。ジョイントの構成自体は周知であるため、詳細な説明は省略する。
 左前センサシステム2020は、垂直調節スクリュー2292を備えている。垂直調節スクリュー2292は、調節機構の一例である。垂直調節スクリュー2292は、ハウジング2011を貫通して延びている。垂直調節スクリュー2292は、不図示のジョイントを介して支持部材2028と連結されている。垂直調節スクリュー2292のヘッド部2292aは、ハウジング2011の外側に配置されている。所定の工具によりヘッド部2292aが回転操作されると、垂直調節スクリュー2292の回転が、上記のジョイントによって、支持部材2028の姿勢を垂直面内で変化させる動きに変換される。なお、ここで用いられている「垂直面」が厳密な垂直面と一致している必要はない。ジョイントの構成自体は周知であるため、詳細な説明は省略する。
 支持部材2028の姿勢調節は、センサユニット2025のセンサの検出基準位置と各光源2273からの光出射方向の少なくとも一方を調節するために行なわれる。前述のように、センサユニット2025と複数の光源2273の相対位置関係は、支持部材2028によって維持されている。したがって、いずれか一方の調節を行なえば、その結果が他方に反映される。
 水平調節スクリュー2291は、支持部材2028の水平面内における位置と姿勢の少なくとも一方を調節可能なアクチュエータで置き換えられうる。垂直調節スクリュー2292は、支持部材2028の垂直面内における位置と姿勢の少なくとも一方を調節可能なアクチュエータで置き換えられうる。
 図19の(C)に示されるように、一対の発光ユニット2027は、ELパネル2274で置き換えられうる。ELパネルは、所定の波長を含む光を出射可能な面発光源である。ELパネル2274は、有機ELパネルでもよいし、無機ELパネルでもよい。ELパネル2274は、発光体の一例である。
 本変形例において、ELパネル2274は、収容空間2013内におけるセンサユニット2025のセンサによる検出動作を妨げない位置に配置されている。具体的には、ELパネル2274は、車両100の外方から見てセンサユニット2025を包囲しているように見える位置に設けられている。
 この場合、制御部2019は、センサユニット2025のセンサの動作と連携してELパネル2274を点灯させるように構成される。すなわち、ELパネル2274は、当該センサの動作と連携して発光する。具体的には、当該センサによる車両100の外部の情報の検出が行なわれているときに、ELパネル2274が点灯される。当該センサの起動時や動作終了時にELパネル2274が点灯されてもよい。点灯の態様、すなわちELパネル2274の発光態様(色、常時発光、点滅、明るさの増減など)は、当該センサの動作態様に応じて適宜に定められうる。
 ELパネルは、形状の選択自由度が比較的高く、広い発光領域を確保しやすい光学部品である。また、導光部材のように光の進行方向の変化を考慮する必要がない。したがって、本例においても、センサの存在感を強調可能な発光態様を実現するための構成を容易かつ柔軟に決定できる。
 左前センサシステム2020の構成は、左後センサシステムにも適用可能である。左後センサシステムは、図2に示される車両100の左後隅部LBに搭載される。左後センサシステムの基本的な構成は、左前センサシステム2020と前後対称でありうる。但し、ランプユニット2014とセンサユニット2025の仕様は適宜に変更されうる。
 左前センサシステム2020の構成は、右後センサシステムにも適用可能である。右後センサシステムは、図2に示される車両100の右後隅部RBに搭載される。右後センサシステムの基本的な構成は、上述の左後センサシステムと左右対称である。
 本実施形態においては、収容空間2013内にランプユニット2014が設けられている。しかしながら、左前センサシステム2020からランプユニット2014は省略されうる。センサの配置自由度を向上可能という観点からは、センサシステムの配置は、車両100の隅部に限定されない。
 図21の(A)は、第八実施形態に係る左前センサシステム2030を車両100の前方から見た外観を模式的に示している。左前センサシステム2030は、図2に示される車両100の左前隅部LFに搭載される。車両100の右前隅部RFには、左前センサシステム2030と左右対称の構成を有する右前ランプ装置が搭載される。左前センサシステム2030は、第一センサユニット2035、第二センサユニット2036、第一発光ユニット2037、および第二発光ユニット2038を備えている。それ以外の構成は第六実施形態に係る左前センサシステム2010と同じであるため、繰り返しとなる説明は省略する。
 第一センサユニット2035と第二センサユニット2036は、ハウジング2011と透明カバー2012により区画された収容空間2013内に配置されている。第一センサユニット2035と第二センサユニット2036の各々は、前述のLiDARセンサ、ミリ波レーダ、超音波ソナー、可視光カメラ、赤外線カメラのいずれかを備えている。
 第一発光ユニット2037は、収容空間2013内における第一センサユニット2035のセンサによる検出動作を妨げない位置に配置されている。具体的には、第一発光ユニット2037は、車両100の外方から見て第一センサユニット2035を包囲しているように見える位置に設けられている。第一発光ユニット2037は、図19の(A)を参照して説明した構成、図19の(B)を参照して説明した構成、および図19の(C)を参照して説明した構成のいずれかを採りうる。
 第二発光ユニット2038は、収容空間2013内における第二センサユニット2036のセンサによる検出動作を妨げない位置に配置されている。具体的には、第二発光ユニット2038は、車両100の外方から見て第二センサユニット2036を包囲しているように見える位置に設けられている。第二発光ユニット2038は、図19の(A)を参照して説明した構成、図19の(B)を参照して説明した構成、および図19の(C)を参照して説明した構成のいずれかを採りうる。
 本実施形態の構成においては、透明カバー2012で区画された収容空間2013内に第一センサユニット2035と第二センサユニット2036を配置することにより、敢えてこれらが視認されるようにしている。さらに、第一センサユニット2035のセンサの動作と連携して発光する第一発光ユニット2037、および第二センサユニット2036のセンサの動作と連携して発光する第二発光ユニット2038が、収容空間2013内に配置されている。これにより、複数のセンサの存在感を敢えて強調する新規な外観を伴う新たな商品価値を提供できる。また、複数のセンサの存在感を抑制する必要性という制約から解放されるため、車両100の外部の情報を取得するためのセンサの配置自由度を向上できる。
 特に本実施形態においては、第一発光ユニット2037と第二発光ユニット2038が、車両100の外方から見て第一センサユニット2035と第二センサユニット2036を個別に包囲しているように見える位置に設けられている。これにより、複数のセンサの存在感をさらに強調する外観を提供できる。
 第一発光ユニット2037と第二発光ユニット2038が常時発光する構成の場合、これらを昼間点灯ランプや車幅灯として利用することも可能である。第一発光ユニット2037に割り当てられる機能と第二発光ユニット2038に割り当てられる機能は、同一であってもよいし、相違してもよい。例えば、第一発光ユニット2037と第二発光ユニット2038の双方が、昼間点灯ランプと車幅灯のいずれかとして使用されうる。あるいは、第一発光ユニット2037が昼間点灯ランプと車幅灯の一方として使用され、第二発光ユニット2038が他方として使用されうる。
 本例においては、二つのセンサユニットが収容空間2013内に配置されている。しかしながら、左前センサシステム2030の仕様に応じて、三つ以上のセンサユニットが収容空間2013内に配置されうる。この場合、センサユニットと同数の発光ユニットが、各センサユニットが個別に包囲されているように見える位置に設けられる。
 図21の(B)に示されるように、第一発光ユニット2037と第二発光ユニット2038は、発光ユニット2037Aで置き換えられうる。発光ユニット2037Aは、収容空間2013内における第一センサユニット2035のセンサによる検出動作および第二センサユニット2036のセンサによる検出動作を妨げない位置に配置されている。具体的には、発光ユニット2037Aは、車両100の外方から見て第一センサユニット2035と第二センサユニット2036を個別に包囲しているように見える位置に設けられている。発光ユニット2037Aは、図19の(A)を参照して説明した構成、図19の(B)を参照して説明した構成、および図19の(C)を参照して説明した構成のいずれかを採りうる。
 発光ユニット2037Aが常時発光する構成の場合、これらを昼間点灯ランプや車幅灯として利用することも可能である。あるいは、収容空間2013内に配置されうる不図示の昼間点灯ランプや車幅灯と併せて使用されうる。
 本例においては、二つのセンサユニットが収容空間2013内に配置されている。しかしながら、左前センサシステム2030の仕様に応じて、三つ以上のセンサユニットが収容空間2013内に配置されうる。この場合、発光ユニット2037Aは、各センサユニットが個別に包囲されているように見える形状および配置とされる。
 図21の(C)に示されるように、第一発光ユニット2037と第二発光ユニット2038は、発光ユニット2037Bで置き換えられうる。発光ユニット2037Bは、収容空間2013内における第一センサユニット2035のセンサによる検出動作および第二センサユニット2036のセンサによる検出動作を妨げない位置に配置されている。具体的には、発光ユニット2037Bは、車両100の外方から見て第一センサユニット2035と第二センサユニット2036を一括して包囲しているように見える位置に設けられている。発光ユニット2037Bは、図19の(A)を参照して説明した構成、図19の(B)を参照して説明した構成、および図19の(C)を参照して説明した構成のいずれかを採りうる。
 発光ユニット2037Bが常時発光する構成の場合、これらを昼間点灯ランプや車幅灯として利用することも可能である。あるいは、収容空間2013内に配置されうる不図示の昼間点灯ランプや車幅灯と併せて使用されうる。
 本例においては、二つのセンサユニットが収容空間2013内に配置されている。しかしながら、左前センサシステム2030の仕様に応じて、三つ以上のセンサユニットが収容空間2013内に配置されうる。この場合、発光ユニット2037Aは、各センサユニットが一括して包囲されているように見える形状および配置とされる。
 左前センサシステム2030の構成は、左後センサシステムにも適用可能である。左後センサシステムは、図2に示される車両100の左後隅部LBに搭載される。左後センサシステムの基本的な構成は、左前センサシステム2030と前後対称でありうる。但し、ランプユニット2014、第一センサユニット2035、および第二センサユニット2036の仕様は適宜に変更されうる。
 左前センサシステム2030の構成は、右後センサシステムにも適用可能である。右後センサシステムは、図2に示される車両100の右後隅部RBに搭載される。右後センサシステムの基本的な構成は、上述の左後センサシステムと左右対称である。
 本実施形態においては、収容空間2013内にランプユニット2014が設けられている。しかしながら、左前センサシステム2030からランプユニット2014は省略されうる。センサの配置自由度を向上可能という観点からは、センサシステムの配置は、車両100の隅部に限定されない。
 上記の第六実施形態から第八実施形態は、本開示の理解を容易にするための例示にすぎない。第六実施形態から第八実施形態に係る構成は、本開示の趣旨を逸脱しなければ、適宜に変更・改良されうる。
 第六実施形態から第八実施形態を参照して説明した各構成は、使用されるセンサの種別に応じて、相互に組み合わせや置き換えが可能である。
 図22は、第九実施形態に係る左前ランプ装置3010の構成を模式的に示している。左前ランプ装置3010は、図2に示される車両100の左前隅部LFに搭載される。車両100の右前隅部RFには、左前ランプ装置3010と左右対称の構成を有する右前ランプ装置が搭載される。
 左前ランプ装置3010は、ハウジング3011と透光カバー3012を備えている。透光カバー3012は、車両100の外面の一部を形成する。透光カバー3012は、ハウジング3011とともに灯室3013を区画している。
 左前ランプ装置3010は、ランプユニット3014を備えている。ランプユニット3014は、車両100の前方を含む領域に向けて光を出射する灯具である。ランプユニット3014は、例えば前照灯である。
 左前ランプ装置3010は、LiDARセンサユニット3015を備えている。LiDARセンサユニット3015は、灯室3013内に配置されている。すなわち、灯室3013は、収容室の一例である。
 LiDARセンサユニット3015は、非可視光を出射する構成、および当該非可視光が少なくとも車両100の前方に存在する物体に反射した結果の戻り光を検出する構成を備えている。車両100の前方は、車両の外部の一例である。LiDARセンサユニット3015は、必要に応じて出射方向(すなわち検出方向)を変更して当該非可視光を掃引する走査機構を備えうる。本実施形態においては、非可視光として波長905nmの赤外光が使用されている。
 LiDARセンサユニット3015は、例えば、ある方向へ非可視光を出射したタイミングから戻り光を検出するまでの時間に基づいて、当該戻り光に関連付けられた物体までの距離を取得できる。また、そのような距離データを検出位置と関連付けて集積することにより、戻り光に関連付けられた物体の形状に係る情報を取得できる。これに加えてあるいは代えて、出射光と戻り光の波長の相違に基づいて、戻り光に関連付けられた物体の材質などの属性に係る情報を取得できる。
 すなわち、LiDARセンサユニット3015は、少なくとも車両100の前方の情報を検出するセンサである。LiDARセンサユニット3015は、検出された戻り光の属性(強度や波長など)に対応する信号を出力する。上記の情報は、LiDARセンサユニット3015より出力された信号が不図示の情報処理部によって適宜に処理されることにより取得される。情報処理部は、左前ランプ装置3010が備えていてもよいし、車両100に搭載されていてもよい。
 灯室3013は、車両100の外部の情報を効率的に取得可能なLiDARセンサユニット3015の配置場所の一例である。しかしながら、LiDARセンサユニット3015は、比較的大きな寸法を有しており、かつランプユニット3014とは大きく異なる外観を呈していることが一般的である。したがって、灯室3013内にLiDARセンサユニット3015を配置しようとした場合、レイアウトに係る制約が大きくなる。
 図22に示されるように、LiDARセンサユニット3015に係る上述の違和感を抑制するために、エクステンション部材3016が灯室3013内に設けられている。「エクステンション部材」とは、灯室3013内に配置されている構造の一部を覆い隠して車両100の外側から視認できないようにする意匠部品である。同図における二点鎖線LS0は、LiDARセンサユニット3015が本来有している検出可能領域の外縁を示している。ここで「検出可能領域」とは、LiDARセンサユニット3015が情報の検出に使用する検出光(出射光および戻り光)の進路上にある領域を意味している。
 同図より明らかなように、LiDARセンサユニット3015が本来有している検出可能領域の一部は、エクステンション部材3016と干渉している。干渉が生じる領域については、所望の情報検出を遂行できない。他方、同図における一点鎖線LS1は、エクステンション部材3016との干渉を避けるために調節されたLiDARセンサユニット3015の検出範囲の外縁を示している。この場合、何らの策を講じることなく検出光に透光カバー3012を通過させると、検出可能領域が狭くなってしまう。
 したがって、外観上の違和感を抑制しつつ、所望の検出可能領域を確保できるようなLiDARセンサユニット3015の配置を考慮する必要が生ずる。しかしながら、灯室3013内で利用可能な空間には限りがある上、ランプユニット3014などとの干渉も考慮する必要がある。よって、灯室3013を大型化することなくLiDARセンサユニット3015を適切な場所に配置することには困難が伴う。
 本実施形態においては、透光カバー3012の内面3012aにレンズ部3017が設けられている。レンズ部3017は、光制御面3017aを有している。光制御面3017aは、凹面である。光制御面3017aは、LiDARセンサユニット3015が情報の検出に用いる非可視光を屈折させつつ透過させうる材料により形成されている。
 したがって、LiDARセンサユニット3015から出射された光は、光制御面3017aにおいて屈折されつつ透光カバー3012を通過する。結果として、車両100の外部においては、二点鎖線LS0で示される本来の検出可能領域と同等の検出可能領域が得られる。当該領域の情報に基づく戻り光は、透光カバー3012を通過する際に光制御面3017aによって再度屈折され、LiDARセンサユニット3015に戻る。
 換言すると、光制御面3017aは、LiDARセンサユニット3015について所望の検出可能領域を確保できるように、LiDARセンサユニット3015が情報の検出に用いる検出光の進行方向を意図的に変化させる。このように光の進行方向を制御できるレンズ部3017が車両100の外面を形成する透光カバー3012の内面3012aに設けられている。当該箇所におけるレンズ部3017の配置および形状の選択自由度は比較的高いため、灯室3013内におけるLiDARセンサユニット3015のレイアウトに係る制約を緩和できる。
 LiDARセンサユニット3015が情報の検出に用いる検出光の全てに対して光制御を行なう必要はない。所望の検出可能領域の位置や範囲に応じて、検出光の一部に対して光制御を行なうように光制御面が構成されうる。図23は、そのような光制御面3017aを有する変形例に係るレンズ部3017Aを示している。
 光制御面3017aの位置は、LiDARセンサユニット3015の検出可能領域が、二点鎖線LS0で示される本来の検出可能領域よりも右方(すなわち車両100の車幅方向における内方)に配置されるように定められている。このような構成によれば、LiDARセンサユニット3015のレイアウトに係る制約を緩和しつつ、検出可能領域の配置が比較的難しい車幅方向における内方にも検出可能領域を確保できる。
 左前ランプ装置3010の構成は、左後ランプ装置にも適用可能である。左後ランプ装置は、図2に示される車両100の左後隅部LBに搭載される。左後ランプ装置の基本的な構成は、左前ランプ装置3010と前後対称でありうる。但し、ランプユニット3014とLiDARセンサユニット3015の仕様は、適宜に変更されうる。
 左前ランプ装置3010の構成は、右後ランプ装置にも適用可能である。右後ランプ装置は、図2に示される車両100の右後隅部RBに搭載される。右後ランプ装置の基本的な構成は、上述の左後ランプ装置と左右対称である。
 図23における右側の一点鎖線LS1と右側の二点鎖線LS0の間に位置する領域を通過する検出光は、情報の検出に利用できない。灯室3013内における部材のレイアウトによっては、そのような検出光も有効活用しうる構成が採用されうる。
 図24は、そのような構成を有する第十実施形態に係る左前ランプ装置3020を示している。左前ランプ装置3020は、図2に示される車両100の左前隅部LFに搭載される。車両100の右前隅部RFには、左前ランプ装置3020と左右対称の構成を有する右前ランプ装置が搭載される。第九実施形態に係る左前ランプ装置3010と実質的に同一の構成要素には同一の参照符号を付与し、繰り返しとなる説明は省略する。
 左前ランプ装置3020は、リフレクタ3027を備えている。リフレクタ3027は、透光カバー3012とLiDARセンサユニット3015の間に位置する空間に配置されている。リフレクタ3027は、光制御面3027aを有している。光制御面3027aは、LiDARセンサユニット3015が情報の検出に用いる非可視光を反射可能な材料により形成されている。
 図24における一点鎖線LS2は、LiDARセンサユニット3015が本来有している検出可能領域の一部の外縁を示している。LiDARセンサユニット3015から出射され、かつ一点鎖線LS2により区画される範囲を通る光は、光制御面3027aにより反射され、透光カバー3012を通過する。結果として、車両100の外部においては、一点鎖線LS1により区画される検出可能領域とは異なる検出可能領域が得られる。当該領域の情報に基づく戻り光は、透光カバー3012を通過した後、光制御面3027aによって反射され、LiDARセンサユニット3015に戻る。
 換言すると、光制御面3027aは、LiDARセンサユニット3015について所望の検出可能領域を確保できるように、LiDARセンサユニット3015が情報の検出に用いる検出光の進行方向を意図的に変化させる。このように光の進行方向を制御できるリフレクタ3027が透光カバー3012とLiDARセンサユニット3015の間に位置する空間に設けられている。当該箇所におけるリフレクタ3027の配置および形状の選択自由度は比較的高いため、灯室3013内におけるLiDARセンサユニット3015のレイアウトに係る制約を緩和できる。
 図24に示される例においては、リフレクタ3027の光制御面3027aによって反射される検出光は、エクステンション部材3016と干渉することを理由に一点鎖線LS1で区画される検出可能領域から除かれている。このような検出光をリフレクタ3027で反射して別の検出可能領域を形成できるため、LiDARセンサユニット3015の検出光の活用率を高めることができる。
 本例に示されるように、所望される検出可能領域の位置と範囲によっては、リフレクタ3027の光制御面3027aで反射された検出光の一部は、レンズ部3017Aの光制御面3017aによるさらなる進行方向制御に供されうる。
 所望される検出可能領域の位置と範囲によっては、レンズ部3017Aを設けることなく、リフレクタ3027の光制御面3027aのみで検出光の進行方向を制御してもよい。
 左前ランプ装置3020の構成は、左後ランプ装置にも適用可能である。左後ランプ装置は、図2に示される車両100の左後隅部LBに搭載される。左後ランプ装置の基本的な構成は、左前ランプ装置3020と前後対称でありうる。但し、ランプユニット3014とLiDARセンサユニット3015の仕様は、適宜に変更されうる。
 左前ランプ装置3020の構成は、右後ランプ装置にも適用可能である。右後ランプ装置は、図2に示される車両100の右後隅部RBに搭載される。右後ランプ装置の基本的な構成は、上述の左後ランプ装置と左右対称である。
 第九実施形態と第十実施形態においては、検出可能領域内における検出光の密度は一様である。例えば検出光を走査して情報を検出する構成の場合、検出可能領域内における単位時間当たりの走査距離あるいは走査角度(走査ピッチ)は一定である。しかしながら、所望する情報の種別によっては、検出可能領域内で局所的に検出光密度が変更されうる。例えば、より精密な情報の検出が求められる領域では、検出光密度が高い方がよい。
 図25は、そのような動作が可能な第十一実施形態に係る左前ランプ装置3030を示している。左前ランプ装置3030は、図2に示される車両100の左前隅部LFに搭載される。車両100の右前隅部RFには、左前ランプ装置3020と左右対称の構成を有する右前ランプ装置が搭載される。第九実施形態に係る左前ランプ装置3010と実質的に同一の構成要素には同一の参照符号を付与し、繰り返しとなる説明は省略する。
 左前ランプ装置3030は、レンズ3037を備えている。レンズ3037は、透光カバー3012とLiDARセンサユニット3015の間に位置する空間に配置されている。レンズ3037は、光制御面3037aを有している。光制御面3037aは凸面である。光制御面3037aは、LiDARセンサユニット3015が情報の検出に用いる非可視光を屈折させつつ透過させうる材料により形成されている。
 したがって、LiDARセンサユニット3015から出射された光は、光制御面3037aにおいて屈折されつつ透光カバー3012を通過する。結果として、車両100の外部においては、二点鎖線LS3で示される検出可能領域が得られる。当該領域の情報に基づく戻り光は、透光カバー3012を通過する際に光制御面3037aによって再度屈折され、LiDARセンサユニット3015に戻る。
 換言すると、光制御面3037aは、LiDARセンサユニット3015について所望の検出可能領域を確保できるように、LiDARセンサユニット3015が情報の検出に用いる検出光の進行方向を意図的に変化させる。このように光の進行方向を制御できるレンズ3037が透光カバー3012とLiDARセンサユニット3015の間に位置する空間に設けられている。当該箇所におけるレンズ3037の配置および形状の選択自由度は比較的高いため、灯室3013内におけるLiDARセンサユニット3015のレイアウトに係る制約を緩和できる。
 図25における二点鎖線LS0は、LiDARセンサユニット3015が本来有している検出可能領域の外縁を示している。すなわち、LiDARセンサユニット3015が本来有している検出可能領域の一部は、エクステンション部材3016と干渉するので使用できない。本実施形態においては、そのような検出光の一部を活用して検出光密度の高い検出可能領域(二点鎖線LS3により区画される範囲)を形成している。よって、LiDARセンサユニット3015の検出光の活用率を高めることができる。
 LiDARセンサユニット3015が検出光を走査する機構を備えている場合、上記のような検出光密度の高い検出可能領域を形成するために、当該機構の単位時間当たりの走査距離あるいは走査角度(走査ピッチ)を変化させる必要はない。当該機構の操作ピッチは一定のまま検出光にレンズ3037を通過させるのみで、走査ピッチが見かけ上小さい状態を成立させている。したがって、検出光密度が一様でない検出可能範囲を形成しつつも、LiDARセンサユニット3015の動作制御に係る負荷を軽減できる。
 所望される検出可能領域の位置と範囲によっては、レンズ部3017Aを設けることなく、レンズ3037の光制御面3037aのみで検出光の進行方向を制御してもよい。
 左前ランプ装置3030の構成は、左後ランプ装置にも適用可能である。左後ランプ装置は、図2に示される車両100の左後隅部LBに搭載される。左後ランプ装置の基本的な構成は、左前ランプ装置3030と前後対称でありうる。但し、ランプユニット3014とLiDARセンサユニット3015の仕様は、適宜に変更されうる。
 左前ランプ装置3030の構成は、右後ランプ装置にも適用可能である。右後ランプ装置は、図2に示される車両100の右後隅部RBに搭載される。右後ランプ装置の基本的な構成は、上述の左後ランプ装置と左右対称である。
 図26は、第十二実施形態に係る左前ランプ装置3040を示している。左前ランプ装置3040は、図2に示される車両100の左前隅部LFに搭載される。車両100の右前隅部RFには、左前ランプ装置3040と左右対称の構成を有する右前ランプ装置が搭載される。第九実施形態に係る左前ランプ装置3010と実質的に同一の構成要素には同一の参照符号を付与し、繰り返しとなる説明は省略する。
 左前ランプ装置3040は、レンズ部3047を備えている。レンズ部3047は、透光カバー3012の外面3012bに設けられている。レンズ部3047は、光制御面3047aを有している。光制御面3047aは、曲率が一定の弧状部分を有する凸面である。より具体的には、当該弧状部分の曲率中心は、LiDARセンサユニット3015の光源あるいは走査中心に一致している。光制御面3047aは、LiDARセンサユニット3015が情報の検出に用いる非可視光を透過させうる材料により形成されている。
 透光カバー3012の外面3012bは、車両100の意匠に基づく形状を有している。当該形状は、LiDARセンサユニット3015の光源あるいは走査中心とは無関係である。したがって、LiDARセンサユニット3015の検出光が透光カバー3012を通過する際に、媒質の変化に伴う僅かな屈折が生じる。しかしながら、本実施形態の構成によれば、LiDARセンサユニット3015から出射された光は、屈折をせずに光制御面3047aを通過する。検出可能領域の情報に基づく戻り光は、屈折をせずに光制御面3047aを再度通過し、LiDARセンサユニット3015に戻る。検出光の進行に伴う歪みを軽減できるため、LiDARセンサユニット3015の検出精度を向上できる。
 光制御面3047aは、LiDARセンサユニット3015が情報の検出に用いる検出光の進行方向を維持している。しかしながら、光制御面3047aが不在の場合と比較すると、LiDARセンサユニット3015の検出精度が向上するように、検出光の進行方向を意図的に変化させているとみなすことができる。このように光の進行方向を制御できるレンズ部3047が車両100の外面を形成する透光カバー3012の外面3012bに設けられている。当該箇所におけるレンズ部3047の配置および形状の選択自由度は比較的高いため、灯室3013内におけるLiDARセンサユニット3015のレイアウトに係る制約を緩和できる。
 透光カバー3012の通過に伴う検出光の歪みをより抑制するためには、図26に破線で示されるように、透光カバー3012の内面3012aにも光制御面3047bを形成すればよい。光制御面3047bは、曲率が一定の弧状部分を有する凹面である。より具体的には、当該弧状部分の曲率中心は、LiDARセンサユニット3015の光源あるいは走査中心に一致している。
 光制御面3047aに代えて光制御面3047bのみが透光カバー3012に設けられる構成も採用されうる。
 左前ランプ装置3040の構成は、左後ランプ装置にも適用可能である。左後ランプ装置は、図2に示される車両100の左後隅部LBに搭載される。左後ランプ装置の基本的な構成は、左前ランプ装置3040と前後対称でありうる。但し、ランプユニット3014とLiDARセンサユニット3015の仕様は、適宜に変更されうる。
 左前ランプ装置3040の構成は、右後ランプ装置にも適用可能である。右後ランプ装置は、図2に示される車両100の右後隅部RBに搭載される。右後ランプ装置の基本的な構成は、上述の左後ランプ装置と左右対称である。
 図27は、第十三実施形態に係る左前ランプ装置3050を示している。左前ランプ装置3050は、図2に示される車両100の左前隅部LFに搭載される。車両100の右前隅部RFには、左前ランプ装置3050と左右対称の構成を有する右前ランプ装置が搭載される。第九実施形態に係る左前ランプ装置3010と実質的に同一の構成要素には同一の参照符号を付与し、繰り返しとなる説明は省略する。
 左前ランプ装置3050は、カメラユニット3055を備えている。カメラユニット3055は、灯室3013内に配置されている。カメラユニット3055は、車両100の前方を含む領域の画像情報を取得するための装置である。すなわち、カメラユニット3055は、センサユニットの一例である。図27において破線Cにより区画される範囲は、カメラユニット3055の検出可能領域を表している。
 カメラユニット3055は、取得した画像情報に対応する信号を出力する。画像情報は、カメラユニット3055より出力された信号が不図示の情報処理部によって適宜に処理されることにより取得される。情報処理部は、左前ランプ装置3050が備えていてもよいし、車両100に搭載されていてもよい。
 左前ランプ装置3050は、ビームスプリッタ3057を備えている。ビームスプリッタ3057は、光制御面3057aを備えている。光制御面3057aは、LiDARセンサユニット3015が情報の検出に用いる非可視光を通過させ、かつカメラユニット3055が情報の検出に用いる可視光を所定の方向へ反射する材料により形成されている。
 したがって、LiDARセンサユニット3015から出射された光は、ビームスプリッタ3057の光制御面3057aを通過し、透光カバー3012に設けられた光制御面3017aに至る。当該光は、光制御面3017aにおいて屈折されつつ透光カバー3012を通過する。検出可能領域の情報に基づく戻り光は、透光カバー3012を通過する際に再度光制御面3017aによって屈折され、さらに光制御面3057aを通過してLiDARセンサユニット3015に戻る。
 他方、破線Cで区画される検出可能領域から到来する光は、透光カバー3012を通過する際に光制御面3017aによって屈折されつつ、灯室3013内に進入する。当該光は、ビームスプリッタ3057の光制御面3057aによって反射され、カメラユニット3055に至る。
 換言すると、光制御面3017aは、カメラユニット3055について所望の検出範囲を確保できるように、カメラユニット3055が情報の検出に用いる検出光の進行方向を意図的に変化させる。他方、そのような光制御面3017aは、LiDARセンサユニット3015とカメラユニット3055により共有されている。光制御面3057aは、LiDARセンサユニット3015による情報検出を妨げることなくカメラユニット3055について所望の検出範囲を確保できるように、カメラユニット3055が情報の検出に用いる検出光の進行方向を意図的に変化させる。このように光の進行方向を制御できるビームスプリッタ3057が透光カバー3012とLiDARセンサユニット3015の間に位置する空間に設けられている。当該箇所におけるビームスプリッタ3057の配置および形状の選択自由度は比較的高いため、透光カバー3012に設けられた光制御面を共有する複数のセンサを灯室に配置する際の制約を緩和できる。
 LiDARセンサユニット3015とカメラユニット3055の配置次第では、ビームスプリッタ3057の構成が変更されうる。すなわち、光制御面3057aは、カメラユニット3055が情報の検出に用いる可視光を通過させ、かつLiDARセンサユニット3015が情報の検出に用いる非可視光を所定の方向へ反射する材料により形成されうる。
 左前ランプ装置3050の構成は、左後ランプ装置にも適用可能である。左後ランプ装置は、図2に示される車両100の左後隅部LBに搭載される。左後ランプ装置の基本的な構成は、左前ランプ装置3050と前後対称でありうる。但し、ランプユニット3014とLiDARセンサユニット3015の仕様は、適宜に変更されうる。
 左前ランプ装置3050の構成は、右後ランプ装置にも適用可能である。右後ランプ装置は、図2に示される車両100の右後隅部RBに搭載される。右後ランプ装置の基本的な構成は、上述の左後ランプ装置と左右対称である。
 図28は、第十四実施形態に係る左前ランプ装置3060を示している。左前ランプ装置3060は、図2に示される車両100の左前隅部LFに搭載される。車両100の右前隅部RFには、左前ランプ装置3060と左右対称の構成を有する右前ランプ装置が搭載される。第九実施形態に係る左前ランプ装置3010と実質的に同一の構成要素には同一の参照符号を付与し、繰り返しとなる説明は省略する。
 左前ランプ装置3060は、遮光部材3068を備えている。遮光部材3068は、灯室3013内に配置されている。遮光部材3068は、LiDARセンサユニット3015とレンズ部3017の間に位置する検出光の光路の少なくとも一部を包囲するように配置されている。遮光部材3068は、少なくとも当該検出光と同じ波長を有する光の通過を抑制または遮断する材料により形成されている。そのような材料の例としては、表面が酸化処理された金属や、グラファイトが挙げられる。
 様々な原因により、光制御面3017aを通過することなくLiDARセンサユニット3015に到達しうる外乱光Eが存在する。外乱光Eには、透光カバー3012の外部から到来するものもあれば、透光カバー3012の内部反射などによって生じるものもある。この外乱光Eが検出光と同じ波長を有しており、かつ図28に破線で示されるようにLiDARセンサユニット3015に到達すると、本来検出されるべきではない情報が認識されることになる。図28に実線で示されるように、遮光部材3068は、このような外乱光Eの通過を抑制または遮断するように設けられている。
 このような構成によれば、外乱光Eに起因してLiDARセンサユニット3015が誤った情報を検出したり、検出される情報の精度が低下したりすることの回避が容易になる。
 左前ランプ装置3060の構成は、左後ランプ装置にも適用可能である。左後ランプ装置は、図2に示される車両100の左後隅部LBに搭載される。左後ランプ装置の基本的な構成は、左前ランプ装置3060と前後対称でありうる。但し、ランプユニット3014とLiDARセンサユニット3015の仕様は、適宜に変更されうる。
 左前ランプ装置3060の構成は、右後ランプ装置にも適用可能である。右後ランプ装置は、図2に示される車両100の右後隅部RBに搭載される。右後ランプ装置の基本的な構成は、上述の左後ランプ装置と左右対称である。
 図29は、第十五実施形態に係る左前ランプ装置3070を示している。左前ランプ装置3070は、図2に示される車両100の左前隅部LFに搭載される。車両100の右前隅部RFには、左前ランプ装置3070と左右対称の構成を有する右前ランプ装置が搭載される。第九実施形態に係る左前ランプ装置3010と実質的に同一の構成要素には同一の参照符号を付与し、繰り返しとなる説明は省略する。
 左前ランプ装置3070は、複数の遮光部材3078を備えている。各遮光部材3078は、灯室3013内に配置されている。各遮光部材3078は、LiDARセンサユニット3015とレンズ部3017の間に位置する検出光の光路上に配置されている。各遮光部材3078は、当該検出光の進行方向に沿って延びている。各遮光部材3078は、少なくとも当該検出光と同じ波長を有する光の通過を抑制または遮断する材料により形成されている。そのような材料の例としては、表面が酸化処理された金属や、グラファイトが挙げられる。
 様々な原因により、光制御面3017aを通過することなくLiDARセンサユニット3015に到達しうる外乱光Eが存在する。外乱光Eには、透光カバー3012の外部から到来するものもあれば、透光カバー3012の内部反射などによって生じるものもある。この外乱光Eが検出光と同じ波長を有しており、かつ図29に破線で示されるようにLiDARセンサユニット3015に到達すると、本来検出されるべきではない情報が認識されることになる。図29に実線で示されるように、各遮光部材3078は、検出光の進行を妨げることなく、このような外乱光Eの通過を抑制または遮断するように設けられている。
 このような構成によれば、外乱光Eに起因してLiDARセンサユニット3015が誤った情報を検出したり、検出される情報の精度が低下したりすることの回避が容易になる。
 拡大図に示されるように、各遮光部材3078の表面には微細な凹凸が形成されうる。このような表面構造によって検出光の進行方向とは異なる向きに外乱光Eを反射させてもよい。外乱光Eの一部が検出光の進行方向と同じ向きに反射されても、その強度が低減されているため、LiDARセンサユニット3015は、検出光に基づく情報と外乱光Eに基づく情報とを区別できる。
 左前ランプ装置3070の構成は、左後ランプ装置にも適用可能である。左後ランプ装置は、図2に示される車両100の左後隅部LBに搭載される。左後ランプ装置の基本的な構成は、左前ランプ装置3070と前後対称でありうる。但し、ランプユニット3014とLiDARセンサユニット3015の仕様は、適宜に変更されうる。
 左前ランプ装置3070の構成は、右後ランプ装置にも適用可能である。右後ランプ装置は、図2に示される車両100の右後隅部RBに搭載される。右後ランプ装置の基本的な構成は、上述の左後ランプ装置と左右対称である。
 上記の第九実施形態から第十五実施形態においては、LiDARセンサユニット3015が灯室3013内に配置されている。しかしながら、ハウジング3011と透光カバー3012により区画される収容室内に、必ずしもランプユニット3014が配置されていることを要しない。
 図30は、第十六実施形態に係る左前センサ装置3080を示している。左前センサ装置3080は、図2に示される車両100の左前隅部LFにおける左前ランプ装置の近傍に搭載される。車両100の右前隅部RFにおける右前ランプ装置の近傍には、左前センサ装置3080と左右対称の構成を有する右前センサ装置が搭載される。第九実施形態に係る左前ランプ装置3010と実質的に同一の構成要素には同一の参照符号を付与し、繰り返しとなる説明は省略する。
 左前センサ装置3080においては、ハウジング3011と透光カバー3012により収容室3083が区画されている。収容室3083内には、LiDARセンサユニット3015とカメラユニット3085が収容されている。カメラユニット3085は、車両100の前方を含む領域の画像情報を取得するための装置である。すなわち、カメラユニット3085は、センサユニットの一例である。図30において二点鎖線C0により区画される範囲は、カメラユニット3085の検出可能領域を表している。
 カメラユニット3085は、取得した画像情報に対応する信号を出力する。画像情報は、カメラユニット3085より出力された信号が不図示の情報処理部によって適宜に処理されることにより取得される。情報処理部は、左前センサ装置3080が備えていてもよいし、車両100に搭載されていてもよい。
 光制御面3017aは、LiDARセンサユニット3015について所望の検出可能領域を確保できるように、LiDARセンサユニット3015が情報の検出に用いる検出光の進行方向を意図的に変化させる。このように光の進行方向を制御できるレンズ部3017が車両100の外面を形成する透光カバー3012の内面3012aに設けられている。当該箇所におけるレンズ部3017の配置および形状の選択自由度は比較的高いため、収容室3083内におけるLiDARセンサユニット3015のレイアウトに係る制約を緩和できる。
 図30に示されるように、カメラユニット3085の検出可能範囲の一部(右側の二点鎖線C0と二点鎖線C1で区画される範囲)にレンズ部3017が位置している。当該部分に対応する画像には、レンズ部3017の形状に応じた歪みが生じる。
 左前センサ装置3080は、補正部3089を備えている。補正部3089は、カメラユニット3085および上述の情報処理部と通信可能である。補正部3089は、ASICやFPGAなどの専用デバイスによって構成されてもよいし、上述の情報処理部が備えているプロセッサとメモリにより実現される一機能であってもよい。
 補正部3089は、レンズ部3017に起因する画像歪みを補正する処理を行なうように構成されている。具体的には、カメラユニット3085から出力された信号、あるいは情報処理部が取得した画像情報に対し、画像歪みを補正する処理を適用する。カメラユニット3085とレンズ部3017の光学的な位置関係は一定であるため、補正が必要な信号あるいは情報と補正量は、予め定められうる。補正部3089は、予め定められた補正対象に対して予め定められた補正量の処理を適用する。
 このような構成によれば、収容室内に配置された第一のセンサユニット(本例においてはLiDARセンサユニット3015)が使用する光制御面の存在に起因する第二のセンサユニット(本例においてはカメラユニット3085)のレイアウトに係る制約を緩和できる。
 左前センサ装置3080の構成は、左後センサ装置にも適用可能である。左後センサ装置は、図2に示される車両100の左後隅部LBにおける左後ランプ装置の近傍に搭載される。左後センサ装置の基本的な構成は、左前センサ装置3080と前後対称でありうる。但し、LiDARセンサユニット3015とカメラユニット3085の仕様は、適宜に変更されうる。
 左前センサ装置3080の構成は、右後センサ装置にも適用可能である。右後センサ装置は、図2に示される車両100の右後隅部RBにおける右後ランプ装置の近傍に搭載される。右後センサ装置の基本的な構成は、上述の左後センサ装置と左右対称である。
 上記の第九実施形態から第十六実施形態は、本開示の理解を容易にするための例示にすぎない。第九実施形態から第十六実施形態に係る各構成は、本開示の趣旨を逸脱しなければ、適宜に変更・改良されうる。第九実施形態から第十六実施形態を参照して説明した各構成は、相互に組み合わせや置き換えが可能である。
 第九実施形態から第十六実施形態において、レンズ部3017またはレンズ部3017Aは、透光カバー3012の内面3012aに設けられている。しかしながら、同等の光学的機能を有する独立した光学部材が、灯室3013または収容室3083内に配置されうる。
 第九実施形態から第十六実施形態において、レンズ部3017またはレンズ部3017Aの光制御面3017aは、連続した曲面である。しかしながら、光制御面3017aは、多数の微細なステップが同等の光学的機能を有するように配列された面とされうる。
 カメラユニットと光制御面を共有しない実施形態については、LiDARセンサユニット3015をミリ波レーダユニットで置き換えてもよい。ミリ波は、検出光の一例である。ミリ波レーダユニットは、ミリ波を発信する構成、および当該ミリ波が車両100の外部に存在する物体に反射した結果の反射波を受信する構成を備えている。ミリ波の周波数の例としては、24GHz、26GHz、76GHz、79GHzなどが挙げられる。
 ミリ波レーダユニットは、例えば、ある方向へミリ波を発信したタイミングから反射波を受信するまでの時間に基づいて、当該反射波に関連付けられた物体までの距離を取得できる。また、そのような距離データを検出位置と関連付けて集積することにより、反射波に関連付けられた物体の動きに係る情報を取得できる。すなわち、ミリ波レーダユニットは、車両100の外部の情報を検出するセンサユニットの一例である。
 ミリ波レーダユニットは、検出された反射波の属性(強度や波長など)に対応する信号を出力する。上記の情報は、ミリ波レーダユニットより出力された信号が不図示の情報処理部によって適宜に処理されることにより取得される。
 カメラユニットと光制御面を共有しない実施形態については、レンズ部3017またはレンズ部3017Aが設けられている部分は、可視光域について透明であることを要しない。情報の検出に検出光の波長に応じて適切な材料が選定されうる。例えば、ミリ波レーダユニットを用いる場合、可視光と近赤外光を透過しないポリエチレンが選定されうる。
 上記の各実施形態において、LiDARセンサユニット3015は、赤外線カメラユニットで置き換えられうる。赤外線カメラユニットは、車両100の外部の情報を検出するセンサユニットの一例である。
 図31は、第十七実施形態に係る左前センサシステム4010の構成を模式的に示している。左前センサシステム4010は、図2に示される車両100の左前隅部LFに搭載される。車両100の右前隅部RFには、左前センサシステム4010と左右対称の構成を有する右前センサシステムが搭載される。
 本実施形態については、矢印Uまたは矢印Dで表される方向を第一方向と定義する。本実施形態については、当該第一方向と直交する方向、すなわち矢印L、矢印R、矢印F、または矢印Bで表される方向を第二方向と定義する。
 左前センサシステム4010は、ハウジング4011と透光カバー4012を備えている。透光カバー4012は、車両100の外面の一部を形成する。透光カバー4012は、ハウジング4011とともに収容室4013を区画している。
 左前センサシステム4010は、カメラユニット4014を備えている。カメラユニット4014は、収容室4013内に配置されている。カメラユニット4014は、車両100の前方を含む領域の画像情報を取得するための装置である。車両100の前方は、車両の外部の一例である。すなわち、カメラユニット4014は、センサユニットの一例である。
 カメラユニット4014は、取得した画像情報に対応する信号を出力する。画像情報は、カメラユニット4014より出力された信号が不図示の情報処理部によって適宜に処理されることにより取得される。情報処理部は、左前センサシステム4010が備えていてもよいし、車両100に搭載されていてもよい。
 左前センサシステム4010は、ミリ波レーダユニット4015を備えている。ミリ波レーダユニット4015は、収容室4013内に配置されている。ミリ波レーダユニット4015は、ミリ波を発信する構成、および当該ミリ波が車両100の少なくとも前方に存在する物体に反射した結果の反射波を受信する構成を備えている。ミリ波の周波数の例としては、24GHz、26GHz、76GHz、79GHzなどが挙げられる。
 ミリ波レーダユニット4015は、例えば、ある方向へミリ波を発信したタイミングから反射波を受信するまでの時間に基づいて、当該反射波に関連付けられた物体までの距離を取得できる。また、そのような距離データを検出位置と関連付けて集積することにより、反射波に関連付けられた物体の動きに係る情報を取得できる。すなわち、ミリ波レーダユニット4015は、センサユニットの一例である。
 ミリ波レーダユニット4015は、検出された反射波の属性(強度や波長など)に対応する信号を出力する。上記の情報は、ミリ波レーダユニット4015より出力された信号が不図示の情報処理部によって適宜に処理されることにより取得される。情報処理部は、左前センサシステム4010が備えていてもよいし、車両100に搭載されていてもよい。
 左前センサシステム4010は、LiDARセンサユニット4016を備えている。LiDARセンサユニット4016は、収容室4013内に配置されている。LiDARセンサユニット4016は、非可視光を出射する構成、および当該非可視光が少なくとも車両100の前方に存在する物体に反射した結果の戻り光を検出する構成を備えている。LiDARセンサユニット4016は、必要に応じて出射方向(すなわち検出方向)を変更して当該非可視光を掃引する走査機構を備えうる。本実施形態においては、非可視光として波長905nmの赤外光が使用されている。
 LiDARセンサユニット4016は、例えば、ある方向へ非可視光を出射したタイミングから戻り光を検出するまでの時間に基づいて、当該戻り光に関連付けられた物体までの距離を取得できる。また、そのような距離データを検出位置と関連付けて集積することにより、戻り光に関連付けられた物体の形状に係る情報を取得できる。これに加えてあるいは代えて、出射光と戻り光の波長の相違に基づいて、戻り光に関連付けられた物体の材質などの属性に係る情報を取得できる。
 すなわち、LiDARセンサユニット4016は、センサユニットの一例である。LiDARセンサユニット4016は、検出された戻り光の属性(強度や波長など)に対応する信号を出力する。上記の情報は、LiDARセンサユニット4016より出力された信号が不図示の情報処理部によって適宜に処理されることにより取得される。情報処理部は、左前センサシステム4010が備えていてもよいし、車両100に搭載されていてもよい。
 図32は、カメラユニット4014の検出範囲CD、ミリ波レーダユニット4015の検出範囲MD、およびLiDARセンサユニット4016の検出範囲LDを示している。本例の場合、車両100の上下方向に対応する向きが第一方向であり、車両100の左右方向に対応する向きが第二方向である。カメラユニット4014の検出範囲CDは、第一方向よりも第二方向について広い検出範囲を有している。ミリ波レーダユニット4015の検出範囲MDは、第一方向よりも第二方向について広い検出範囲を有している。LiDARセンサユニット4016の検出範囲LDは、第一方向よりも第二方向について広い検出範囲を有している。
 図31に示されるように、カメラユニット4014、ミリ波レーダユニット4015、およびLiDARセンサユニット4016は、車両100の上下方向に対応する向き(第一方向)に配列されている。このようなレイアウトの利点について、図33と図34を参照して説明する。
 図33の(A)は、各々が前述のように車両100の上下方向に対応する向きよりも左右方向に対応する向き(第二方向)について広い検出範囲を有する複数のセンサユニットが、第二方向に配列されている例を示している。隣接するセンサユニットの検出範囲の一部同士が重複しているため、効率よく車両100の外部の情報を取得しようとする観点からは、冗長性が高いと言える。
 図33の(B)は、そのような冗長性を極力抑制しようとする構成の例を示している。各センサユニットの検出範囲が第二方向について広いため、隣接するセンサユニット同士の間隔が大きくなることを避けられない。したがって、収容室の大型化に繋がる。
 図33の(C)は、各センサユニットの検出範囲を極力一致させようとする構成の例を示している。各センサユニットの検出範囲が第二方向について広いため、中央のセンサユニットの左右両側に位置するセンサユニットは、第二方向について比較的大きな検出方向の調整が必要とされる。
 図34の(A)は、各々が上記のような検出範囲を有する複数のセンサユニットが、第一方向に配列されている例を示している。各センサユニットの検出範囲が第一方向について狭いため、隣接するセンサユニットの検出範囲の一部同士の重複量を、比較的小さくできる。
 図34の(B)は、そのような冗長性を極力抑制しようとする構成の例を示している。各センサユニットの検出範囲が第一方向について狭いため、隣接するセンサユニット同士の間隔が大きくなることを回避できる。したがって、収容室の大型化を抑制できる。
 図34の(C)は、各センサユニットの検出範囲を極力一致させようとする構成の例を示している。各センサユニットの検出範囲が第一方向について狭いため、中央のセンサユニットの上下両側に位置するセンサユニットは、第一方向について必要とされる検出方向の調整量は比較的小さい。
 すなわち、検出範囲のより狭い方向に複数のセンサユニットを配列することにより、隣接するセンサユニットの検出範囲の重複を少なくしても当該センサユニット同士の間隔が広くなることを回避できる。他方、隣接するセンサユニットの検出範囲を一致させようとする場合において、各センサユニットにおいて必要とされる検出方向の調整量を少なくできる。したがって、複数のセンサユニットが車両100に搭載される場合のレイアウトに係る制約を緩和しつつ、車両の外部の情報を効率的に検出できる。
 本実施形態においては、より高い発熱性を有するセンサユニットは、より低い発熱性を有するセンサユニットよりも上方に配置されている。「より高い発熱性を有するセンサユニット」とは、単位時間当たりに発する熱量がより高いセンサユニットを意味する。あるいは、単位時間当たりに発する熱量が同じ場合であって、より動作時間の長いセンサユニットを意味する。あるいは、左前センサシステム4010の起動から停止までの間に発する累積熱量がより高いセンサユニットを意味する。例えば、単位時間当たりに発する熱量がより低いセンサユニットであっても、動作頻度が高ければ累積熱量がより高くなる可能性がある。
 熱は上方へ移動しやすい性質を有している。上記のような構成によれば、発熱性の高いセンサユニットの発する熱によって発熱性のより低いセンサユニットが受ける影響を抑制できる。また、例えば収容室4013の上部に熱対策の構成を集中的に配置することにより、複数のセンサユニットから生じた熱を効率的に取り扱える。
 具体的には、ミリ波レーダユニット4015は、カメラユニット4014よりも上方に配置されている。すなわち、ミリ波レーダユニット4015の発熱性は、カメラユニット4014の発熱性よりも高い。
 同様に、LiDARセンサユニット4016は、ミリ波レーダユニット4015よりも上方に配置されている。すなわち、LiDARセンサユニット4016の発熱性は、ミリ波レーダユニット4015の発熱性よりも高い。
 さらに、LiDARセンサユニット4016は、カメラユニット4014よりも上方に配置されている。すなわち、LiDARセンサユニット4016の発熱性は、カメラユニット4014の発熱性よりも高い。
 比較的発熱性の高いLiDARセンサユニット4016が収容室4013内のより上方の位置に配置されることによって、より有利な熱対策をとることができる。
 図31に示されるように、左前センサシステム4010は、ヒートシンク4017とヒートシンク4018を備えている。ヒートシンク4017は、ミリ波レーダユニット4015と熱的に結合されている。ヒートシンク4018は、LiDARセンサユニット4016と熱的に結合されている。
 本明細書において、「AがBと熱的に結合されている」という表現は、AとBの間で熱の伝達が可能にされている状態を意味する。熱の伝達が可能であれば、必ずしもAとBが接触していることを要しない。
 LiDARセンサユニット4016と熱的に結合されているヒートシンク4018の放熱性は、ミリ波レーダユニット4015と熱的に結合されているヒートシンク4017の放熱性よりも高い。「より高い放熱性を有するヒートシンク」とは、単位時間当たりに放散可能な熱量がより高いヒートシンクを意味する。より高い放熱性は、ヒートシンクの形状、表面積、素材などを適宜に選択することにより実現されうる。図31に示される例においては、ヒートシンク4018の表面積は、ヒートシンク4017の表面積よりも大きい。
 すなわち、より放熱性の高いヒートシンクがより上方の位置に配置されている。これにより、複数のセンサユニットから発生する熱を効率的に放散できる。また、図31に示される例のように、より表面積の小さいヒートシンクがより下方の位置に配置される場合、収容室4013の下部に空間的な余裕を生じさせることが可能である。
 特に本実施形態の場合、より発熱性の高いセンサユニットに対してより放熱性の高いヒートシンクが熱的に結合されている。これにより、複数のセンサユニットから発生する熱を特に効率的に放散できる。
 本実施形態においては、カメラユニット4014にはヒートシンクが結合されていない。しかしながら、カメラユニット4014にヒートシンクを熱的に結合させてもよい。この場合、当該ヒートシンクの放熱性は、ヒートシンク4017の放熱性よりも小さくされうる。 
 図31に示されるように、左前センサシステム4010は、冷却ファン4019を備えている。冷却ファン4019は、カメラユニット4014、ミリ波レーダユニット4015、およびLiDARセンサユニット4016を冷却するための装置である。換言すると、冷却ファン4019は、カメラユニット4014、ミリ波レーダユニット4015、およびLiDARセンサユニット4016にとって共通の冷却装置である。
 前述のように、本実施形態に係る左前センサシステム4010は、収容室4013の上部においてより発熱性の高い構成とされている。したがって、効率よく冷却を行なうために、冷却ファン4019は、カメラユニット4014、ミリ波レーダユニット4015、およびLiDARセンサユニット4016の配列における上端寄りに配置されている。
 より具体的には、冷却ファンの回転中心4191は、カメラユニット4014、ミリ波レーダユニット4015、およびLiDARセンサユニット4016の配列における車両100の上下方向の中央位置よりも上方に位置している。本実施形態の場合、中央位置は、車両100の前後方向に延びる直線CL上の点として定義される。直線CLは、最上位に位置するセンサユニットの上端において車両100の前後方向に延びる接線UEまでの距離と、最下位に位置するセンサユニットの下端において車両100の前後方向に延びる接線DEまでの距離が等しい直線である。
 図32に示されるように、カメラユニット4014の検出範囲CDは、車両100の左右方向における検出基準点CPを有している。同様に、ミリ波レーダユニット4015の検出範囲MDは、車両100の左右方向における検出基準点MPを有しており、LiDARセンサユニット4016の検出範囲LDは、車両100の左右方向における検出基準点LPを有している。検出基準点CP、検出基準点MP、および検出基準点LPは、車両100の上下方向に揃っている。換言すると、カメラユニット4014、ミリ波レーダユニット4015、およびLiDARセンサユニット4016は、車両100の左右方向について視差がない。
 このような構成によれば、カメラユニット4014、ミリ波レーダユニット4015、およびLiDARセンサユニット4016からそれぞれ取得された情報の統合が容易になる。したがって、制御装置における情報の統合に係る処理負荷の増大を抑制できる。
 図31に示されるように、左前センサシステム4010は、ヒータ4020を備えている。ヒータ4020は、カメラユニット4014、ミリ波レーダユニット4015、およびLiDARセンサユニット4016の各々に熱を供給するように構成されている。
 これにより、車両100の外部環境温度が低い場合においても、情報検出動作を遂行可能な温度まで各センサユニットを加熱できる。したがって、外部環境温度に依存しない情報検出を実現できる。
 図31に示されるように、左前センサシステム4010は、支持部材4021と調節機構4022を備えている。支持部材4021は、カメラユニット4014、ミリ波レーダユニット4015、およびLiDARセンサユニット4016を支持する共通の部材である。調節機構4022は、車両100に対する支持部材4021の位置と姿勢の少なくとも一方を調節する機構である。
 例えば、調節機構4022は、いわゆるエイミングスクリュー機構として構成されうる。エイミングスクリュー機構は、支持部材4021の姿勢を水平面内(車両100の左右方向と前後方向を含む面内)で変化させるエイミングスクリューと、支持部材4021の姿勢を垂直面内(車両100の上下方向と前後方向を含む面内)で変化させるエイミングスクリューとを含みうる。各エイミングスクリューは、所定の治具により操作されうる。エイミングスクリュー機構自体は周知であるため、詳細な構成の説明は省略する。なお、上記の「水平面」が厳密な水平面と一致している必要はない。同様に、上記の「垂直面」が厳密な垂直面と一致している必要はない。
 左前センサシステム4010の出荷前調整の工程において、カメラユニット4014、ミリ波レーダユニット4015、およびLiDARセンサユニット4016の各検出基準位置が調節される。調節は、センサユニット毎に設けられた不図示の調節機構を用いてなされる。
 左前センサシステム4010が車両100に搭載される際、車体部品の公差や車体に対するハウジング4011の位置ずれに起因して、各センサユニットの検出基準位置が所望の位置からずれる場合がある。したがって、左前センサシステム4010が車両100に搭載された後、各センサユニットの検出基準位置の再調整が行なわれる。
 本実施形態においては、カメラユニット4014、ミリ波レーダユニット4015、およびLiDARセンサユニット4016が共通の支持部材4021に支持されている。そのため、調節機構4022の操作を通じて、各センサユニットの検出基準位置の調節を一括して行なえる。したがって、車両100に搭載されるセンサユニットの数が増加しても、車両100に対する各センサユニットの検出基準位置を調節する作業の負担を軽減できる。
 調節機構4022の一例として説明した上記の各エイミングスクリューは、外部からの操作信号により動作するアクチュエータによって置き換えられうる。これに加えてあるいは代えて、調節機構4022は、支持部材4021の垂直面内における位置を調節するアクチュエータを含みうる。例えば、車両100の左右方向に対応する向きの支持部材4021の位置を調節するアクチュエータと、車両100の上下方向に対応する向きの支持部材4021の位置を調節するアクチュエータを含みうる。
 図31に示されるように、左前センサシステム4010は、第一エクステンション部材4023を備えている。「エクステンション部材」とは、収容室4013内に配置されている構造の一部を覆い隠して車両100の外側から視認できないようにする意匠部品である。図35は、左前センサシステム4010の一部を、車両100の前方から見た外観を示している。
 第一エクステンション部材4023は、カメラユニット4014とミリ波レーダユニット4015の間に配置されている第一部分4231を有している。第一部分4231の存在により、カメラユニット4014とミリ波レーダユニット4015の間に位置している内部配線や内部部品を車両100の外部から視認不能にできる。第一部分4231は、遮熱部材や緩衝部材としても利用可能である。第一部分4231の位置を適宜に選択することにより、カメラユニット4014への内部反射光の侵入を阻止する遮光部材としても利用可能である。
 第一エクステンション部材4023は、ミリ波レーダユニット4015とLiDARセンサユニット4016の間に配置されている第二部分4232を有している。第二部分4232の存在により、ミリ波レーダユニット4015とLiDARセンサユニット4016の間に位置している内部配線や内部部品を車両100の外部から視認不能にできる。第二部分4232は、遮熱部材や緩衝部材としても利用可能である。
 図31と図35に示されるように、左前センサシステム4010は、第二エクステンション部材4024を備えている。第二エクステンション部材4024は、開口4241を有している。開口4241は、カメラユニット4014、ミリ波レーダユニット4015、およびLiDARセンサユニット4016の調節機構4022による変位を許容する空間を区画している。すなわち、第二エクステンション部材4024と各センサユニットの相対位置は可変である。
 第二エクステンション部材4024の開口4241は、第一エクステンション部材4023よりも車両100の外側に対応する位置に配置されている。第一エクステンション部材4023は、車両100の内側に対応する側から見て開口4241を覆う部分を有している。第一エクステンション部材4023は、支持部材4021に固定されている。すなわち、第二エクステンション部材4024と各センサユニットの相対位置は不変である。
 このような構成によれば、カメラユニット4014、ミリ波レーダユニット4015、およびLiDARセンサユニット4016の調節機構4022による変位を許容しつつも、各センサユニットの周辺に位置している内部配線や内部部品を車両100の外部から視認不能にできる。
 上記の第十七実施形態は、本開示の理解を容易にするための例示にすぎない。第十七実施形態に係る構成は、本開示の趣旨を逸脱しなければ、適宜に変更・改良されうる。
 第十七実施形態においては、カメラユニット4014の前端4141、ミリ波レーダユニット4015の前端4151、およびLiDARセンサユニット4016の前端4161は、車両100の上下方向に対応する向きに揃っている。
 しかしながら、図36に示されるような構成も採用されうる。具体的には、ミリ波レーダユニット4015の前端4151が、カメラユニット4014の前端4141よりも車両100の前後方向における後方(車両100の内側)に位置している。同様に、LiDARセンサユニット4016の前端4161が、ミリ波レーダユニット4015の前端4151よりも車両100の前後方向における後方(車両100の内側)に位置している。すなわち、収容室4013におけるより上方の位置に配置されるセンサユニットは、収容室4013におけるより下方の位置に配置されるセンサユニットよりも車両100の前後方向における後方(車両100の内側)に位置している。
 収容室4013を区画している透光カバー4012は、上方に向かうにつれて車両100の内側へ湾曲する形状を有していることが一般的である。当該形状に沿うように複数のセンサユニットをオフセット配置することにより、収容室4013の空間利用効率を向上できる。これにより、図31に示される収容室4013の下後部に対応する空間は、レイアウト自由度が増した空間として左前センサシステム4010の他の構成部品の占有スペースとして利用してもよいし、図36に示されるように収容室4013の形状を変更することにより、車両100側の部品の占有スペースとして利用可能としてもよい。
 第十七実施形態における収容室4013は、ランプユニットが収容される灯室でありうる。この場合においても、左前センサシステム4010に含まれる複数のセンサユニットが車両100の上下方向に対応する向きに配列されているため、ランプユニットが配置される空間を確保しやすい。
 第十七実施形態においては、収容室4013に三つのセンサユニットが収容されており、それらの種別が相違している。しかしながら、収容室4013に収容されるセンサユニットの数は、二つ以上の任意の数とされうる。また、収容室4013に収容されるセンサユニットの種別は、重複を許容するように適宜に選択されうる。収容室4013に収容される複数のセンサユニットがカメラユニットおよびランプユニットを含まない場合、透光カバー4012は、可視光について透明でなくてもよい。
 第十七実施形態においては、カメラユニット4014の検出範囲CD、ミリ波レーダユニット4015の検出範囲MD、およびLiDARセンサユニット4016の検出範囲LDの全てについて、車両100の上下方向に対応する第一方向よりも当該第一方向に直交する向きに対応する第二方向について広い検出範囲を有している。しかしながら、当該条件は、左前センサシステム4010に含まれる複数のセンサユニットの少なくとも一つについて成立していればよい。その場合においても、図33と図34を参照して説明した効果は得られる。
 第十七実施形態においては、左前センサシステム4010に含まれる複数のセンサユニットの検出範囲は、少なくとも車両100の前方に位置している。これに加えてあるいは代えて、左前センサシステム4010は、少なくとも車両100の左方に検出範囲を有する複数のセンサユニットを備えうる。
 左前センサシステム4010の構成は、左後センサシステムにも適用可能である。左後センサシステムは、図2に示される車両100の左後隅部LBに搭載される。左後センサシステムの基本的な構成は、左前センサシステム4010と前後対称でありうる。但し、各センサユニットの仕様は、適宜に変更されうる。
 左前センサシステム4010の構成は、右後センサシステムにも適用可能である。右後センサシステムは、図2に示される車両100の右後隅部RBに搭載される。右後センサシステムの基本的な構成は、上述の左後センサシステムと左右対称である。
 図37は、第十八実施形態に係るセンサシステム5001の構成を模式的に示している。センサシステム5001は、左前照明装置5011LF、右前照明装置5011RF、左後照明装置5011LR、および右後照明装置5011RRを備えている。センサシステム5001は、図2に示される車両100に搭載される。左前照明装置5011LFは、車両100の左前隅部LFに搭載される。右前照明装置5011RFは、車両100の右前隅部RFに搭載される。左後照明装置5011LRは、車両100の左後隅部LBに搭載される。右後照明装置5011RRは、車両100の右後隅部RBに搭載される。
 左前照明装置5011LFは、左前灯室5012LFを区画するハウジングと透光カバーを備えている。右前照明装置5011RFは、右前灯室5012RFを区画するハウジングと透光カバーを備えている。左後照明装置5011LRは、左後灯室5012LRを区画するハウジングと透光カバーを備えている。右後照明装置5011RRは、右後灯室5012RRを区画するハウジングと透光カバーを備えている。
 センサシステム5001は、左前LiDARセンサ5002LF、左前カメラ5003LF、および左前ランプ5004LFを備えている。左前LiDARセンサ5002LF、左前カメラ5003LF、および左前ランプ5004LFは、左前照明装置5011LFの左前灯室5012LF内に配置されている。
 センサシステム5001は、右前LiDARセンサ5002RF、右前カメラ5003RF、および右前ランプ5004RFを備えている。右前LiDARセンサ5002RF、右前カメラ5003RF、および右前ランプ5004RFは、右前照明装置5011RFの右前灯室5012RF内に配置されている。
 センサシステム5001は、左後LiDARセンサ5002LR、左後カメラ5003LR、および左後ランプ5004LRを備えている。左後LiDARセンサ5002LR、左後カメラ5003LR、および左後ランプ5004LRは、左後照明装置5011LRの左後灯室5012LR内に配置されている。
 センサシステム5001は、右後LiDARセンサ5002RR、右後カメラ5003RR、および右後ランプ5004RRを備えている。右後LiDARセンサ5002RR、右後カメラ5003RR、および右後ランプ5004RRは、右後照明装置5011RRの右後灯室5012RR内に配置されている。
 センサシステム5001は、制御部5005を備えている。制御部5005は、プロセッサとメモリを備えている。プロセッサの例としては、CPUやMPUが挙げられる。メモリは、プロセッサにより実行可能な命令を記憶している。メモリの例としては、各種の命令が記憶されたROMや、プロセッサにより実行される各種命令が記憶されるワークエリアを有しているRAMが挙げられる。制御部5005は、車両100に搭載されたECUが備えているプロセッサとメモリによって構成されてもよいし、ASICやFPGAなどの専用デバイスによって構成されてもよい。
 制御部5005は、左前LiDARセンサ5002LF、右前LiDARセンサ5002RF、左後LiDARセンサ5002LR、および右後LiDARセンサ5002RRの各々と通信可能に構成されている。通信は、有線接続を介して電気的あるいは光学的に行なわれてもよいし、無線通信を介して非接触に行なわれてもよい。
 左前LiDARセンサ5002LF、右前LiDARセンサ5002RF、左後LiDARセンサ5002LR、および右後LiDARセンサ5002RRの各々は、非可視光を出射する構成、および当該非可視光が車両100の外部に存在する物体に反射した結果の戻り光を検出する構成を備えている。すなわち、左前LiDARセンサ5002LF、右前LiDARセンサ5002RF、左後LiDARセンサ5002LR、および右後LiDARセンサ5002RRの各々は、車両100の外部の情報を検出するセンサである。本実施形態においては、非可視光として波長905nmの赤外光が使用される。
 左前LiDARセンサ5002LF、右前LiDARセンサ5002RF、左後LiDARセンサ5002LR、および右後LiDARセンサ5002RRの各々は、例えば、所定の方向へ非可視光を出射したタイミングから戻り光を検出するまでの時間に基づいて、当該戻り光に関連付けられた物体までの距離を取得できる。また、そのような距離データを検出位置と関連付けて集積することにより、戻り光に関連付けられた物体の形状に係る情報を取得できる。これに加えてあるいは代えて、出射光と戻り光の波長の相違に基づいて、戻り光に関連付けられた物体の材質などの属性に係る情報を取得できる。
 左前LiDARセンサ5002LF、右前LiDARセンサ5002RF、左後LiDARセンサ5002LR、および右後LiDARセンサ5002RRの各々は、検出された戻り光の属性(強度や波長など)に対応する検出信号を出力するように構成されている。上記の情報は、左前LiDARセンサ5002LF、右前LiDARセンサ5002RF、左後LiDARセンサ5002LR、および右後LiDARセンサ5002RRの各々より出力された検出信号が制御部5005によって適宜に処理されることにより取得される。
 左前カメラ5003LF、右前カメラ5003RF、左後カメラ5003LR、および右後カメラ5003RRの各々は、車両100の外部における所定の領域を撮影する装置である。すなわち、左前カメラ5003LF、右前カメラ5003RF、左後カメラ5003LR、および右後カメラ5003RRの各々は、車両100の外部の情報を検出するセンサとして機能する。制御部5005は、左前カメラ5003LF、右前カメラ5003RF、左後カメラ5003LR、および右後カメラ5003RRの各々と通信可能に構成されている。通信は、有線接続を介して電気的あるいは光学的に行なわれてもよいし、無線通信を介して非接触に行なわれてもよい。
 左前カメラ5003LF、右前カメラ5003RF、左後カメラ5003LR、および右後カメラ5003RRの各々は、撮影された映像に対応する映像信号を出力するように構成されている。左前カメラ5003LF、右前カメラ5003RF、左後カメラ5003LR、および右後カメラ5003RRの各々によって検出された車両100の外部の情報は、映像信号が制御部5005によって適宜に処理されることにより取得される。
 左前ランプ5004LF、右前ランプ5004RF、左後ランプ5004LR、および右後ランプ5004RRの各々は、レンズとリフレクタの少なくとも一方を含む光学系を備えており、所定の方向へ向けて光を出射するように構成されている。左前ランプ5004LF、右前ランプ5004RF、左後ランプ5004LR、および右後ランプ5004RRの各々においては、ランプ光源や発光素子が使用されうる。ランプ光源の例としては、白熱ランプ、ハロゲンランプ、放電ランプ、ネオンランプなどが挙げられる。発光素子の例としては、発光ダイオード、レーザダイオード、有機EL素子などが挙げられる。
 制御部5005は、左前ランプ5004LF、右前ランプ5004RF、左後ランプ5004LR、および右後ランプ5004RRの各々と通信可能に構成されている。通信は、有線接続を介して電気的あるいは光学的に行なわれてもよいし、無線通信を介して非接触に行なわれてもよい。制御部5005は、左前ランプ5004LF、右前ランプ5004RF、左後ランプ5004LR、および右後ランプ5004RRの各々に対して制御信号を出力するように構成されている。左前ランプ5004LF、右前ランプ5004RF、左後ランプ5004LR、および右後ランプ5004RRの各々は、制御部5005から出力された制御信号に応じた発光動作を行なう。
 センサシステム5001は、通信部5006を備えている。通信部5006は、制御部5005と通信可能に構成されている。通信は、有線接続を介して電気的あるいは光学的に行なわれてもよいし、無線通信を介して非接触に行なわれてもよい。制御部5005は、所定のタイミングで通信部5006へ制御信号を出力するように構成されている。通信部5006は、当該制御信号に応じてインフラ情報を取得するように構成されている。通信部5006は、取得したインフラ情報を制御部5005へ出力するように構成されている。
 インフラ情報は、道路に関する情報と道路上の建造物に関する情報の少なくとも一方を含みうる。道路に関する情報の例としては、車線数、交差点の存在、横断歩道の存在、高速道路の出入口の存在、カーブの存在などが挙げられる。建造物の例としては、信号機、カーブミラー、歩道橋、バス停、有料道路の料金所などが挙げられる。
 図38を参照しつつ、上記のように構成されたセンサシステム5001の第一の動作例について説明する。
 制御部5005は、所定のタイミングで通信部5006にインフラ情報を取得させる。次いで、制御部5005は、左前LiDARセンサ5002LF、左前カメラ5003LF、右前LiDARセンサ5002RF、右前カメラ5003RF、左後LiDARセンサ5002LR、左後カメラ5003LR、右後LiDARセンサ5002RR、および右後カメラ5003RRの少なくとも一つを通じて取得した車両100の外部の情報と当該インフラ情報を照合する(ステップS11)。
 次に、制御部5005は、通信部5006を通じて取得したインフラ情報が、センサを通じて取得した車両100の外部の情報と一致しているかを判断する(ステップS12)。例えば、インフラ情報が車両100の左前方に信号機の存在を示している場合、左前LiDARセンサ5002LFと左前カメラ5003LFの少なくとも一方が車両100の左前方に信号機の存在を検出しているかを判断する。
 インフラ情報がセンサを通じて取得された情報と一致していると判断された場合(ステップS12においてY)、制御部5005は、照合に関与したセンサが正常であると判断し(ステップS13)、処理を終了する。
 インフラ情報がセンサを通じて取得された情報と一致していないと判断された場合(ステップS12においてN)、制御部5005は、照合に関与したセンサが正常でないと判断する(ステップS14)。
 このような構成によれば、車両100に搭載されて車両100の外部の情報を取得するセンサが正常に動作しているかを自動的に判断できる。加えて、原則として設置場所が変化しないインフラの情報を判断に利用することにより、判断の信頼性を高めることができる。
 図37に破線で示されるように、車両100は、記憶装置5013を備えうる。通信部5006は、記憶装置5013と通信可能とされる。通信は、有線接続を介して電気的あるいは光学的に行なわれてもよいし、無線通信を介して非接触に行なわれてもよい。
 記憶装置5013は、地図情報を記憶している。当該地図情報は、例えば、車両100に搭載されるナビゲーション装置に使用されるものでありうる。当該地図情報は、予め記憶装置5013に記憶されていてもよいし、定期的に、あるいは必要に応じて外部ネットワークからダウンロードされたものであってもよい。
 この場合、制御部5005は、所定のタイミングで通信部5006に記憶装置5013との通信を行なわせる。通信部5006は、記憶装置5013に記憶されている地図情報から上記のインフラ情報を取得する。
 このような構成によれば、車両100の外部環境(天候、明暗、電波状態など)に依らず適宜のインフラ情報を取得し、車両100に搭載されて車両100の外部の情報を取得するセンサが正常に動作しているかを自動的に判断できる。
 なお、車両100の搭乗者が所持している携帯情報端末の記憶装置に記憶されている地図情報からインフラ情報を取得することもできる。本明細書においては、この記憶装置を「車両に搭載された記憶装置」とみなす。
 通信部5006は、車両100の外部との通信を通じてインフラ情報を取得してもよい。このような通信の例としては、いわゆる車車間通信、いわゆる路車間通信、外部ネットワークとの無線通信が挙げられる。
 車車間通信の場合、通信部5006は、車両100の前方を走行している車両(先行車両あるいは対向車両)との無線通信を通じてインフラ情報を取得する。前方を走行している車両は、車両100がこれから到達する場所の情報を既に保有している蓋然性が高い。そのような車両から当該場所へ到達する前に当該情報を取得できる。
 路車間通信の場合、通信部5006は、道路インフラ(信号機、横断歩道、カーブミラーなど)に埋設された装置との無線通信を通じて当該道路インフラ自体の情報を取得する。
 あるいは、通信部5006は、地図情報や道路情報を提供している外部ネットワーク上のエンティティとの無線通信を通じて、インフラ情報を取得できる。
 このような構成によれば、よりリアルタイム性の高いインフラ情報を取得し、車両100に搭載されて車両100の外部の情報を取得するセンサが正常に動作しているかを自動的に判断できる。
 制御部5005が通信部5006にインフラ情報を取得させる所定のタイミングの例としては、定期的、ユーザ指示の入力時、インフラ情報を提供している道路インフラの検出時が挙げられる。
 好ましくは、車両100が停車したときにインフラ情報の取得が行なわれる。例えば、交差点における信号待ちのための停車時にインフラ情報の取得が行なわれる。この場合、車両100とインフラの相対速度が零である状況下でセンサによる情報取得がなされるため、情報の正確性を向上できるだけでなく処理負荷の増大を抑制できる。
 図38に破線で示されるように、センサが正常でないと判断されると、制御部5005は、報知処理(ステップS15)と自動運転支援の解除処理(ステップS16)の少なくとも一方を車両100に実行させうる。
 報知処理は、車両100に搭載されている設備を通じて視覚的報知、聴覚的報知、および触覚的報知の少なくとも一つが運転者に対して行なわれる。
 自動運転支援は、運転操作(ハンドル操作、加速、減速)、走行環境の監視、および運転操作のバックアップの少なくとも一つを少なくとも部分的に行なう制御処理を意味する。すなわち、衝突被害軽減ブレーキ機能やレーンキープアシスト機能のような部分的な運転支援から完全自動運転動作までを含む意味である。
 ステップS16においては、正常でないと判断されたセンサが関与する運転支援制御のみが無効化されてもよいし、全ての運転支援制御が無効化されてもよい。
 このような構成によれば、センサが正常でない事実を運転者が認識しないまま、当該センサが関与する運転支援制御が継続される事態を回避できる。
 本動作例においては、車両100の外部の情報を検出するセンサとしてLiDARセンサとカメラを例示した。これに加えてあるいは代えて、適宜のセンサが車両100に搭載されうる。そのようなセンサの例としては、ミリ波レーダセンサ、超音波ソナー、非可視光カメラが挙げられる。
 次に図39を参照しつつ、センサシステム5001の第二の動作例について説明する。
 制御部5005は、所定のタイミングで左前ランプ5004LF、右前ランプ5004RF、左後ランプ5004LR、および右後ランプ5004RRを点滅させ、左前カメラ5003LF、右前カメラ5003RF、左後カメラ5003LR、および右後カメラ5003RRからの出力を取得する(ステップS21)。左前ランプ5004LF、右前ランプ5004RF、左後ランプ5004LR、および右後ランプ5004RRの各々は、光源の一例である。このとき、左前カメラ5003LF、右前カメラ5003RF、左後カメラ5003LR、および右後カメラ5003RRは、車両100の外部の明るさに係る情報を取得するセンサとして機能する。
 点滅動作は、左前ランプ5004LF、右前ランプ5004RF、左後ランプ5004LR、および右後ランプ5004RRの少なくとも一つについて行なわれればよい。但し、左前ランプ5004LFが点滅する場合、左前カメラ5003LFからの出力が取得される。同様に、右前ランプ5004RFが点滅する場合、右前カメラ5003RFからの出力が取得される。左後ランプ5004LRが点滅する場合、左後カメラ5003LRからの出力が取得される。右後ランプ5004RRが点滅する場合、右後カメラ5003RRからの出力が取得される。
 制御部5005は、各カメラから取得した出力が、当該カメラに対応付けられた光源の点滅に対応しているかを判断する(ステップS22)。当該カメラが正常であれば、当該カメラからの出力は、当該カメラに対応付けられた光源の点滅に伴う車両100の外部の明るさ変化に対応する。したがって、制御部5005は、光源の点滅と当該光源に対応付けられたカメラからの出力とが対応している場合(ステップS22においてY)、当該カメラが正常であると判断し(ステップS23)、処理を終了する。
 光源の点滅と当該光源に対応付けられたカメラからの出力とが対応していない場合(ステップS22においてN)、制御部5005は、当該カメラが正常でないと判断する(ステップS24)。
 このような構成によれば、車両100に搭載されたカメラが正常に動作しているかを自動的に判断できる。加えて、車両100の外部を照明する光源を判断に利用することにより、低コストで診断システムを構築できる。
 左前ランプ5004LF、右前ランプ5004RF、左後ランプ5004LR、および右後ランプ5004RRの制御部5005による点滅周波数は、人間が点滅を視認できない程度の値として選ばれる。例えば、当該点滅周波数は30Hz以上であり、60Hz以上であることが好ましい。
 このような構成によれば、夜間であっても、車両100の搭乗者だけでなく車両100の周囲に居る者に違和感を与えることなく、車両100に搭載されたカメラが正常に動作しているかを自動的に判断できる。
 制御部5005が左前ランプ5004LF、右前ランプ5004RF、左後ランプ5004LR、および右後ランプ5004RRを点滅させる所定のタイミングの例としては、各光源の点灯開始時、定期的、ユーザ指示の入力時が挙げられる。
 好ましくは、車両100の始動時に左前ランプ5004LF、右前ランプ5004RF、左後ランプ5004LR、および右後ランプ5004RRの点滅動作が行なわれる。この場合、夜間でなくとも、車両100の周囲に居る者に違和感を与えることなく、車両100に搭載されたカメラが正常に動作しているかを自動的に判断できる。加えて、正常でないカメラを搭載したまま運転が開始される事態を回避できる。
 図39に破線で示されるように、左前カメラ5003LF、右前カメラ5003RF、左後カメラ5003LR、および右後カメラ5003RRの少なくとも一つが正常でないと判断されると、制御部5005は、報知処理(ステップS25)と自動運転支援の解除処理(ステップS26)の少なくとも一方を車両100に実行させうる。自動運転支援の定義は、上述の通りである。
 報知処理は、車両100に搭載されている設備を通じて視覚的報知、聴覚的報知、および触覚的報知の少なくとも一つが運転者に対して行なわれる。
 ステップS26においては、正常でないと判断されたカメラが関与する運転支援制御のみが無効化されてもよいし、全ての運転支援制御が無効化されてもよい。
 このような構成によれば、カメラが正常でない事実を運転者が認識しないまま、当該カメラが関与する運転支援制御が継続される事態を回避できる。
 本動作例においては、車両100の外部の明るさに係る情報を検出するセンサとして車載カメラを例示した。これに加えてあるいは代えて、明るさを検出する周知のセンサが車両100に搭載されうる。当該センサが正常であるかの判断は、当該センサの明るさ検出に及ぼす影響が最も高い光源を点滅させることにより行なわれうる。
 次に図40を参照しつつ、センサシステム5001の第三の動作例について説明する。
 制御部5005は、所定のタイミングで左前カメラ5003LF、右前カメラ5003RF、左後カメラ5003LR、および右後カメラ5003RRからの出力を取得し、各カメラの検出情報を照合する(ステップS31)。このとき照合に供される検出情報の例としては、天候や昼夜といった車両100の環境情報が挙げられる。
 制御部5005は、各カメラにより検出された情報が一致しているかを判断する(ステップS32)。全てのカメラが正常であれば、検出された情報は一致する。したがって、制御部5005は、検出された情報が一致している場合(ステップS32においてY)、全てのカメラが正常であると判断し(ステップS33)、処理を終了する。
 検出された情報が一致していない場合(ステップS32においてN)、制御部5005は、いずれかのカメラが正常でないと判断する(ステップS34)。
 このような構成によれば、車両100に搭載されたカメラが正常に動作しているかを自動的かつ容易に判断できる。
 特に判断に供される情報が車両100の環境情報であるため、判断が実行される時機に係る制限が少ない。加えて、環境情報は、物体の検出などと比較して検出結果に大きな差異が生じにくい。そのような情報を対象として検出結果が一致しない場合、深刻度の高い異常が予想される。よって、より深刻度の高い異常を発見できる。
 制御部5005が左前カメラ5003LF、右前カメラ5003RF、左後カメラ5003LR、および右後カメラ5003RRによる検出結果を照合する所定のタイミングの例としては、車両の始動時やユーザ指示の入力時が挙げられる。
 好ましくは、制御部5005による各カメラからの検出結果の照合が定期的に行なわれる。この場合、車載カメラの自己定期診断システムを容易に構築できる。
 図40に破線で示されるように、左前カメラ5003LF、右前カメラ5003RF、左後カメラ5003LR、および右後カメラ5003RRの少なくとも一つが正常でないと判断されると、制御部5005は、報知処理(ステップS35)と自動運転支援の解除処理(ステップS36)の少なくとも一方を車両100に実行させうる。自動運転支援の定義は、上述の通りである。
 報知処理は、車両100に搭載されている設備を通じて視覚的報知、聴覚的報知、および触覚的報知の少なくとも一つが運転者に対して行なわれる。
 ステップS36においては、正常でないと判断されたカメラが関与する運転支援制御のみが無効化されてもよいし、全ての運転支援制御が無効化されてもよい。
 このような構成によれば、カメラが正常でない事実を運転者が認識しないまま、当該カメラが関与する運転支援制御が継続される事態を回避できる。
 本動作例においては、四つのカメラから取得された車両100の環境情報同士を照合することにより、当該四つのカメラの全てが正常であるかを判断している。しかしながら、車両100の異なる部分に搭載されて同一の情報を検出する少なくとも二つのセンサについて同様の処理が実行されうる。
 例えば、車両100の右方に壁が存在することが明らかである場合、右前LiDARセンサ5002RFと右後LiDARセンサ5002RRは当該壁の存在を検出できるはずである。この場合、制御部5005は、右前LiDARセンサ5002RFと右後LiDARセンサ5002RRに検出された情報同士を照合する。両者が一致していれば、両センサが正常に動作していると判断できる。両者が一致していなければ、両センサのいずれかが正常でないと判断できる。
 また、車両100の異なる部分に搭載されて同一の情報を検出できるのであれば、取得される情報の種別に応じて使用されるセンサも適宜に選択されうる。例えば、ミリ波レーダセンサ、超音波ソナー、非可視光カメラ、明るさセンサ、温度センサなどが挙げられる。
 異なるセンサにより取得された情報が一致していないことの判断は、完全一致していない場合に限られない。当該情報が数値的に表現されうる場合、第一のセンサより取得された値と第二のセンサより取得された値の差が所定の閾値以上であるときに両者が一致しないと判断されうる。すなわち、両センサから取得された値の差が当該閾値未満である場合、両センサにより取得された情報は一致していると判断されうる。
 情報の一致性の判断の結果として第一のセンサと第二のセンサのいずれかが正常でないと判断された場合、さらに第三のセンサにより取得された情報との一致性が判断されてもよい。これにより、第一のセンサと第二のセンサのいずれが異常なのかを特定しうる。
 上記の第十八実施形態は、本開示の理解を容易にするための例示にすぎない。第十八実施形態に係る構成は、本開示の趣旨を逸脱しなければ、適宜に変更・改良されうる。
 第一の動作例のみが実行されるのであれば、センサシステム5001は、左前ランプ5004LF、右前ランプ5004RF、左後ランプ5004LR、および右後ランプ5004RRを含むことを要しない。
 第二の動作例のみが実行されるのであれば、センサシステム5001は、左前LiDARセンサ5002LF、右前LiDARセンサ5002RF、左後LiDARセンサ5002LR、右後LiDARセンサ5002RR、および通信部5006を含むことを要しない。
 第三の動作例のみが実行されるのであれば、センサシステム5001は、左前ランプ5004LF、右前ランプ5004RF、左後ランプ5004LR、右後ランプ5004RR、および通信部5006を含むことを要しない。
 図41は、第十九実施形態に係る左前ランプ装置6010の構成を模式的に示している。左前ランプ装置6010は、図2に示される車両100の左前隅部LFに搭載される。車両100の右前隅部RFには、左前ランプ装置6010と左右対称の構成を有する右前ランプ装置が搭載される。
 左前ランプ装置6010は、ハウジング6011と透光カバー6012を備えている。透光カバー6012は、車両100の外面の一部を形成する。透光カバー6012は、ハウジング6011とともに灯室6013を区画している。
 左前ランプ装置6010は、ランプユニット6014を備えている。ランプユニット6014は、車両100の前方を含む領域に向けて光を出射する灯具である。ランプユニット6014は、例えば前照灯である。
 左前ランプ装置6010は、LiDARセンサユニット6015を備えている。LiDARセンサユニット6015は、灯室6013内に配置されている。すなわち、灯室6013は、収容室の一例である。
 LiDARセンサユニット6015は、非可視光を出射する構成、および当該非可視光が少なくとも車両100の前方に存在する物体に反射した結果の戻り光を検出する構成を備えている。車両100の前方は、車両の外部の一例である。LiDARセンサユニット6015は、必要に応じて出射方向(すなわち検出方向)を変更して当該非可視光を掃引する走査機構を備えうる。本実施形態においては、非可視光として波長905nmの赤外光が使用されている。
 LiDARセンサユニット6015は、例えば、ある方向へ非可視光を出射したタイミングから戻り光を検出するまでの時間に基づいて、当該戻り光に関連付けられた物体までの距離を取得できる。また、そのような距離データを検出位置と関連付けて集積することにより、戻り光に関連付けられた物体の形状に係る情報を取得できる。これに加えてあるいは代えて、出射光と戻り光の波長の相違に基づいて、戻り光に関連付けられた物体の材質などの属性に係る情報を取得できる。
 すなわち、LiDARセンサユニット6015は、少なくとも車両100の前方の距離を含む情報を検出するセンサである。LiDARセンサユニット6015は、検出された戻り光の属性(強度や波長など)に対応するデータを出力する。
 左前ランプ装置6010は、処理部6016を備えている。上記の情報は、LiDARセンサユニット6015より出力されたデータが処理部6016によって適宜に処理されることにより取得される。LiDARセンサユニット6015と処理部6016は、センサシステムを構成する。
 処理部6016は、プロセッサとメモリを備えている。プロセッサの例としては、CPU、MPU、GPUが挙げられる。プロセッサは、複数のプロセッサコアを含みうる。メモリの例としては、ROMやRAMが挙げられる。ROMには、上記の処理を実行するプログラムが記憶されうる。当該プログラムは、人工知能プログラムを含みうる。人工知能プログラムの例としては、ディープラーニングによる学習済みニューラルネットワークが挙げられる。プロセッサは、ROMに記憶されたプログラムの少なくとも一部を指定してRAM上に展開し、RAMと協働して上記の処理を実行しうる。
 具体的には、処理部6016は、LiDARセンサユニット6015の検出結果に基づく処理を行なうにあたって、LiDARセンサユニット6015から所定の距離よりも近い空間に対応するデータを除外するように構成されている。
 図42において、一点鎖線で囲まれた領域Aは、LiDARセンサユニット6015の検出範囲を示している。破線E1は、LiDARセンサユニット6015から所定の距離にある点の集合である。所定の距離は、当該距離よりも近くにおいては想定される検出対象(歩行者や衝突可能性のある物体など)が存在しないであろう値として定められる。
 処理部6016は、破線E1よりもLiDARセンサユニット6015に近い空間に対応するデータを一律的に除外する。すなわち、領域Aのうち斜線が付された部分に対応するデータのみが情報取得に係る処理に供される。
 このような構成によれば、車両100の外部の情報を取得するための処理に供されるデータ量が減り、処理負荷の増大を抑制できる。また、LiDARセンサユニット6015から出力されるデータの一部が、予め定められた距離に基づいて一律的に処理対象から除外されるため、データの選別に係る判断処理を省略できる。このことによっても、処理負荷の増大を抑制できる。
 破線E1は、検出方向に依らずLiDARセンサユニット6015からの距離が一定である点の集合である。しかしながら、データ処理の対象から除外されるLiDARセンサユニット6015からの距離は、検出方向に応じて変化してもよい。破線E2は、そのような例を示している。破線E2の形状は、想定される検出対象に応じて適宜に定められる。
 このような構成によれば、処理負荷の増大を抑制しつつ、より複雑な情報検出にも柔軟に対応できる。
 図42から判るように、破線E1またはE2よりもLiDARセンサユニット6015に近い領域は、左前ランプ装置6010の透光カバー6012を含んでいる。透光カバー6012の存在は、LiDARセンサユニット6015によって検出されうる。しかしながら、透光カバー6012それ自体とその内側(すなわち灯室6013内)は、車両100の外部の情報取得における必要性は低い。
 したがって、上記の所定の距離は、LiDARセンサユニット6015から透光カバー6012の外面6012a(図41参照)までの距離とされうる。この場合、車両100の外部の情報取得に際して透光カバー6012の存在を考慮する必要がなくなり、処理負荷の増大を抑制できる。
 図41に示される例においては、検出方向に応じてLiDARセンサユニット6015から透光カバー6012の外面6012aまでの距離が変化している。しかしながら、透光カバー6012の形状は既知であるため、容易にデータ除外のための距離を設定できる。
 処理部6016は、透光カバー6012の外面6012aにおけるLiDARセンサユニット6015による検出結果の経時変化を取得するように構成されうる。
 この場合、透光カバー6012の外面6012aに付着した水滴や汚れ、透光カバー6012の外面6012aに形成された傷などを検出できる。処理部6016は、このようにして検出された結果を、車両100の外部の情報を取得する処理の対象から除外できる。これにより、水滴、汚れ、傷などが車両100の外部の情報取得に与える影響を排除して処理負荷の増大を抑制できる。
 図41に破線で示されるように、左前ランプ装置6010は、カメラユニット6017を備えうる。カメラユニット6017は、灯室6013内に配置されている。カメラユニット6017は、車両100の前方を含む領域の画像情報を取得するための装置である。
 カメラユニット6017は、取得した画像情報に対応するデータを出力する。画像情報は、カメラユニット6017より出力されたデータが処理部6016によって適宜に処理されることにより取得される。
 この場合、処理部6016は、前述したLiDARセンサユニット6015による検出結果の経時変化を参照しつつ、カメラユニット6017から出力されたデータに基づく車両100の外部の情報を取得するように構成されうる。
 カメラユニット6017から出力される画像データには、原理上、距離情報が含まれていない。したがって、透光カバー6012の外面6012a上の水滴、汚れ、傷などが、カメラユニット6017により取得される画像に写り込む場合がある。LiDARセンサユニット6015により検出された水滴、汚れ、傷などの存在を参照することにより、画像データ中から当該水滴、汚れ、傷などを検出する処理が不要になり、処理負荷の増大を抑制できる。
 左前ランプ装置6010の構成は、左後ランプ装置にも適用可能である。左後ランプ装置は、図2に示される車両100の左後隅部LBに搭載される。左後ランプ装置の基本的な構成は、左前ランプ装置6010と前後対称でありうる。但し、ランプユニット6014とLiDARセンサユニット6015の仕様は、適宜に変更されうる。
 左前ランプ装置6010の構成は、右後ランプ装置にも適用可能である。右後ランプ装置は、図2に示される車両100の右後隅部RBに搭載される。右後ランプ装置の基本的な構成は、上述の左後ランプ装置と左右対称である。
 上記の第十九実施形態は、本開示の理解を容易にするための例示にすぎない。第十九実施形態に係る構成は、本開示の趣旨を逸脱しなければ、適宜に変更・改良されうる。
 LiDARセンサユニット6015に加えてあるいは代えて、ミリ波レーダユニットが灯室6013内に収容されうる。ミリ波レーダユニットは、ミリ波を発信する構成、および当該ミリ波が車両100の外部に存在する物体に反射した結果の反射波を受信する構成を備えている。ミリ波の周波数の例としては、24GHz、26GHz、76GHz、79GHzなどが挙げられる。
 ミリ波レーダユニットは、例えば、ある方向へミリ波を発信したタイミングから反射波を受信するまでの時間に基づいて、当該反射波に関連付けられた物体までの距離を取得できる。また、そのような距離データを検出位置と関連付けて集積することにより、反射波に関連付けられた物体の動きに係る情報を取得できる。すなわち、ミリ波レーダユニットは、車両100の外部の距離を含む情報を検出するセンサユニットの一例である。
 ミリ波レーダユニットは、検出された反射波の属性(強度や波長など)に対応するデータを出力する。上記の情報は、ミリ波レーダユニットより出力されたデータが処理部6016によって適宜に処理されることにより取得される。
 左前ランプ装置6010は、ランプユニット6014を備えない左前センサ装置として構成されうる。カメラユニット6017も備えないのであれば、透光カバー6012は、可視光について透明であることを要しない。
 上記の実施形態においては、左前ランプ装置6010が処理部6016を備えている。しかしながら、処理部6016の機能の少なくとも一部は、図2に破線で示される制御装置101によって実現されうる。制御装置101の例としては、ECUが挙げられる。ECUは、ASICやFPGAなどの集積回路によって構成されてもよいし、マイクロコントローラと集積回路の組合せによって構成されてもよい。
 本出願の記載の一部を構成するものとして、2017年7月24日に提出された日本国特許出願2017-142753号、2017年7月25日に提出された日本国特許出願2017-143576号、2017年8月4日に提出された日本国特許出願2017-151425号、2017年8月17日に提出された日本国特許出願2017-157566号、2017年8月30日に提出された日本国特許出願2017-165462号、および2017年10月26日に提出された日本国特許出願2017-207339号の内容が援用される。

Claims (33)

  1.  車両に搭載されるランプ装置であって、
     ハウジングと、
     灯具を収容するための灯室を前記ハウジングとともに区画し、前記車両の外面の一部を形成するカバーと、
     前記灯室内に配置されており、前記車両の外部の情報を検出するセンサと、
     前記カバーが位置している側から前記センサの少なくとも一部を覆うように前記灯室内に配置されている光学部材と、
    を備えており、
     前記カバーは、可視光に対して第一の透明性を有しており、
     前記光学部材は、前記可視光に対して前記第一の透明性より低い第二の透明性を少なくとも一時的に有する低透明部を備えている、
    ランプ装置。
  2.  前記光学部材は、発光により前記低透明部を形成するように構成されている、
    請求項1に記載のランプ装置。
  3.  前記光学部材は、前記灯具としても機能する、
    請求項2に記載のランプ装置。
  4.  前記灯室内に配置されており、前記光学部材を発光させる光源と、
     前記灯室内に配置されており、前記光源、前記センサ、および前記光学部材の相対位置関係を維持するように、前記光源、前記センサ、および前記光学部材を支持している支持部材と、
     前記支持部材の位置と姿勢の少なくとも一方を調節する調節機構と、
    を備えている、
    請求項2に記載のランプ装置。
  5.  前記センサは、前記低透明部による反射を利用して前記情報を検出するように構成されている、
    請求項1に記載のランプ装置。
  6.  前記灯室内に配置されており、前記センサと前記光学部材の相対位置関係を維持するように前記センサと前記光学部材を支持している支持部材と、
     前記支持部材の位置と姿勢の少なくとも一方を調節する調節機構と、
    を備えている、
    請求項1または5に記載のランプ装置。
  7.  車両に搭載されるセンサシステムであって、
     ハウジングと、
     前記ハウジングとともに収容空間を区画する透明カバーと、
     前記収容空間内に配置されており、前記車両の外部の情報を検出するセンサと、
     前記収容空間内における前記センサの動作を妨げない位置に配置されており、前記センサの動作と連携して発光する発光体と、
    を備えている、
    センサシステム。
  8.  前記発光体は、前記車両の外方から見て前記センサを包囲しているように見える位置に設けられている、
    請求項7に記載のセンサシステム。
  9.  前記発光体は、前記車両が運転支援動作を行なっているときに発光する、
    請求項7または8に記載のセンサシステム。
  10.  前記発光体は、導光部材である、
    請求項7から9のいずれか一項に記載のセンサシステム。
  11.  前記発光体は、光源である、
    請求項7から9のいずれか一項に記載のセンサシステム。
  12.  前記センサの動作を制御する制御部と、
     前記光源、前記センサ、および前記制御部の相対位置関係を維持するように支持している支持部材と、
    を備えている、
    請求項11に記載のセンサシステム。
  13.  前記支持部材の前記車両に対する位置と姿勢の少なくとも一方を調節する調節機構を備えている、
    請求項12に記載のセンサシステム。
  14.  車両に搭載されるセンサ装置であって、
     ハウジングと、
     収容室を前記ハウジングとともに区画し、前記車両の外面の一部を形成するカバーと、
     前記収容室内に配置されており、検出光を用いて前記車両の外部の情報を検出するセンサユニットと、
     前記カバーの外面、前記カバーの内面、および前記カバーと前記センサユニットの間に位置する空間の少なくとも一つに設けられており、前記検出光の進行方向を変化させる光制御面と、
    を備えている、
    センサ装置。
  15.  車両に搭載されるセンサシステムであって、
     ハウジングと、
     前記ハウジングと共に収容室を区画し、前記車両の外面の一部を形成するカバーと、
     前記収容室内に配置されており、各々が前記車両の外部の情報を検出する複数のセンサユニットと、
    を備えており、
     前記複数のセンサユニットの少なくとも一つは、前記車両の上下方向に対応する第一方向よりも当該第一方向に直交する向きに対応する第二方向について広い検出範囲を有しており、
     前記複数のセンサユニットは、前記第一方向に配列されている、
    センサシステム。
  16.  車両に搭載されるセンサシステムであって、
     前記車両の外部の情報を検出するセンサと、
     通信を介してインフラ情報を取得する通信部と、
     所定のタイミングで前記センサが検出した情報と前記通信部が取得したインフラ情報を照合し、不一致である場合に前記センサが正常でないと判断する制御部と、
    を備えている、
    センサシステム。
  17.  前記通信部は、車両に搭載された記憶装置に記憶されている地図情報から前記インフラ情報を取得する、
    請求項16に記載のセンサシステム。
  18.  前記通信部は、前記車両の外部との通信を通じて前記インフラ情報を取得する、
    請求項16に記載のセンサシステム。
  19.  前記所定のタイミングは、前記車両が停車したときである、
    請求項16から18のいずれか一項に記載のセンサシステム。
  20.  前記センサが正常でないと判断されると、前記制御部は、報知処理と自動運転支援の解除処理の少なくとも一方を前記車両に実行させる、
    請求項16から19のいずれか一項に記載のセンサシステム。
  21.  車両に搭載されるセンサシステムであって、
     前記車両の外部の明るさに係る情報を検出するセンサと、
     前記車両の外部を照明する光源と、
     所定のタイミングで前記光源を点滅させ、前記センサからの出力を取得する制御部と、
    を備えており、
     前記制御部は、前記センサからの出力が前記点滅に対応していない場合に当該センサが正常でないと判断する、
    センサシステム。
  22.  前記点滅は、人間が視認できない程度の周波数で繰り返される、
    請求項21に記載のセンサシステム。
  23.  前記所定のタイミングは、前記車両の始動時である、
    請求項21または22のセンサシステム。
  24.  前記センサが正常でないと判断されると、前記制御部は、報知処理と自動運転解除処理の少なくとも一方を前記車両に実行させる、
    請求項21から23のいずれか一項に記載のセンサシステム。
  25.  車両に搭載されるセンサシステムであって、
     前記車両の第一部分に搭載されて当該車両の外部の情報を検出する第一センサと、
     前記車両の第二部分に搭載されて当該車両の外部の情報を検出する第二センサと、
     所定のタイミングで前記第一センサが検出した情報と前記第二センサが検出した情報を照合し、不一致である場合に前記第一センサと前記第二センサのいずれかが正常でないと判断する制御部と、
    を備えている、
    センサシステム。
  26.  前記外部の情報は、環境情報である、
    請求項25に記載のセンサシステム。
  27.  前記所定のタイミングは、定期的である、
    請求項25または26に記載のセンサシステム。
  28.  前記第一センサと前記第二センサのいずれかが正常でないと判断されると、前記制御部は、報知処理と自動運転解除処理の少なくとも一方を前記車両に実行させる、
    請求項25から27のいずれか一項に記載のセンサシステム。
  29.  車両に搭載されるセンサシステムであって、
     距離を含む前記車両の外部の情報を検出し、当該情報に対応するデータを出力するセンサユニットと、
     前記データを処理して前記情報を取得する処理部と、
    を備えており、
     前記処理部は、前記センサユニットから所定の距離よりも近い空間に対応するデータを除いて処理を行なう、
    センサシステム。
  30.  前記所定の距離は、前記センサユニットの検出方向に応じて異なる、
    請求項29に記載のセンサシステム。
  31.  前記所定の距離は、前記センサユニットを収容する収容室を区画するカバーの外面までの距離である、
    請求項29または30に記載のセンサシステム。
  32.  前記処理部は、前記所定の距離における前記センサユニットによる検出結果の経時変化を取得する、
    請求項31に記載のセンサシステム。
  33.  前記車両の外部の画像を取得するカメラユニットを備えており、
     前記処理部は、前記経時変化を参照しつつ、前記画像に基づいて前記車両の外部の情報を取得する、
    請求項32に記載のセンサシステム。
PCT/JP2018/023263 2017-07-24 2018-06-19 ランプ装置、センサシステム、およびセンサ装置 WO2019021693A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP18838790.6A EP3659861A4 (en) 2017-07-24 2018-06-19 LAMP-TYPE DEVICE, SENSOR SYSTEM AND SENSOR-TYPE DEVICE
CN201880048549.4A CN110997406B (zh) 2017-07-24 2018-06-19 灯装置、传感器系统以及传感器装置
US16/633,465 US11333743B2 (en) 2017-07-24 2018-06-19 Lamp device, sensor system, and sensor device
JP2019532441A JP7096823B2 (ja) 2017-07-24 2018-06-19 ランプ装置

Applications Claiming Priority (12)

Application Number Priority Date Filing Date Title
JP2017142753 2017-07-24
JP2017-142753 2017-07-24
JP2017-143576 2017-07-25
JP2017143576 2017-07-25
JP2017151425 2017-08-04
JP2017-151425 2017-08-04
JP2017-157566 2017-08-17
JP2017157566 2017-08-17
JP2017165462 2017-08-30
JP2017-165462 2017-08-30
JP2017207339 2017-10-26
JP2017-207339 2017-10-26

Publications (1)

Publication Number Publication Date
WO2019021693A1 true WO2019021693A1 (ja) 2019-01-31

Family

ID=65041316

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/023263 WO2019021693A1 (ja) 2017-07-24 2018-06-19 ランプ装置、センサシステム、およびセンサ装置

Country Status (5)

Country Link
US (1) US11333743B2 (ja)
EP (1) EP3659861A4 (ja)
JP (1) JP7096823B2 (ja)
CN (1) CN110997406B (ja)
WO (1) WO2019021693A1 (ja)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020194712A (ja) * 2019-05-29 2020-12-03 本田技研工業株式会社 車両用灯体
US20200386381A1 (en) * 2019-05-29 2020-12-10 Honda Motor Co., Ltd. Lighting body for vehicle
JP2020201216A (ja) * 2019-06-13 2020-12-17 株式会社デンソー レーダ搭載灯具ユニット
WO2021049531A1 (ja) * 2019-09-10 2021-03-18 株式会社小糸製作所 車両用灯具、レーダモジュール、レーダ及び車両
CN113631955A (zh) * 2019-03-29 2021-11-09 欧姆龙株式会社 用于存在感测系统的视觉指示器
JP2022013133A (ja) * 2020-07-03 2022-01-18 トヨタ自動車株式会社 レーザレーダ取付構造
WO2022014417A1 (ja) * 2020-07-15 2022-01-20 株式会社小糸製作所 車両用灯具、アクティブセンサ用の照明装置、ゲーティングカメラ
JP2022099988A (ja) * 2020-12-23 2022-07-05 トヨタ自動車株式会社 車両用センサ取り付け構造及びセンサ制御装置
EP4001016A4 (en) * 2019-07-18 2022-09-14 Koito Manufacturing Co., Ltd. VEHICLE HEADLIGHT, RADAR MODULE AND VEHICLE
JP2022150931A (ja) * 2021-03-26 2022-10-07 本田技研工業株式会社 灯体装置
US11513210B2 (en) * 2019-10-25 2022-11-29 Hyundai Mobis Co., Ltd. Sensor cluster device and vehicle including the same
EP4063721A4 (en) * 2019-12-20 2023-01-18 Stanley Electric Co., Ltd. LAMP DEVICE
WO2023037892A1 (ja) * 2021-09-10 2023-03-16 株式会社デンソー 光検出装置
US11654837B2 (en) 2020-08-27 2023-05-23 Honda Motor Co., Ltd. Sensor for autonomously movable moving body
WO2023120238A1 (ja) * 2021-12-20 2023-06-29 株式会社小糸製作所 車両用灯具および監視装置
WO2023171732A1 (ja) * 2022-03-11 2023-09-14 スタンレー電気株式会社 車両用灯具
WO2023176646A1 (ja) * 2022-03-18 2023-09-21 ソニーグループ株式会社 情報処理装置、情報処理方法及びプログラム

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3637128A1 (de) * 2018-10-10 2020-04-15 Covestro Deutschland AG Umfeldsensor mit beweglicher umlenkeinrichtung für kraftfahrzeuge
JP7192420B2 (ja) * 2018-11-14 2022-12-20 株式会社デンソー レーザレーダ装置
JP7213091B2 (ja) * 2018-12-28 2023-01-26 株式会社小糸製作所 車両用灯具
KR20210101340A (ko) * 2019-01-04 2021-08-19 엘지전자 주식회사 차량용 라이다 장치
US11703570B2 (en) * 2019-09-03 2023-07-18 Ford Global Technologies, Llc Sensor assembly for autonomous vehicle
CN113433567B (zh) * 2020-03-23 2022-09-02 宁波舜宇车载光学技术有限公司 激光雷达和由激光雷达和照灯系统构成的组合系统
CN113819901B (zh) * 2020-06-19 2023-11-07 长鑫存储技术有限公司 光学传感器的姿态调整装置及方法、自动物料运输系统
EP3933435A1 (en) * 2020-06-30 2022-01-05 Leica Geosystems AG Reality capture device with different climate zones for cooling
DE102021118372A1 (de) 2021-07-15 2023-01-19 HELLA Saturnus Slovenia d.o.o. Radarvorrichtung
EP4202290A1 (en) * 2021-12-21 2023-06-28 Valeo Vision Automotive lighting device and automotive vehicle
EP4279948A1 (de) * 2022-05-17 2023-11-22 ZKW Group GmbH Sensorvorrichtung für einen kraftfahrzeugscheinwerfer

Citations (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07129894A (ja) * 1993-11-02 1995-05-19 Honda Motor Co Ltd 車両用情報装置
JP2000236462A (ja) * 1998-12-18 2000-08-29 Aisin Aw Co Ltd 車載撮像装置
JP2000314620A (ja) * 1999-05-06 2000-11-14 Nissan Motor Co Ltd 車両用カメラ
JP2007178310A (ja) * 2005-12-28 2007-07-12 Alpine Electronics Inc 車載システムおよびレーダ故障診断方法
JP2007235863A (ja) * 2006-03-03 2007-09-13 Fujitsu Ltd 撮像装置
JP2007251555A (ja) * 2006-03-15 2007-09-27 Omron Corp 診断装置および方法、プログラム、並びに、記録媒体
JP2009166725A (ja) * 2008-01-17 2009-07-30 Tokai Rika Co Ltd ミラー構造
JP2010135087A (ja) * 2008-12-02 2010-06-17 Koito Mfg Co Ltd 車両用灯具
JP2010185769A (ja) 2009-02-12 2010-08-26 Toyota Motor Corp 物体検出装置
JP2010260379A (ja) * 2009-04-30 2010-11-18 Koito Mfg Co Ltd 撮像素子を内蔵した車両用灯具
JP2011099683A (ja) * 2009-11-04 2011-05-19 Hitachi Automotive Systems Ltd 物体検出装置
JP2016016768A (ja) * 2014-07-09 2016-02-01 株式会社日立製作所 データ送信装置とデータ受信装置及び故障情報表示システム
WO2016194135A1 (ja) * 2015-06-02 2016-12-08 日産自動車株式会社 車両制御装置及び車両制御方法
JP2017102832A (ja) * 2015-12-04 2017-06-08 株式会社Soken 車両ピッチ角推定装置
JP2017142752A (ja) 2016-02-12 2017-08-17 株式会社寺岡精工 Posシステム
JP2017143576A (ja) 2010-02-12 2017-08-17 サン パテント トラスト スケジューリングされていない上りリンク・コンポーネント・キャリアのパワー・ヘッドルーム報告
JP2017151425A (ja) 2016-02-19 2017-08-31 キヤノン株式会社 電子写真感光体、プロセスカートリッジ及び電子写真装置
JP2017157566A (ja) 2012-04-06 2017-09-07 株式会社半導体エネルギー研究所 リチウムイオン電池及びリチウムイオン電池の作製方法
JP2017165462A (ja) 2016-03-17 2017-09-21 王子ホールディングス株式会社 包装袋
JP2017207339A (ja) 2016-05-17 2017-11-24 西日本高速道路エンジニアリング四国株式会社 画像解析を用いた周波数の解析方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US1925200A (en) * 1931-02-02 1933-09-05 Eugene O Miller Auxiliary lighting system for vehicle headlights
US5546284A (en) * 1994-04-19 1996-08-13 Koito Manufacturing Co., Ltd. Automobile headlamp with extension reflector mounted on the front lense
JP4842161B2 (ja) * 2007-01-31 2011-12-21 株式会社小糸製作所 車両用灯具
JP2008226707A (ja) * 2007-03-14 2008-09-25 Koito Mfg Co Ltd 車両用灯具
US8692980B2 (en) * 2010-11-01 2014-04-08 Advanced Scientific Concepts, Inc. Flash LADAR collision avoidance system
US9784839B2 (en) * 2014-11-26 2017-10-10 Magna Electronics Solutions Gmbh Automotive lighting device and a vehicle having the same
JP2019164916A (ja) * 2018-03-19 2019-09-26 株式会社小糸製作所 車両用灯具

Patent Citations (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07129894A (ja) * 1993-11-02 1995-05-19 Honda Motor Co Ltd 車両用情報装置
JP2000236462A (ja) * 1998-12-18 2000-08-29 Aisin Aw Co Ltd 車載撮像装置
JP2000314620A (ja) * 1999-05-06 2000-11-14 Nissan Motor Co Ltd 車両用カメラ
JP2007178310A (ja) * 2005-12-28 2007-07-12 Alpine Electronics Inc 車載システムおよびレーダ故障診断方法
JP2007235863A (ja) * 2006-03-03 2007-09-13 Fujitsu Ltd 撮像装置
JP2007251555A (ja) * 2006-03-15 2007-09-27 Omron Corp 診断装置および方法、プログラム、並びに、記録媒体
JP2009166725A (ja) * 2008-01-17 2009-07-30 Tokai Rika Co Ltd ミラー構造
JP2010135087A (ja) * 2008-12-02 2010-06-17 Koito Mfg Co Ltd 車両用灯具
JP2010185769A (ja) 2009-02-12 2010-08-26 Toyota Motor Corp 物体検出装置
JP2010260379A (ja) * 2009-04-30 2010-11-18 Koito Mfg Co Ltd 撮像素子を内蔵した車両用灯具
JP2011099683A (ja) * 2009-11-04 2011-05-19 Hitachi Automotive Systems Ltd 物体検出装置
JP2017143576A (ja) 2010-02-12 2017-08-17 サン パテント トラスト スケジューリングされていない上りリンク・コンポーネント・キャリアのパワー・ヘッドルーム報告
JP2017157566A (ja) 2012-04-06 2017-09-07 株式会社半導体エネルギー研究所 リチウムイオン電池及びリチウムイオン電池の作製方法
JP2016016768A (ja) * 2014-07-09 2016-02-01 株式会社日立製作所 データ送信装置とデータ受信装置及び故障情報表示システム
WO2016194135A1 (ja) * 2015-06-02 2016-12-08 日産自動車株式会社 車両制御装置及び車両制御方法
JP2017102832A (ja) * 2015-12-04 2017-06-08 株式会社Soken 車両ピッチ角推定装置
JP2017142752A (ja) 2016-02-12 2017-08-17 株式会社寺岡精工 Posシステム
JP2017151425A (ja) 2016-02-19 2017-08-31 キヤノン株式会社 電子写真感光体、プロセスカートリッジ及び電子写真装置
JP2017165462A (ja) 2016-03-17 2017-09-21 王子ホールディングス株式会社 包装袋
JP2017207339A (ja) 2016-05-17 2017-11-24 西日本高速道路エンジニアリング四国株式会社 画像解析を用いた周波数の解析方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3659861A4

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7371698B2 (ja) 2019-03-29 2023-10-31 オムロン株式会社 存在検知システムに対する視覚インジケータ
JP2022527914A (ja) * 2019-03-29 2022-06-07 オムロン株式会社 存在検知システムに対する視覚インジケータ
CN113631955A (zh) * 2019-03-29 2021-11-09 欧姆龙株式会社 用于存在感测系统的视觉指示器
JP2020194712A (ja) * 2019-05-29 2020-12-03 本田技研工業株式会社 車両用灯体
US11708955B2 (en) * 2019-05-29 2023-07-25 Honda Motor Co., Ltd. Lighting body for vehicle
JP7138597B2 (ja) 2019-05-29 2022-09-16 本田技研工業株式会社 車両用灯体
US20200386381A1 (en) * 2019-05-29 2020-12-10 Honda Motor Co., Ltd. Lighting body for vehicle
JP2020201216A (ja) * 2019-06-13 2020-12-17 株式会社デンソー レーダ搭載灯具ユニット
JP7283244B2 (ja) 2019-06-13 2023-05-30 株式会社デンソー レーダ搭載灯具ユニット
US11873964B2 (en) 2019-07-18 2024-01-16 Koito Manufacturing Co., Ltd. Vehicle lamp having radar with concealing part
EP4001016A4 (en) * 2019-07-18 2022-09-14 Koito Manufacturing Co., Ltd. VEHICLE HEADLIGHT, RADAR MODULE AND VEHICLE
WO2021049531A1 (ja) * 2019-09-10 2021-03-18 株式会社小糸製作所 車両用灯具、レーダモジュール、レーダ及び車両
EP4043907A1 (en) * 2019-09-10 2022-08-17 Koito Manufacturing Co., Ltd. Vehicle light fitting, radar module, radar, and vehicle
US11878622B2 (en) 2019-09-10 2024-01-23 Koito Manufacturing Co., Ltd. Vehicle light fitting, radar module, radar, and vehicle
EP4043909A1 (en) * 2019-09-10 2022-08-17 Koito Manufacturing Co., Ltd. Vehicle light fitting, radar module, radar, and vehicle
EP4043908A1 (en) * 2019-09-10 2022-08-17 Koito Manufacturing Co., Ltd. Vehicle light fitting, radar module, radar, and vehicle
US11513210B2 (en) * 2019-10-25 2022-11-29 Hyundai Mobis Co., Ltd. Sensor cluster device and vehicle including the same
EP4063721A4 (en) * 2019-12-20 2023-01-18 Stanley Electric Co., Ltd. LAMP DEVICE
JP7294256B2 (ja) 2020-07-03 2023-06-20 トヨタ自動車株式会社 レーザレーダ取付方法
JP2022013133A (ja) * 2020-07-03 2022-01-18 トヨタ自動車株式会社 レーザレーダ取付構造
WO2022014417A1 (ja) * 2020-07-15 2022-01-20 株式会社小糸製作所 車両用灯具、アクティブセンサ用の照明装置、ゲーティングカメラ
US11654837B2 (en) 2020-08-27 2023-05-23 Honda Motor Co., Ltd. Sensor for autonomously movable moving body
JP7379297B2 (ja) 2020-08-27 2023-11-14 本田技研工業株式会社 移動体
JP2022099988A (ja) * 2020-12-23 2022-07-05 トヨタ自動車株式会社 車両用センサ取り付け構造及びセンサ制御装置
JP7192019B2 (ja) 2021-03-26 2022-12-19 本田技研工業株式会社 灯体装置
JP2022150931A (ja) * 2021-03-26 2022-10-07 本田技研工業株式会社 灯体装置
WO2023037892A1 (ja) * 2021-09-10 2023-03-16 株式会社デンソー 光検出装置
WO2023120238A1 (ja) * 2021-12-20 2023-06-29 株式会社小糸製作所 車両用灯具および監視装置
WO2023171732A1 (ja) * 2022-03-11 2023-09-14 スタンレー電気株式会社 車両用灯具
WO2023176646A1 (ja) * 2022-03-18 2023-09-21 ソニーグループ株式会社 情報処理装置、情報処理方法及びプログラム

Also Published As

Publication number Publication date
CN110997406A (zh) 2020-04-10
JP7096823B2 (ja) 2022-07-06
EP3659861A1 (en) 2020-06-03
CN110997406B (zh) 2023-05-02
JPWO2019021693A1 (ja) 2020-05-28
US11333743B2 (en) 2022-05-17
EP3659861A4 (en) 2021-03-24
US20200174100A1 (en) 2020-06-04

Similar Documents

Publication Publication Date Title
JP7096823B2 (ja) ランプ装置
US10479269B2 (en) Lighting apparatus for vehicle and vehicle having the same
US10047925B2 (en) Headlamp for vehicle
CN110654305B (zh) 图像投射装置和图像投射方法
JP5779028B2 (ja) ヘッドランプの配光制御手段
JP6059910B2 (ja) 灯具制御システムおよび制御装置
US9849827B2 (en) Vehicle headlight system
US11772545B2 (en) Apparatus, system and method for controlling lighting using gated imaging
JP2020093737A (ja) 赤外線カメラシステム及び車両
WO2021200701A1 (ja) 車両用前照灯
JP2021130341A (ja) 車両用灯具
US11285863B2 (en) Lighting apparatus of autonomous vehicle having a mounted lamp box with lamp units and sensing units
JP2023505027A (ja) 自動車の周囲を監視するためのシステム
KR20130136107A (ko) 자동차
WO2022196296A1 (ja) 車両用灯具の制御装置、車両用灯具の制御方法、車両用灯具システム
US11879610B2 (en) Multi-mode lights

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18838790

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019532441

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2018838790

Country of ref document: EP

Effective date: 20200224