WO2017110415A1 - 車両用センサおよびそれを備えた車両 - Google Patents

車両用センサおよびそれを備えた車両 Download PDF

Info

Publication number
WO2017110415A1
WO2017110415A1 PCT/JP2016/085812 JP2016085812W WO2017110415A1 WO 2017110415 A1 WO2017110415 A1 WO 2017110415A1 JP 2016085812 W JP2016085812 W JP 2016085812W WO 2017110415 A1 WO2017110415 A1 WO 2017110415A1
Authority
WO
WIPO (PCT)
Prior art keywords
camera
light source
light
vehicle
imaging
Prior art date
Application number
PCT/JP2016/085812
Other languages
English (en)
French (fr)
Inventor
光治 眞野
Original Assignee
株式会社小糸製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社小糸製作所 filed Critical 株式会社小糸製作所
Priority to JP2017557834A priority Critical patent/JP6766072B2/ja
Priority to CN201680075283.3A priority patent/CN108431632A/zh
Priority to EP16878308.2A priority patent/EP3396412A4/en
Priority to US16/063,795 priority patent/US11040649B2/en
Publication of WO2017110415A1 publication Critical patent/WO2017110415A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/0017Devices integrating an element dedicated to another function
    • B60Q1/0023Devices integrating an element dedicated to another function the element being a sensor, e.g. distance sensor, camera
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • G01S17/18Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves wherein range gates are used
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/87Combinations of systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93277Sensor installation details in the lights

Definitions

  • the present disclosure relates to a vehicle sensor and a vehicle including the same.
  • Patent Document 1 for example, the presence of a forward vehicle such as an oncoming vehicle or a preceding vehicle is detected by a recognition camera disposed on the glass surface behind the rearview mirror of the host vehicle, and the area of the forward vehicle is not irradiated.
  • a vehicle headlamp control system (a so-called ADB (Adaptive Driving Beam) system) for reducing glare to the driver of a preceding vehicle by performing light distribution control of the lamp is disclosed.
  • An object of the present disclosure is to provide a vehicle sensor capable of achieving high-precision detection performance in a wide range from the vicinity of the host vehicle to a distant place at a low cost, and reducing the non-irradiated range as much as possible. It is providing the vehicle provided with.
  • a vehicle sensor includes: On one of the pair of left and right headlamps provided in the vehicle, a first light source for proximity illumination and a first camera for proximity imaging are mounted, A second light source for far irradiation and a second camera for far imaging are mounted on the other of the pair of left and right headlamps.
  • the optical axis deviation between the light source and the camera is minimized, and no irradiation is performed based on the detection result by the camera in the light distribution control of the headlamp.
  • the range can be made as small as possible.
  • the irradiation range in the left-right direction is a range of ⁇ 20 ° or more and 90 ° or less around the optical axis of the first light source
  • the irradiation range in the left-right direction of the second light source may be a range of ⁇ 5 ° or more and 10 ° or less around the optical axis of the second light source.
  • both the near range and the far range can be imaged with high accuracy.
  • the first camera may be able to image the irradiation range of the first light source, while the second camera may be able to image the irradiation range of the second light source.
  • Each of the first light source and the second light source emits pulsed light in a predetermined direction
  • the first camera and the second camera each capture a plurality of images having different target distance areas by imaging reflected light returning from the target distance area at an imaging timing set according to the target distance area. Get an image, further, You may provide the timing control part which controls the light emission period of the said pulsed light light-emitted from said 1st light source and said 2nd light source, and said imaging timing of said 1st camera and said 2nd camera.
  • the timing control unit controls the light emission cycle so that the light emission of the first light source and the second light source is sequentially switched, and after the reflection time of the reflected light of the light emitted from the first light source has elapsed.
  • the imaging timing may be controlled so that the shutter of the first camera is opened and the shutter of the second camera is opened after the reflection time of the reflected light of the light emitted from the second light source has elapsed. .
  • the short distance optical system first light source and first camera
  • the long distance optical system second light source and second camera
  • the timing control unit controls the light emission period so that the first light source and the second light source emit light at the same time, and after a reflection time of reflected light of the light emitted from the first light source has elapsed.
  • the imaging timing may be controlled so that the shutter of the first camera is opened and the shutter of the second camera is opened after the reflection time of the reflected light of the light emitted from the second light source has elapsed. .
  • a vehicle according to the present disclosure includes the vehicle sensor described above.
  • FIG. 10 is a diagram illustrating an image acquisition process according to a second embodiment. 10 is a diagram illustrating an image acquisition process according to another example of Embodiment 2.
  • FIG. 10 is a diagram illustrating an image acquisition process according to another example of Embodiment 2.
  • FIG. 1 is a block diagram illustrating a configuration of a vehicle sensor according to Example 1 of the present embodiment.
  • FIG. 2 is a diagram illustrating an irradiation range by each lamp and a photographing range by each camera included in the vehicle sensor in FIG. 1.
  • a vehicle sensor 1 provided in a vehicle V includes a near irradiation lamp 2A (first light source), a far irradiation lamp 2B (second light source), a lamp ECU 3, proximity imaging camera 4 ⁇ / b> A (first camera), remote imaging camera 4 ⁇ / b> B (second camera), timing controller (timing control unit) 5, image processing unit 6, and object recognition processing unit 7 And a light distribution control unit 8.
  • the near-irradiation lamp 2A is, for example, a near-infrared LED that emits light in response to a command signal transmitted from the timing controller 5 via the lamp ECU 3, and is mounted in the right headlamp HA at the front end of the vehicle V. Is done.
  • the irradiation range 20A in the left-right direction is, for example, a range from ⁇ 20 ° to 90 ° centering on the optical axis of the near irradiation lamp 2A.
  • the far irradiation lamp 2B is, for example, a near infrared LED that emits light in response to a command signal transmitted from the timing controller 5 via the lamp ECU 3, and is mounted in the left headlamp HB at the front end of the vehicle V. Is done. As shown in FIG. 2, the far irradiation lamp 2B has an irradiation range 20B in the left-right direction of, for example, a range of ⁇ 5 ° or more and 10 ° or less around the optical axis of the far irradiation lamp 2B. Although not shown, the headlamps HA and HB are mounted with halogen lamps or LED lamps as low beam and high beam irradiation lamps, in addition to the near irradiation lamp 2A and the far irradiation lamp 2B. Yes.
  • the proximity imaging camera 4 ⁇ / b> A captures reflected light of the light emitted from the proximity illumination lamp 2 ⁇ / b> A according to a command signal from the timing controller 5, and outputs the captured image to the image processing unit 6.
  • the proximity imaging camera 4A is mounted in the right headlamp HA.
  • the proximity imaging camera 4A can image reflected light from the imaging range 40A that is substantially the same area as the irradiation range 20A of the proximity illumination lamp 2A.
  • the far-field imaging camera 4 ⁇ / b> B captures reflected light of the light emitted from the far-distance illumination lamp 2 ⁇ / b> B in response to a command signal from the timing controller 5 and outputs the captured image to the image processing unit 6.
  • the far-field imaging camera 4B is mounted in the left headlight HB.
  • the far-field imaging camera 4B can capture the reflected light from the imaging range 40B that is substantially the same area as the irradiation range 20B of the far-distance lamp 2B.
  • the image processing unit 6 outputs captured image data captured by the near-field imaging camera 4A and the far-field imaging camera 4B to the object recognition processing unit 7.
  • the object recognition processing unit 7 identifies an object included in the captured image data.
  • a well-known technique such as pattern matching can be used as an object identification method.
  • the light distribution control unit 8 irradiates, for example, a region other than the region where the object exists with a low beam or a high beam according to the object (person, car (oncoming vehicle), sign, etc.) specified by the object recognition processing unit 7.
  • the light distribution of the low beam and high beam irradiation lamps mounted on the headlamps HA and HB is controlled.
  • the vehicle sensor 1 is mounted on the left headlamp HB and the near irradiation lamp 2A and the near imaging camera 4A mounted on the right headlamp HA among the pair of left and right headlamps HA and HB.
  • a far irradiation lamp 2B and a far imaging camera 4B According to this configuration, it is possible to achieve highly accurate detection performance in a wide range from the vicinity of the vehicle V to a distant place, and the device cost can be suppressed.
  • the optical axis deviation from the camera 4B is minimized. Therefore, for example, in the light distribution control of the headlamps HA and HB in the ADB system, a range that is not irradiated by the headlamps HA and HB (low-beam and high-beam irradiation lamps) based on the detection results by the cameras 4A and 4B is possible as much as possible. Can be small.
  • the near imaging camera 4A can image the irradiation range 20A of the near irradiation lamp 2A
  • the far imaging camera 4B can image the irradiation range 20B of the far irradiation lamp 2B. is there.
  • the short-distance optical system near-distance illumination lamp 2A and near-distance imaging camera 4A
  • the long-distance optical system distance illumination lamp 2B and far-distance imaging camera 4B
  • FIG. 3 is a block diagram showing the configuration of the vehicle sensor according to Example 2 of the present embodiment.
  • FIG. 4 is a diagram illustrating a temporal relationship between the operation of the light emitting unit (light emission operation) and the operation of the gate (camera gate operation) when imaging each target distance region.
  • a vehicle sensor (obstacle detection device) 101 provided in the vehicle V includes an image acquisition device 102, an image processing unit (distance image data generation unit) 103, an object recognition processing unit 104, and the like. And a determination unit 111.
  • the image acquisition apparatus 102 includes a near-field illumination lamp 105A, a far-field illumination lamp 105B, a near-field imaging camera 106A, a far-field imaging camera 106B, and a timing controller (timing control unit) 110.
  • the near-irradiation lamp 105A is, for example, a near-infrared LED mounted on the right headlamp HA of the vehicle V. As shown in FIG. 4, the near-irradiation lamp 105A is in a predetermined direction (for example, forward of the vehicle V) for a predetermined light emission time tL (for example, 5 ns) in accordance with the pulse signal output from the timing controller 110. Pulse light is emitted.
  • the light emission period tP of the pulse signal emitted from the near-irradiation lamp 105A is set to an interval of 10 ⁇ s or less, for example.
  • the irradiation range of the near-irradiation lamp 105A is the same as that of the near-irradiation lamp 2A of the first embodiment shown in FIG.
  • the far irradiation lamp 105B is, for example, a near-infrared LED mounted on the left headlight HB of the vehicle V. As shown in FIG. 4, the far irradiation lamp 105 ⁇ / b> B is in a predetermined direction (for example, forward of the vehicle V) for a predetermined light emission time tL (for example, 5 ns) according to the pulse signal output from the timing controller 110. Pulse light is emitted.
  • the light emission period tP of the pulse signal emitted from the far irradiation lamp 105B is set to an interval of 10 ⁇ s or less, for example.
  • the irradiation range of the far irradiation lamp 105B is equivalent to the far irradiation lamp 2B of the first embodiment shown in FIG.
  • the proximity imaging camera 106A is a camera mounted on the right headlamp HA of the vehicle V, and includes an objective lens 107A, a light multiplying unit 108A, and an image sensor 109A.
  • the far-field imaging camera 106B is a camera mounted on the left headlamp HB of the vehicle V, and includes an objective lens 107B, a light multiplying unit 108B, and an image sensor 109B.
  • the objective lenses 107A and 107B are, for example, an optical system set to have an angle of view that can capture a predetermined range in front of the vehicle V, and receive reflected light from an object.
  • the objective lens 107A has a field angle capable of capturing the irradiation range of the near-field irradiation lamp 105A
  • the objective lens 107B has a field angle capable of capturing the irradiation range of the far-field irradiation lamp 105B.
  • the photomultipliers 108A and 108B include gates 108Aa and 108Ba and image intensifiers 108Ab and 108Bb, respectively.
  • the opening time (gate time) tG of the gates 108Aa and 108B is set to 5 ns, which is the same as the light emission time tL.
  • the gate time tG is proportional to the imaging target length (imaging target depth) of each region (target distance region) in the entire imaging region from the region 1 to the region n. The longer the gate time tG, the longer the imaging target length of each area.
  • the imaging target length is obtained from light velocity ⁇ gate time tG.
  • the image intensifiers 108Ab and 108Bb once converted extremely weak light (reflected light from an object, etc.) into electrons and then electrically amplified, and then returned to a fluorescent image to double the amount of light and have a contrast.
  • a device for viewing images The light amplified by the image intensifiers 108Ab and 108Bb is guided to the image sensors 109A and 109B.
  • Image sensors 109 ⁇ / b> A and 109 ⁇ / b> B capture images emitted from the light multiplying units 108 ⁇ / b> A and 108 ⁇ / b> B in response to a command signal from the timing controller 110, and output the captured images to the image processing unit 103.
  • an image sensor having a resolution of 640 ⁇ 480 (horizontal: vertical), luminance values of 1 to 255 (256 levels), and 100 fps or more is used.
  • the timing controller 110 uses the near-field irradiation lamp 105 ⁇ / b> A and the far-field irradiation lamp so that the captured images captured by the image sensors 109 ⁇ / b> A and 109 ⁇ / b> B become the timing of the reflected light returning from the target distance area that is the target imaging area.
  • a delay time tD (in FIG. 4, tD n , tD n + 1 ) that is a time from the start of light emission 105B to the opening of the gates 108Aa and 108Ba of the proximity imaging camera 106A and the distant imaging camera 106B is set, and the delay time tD.
  • the imaging timing is controlled by outputting an opening / closing command signal corresponding to the signal.
  • the delay time tD is a value that determines the distance (imaging target distance) from the vehicle V to the target distance region.
  • the relationship between the delay time tD and the imaging target distance is obtained from the following equation (1).
  • Imaging target distance light velocity (about 3 ⁇ 10 8 m / s) ⁇ delay time tD / 2 (1)
  • the timing controller 110 increases the delay time tD by a predetermined interval (for example, 10 ns) so that the target distance region is continuously away from the front (far) of the vehicle V, so that the proximity imaging camera 106A and the far imaging The imaging range of the camera 106B is changed to the vehicle V front side. Note that the timing controller 110 starts the imaging operation of the near-field imaging camera 106A and the far-field imaging camera 106B immediately before the gates 108Aa and 108Ab are opened, and ends the imaging operation after the gates 108Aa and 108Ba are completely closed.
  • a predetermined interval for example, 10 ns
  • the timing controller 110 performs the near irradiation lamp 105A and the far irradiation lamp 105B so as to perform light emission and exposure a plurality of times for each set predetermined target distance area (area 1, area 2,..., Area n). And the gates 108Aa and 108Ba of the proximity imaging camera 106A and the remote imaging camera 106B are controlled.
  • the light received by the near-field imaging camera 106A and the far-field imaging camera 106B is converted into electric charges and accumulated by repeating light emission and exposure a plurality of times.
  • One captured image obtained every predetermined charge accumulation time is called a frame.
  • the near-field imaging camera 106A and the far-field imaging camera 106B may acquire one captured image (one frame) for each target distance area, or a plurality of captured images (several frames) in each target distance area. You may get In this way, the proximity imaging camera 106 ⁇ / b> A and the far imaging camera 106 ⁇ / b> B acquire a plurality of captured images with different target distance regions, and output the acquired captured images to the image processing unit 103.
  • the image processing unit 103 represents the distance to the object (target object) for each pixel based on the luminance of the same pixel in the captured image of the entire imaging region captured by the near-field imaging camera 106A and the far-field imaging camera 106B. Image data is generated, and the generated distance image data is output to the object recognition processing unit 104.
  • the object recognition processing unit 104 identifies an object included in the distance image data.
  • a well-known technique such as pattern matching can be used as an object identification method.
  • the determination unit 111 Based on the relationship (distance, relative speed, etc.) between the object (person, car, sign, etc.) identified by the object recognition processing unit 104 and the own vehicle, the determination unit 111 presents information to the driver by an alarm, Determine whether vehicle control such as automatic braking is necessary.
  • FIG. 5 shows a situation where four objects A to D exist at different positions in front of the vehicle V.
  • the object A is a person wearing an umbrella
  • the object B is a motorcycle on the opposite lane side
  • the object C is a tree on the sidewalk side
  • the object D is a vehicle (opposite vehicle) on the opposite lane side.
  • the relationship between the distance between the vehicle V and each object is A ⁇ B ⁇ C ⁇ D.
  • FIG. 6 shows temporal luminance changes of pixels corresponding to each object.
  • the luminance value of the same pixel in a plurality of consecutive captured images gradually increases and peaks at the positions of the objects A to D. After that, it shows a triangular wave characteristic that gradually decreases.
  • the temporal luminance change of the pixel becomes a triangular wave shape, and therefore an imaging region corresponding to the triangular wave peak is determined.
  • FIG. 7 is a diagram illustrating image acquisition processing according to the second embodiment.
  • the timing controller 110 causes the far irradiation lamp 105B to emit light, and a far region (for example, 100 to 100) included in the irradiation range of the far irradiation lamp 105B (a range equivalent to the irradiation range 20B in FIG. 2). to open and close the shutter (gate) of the distant imaging camera 106B after reflection time tD 2 lapse of the reflected light from the predetermined distance region) in the region of 200 meters.
  • a far region for example, 100 to 100 included in the irradiation range of the far irradiation lamp 105B (a range equivalent to the irradiation range 20B in FIG. 2).
  • reflected light L2 from an object (for example, pedestrian M2) located far from the vehicle V is received by the far-field imaging camera 106B, while an object (eg, pedestrian M1) located near the vehicle V is received. ) Is not received because the light L1 reflected through the far-field imaging camera 106B passes through the far-field imaging camera 106B when the shutter is opened.
  • the timing controller 110 causes the near-irradiation lamp 105A to emit light, and a nearby region (for example, a range equivalent to the irradiation range 20A in FIG. 2) of the near-illumination lamp 105A , to open and close the shutter in the vicinity of the imaging camera 106A after reflection time tD 1 lapse of the reflected light from the predetermined distance region) in the region of 0 ⁇ 100 m.
  • the reflected light L1 from the nearby pedestrian M1 is received by the proximity imaging camera 106A, while the light L2 reflected by the distant pedestrian M2 has the shutter of the proximity imaging camera 106A opened. Sometimes the light is not received because it does not reach the near-field imaging camera 106A.
  • the timing controller 110 causes the far irradiation lamp 105B to emit light again and opens / closes the shutter (gate) of the far imaging camera 106B after the reflection time tD 2 + 1 of the reflected light from the far region has elapsed. .
  • the reflected light L2 from the distant pedestrian M2 is received, while the reflected light L1 from the nearby pedestrian M1 is not received.
  • the timing controller 110 causes the near-illumination lamp 105A to emit light again, and opens and closes the shutter (gate) of the near-field imaging camera 106A after the reflection time tD 1 + 1 of the reflected light from the near-area has elapsed. .
  • the reflected light L1 from the nearby pedestrian M1 is received, while the reflected light L2 from the distant pedestrian M2 is not received.
  • the timing controller 110 gradually increases the reflection times tD 2 and tD 1 while sequentially switching the irradiation from the far-distance illumination lamp 105B and the near-illumination lamp 105A. Imaging is performed by the far-field imaging camera 106B and the proximity imaging camera 106A at such imaging timing. In this way, the far-field imaging camera 106B and the proximity imaging camera 106A can comprehensively acquire captured images of the entire range of the target distance area. Note that the image processing unit 103 generates distance image data by combining the captured images of the entire range.
  • the near irradiation lamp 105A and the far irradiation lamp 105B emit pulsed light in a predetermined direction, respectively, and the near imaging camera 106A and The far-field imaging camera 106B acquires captured images in different target distance areas by imaging reflected light returning from the target distance area at an imaging timing set according to the target distance area. Furthermore, the image acquisition device 102 controls the light emission cycle of the pulsed light emitted from the near irradiation lamp 105A and the far irradiation lamp 105B and the imaging timing of the near imaging camera 106A and the far imaging camera 106B. 110 is provided. According to this configuration, a wide range of captured images from near to far can be comprehensively acquired with a simple configuration.
  • the timing controller 110 controls the light emission cycle so that the light emitted from the near-field illumination lamp 105A and the far-field illumination lamp 105B are sequentially switched, and the reflection time elapses of the reflected light of the light emitted from the near-field illumination lamp 105A. It is preferable to control the imaging timing so that the shutter of the near-field imaging camera 106A is opened later and the shutter of the far-field imaging camera 106B is opened after the reflection time of the reflected light emitted from the far-distance illumination lamp 105B has elapsed. .
  • the short-distance optical system (the near-illumination lamp 105A and the near-imaging camera 106A) and the long-distance optical system (the far-distance illumination lamp 105B and the far-distance imaging camera 106B) each independently emits light. Since the exposure control is performed, the control process can be simplified.
  • FIG. 8 is a diagram illustrating an image acquisition process according to another example of the second embodiment.
  • the timing controller 110 controls the light emission period so that the near irradiation lamp 105A and the far irradiation lamp 105B emit light simultaneously, and the near irradiation lamp 105A.
  • the reflection time tD 2 to tD 2 + n of the reflected light of the light emitted from the far-distance illumination lamp 105B is opened after the reflection time tD 1 to tD 1 + n of the reflected light of the light emitted from the camera is opened.
  • the imaging timing may be controlled so that the shutter of the far-field imaging camera 106B is opened after the elapse of time. According to this configuration, it is possible to acquire near and far captured images in front of the vehicle V in a short time.
  • the length of the imaging target can be appropriately set according to the performance of the camera and the image processing unit.
  • the camera functions as an image acquisition unit, but the present invention is not limited to this example.
  • the image processing unit may have a function as an image acquisition unit, or a separate memory for storing a captured image as an image acquisition unit may be provided between the camera and the image processing unit.
  • the photomultipliers 108A and 108B are provided between the objective lenses 107A and 107B and the cameras 106A and 106B.
  • the present invention is not limited to this example. .
  • the object recognition is performed by generating the distance image data by the image processing unit, but the object recognition may be performed from the captured images of the individual target distances captured by the camera.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Mechanical Engineering (AREA)
  • Studio Devices (AREA)
  • Lighting Device Outwards From Vehicle And Optical Signal (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Stroboscope Apparatuses (AREA)

Abstract

車両用センサ(1)は、車両(V)に備わる左右一対の前照灯のうち一方の前照灯(HA)に搭載された近傍照射用の第一の光源(2A)と近傍撮像用の第一のカメラ(4A)とを備えるとともに、他方の前照灯(HB)に搭載された遠方照射用の第二の光源(2B)と遠方撮像用の第二のカメラ(4B)とを備えている。

Description

車両用センサおよびそれを備えた車両
 本開示は、車両用センサおよびそれを備えた車両に関する。
 特許文献1には、例えば対向車や前走車等の前方車両の存在を自車両のバックミラー裏のガラス面等に配置された認識カメラにより検知し、前方車両の領域を照射しないような前照灯の配光制御を行うことより前方車両の運転者へのグレアを低減するための車両用前照灯制御システム(いわゆるADB(Adaptive Driving Beam)システム)が開示されている。
日本国特開2012-180051号公報
 特許文献1に記載のようなシステムでは、認識カメラと左右前照灯との搭載位置が異なることから光軸のずれが発生し、認識カメラにより検知された前方車両の位置と前照灯の配光制御において非照射とすべき位置とに誤差が生じる可能性がある。そのため、照射しない範囲(前方車両領域)を小さくすることができない。また、単一の認識カメラについて近傍から遠方までの広範囲における高精度な検知性能を得ようとすると、カメラレンズの構造が複雑化しコスト増となる。
 本開示の目的は、低コストで、自車両の近傍から遠方までの広範囲における高精度な検知性能を達成することが可能であるとともに、照射しない範囲をできるだけ小さくすることができる車両用センサおよびそれを備えた車両を提供することにある。
 上記目的を達成するため、本開示の車両用センサは、
 車両に備わる左右一対の前照灯の一方に、近傍照射用の第一の光源と、近傍撮像用の第一のカメラとが搭載され、
 前記左右一対の前照灯の他方に、遠方照射用の第二の光源と、遠方撮像用の第二のカメラとが搭載されている。
 上記構成によれば、自車両の近傍から遠方までの広範囲における高精度な検知性能を達成することが可能であり、装置コストを抑えることができる。また、各前照灯内に光源およびカメラがそれぞれ一組ずつ搭載されるため、光源とカメラとの光軸ずれが最小限となり、前照灯の配光制御においてカメラによる検知結果に基づく照射しない範囲をできるだけ小さくすることができる。
 前記第一の光源は、その左右方向における照射範囲が前記第一の光源の光軸を中心に±20°以上90°以下の範囲であり、
 前記第二の光源は、その左右方向における照射範囲が前記第二の光源の光軸を中心に±5°以上10°以下の範囲であっても良い。
 上記構成によれば、近傍範囲および遠方範囲のいずれも高精度に撮像することができる。
 前記第一のカメラは前記第一の光源の照射範囲を撮像可能である一方、前記第二のカメラは前記第二の光源の照射範囲を撮像可能であっても良い。
 上記構成によれば、近距離用光学系(第一の光源および第一のカメラ)と遠距離用光学系(第二の光源および第二のカメラ)でそれぞれ独立して制御を行うため、画像処理アルゴリズムを簡易化することができる。
 上記に記載の車両用センサであって、
 前記第一の光源および前記第二の光源は、それぞれ、所定方向にパルス光を発光し、
 前記第一のカメラおよび前記第二のカメラは、それぞれ、ターゲット距離領域に応じて設定される撮像タイミングで前記ターゲット距離領域から帰ってくる反射光を撮像することでターゲット距離領域の異なる複数の撮像画像を取得し、
 さらに、
 前記第一の光源および前記第二の光源から発光される前記パルス光の発光周期および前記第一のカメラおよび前記第二のカメラの前記撮像タイミングを制御するタイミング制御部を備えていても良い。
 上記構成によれば、簡易な構成により近傍から遠方までの広範囲の撮像画像を網羅的に取得することができる。
 前記タイミング制御部は、前記第一の光源と前記第二の光源との発光が順に切り替わるように前記発光周期を制御し、前記第一の光源から発光された光の反射光の反射時間経過後に前記第一のカメラのシャッタを開放するとともに前記第二の光源から発光された光の反射光の反射時間経過後に前記第二のカメラのシャッタを開放するように前記撮像タイミングを制御しても良い。
 上記構成によれば、近距離用光学系(第一の光源および第一のカメラ)と遠距離用光学系(第二の光源および第二のカメラ)でそれぞれ独立して発光/露光制御を行うため、制御処理を簡素化することができる。
 前記タイミング制御部は、前記第一の光源と前記第二の光源とが同時に発光されるように前記発光周期を制御し、前記第一の光源から発光された光の反射光の反射時間経過後に前記第一のカメラのシャッタを開放するとともに前記第二の光源から発光された光の反射光の反射時間経過後に前記第二のカメラのシャッタを開放するように前記撮像タイミングを制御しても良い。
 上記構成によれば、広範囲の撮像画像を短時間で取得することができる。
 上記目的を達成するため、本開示の車両は、上記に記載の車両用センサを備えている。
 上記構成によれば、例えば自動運転システムを搭載した車両における安全性を高めることができる。
 本開示によれば、低コストで、自車両の近傍から遠方までの広範囲における高精度な検知性能を達成することが可能であるとともに、照射しない範囲をできるだけ小さくすることができる車両用センサおよびそれを備えた車両を提供することができる。
本実施形態の車両用センサの構成を示すブロック図である。 図1の車両用センサが備える各ランプによる照射範囲および各カメラによる撮影範囲を示す図である。 実施例2の車両用センサの構成を示すブロック図である。 各ターゲット距離領域を撮像する際の、発光部の動作(発光動作)とゲートの動作(カメラゲート動作)との時間的な関係を示す図である。 自車両前方の異なる位置に4つの異なる物体が存在している状況を示す図である。 各物体に対応する画素の時間的な輝度変化を示す模式図である。 実施例2に係る画像取得処理を示す図である。 実施例2の別の例に係る画像取得処理を示す図である。
 以下、本実施形態の一例について、図面を参照して詳細に説明する。
 [実施例1]
 図1は、本実施形態の実施例1に係る車両用センサの構成を示すブロック図である。図2は、図1の車両用センサが備える各ランプによる照射範囲および各カメラによる撮影範囲を示す図である。
 図1に示されるように、車両V(自車両)に設けられる車両用センサ1は、近傍照射用ランプ2A(第一の光源)と、遠方照射用ランプ2B(第二の光源)と、ランプECU3と、近傍撮像用カメラ4A(第一のカメラ)と、遠方撮像用カメラ4B(第二のカメラ)と、タイミングコントローラ(タイミング制御部)5と、画像処理部6と、物体認識処理部7と、配光制御部8と、を備えている。
 近傍照射用ランプ2Aは、例えば、タイミングコントローラ5からランプECU3を介して送信される指令信号に応じて光を出射する近赤外線LEDであり、車両Vの前端部の右側前照灯HA内に搭載される。図2に示すように、近傍照射用ランプ2Aは、その左右方向における照射範囲20Aが近傍照射用ランプ2Aの光軸を中心に例えば±20°以上90°以下の範囲である。
 遠方照射用ランプ2Bは、例えば、タイミングコントローラ5からランプECU3を介して送信される指令信号に応じて光を出射する近赤外線LEDであり、車両Vの前端部の左側前照灯HB内に搭載される。図2に示すように、遠方照射用ランプ2Bは、その左右方向における照射範囲20Bが遠方照射用ランプ2Bの光軸を中心に例えば±5°以上10°以下の範囲である。
 なお、図示は省略するが、前照灯HA,HBには、近傍照射用ランプ2Aおよび遠方照射用ランプ2Bとは別に、ロービームおよびハイビーム照射用ランプとしてハロゲンランプまたはLEDランプ等がそれぞれ搭載されている。
 また、近傍撮像用カメラ4Aは、タイミングコントローラ5からの指令信号に応じて近傍照射用ランプ2Aから照射された光の反射光を撮像し、撮像画像を画像処理部6へ出力する。近傍撮像用カメラ4Aは、右側前照灯HA内に搭載されている。近傍撮像用カメラ4Aは、近傍照射用ランプ2Aの照射範囲20Aとほぼ同じ領域である撮影範囲40Aからの反射光を撮像可能である。
 遠方撮像用カメラ4Bは、タイミングコントローラ5からの指令信号に応じて遠方照射用ランプ2Bから照射された光の反射光を撮像し、撮像画像を画像処理部6へ出力する。遠方撮像用カメラ4Bは、左側前照灯HB内に搭載されている。遠方撮像用カメラ4Bは、遠方照射用ランプ2Bの照射範囲20Bとほぼ同じ領域である撮影範囲40Bからの反射光を撮像可能である。
 画像処理部6は、近傍撮像用カメラ4Aおよび遠方撮像用カメラ4Bにより撮像された撮像画像データを物体認識処理部7へ出力する。物体認識処理部7は、撮像画像データに含まれる物体を特定する。物体の特定方法は、パターンマッチング等、周知の技術を用いることができる。配光制御部8は、物体認識処理部7により特定された物体(人、自動車(対向車)、標識等)に応じて、例えば、当該物体の存在する領域以外をロービームまたはハイビームにより照射するように前照灯HA,HBに搭載されたロービームおよびハイビーム照射用ランプの配光を制御する。
 以上説明した実施例1における車両用センサ1によれば、以下に列挙する効果を奏する。
 (1)車両用センサ1は、左右一対の前照灯HA,HBのうち右側前照灯HAに搭載される近傍照射用ランプ2Aおよび近傍撮像用カメラ4Aと、左側前照灯HBに搭載される遠方照射用ランプ2Bおよび遠方撮像用カメラ4Bとを備えている。この構成によれば、車両Vの近傍から遠方までの広範囲における高精度な検知性能を達成することが可能であり、装置コストを抑えることができる。また、各前照灯HA,HB内にランプおよびカメラがそれぞれ一組ずつ搭載されるため、近傍照射用ランプ2Aと近傍撮像用カメラ4Aとの光軸ずれおよび遠方照射用ランプ2Bと遠方撮像用カメラ4Bとの光軸ずれが最小限となる。そのため、例えばADBシステムにおける前照灯HA,HBの配光制御において、各カメラ4A,4Bによる検知結果に基づいて前照灯HA,HB(のロービームおよびハイビーム照射用ランプ)により照射しない範囲をできるだけ小さくすることができる。
 (2)実施例1においては、近傍撮像用カメラ4Aは近傍照射用ランプ2Aの照射範囲20Aを撮像可能である一方、遠方撮像用カメラ4Bは遠方照射用ランプ2Bの照射範囲20Bを撮像可能である。この構成によれば、近距離用光学系(近傍照射用ランプ2Aおよび近傍撮像用カメラ4A)と遠距離用光学系(遠方照射用ランプ2Bおよび遠方撮像用カメラ4B)でそれぞれ独立して制御を行うため、画像処理部6における画像処理アルゴリズムを簡易化することができる。
 [実施例2]
 図3は、本実施形態の実施例2に係る車両用センサの構成を示すブロック図である。図4は、各ターゲット距離領域を撮像する際の、発光部の動作(発光動作)とゲートの動作(カメラゲート動作)との時間的な関係を示す図である。
 図3に示されるように、車両Vに設けられる車両用センサ(障害物検出装置)101は、画像取得装置102と、画像処理部(距離画像データ生成部)103と、物体認識処理部104と、判断部111とを備えている。
 画像取得装置102は、近傍照射用ランプ105Aと、遠方照射用ランプ105Bと、近傍撮像用カメラ106Aと、遠方撮像用カメラ106Bとタイミングコントローラ(タイミング制御部)110とを備えている。
 近傍照射用ランプ105Aは、例えば、車両Vの右側前照灯HAに搭載された近赤外線LEDである。図4に示されるように、近傍照射用ランプ105Aは、タイミングコントローラ110から出力されるパルス信号に応じて、所定の発光時間tL(例えば、5ns)の間、所定方向(例えば、車両V前方)にパルス光を出射する。近傍照射用ランプ105Aから照射されるパルス信号の発光周期tPは、例えば、10μs以下の間隔とする。近傍照射用ランプ105Aの照射範囲は、図2に示される実施例1の近傍照射用ランプ2Aと同等の範囲である。
 遠方照射用ランプ105Bは、例えば、車両Vの左側前照灯HBに搭載された近赤外線LEDである。図4に示されるように、遠方照射用ランプ105Bは、タイミングコントローラ110から出力されるパルス信号に応じて、所定の発光時間tL(例えば、5ns)の間、所定方向(例えば、車両V前方)にパルス光を出射する。遠方照射用ランプ105Bから照射されるパルス信号の発光周期tPは、例えば、10μs以下の間隔とする。遠方照射用ランプ105Bの照射範囲は、図2に示される実施例1の遠方照射用ランプ2Bと同等の範囲である。
 近傍撮像用カメラ106Aは、車両Vの右側前照灯HAに搭載されたカメラであって、対物レンズ107Aと、光増倍部108Aと、イメージセンサ109Aとを備えている。また、遠方撮像用カメラ106Bは、車両Vの左側前照灯HBに搭載されたカメラであって、対物レンズ107Bと、光増倍部108Bと、イメージセンサ109Bとを備えている。
 対物レンズ107A,107Bは、例えば、車両V前方の所定範囲を撮像できる画角とするように設定された光学系であって、物体からの反射光を受光する。対物レンズ107Aは近傍照射用ランプ105Aの照射範囲を撮像可能な画角を有し、対物レンズ107Bは遠方照射用ランプ105Bの照射範囲を撮像可能な画角を有している。
 光増倍部108A,108Bは、ゲート108Aa,108Baとイメージインテンシファイア108Ab,108Bbとをそれぞれ備えている。
 ゲート108Aa,108Baは、タイミングコントローラ110からの開閉指令信号に応じて開閉する。本実施例では、ゲート108Aa,108Bの開放時間(ゲート時間)tGを、発光時間tLと同じ5nsとしている。ゲート時間tGは、領域1から領域nまでの全撮像領域における各領域(ターゲット距離領域)の撮像対象長さ(撮像対象深さ)に比例する。ゲート時間tGを長くするほど各領域の撮像対象長さは長くなる。撮像対象長さは、光速度×ゲート時間tGから求められる。撮像対象長さは、光速度×ゲート時間tGから求められ、本実施例では、ゲート時間tG=5nsとしているため、撮像対象長さは、「光速度(約3×10m/s)×ゲート時間(5ns)」より、1.5mとなる。
 イメージインテンシファイア108Ab,108Bbは、極微弱な光(物体からの反射光等)を一旦電子に変換して電気的に増幅し、再度蛍光像に戻すことで光量を倍増してコントラストのついた像を見るためのデバイスである。イメージインテンシファイア108Ab,108Bbにより増幅された光はイメージセンサ109A,109Bに導かれる。
 イメージセンサ109A,109Bは、タイミングコントローラ110からの指令信号に応じて、光増倍部108A,108Bから発せられた像を撮像し、撮像画像を画像処理部103へ出力する。本実施例では、例えば、解像度640×480(横:縦)、輝度値1~255(256段階)、100fps以上のイメージセンサを用いている。
 タイミングコントローラ110は、イメージセンサ109A,109Bにより撮像される撮像画像が、狙った撮像領域であるターゲット距離領域から帰ってくる反射光のタイミングとなるように、近傍照射用ランプ105Aおよび遠方照射用ランプ105Bの発光開始時点から近傍撮像用カメラ106Aおよび遠方撮像用カメラ106Bのゲート108Aa,108Baを開くまでの時間であるディレイ時間tD(図4では、tD,tDn+1)を設定し、ディレイ時間tDに応じた開閉指令信号を出力することで、撮像タイミングを制御する。つまり、ディレイ時間tDは、車両Vからターゲット距離領域までの距離(撮像対象距離)を決める値である。ディレイ時間tDと撮像対象距離との関係は、以下の式(1)から求められる。
 撮像対象距離=光速度(約3×10m/s)×ディレイ時間tD/2 ・・・式(1)
 タイミングコントローラ110は、ターゲット距離領域が車両Vの前方(遠方)へと連続的に離れるように、ディレイ時間tDを所定間隔(例えば、10ns)ずつ長くすることで、近傍撮像用カメラ106Aおよび遠方撮像用カメラ106Bの撮像範囲を車両V前方側へ変化させる。なお、タイミングコントローラ110は、ゲート108Aa,108Abが開く直前に近傍撮像用カメラ106Aおよび遠方撮像用カメラ106Bの撮像動作を開始させ、ゲート108Aa,108Baが完全に閉じた後に撮像動作を終了させる。
 タイミングコントローラ110は、設定された所定のターゲット距離領域(領域1、領域2、…、領域nの各領域)毎に複数回の発光および露光を行うよう近傍照射用ランプ105Aおよび遠方照射用ランプ105B、および近傍撮像用カメラ106Aおよび遠方撮像用カメラ106Bのゲート108Aa,108Baを制御する。近傍撮像用カメラ106Aおよび遠方撮像用カメラ106Bがそれぞれ受光した光は電荷に変換され、複数回の発光および露光を繰り返すことで蓄積される。所定の電荷蓄積時間ごとに得られる1枚の撮像画像をフレームと呼ぶ。なお、近傍撮像用カメラ106Aおよび遠方撮像用カメラ106Bは、ターゲット距離領域ごとに1枚(1フレーム)ずつ撮像画像を取得しても良く、あるいは各ターゲット距離領域において複数の撮像画像(数フレーム)を取得しても良い。このようにして、近傍撮像用カメラ106Aおよび遠方撮像用カメラ106Bは、ターゲット距離領域の異なる複数の撮像画像を取得し、取得した複数の撮像画像を画像処理部103へ出力する。
 画像処理部103は、近傍撮像用カメラ106Aおよび遠方撮像用カメラ106Bにより撮像された全撮像領域の撮像画像における同一画素の輝度に基づいて、画素毎の物体(対象物)までの距離を表す距離画像データを生成し、生成した距離画像データを物体認識処理部104へ出力する。
 物体認識処理部104は、距離画像データに含まれる物体を特定する。物体の特定方法は、パターンマッチング等、周知の技術を用いることができる。
 判断部111は、物体認識処理部104により特定された物体(人、自動車、標識等)と自車両との関係(距離、相対速度等)に基づいて、警報等による運転者への情報提示、自動ブレーキ等の車両制御の要否を判断する。
 図5は、車両Vの前方の異なる位置に4つの物体A~Dが存在している状況を示している。物体Aは傘をさした人物であり、物体Bは対向車線側のバイクであり、物体Cは歩道側の樹木であり、物体Dは対向車線側の車両(対向車)である。車両Vと各物体との距離の関係は、A<B<C<Dとする。
 図6は、各物体に対応する画素の時間的な輝度変化を示している。
 撮像領域の一部をオーバーラップさせることで、図6に示されるように、連続する複数の撮像画像における同一画素の輝度値は、徐々に増加し、各物体A~Dの位置でピークとなった後は徐々に小さくなる三角波状の特性を示す。このように、1つの物体からの反射光が複数の撮像画像に含まれるようにすることで、画素の時間的な輝度変化が三角波状となるため、当該三角波状のピークと対応する撮像領域を当該画素における車両Vから各物体(被写体)A~Dまでの距離とすることで、検出精度を高めることができる。
 図7は、実施例2に係る画像取得処理を示す図である。
 まず、処理fにおいて、タイミングコントローラ110は、遠方照射用ランプ105Bを発光させ、遠方照射用ランプ105Bの照射範囲(図2の照射範囲20Bと同等の範囲)に含まれる遠方領域(例えば、100~200mの領域における所定の距離領域)からの反射光の反射時間tD経過後に遠方撮像用カメラ106Bのシャッタ(ゲート)を開閉する。この処理fにおいては、車両Vの遠方にある物体(例えば、歩行者M2)からの反射光L2が遠方撮像用カメラ106Bにより受光される一方、車両Vの近傍にある物体(例えば、歩行者M1)に反射した光L1は遠方撮像用カメラ106Bのシャッタが開放された時には遠方撮像用カメラ106Bを通り過ぎているため受光されない。
 次に、処理f+1において、タイミングコントローラ110は、近傍照射用ランプ105Aを発光させ、近傍照射用ランプ105Aの照射範囲(図2の照射範囲20Aと同等の範囲)に含まれる近傍領域(例えば、0~100mの領域における所定の距離領域)からの反射光の反射時間tD経過後に近傍撮像用カメラ106Aのシャッタを開閉する。この処理f+1においては、近傍の歩行者M1からの反射光L1が近傍撮像用カメラ106Aにより受光される一方、遠方の歩行者M2に反射した光L2は近傍撮像用カメラ106Aのシャッタが開放された時には近傍撮像用カメラ106Aに到達していないため受光されない。
 次に、処理f+2において、タイミングコントローラ110は、遠方照射用ランプ105Bを再び発光させ、遠方領域からの反射光の反射時間tD2+1経過後に遠方撮像用カメラ106Bのシャッタ(ゲート)を開閉する。処理fと同様に、処理f+2では、遠方の歩行者M2からの反射光L2が受光される一方、近傍の歩行者M1からの反射光L1は受光されない。
 次に、処理f+3において、タイミングコントローラ110は、近傍照射用ランプ105Aを再び発光させ、近傍領域からの反射光の反射時間tD1+1経過後に近傍撮像用カメラ106Aのシャッタ(ゲート)を開閉する。処理f+1と同様に、処理f+3においては、近傍の歩行者M1からの反射光L1が受光される一方、遠方の歩行者M2からの反射光L2は受光されない。
 同様に、処理f+4~f+nにおいても、タイミングコントローラ110は、遠方照射用ランプ105Bと近傍照射用ランプ105Aとからの照射を順次切り替えつつ、反射時間tDおよびtDを徐々に長くするような撮像タイミングで遠方撮像用カメラ106Bおよび近傍撮像用カメラ106Aによりそれぞれ撮像を行う。このように、遠方撮像用カメラ106Bおよび近傍撮像用カメラ106Aにより、ターゲット距離領域の全範囲の撮像画像を網羅的に取得することができる。なお、画像処理部103は、これら全範囲の撮像画像を合成することで距離画像データを生成する。
 以上説明した実施例2の画像取得装置102によれば、以下に列挙する効果を奏する。
 (3)実施例2の車両用センサ(障害物検出装置)101においては、近傍照射用ランプ105Aおよび遠方照射用ランプ105Bは、それぞれ、所定方向にパルス光を発光し、近傍撮像用カメラ106Aおよび遠方撮像用カメラ106Bはそれぞれ、ターゲット距離領域に応じて設定される撮像タイミングでターゲット距離領域から帰ってくる反射光を撮像することでターゲット距離領域の異なる撮像画像を取得している。さらに、画像取得装置102は、近傍照射用ランプ105Aおよび遠方照射用ランプ105Bから発光されるパルス光の発光周期と、近傍撮像用カメラ106Aおよび遠方撮像用カメラ106Bの撮像タイミングとを制御するタイミングコントローラ110を備えている。この構成によれば、簡易な構成により近傍から遠方までの広範囲の撮像画像を網羅的に取得することができる。
 (4)タイミングコントローラ110は、近傍照射用ランプ105Aと遠方照射用ランプ105Bとの発光が順に切り替わるように発光周期を制御し、近傍照射用ランプ105Aから発光された光の反射光の反射時間経過後に近傍撮像用カメラ106Aのシャッタを開放するとともに遠方照射用ランプ105Bから発光された光の反射光の反射時間経過後に遠方撮像用カメラ106Bのシャッタを開放するように撮像タイミングを制御することが好ましい。この構成によれば、近距離用光学系(近傍照射用ランプ105Aおよび近傍撮像用カメラ106A)と遠距離用光学系(遠方照射用ランプ105Bおよび遠方撮像用カメラ106B)でそれぞれ独立して発光/露光制御を行うため、制御処理を簡素化することができる。
 なお、実施例2に係る画像取得処理は図7に示される例に限られない。図8は、実施例2の別の例に係る画像取得処理を示す図である。
 図8に示されるように、各処理f~f+nにおいて、タイミングコントローラ110は、近傍照射用ランプ105Aと遠方照射用ランプ105Bとが同時に発光されるように発光周期を制御し、近傍照射用ランプ105Aから発光された光の反射光の反射時間tD~tD1+n経過後に近傍撮像用カメラ106Aのシャッタを開放するとともに遠方照射用ランプ105Bから発光された光の反射光の反射時間tD~tD2+n経過後に遠方撮像用カメラ106Bのシャッタを開放するように撮像タイミングを制御するようにしても良い。この構成によれば、車両V前方の近傍および遠方の撮像画像を短時間で取得することができる。
 以上、本開示を実施するための形態を、実施例に基づき説明したが、本開示の具体的な構成については、実施例の構成に限らず、特許請求の範囲の各請求項に係る発明の要旨を逸脱しない限り、設計変更や追加等は許容される。
 例えば、撮像対象長さ、撮像対象距離の変化量、ターゲット距離領域ごとのフレーム数などは、カメラや画像処理部の性能に応じて適宜設定することができる。
 上記実施の形態では、カメラが画像取得部として機能する構成としているが、この例に限られない。例えば、画像取得部としての機能を画像処理部が有していても良く、あるいはカメラと画像処理部との間に画像取得部として撮像画像を格納する別個のメモリが設けられても良い。
 上記実施の形態では、図7に示されるように、対物レンズ107A,107Bとカメラ106A,106Bとの間に光増倍部108A,108Bが設けられた構成としているが、この例に限られない。例えば、光増倍部を設けず、カメラ106A,106B内で所定の撮像タイミングでゲーティングを行って複数の撮像画像を取得することも可能である。
 上記実施の形態では、画像処理部により距離画像データを生成することで物体認識を行う構成としているが、カメラで撮像された個々のターゲット距離の撮像画像から物体認識を行っても良い。
 本出願は、2015年12月21日出願の日本特許出願・出願番号2015-248824に基づくものであり、その内容はここに参照として取り込まれる。
 

Claims (7)

  1.  車両に備わる左右一対の前照灯の一方に、近傍照射用の第一の光源と、近傍撮像用の第一のカメラとが搭載され、
     前記左右一対の前照灯の他方に、遠方照射用の第二の光源と、遠方撮像用の第二のカメラとが搭載された、車両用センサ。
  2.  前記第一の光源は、その左右方向における照射範囲が前記第一の光源の光軸を中心に±20°以上90°以下の範囲であり、
     前記第二の光源は、その左右方向における照射範囲が前記第二の光源の光軸を中心に±5°以上10°以下の範囲である、請求項1に記載の車両用センサ。
  3.  前記第一のカメラは前記第一の光源の照射範囲を撮像可能である一方、前記第二のカメラは前記第二の光源の照射範囲を撮像可能である、請求項1または2に記載の車両用センサ。
  4.  請求項1から3のいずれか一項に記載の車両用センサであって、
     前記第一の光源および前記第二の光源は、それぞれ、所定方向にパルス光を発光し、
     前記第一のカメラおよび前記第二のカメラは、それぞれ、ターゲット距離領域に応じて設定される撮像タイミングで前記ターゲット距離領域から帰ってくる反射光を撮像することでターゲット距離領域の異なる複数の撮像画像を取得し、
     さらに、
     前記第一の光源および前記第二の光源から発光される前記パルス光の発光周期および前記第一のカメラおよび前記第二のカメラの前記撮像タイミングを制御するタイミング制御部を備えている、車両用センサ。
  5.  前記タイミング制御部は、前記第一の光源と前記第二の光源との発光が順に切り替わるように前記発光周期を制御し、前記第一の光源から発光された光の反射光の反射時間経過後に前記第一のカメラのシャッタを開放するとともに前記第二の光源から発光された光の反射光の反射時間経過後に前記第二のカメラのシャッタを開放するように前記撮像タイミングを制御する、請求項4に記載の車両用センサ。
  6.  前記タイミング制御部は、前記第一の光源と前記第二の光源とが同時に発光されるように前記発光周期を制御し、前記第一の光源から発光された光の反射光の反射時間経過後に前記第一のカメラのシャッタを開放するとともに前記第二の光源から発光された光の反射光の反射時間経過後に前記第二のカメラのシャッタを開放するように前記撮像タイミングを制御する、請求項4に記載の車両用センサ。
  7.  請求項1から6のいずれか一項に記載の車両用センサを備えている、車両。
PCT/JP2016/085812 2015-12-21 2016-12-01 車両用センサおよびそれを備えた車両 WO2017110415A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017557834A JP6766072B2 (ja) 2015-12-21 2016-12-01 車両用センサおよびそれを備えた車両
CN201680075283.3A CN108431632A (zh) 2015-12-21 2016-12-01 车辆用传感器及具有该车辆用传感器的车辆
EP16878308.2A EP3396412A4 (en) 2015-12-21 2016-12-01 VEHICLE SENSOR AND VEHICLE THEREFOR
US16/063,795 US11040649B2 (en) 2015-12-21 2016-12-01 Vehicular sensor and vehicle provided with same

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015248824 2015-12-21
JP2015-248824 2015-12-21

Publications (1)

Publication Number Publication Date
WO2017110415A1 true WO2017110415A1 (ja) 2017-06-29

Family

ID=59090068

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/085812 WO2017110415A1 (ja) 2015-12-21 2016-12-01 車両用センサおよびそれを備えた車両

Country Status (5)

Country Link
US (1) US11040649B2 (ja)
EP (1) EP3396412A4 (ja)
JP (1) JP6766072B2 (ja)
CN (1) CN108431632A (ja)
WO (1) WO2017110415A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017173130A (ja) * 2016-03-24 2017-09-28 株式会社島津製作所 障害物検知システム及びこれを備えた分析装置
WO2018052087A1 (ja) * 2016-09-15 2018-03-22 株式会社小糸製作所 センサシステム
JP2020032760A (ja) * 2018-08-27 2020-03-05 株式会社小糸製作所 車両用灯具システム、左ヘッドランプと右ヘッドランプのペア
US11095827B2 (en) 2018-11-28 2021-08-17 Toyota Jidosha Kabushiki Kaisha In-vehicle camera system
WO2023153438A1 (ja) * 2022-02-09 2023-08-17 株式会社小糸製作所 投光器、受光器、及び測定装置
JP7423485B2 (ja) 2020-09-18 2024-01-29 株式会社東芝 距離計測装置

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10120385B2 (en) * 2016-03-30 2018-11-06 Intel Corporation Comfort ride vehicle control system
FR3086611B1 (fr) * 2018-10-02 2021-04-16 Valeo Vision Procede de commande d'un dispositif d'eclairage pour l'emission d'un faisceau d'eclairage de la route non eblouissant
JP7204551B2 (ja) * 2019-03-19 2023-01-16 株式会社小糸製作所 車両用監視システム
US11846731B2 (en) 2019-07-31 2023-12-19 Canon Kabushiki Kaisha Distance detection device and imaging apparatus
KR102435406B1 (ko) * 2020-07-03 2022-08-24 현대모비스 주식회사 카메라 내장 램프의 비동기 제어 시스템 및 방법

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59198377A (ja) * 1983-04-27 1984-11-10 Nippon Soken Inc 車両用障害物検知装置
JPH0511050A (ja) * 1991-07-02 1993-01-19 Kansei Corp 車間距離測定レーダ
JPH06242224A (ja) * 1993-02-23 1994-09-02 Sumitomo Electric Ind Ltd 車載用障害物検知装置
JP2010061304A (ja) * 2008-09-02 2010-03-18 Calsonic Kansei Corp 車両用距離画像データ生成装置
JP2012180051A (ja) 2011-03-02 2012-09-20 Stanley Electric Co Ltd 車両用前照灯制御装置および車両用前照灯システム
JP2015510586A (ja) * 2012-01-23 2015-04-09 マイクロソフト コーポレーション 3dズーム撮像装置

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10212916B4 (de) * 2001-03-25 2016-12-22 Omron Corp. Optischer Versetzungssensor und Verfahren zum Verarbeiten von Bildern unter Verwendung eines optischen Versetzungssensors
DE102004001556A1 (de) * 2004-01-10 2005-08-04 Robert Bosch Gmbh Nachtsichtsystem für Kraftfahrzeuge mit partiellem optischem Filter
JP4360403B2 (ja) * 2006-12-27 2009-11-11 トヨタ自動車株式会社 車載用障害物検知装置
JP5199781B2 (ja) * 2008-08-11 2013-05-15 株式会社小糸製作所 車両用前照灯装置
JP2010170449A (ja) * 2009-01-26 2010-08-05 Calsonic Kansei Corp 車両用距離画像データ生成装置及び方法
US8258453B2 (en) * 2009-04-29 2012-09-04 Intersil Americas Inc. Long range proximity and/or motion detector with ambient light detection capabilities
CN201917663U (zh) * 2011-01-27 2011-08-03 王小刚 内置红外远近程一体防撞雷达
TWI505706B (zh) * 2012-03-14 2015-10-21 Inst Information Industry 應用近紅外線與遠紅外線之物體偵測方法、裝置以及其電腦可讀取記錄媒體
US9723233B2 (en) * 2012-04-18 2017-08-01 Brightway Vision Ltd. Controllable gated sensor
DE102012207328A1 (de) 2012-05-03 2013-11-07 Audi Ag System und Verfahren zur Erfassung eines Fahrbahnprofils
US9810785B2 (en) 2012-05-29 2017-11-07 Brightway Vision Ltd. Gated imaging using an adaptive depth of field
US9110169B2 (en) * 2013-03-08 2015-08-18 Advanced Scientific Concepts, Inc. LADAR enabled impact mitigation system
US9069080B2 (en) * 2013-05-24 2015-06-30 Advanced Scientific Concepts, Inc. Automotive auxiliary ladar sensor
US10408922B2 (en) * 2015-07-10 2019-09-10 Ams Sensors Singapore Pte. Ltd. Optoelectronic module with low- and high-power illumination modes
EP3330135B1 (en) * 2015-07-29 2022-08-03 Kyocera Corporation Detection device, imaging device, vehicle, and detection method
WO2017110414A1 (ja) * 2015-12-21 2017-06-29 株式会社小糸製作所 車両用画像取得装置およびそれを備えた車両

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59198377A (ja) * 1983-04-27 1984-11-10 Nippon Soken Inc 車両用障害物検知装置
JPH0511050A (ja) * 1991-07-02 1993-01-19 Kansei Corp 車間距離測定レーダ
JPH06242224A (ja) * 1993-02-23 1994-09-02 Sumitomo Electric Ind Ltd 車載用障害物検知装置
JP2010061304A (ja) * 2008-09-02 2010-03-18 Calsonic Kansei Corp 車両用距離画像データ生成装置
JP2012180051A (ja) 2011-03-02 2012-09-20 Stanley Electric Co Ltd 車両用前照灯制御装置および車両用前照灯システム
JP2015510586A (ja) * 2012-01-23 2015-04-09 マイクロソフト コーポレーション 3dズーム撮像装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3396412A4

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017173130A (ja) * 2016-03-24 2017-09-28 株式会社島津製作所 障害物検知システム及びこれを備えた分析装置
WO2018052087A1 (ja) * 2016-09-15 2018-03-22 株式会社小糸製作所 センサシステム
US11623558B2 (en) 2016-09-15 2023-04-11 Koito Manufacturing Co., Ltd. Sensor system
JP2020032760A (ja) * 2018-08-27 2020-03-05 株式会社小糸製作所 車両用灯具システム、左ヘッドランプと右ヘッドランプのペア
JP7165536B2 (ja) 2018-08-27 2022-11-04 株式会社小糸製作所 車両用灯具システム
US11095827B2 (en) 2018-11-28 2021-08-17 Toyota Jidosha Kabushiki Kaisha In-vehicle camera system
JP7423485B2 (ja) 2020-09-18 2024-01-29 株式会社東芝 距離計測装置
WO2023153438A1 (ja) * 2022-02-09 2023-08-17 株式会社小糸製作所 投光器、受光器、及び測定装置

Also Published As

Publication number Publication date
JP6766072B2 (ja) 2020-10-07
CN108431632A (zh) 2018-08-21
EP3396412A1 (en) 2018-10-31
US20200271786A1 (en) 2020-08-27
JPWO2017110415A1 (ja) 2018-10-11
EP3396412A4 (en) 2019-08-21
US11040649B2 (en) 2021-06-22

Similar Documents

Publication Publication Date Title
WO2017110415A1 (ja) 車両用センサおよびそれを備えた車両
US11194023B2 (en) Image acquiring apparatus for vehicle, control device, vehicle having image acquiring apparatus for vehicle or control device, and image acquiring method for vehicle
JP6868570B2 (ja) 車両用画像取得装置、制御装置、車両用画像取得装置または制御装置を備えた車両および車両用画像取得方法
JP6766071B2 (ja) 車両用画像取得装置およびそれを備えた車両
JP6471528B2 (ja) 物体認識装置、物体認識方法
JP6851986B2 (ja) 車両用画像取得装置、制御装置、車両用画像取得装置または制御装置を備えた車両および車両用画像取得方法
JP2009257981A (ja) 車両用距離画像データ生成装置
KR102221153B1 (ko) 차량용 헤드램프 시스템 및 이의 제어 방법
JP6942637B2 (ja) 車両用画像取得装置、および車両用画像取得装置を備えた車両
JP2009257982A (ja) 車両用距離画像データ生成装置
JP2009282906A (ja) 車両用距離画像データ生成装置
WO2021193645A1 (ja) ゲーティングカメラ、センシングシステム、車両用灯具
JP2023507355A (ja) 自動車両の照明システムを制御するための方法
CN116648921A (zh) 车载用传感系统以及门控照相机
JP2017039463A (ja) 対象物検出装置
EP2698743A1 (en) Driver assisting system and method for a motor vehicle
KR102675030B1 (ko) 차량용 램프 시스템

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16878308

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017557834

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2016878308

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2016878308

Country of ref document: EP

Effective date: 20180723