WO2017110414A1 - 車両用画像取得装置およびそれを備えた車両 - Google Patents

車両用画像取得装置およびそれを備えた車両 Download PDF

Info

Publication number
WO2017110414A1
WO2017110414A1 PCT/JP2016/085811 JP2016085811W WO2017110414A1 WO 2017110414 A1 WO2017110414 A1 WO 2017110414A1 JP 2016085811 W JP2016085811 W JP 2016085811W WO 2017110414 A1 WO2017110414 A1 WO 2017110414A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
light source
image acquisition
range
camera
Prior art date
Application number
PCT/JP2016/085811
Other languages
English (en)
French (fr)
Inventor
光治 眞野
Original Assignee
株式会社小糸製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社小糸製作所 filed Critical 株式会社小糸製作所
Priority to CN201680074579.3A priority Critical patent/CN108541305A/zh
Priority to JP2017557833A priority patent/JP6766071B2/ja
Priority to EP16878307.4A priority patent/EP3396411A4/en
Priority to US16/064,338 priority patent/US11204425B2/en
Publication of WO2017110414A1 publication Critical patent/WO2017110414A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • G01S17/18Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves wherein range gates are used
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/87Combinations of systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4814Constructional features, e.g. arrangements of optical elements of transmitters alone
    • G01S7/4815Constructional features, e.g. arrangements of optical elements of transmitters alone using multiple transmitters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4861Circuits for detection, sampling, integration or read-out
    • G01S7/4863Detector arrays, e.g. charge-transfer gates
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/0017Devices integrating an element dedicated to another function
    • B60Q1/0023Devices integrating an element dedicated to another function the element being a sensor, e.g. distance sensor, camera
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles

Definitions

  • the present disclosure relates to an image acquisition device for a vehicle and a vehicle including the same.
  • Patent Document 1 discloses a vehicle distance image data generation device that is a so-called TOF (Time of Flight) sensor.
  • TOF Time of Flight
  • a pulsed light is projected in front of the host vehicle at a predetermined cycle, and the reflected light of the pulsed light is projected from the projection of the pulsed light.
  • the distance image data representing the distance to the object is generated by varying the time until the light is received by the imaging means.
  • the TOF sensor As described in Patent Document 1, it takes time to image a wide range in front of the host vehicle because the time from emission of pulsed light to reception of reflected light is changed repeatedly. .
  • the configuration of the light source and the lens is complicated in order that the light projecting means and the imaging means used for the TOF sensor can support a wide range of photographing from the vicinity of the own vehicle to a distance.
  • the sensor light source is configured with two (or more) optical systems for long distance and optical system for short distance, the cost increases.
  • An object of the present disclosure is to provide a vehicle image acquisition device that can capture a wide range in front of the host vehicle and can reduce costs, and a vehicle including the same.
  • an image acquisition device for a vehicle includes: A light emitting unit that emits pulsed light in a predetermined direction; An image acquisition unit that captures reflected light returning from the target distance region at an imaging timing set according to the target distance region, and acquires a plurality of captured images having different target distances; A timing control unit for controlling the light emission period of the pulsed light and the imaging timing; With The light emitting unit includes a first light source for near irradiation and a second light source for far irradiation, The image acquisition unit is composed of a single camera that captures a range irradiated by each of the first light source and the second light source.
  • a short-distance light source and a long-distance light source are separately provided, and a wide range in front of the host vehicle can be photographed by photographing the irradiation range of each light source with a single camera. Can be suppressed.
  • the first light source may be mounted on one of the left and right headlamps of the vehicle, and the second light source may be mounted on the other of the left and right headlamps.
  • a wide range of images ahead of the vehicle can be captured with a simple configuration using left and right headlamps.
  • the single camera captures an image of the near range by opening and closing a shutter after the reflection time of light irradiated from the first range and reflected from the near range, and is irradiated by the second light source.
  • the image of the far range may be captured by opening and closing the shutter after the reflection time of the light reflected from the far range has elapsed.
  • the first light source and the second light source are sequentially switched to emit light
  • the single camera may open and close the shutter after the reflection time of the reflected light from the near range and after the reflection time of the reflected light from the far range, respectively.
  • the first light source and the second light source are simultaneously illuminated;
  • the single camera may open and close the shutter after the reflection time of the reflected light from the near range and after the reflection time of the reflected light from the far range, respectively.
  • another example of the vehicle image acquisition device of the present disclosure includes: A light emitting unit that emits pulsed light in a predetermined direction; An image acquisition unit that captures reflected light returning from the target distance region at an imaging timing set according to the target distance region, and acquires a plurality of captured images having different target distances; A timing control unit for controlling the light emission period of the pulsed light and the imaging timing;
  • the light emitting unit is composed of a single light source,
  • the image acquisition unit includes a first camera that captures a near range of the region irradiated by the single light source, and a second camera that captures a far range of the region irradiated by the single light source. Including The first camera and the second camera capture images in synchronization with light emission of the single light source.
  • the first camera captures an image of the vicinity range by opening and closing a shutter after a reflection time of light irradiated from the single light source and reflected from the vicinity range
  • the second camera may capture an image of the far range by opening and closing a shutter after a reflection time of light irradiated from the single light source and reflected from the far range.
  • vehicle of the present disclosure includes the vehicle image acquisition device described above.
  • a vehicular image acquisition apparatus that can shoot a wide range in front of the host vehicle and can reduce costs, and a vehicle including the same.
  • FIG. 1 is a block diagram illustrating a configuration of an image acquisition device according to Embodiment 1.
  • FIG. 1 is a block diagram illustrating a configuration of an image acquisition device according to Embodiment 1.
  • FIG. 6 is a diagram illustrating an image acquisition process according to Embodiment 1.
  • FIG. 10 is a diagram illustrating an image acquisition process according to a second embodiment.
  • FIG. 10 is a block diagram illustrating a configuration of an image acquisition device according to a third embodiment.
  • FIG. 10 is a diagram illustrating an image acquisition process according to a third embodiment.
  • FIG. 1 is a block diagram showing a configuration of an obstacle detection apparatus according to this embodiment to which a vehicle image acquisition apparatus is applied.
  • FIG. 2 is a schematic diagram showing a temporal relationship between the operation of the light emitting unit (light emission operation) and the operation of the gate (camera gate operation) when imaging each target distance region.
  • an obstacle detection device 1 provided in a vehicle V includes an image acquisition device 2, an image processing unit (distance image data generation unit) 3, an object recognition processing unit 4, And a determination unit 10.
  • the image acquisition device 2 includes a light emitting unit 5, an objective lens 6, a light multiplication unit 7, a high-speed camera (image acquisition unit) 8, and a timing controller (timing control unit) 9.
  • the light emitting unit 5 is, for example, a near infrared LED arranged at the front end of the vehicle V. As shown in FIG. 2, the light emitting unit 5 is in a predetermined direction (for example, in front of the vehicle V) for a predetermined light emission time tL (for example, 5 ns) according to the pulse signal output from the timing controller 9. Pulse light is emitted.
  • the light emission period tP of the pulsed light emitted from the light emitting unit 5 is set to an interval of 10 ⁇ s or less, for example.
  • the objective lens 6 is, for example, an optical system that is set to have an angle of view that can capture a predetermined range in front of the vehicle V, and receives reflected light from an object.
  • the objective lens 6 may be disposed close to the light emitting unit 5 or may be disposed apart from the light emitting unit 5.
  • the photomultiplier 7 includes a gate 7a and an image intensifier 7b.
  • the gate 7a opens and closes in response to an opening / closing command signal from the timing controller 9.
  • the opening time (gate time) tG of the gate 7a is set to 5 ns, which is the same as the light emission time tL.
  • the gate time tG is proportional to the imaging target length (imaging target depth) of each region (target distance region) in the entire imaging region from the region 1 to the region n. The longer the gate time tG, the longer the imaging target length of each area.
  • the length of the imaging target is “light speed (about 3 ⁇ 10 8 m / s) ⁇ From the “gate time (5 ns)”, it becomes 1.5 m.
  • the image intensifier 7b temporarily converts extremely weak light (reflected light from an object, etc.) into electrons and then electrically amplifies it, and returns it to a fluorescent image again, thereby doubling the amount of light and producing an image with contrast.
  • a device for viewing. The light amplified by the image intensifier 7b is guided to the image sensor of the high-speed camera 8.
  • the high-speed camera 8 captures an image emitted from the light multiplying unit 7 in response to a command signal from the timing controller 9 and outputs the acquired captured image to the image processing unit 3.
  • a camera having a resolution of 640 ⁇ 480 (horizontal: vertical), luminance values of 1 to 255 (256 levels), and 100 fps or higher is used.
  • the timing controller 9 starts the gate 7a from the light emission start point of the light emitting unit 5 so that the picked-up image picked up by the high-speed camera 8 becomes the timing of the reflected light returning from the target distance region which is the target image pickup region.
  • a delay time tD in FIG. 2, tD n , tD n + 1
  • the imaging timing is controlled. That is, the delay time tD is a value that determines the distance (imaging target distance) from the vehicle V to the target distance region.
  • the timing controller 9 increases the imaging range of the high-speed camera 8 by increasing the delay time tD by a predetermined interval (for example, 10 ns) so that the target distance region is continuously separated forward (distant) of the vehicle V. Change to the front side of the vehicle V.
  • the timing controller 9 starts the imaging operation of the high-speed camera 8 immediately before the gate 7a is opened, and ends the imaging operation after the gate 7a is completely closed.
  • the timing controller 9 emits light and exposes a plurality of times for each set predetermined target distance region (region 1, region 2,..., Region n), and the high-speed camera 8. To control.
  • the light received by the high-speed camera 8 is converted into electric charges and accumulated by repeating light emission and exposure a plurality of times.
  • One captured image obtained every predetermined charge accumulation time is called a frame.
  • the high-speed camera 8 may acquire one captured image (one frame) for each target distance area, or may acquire a plurality of captured images (several frames) in each target distance area. In this way, the high-speed camera 8 acquires a plurality of captured images having different target distance areas, and outputs the acquired plurality of captured images to the image processing unit 3.
  • the image processing unit 3 generates distance image data representing the distance to the object (target object) for each pixel based on the luminance of the same pixel in the captured image of the entire imaging region captured by the high-speed camera 8.
  • the obtained distance image data is output to the object recognition processing unit 4.
  • the object recognition processing unit 4 identifies an object included in the distance image data.
  • a well-known technique such as pattern matching can be used as an object identification method.
  • the determination unit 10 determines the relationship (distance, direction, etc.) between the object (person, car, sign, etc.) identified by the object recognition processing unit 4 and the host vehicle (vehicle V).
  • the timing controller 9 sets the delay time tD so that the captured image captured by the high-speed camera 8 is the timing of the reflected light returning from the predetermined target distance region, and sets the imaging timing of the high-speed camera 8. Control.
  • the time when the light emitted from the light emitting unit 5 returns from the target distance area is the distance between the vehicle V and the target distance area (imaging target distance). Since the reciprocation time is reached, the delay time tD can be obtained from the imaging target distance and the speed of light.
  • the luminance value data of the pixel corresponding to the position of the object is affected by the reflected light, and other pixels A value higher than the luminance value data is shown. Thereby, based on the luminance value data of each pixel, the distance to the object existing in the target distance area can be obtained.
  • FIG. 3 shows a situation where four objects A to D exist at different positions in front of the vehicle V.
  • the object A is a person wearing an umbrella
  • the object B is a motorcycle on the opposite lane side
  • the object C is a tree on the sidewalk side
  • the object D is a vehicle (opposite vehicle) on the opposite lane side.
  • the relationship between the distance between the vehicle V and each object is A ⁇ B ⁇ C ⁇ D.
  • a part of the imaging region is overlapped so that the reflected light from one object is reflected on the pixels of the captured image in a plurality of continuous imaging regions. That is, as shown in FIG.
  • the increase amount of the imaging target distance is set so that a part of the imaging region changes while overlapping.
  • FIG. 5 shows temporal luminance changes of pixels corresponding to each object.
  • the luminance value of the same pixel in a plurality of consecutive captured images gradually increases and peaks at the positions of the objects A to D. After that, it shows a triangular wave characteristic that gradually decreases.
  • the temporal luminance change of the pixel becomes a triangular wave shape, and therefore an imaging region corresponding to the triangular wave peak is determined.
  • the obstacle detection device 1 including the image acquisition device 2 can be used for light distribution control of a so-called AHB (automatic high beam) system or ADB (adaptive driving beam) system.
  • AHB automatic high beam
  • ADB adaptive driving beam
  • the distance of each light spot in the image acquired by the camera sensor is obtained from the captured image acquired by the image acquisition device 2, and the distance, brightness, shape (light spot and surrounding shape) of each light spot, and time series change From this, it can be determined whether or not the light spot is a vehicle.
  • the image acquisition device 2 and another camera sensor in combination, it is possible to detect a distant vehicle in particular with high accuracy and high speed, and suitably perform light distribution control of the AHB system or the ADB system. Can do.
  • FIG. 6 is a block diagram illustrating a configuration of the image acquisition apparatus according to the first embodiment.
  • FIG. 7 is a diagram illustrating an irradiation range by a light source and an imaging range by an image acquisition unit included in the image acquisition apparatus of FIG.
  • the obstacle detection apparatus 101 includes an image acquisition apparatus 102, an image processing unit (distance image data generation unit) 103, an object recognition processing unit 104, and a determination unit 110. It has.
  • the image acquisition apparatus 102 includes a near irradiation lamp (first light source) 105A, a far irradiation lamp (second light source) 105B, a lamp control unit 106, a camera (image acquisition unit) 108, and a timing controller 109. And.
  • the near-irradiation lamp 105A is, for example, a near-infrared LED mounted in the right headlamp at the front end of the vehicle.
  • the near-irradiation lamp 105A outputs pulsed light with a predetermined light emission time tL and a light emission period tP according to a pulse signal output from the timing controller 109 and transmitted via the lamp control unit 106.
  • the irradiation range 100A of the near irradiation lamp 105A is about 0 to 100 m in front of the host vehicle, and is, for example, within the range of ⁇ 20 to 90 degrees to the left and right around the optical axis of the near irradiation lamp 105A. is there.
  • the far-irradiation lamp 105B is, for example, a near-infrared LED mounted in the left headlamp at the front end of the vehicle.
  • the far-irradiation lamp 105B outputs pulsed light with a predetermined light emission time tL and light emission period tP in accordance with a pulse signal output from the timing controller 109 and transmitted via the lamp control unit 106.
  • the irradiation range 100B of the far irradiation lamp 105B is about 0 to 200 m ahead of the host vehicle, and is, for example, within a range of ⁇ 5 to 10 degrees left and right around the optical axis of the far irradiation lamp 105B. is there.
  • the camera 108 captures the reflected light of the pulsed light in response to a command signal from the timing controller 109 and outputs the captured image to the image processing unit 103.
  • the objective lens and the photomultiplier shown in FIG. As shown in FIG. 7, the camera 108 can capture the reflected light from the range 100C including both the irradiation range 100A of the near irradiation lamp 105A and the irradiation range 100B of the far irradiation lamp 105B.
  • FIG. 8 is a diagram illustrating image acquisition processing according to the first embodiment.
  • the timing controller 109 causes the far irradiation lamp 105B to emit light, and from a far area (for example, a predetermined distance area in the 100 to 200 m area) included in the irradiation range 100B of the far irradiation lamp 105B.
  • the shutter (gate) of the camera 108 is opened and closed after the reflected light reflection time tD 2 has elapsed.
  • reflected light L2 from an object (for example, pedestrian M2) far from the host vehicle is received, while light L1 reflected from an object (for example, pedestrian M1) near the host vehicle is received by the camera 108.
  • the shutter is opened, no light is received because it passes through the camera 108.
  • the timing controller 109 causes the near-irradiation lamp 105A to emit light, and a nearby area (for example, a predetermined distance area in the 0 to 100 m area) included in the irradiation range 100A of the near-irradiation lamp 105A.
  • the shutter of the camera 108 is opened and closed after the reflection time tD 1 of the reflected light from () has elapsed.
  • the reflected light L1 from the nearby pedestrian M1 is received, while the light L2 reflected by the distant pedestrian M2 does not reach the camera 108 when the shutter of the camera 108 is opened. No light is received.
  • the timing controller 109 causes the far irradiation lamp 105B to emit light again, and opens and closes the shutter (gate) of the camera 108 after the reflection time tD 2 + 1 of the reflected light from the far region has elapsed.
  • the reflected light L2 from the distant pedestrian M2 is received, while the reflected light L1 from the nearby pedestrian M1 is not received.
  • the timing controller 109 causes the near-illumination lamp 105A to emit light again, and opens and closes the shutter (gate) of the camera 108 after the reflection time tD 1 + 1 of the reflected light from the near region has elapsed. Similar to the process f + 1, in the process f + 3, the reflected light L1 from the nearby pedestrian M1 is received, while the reflected light L2 from the distant pedestrian M2 is not received.
  • the timing controller 109 gradually increases the reflection times tD 2 and tD 1 while sequentially switching the irradiation from the far-distance illumination lamp 105B and the near-illumination lamp 105A. Imaging is performed by the camera 108 at such an imaging timing. Thereby, the camera 108 can acquire the captured image of the entire range of the target distance area. Note that the image processing unit 103 generates distance image data by combining the captured images of the entire imaging range acquired by the camera 108.
  • the image acquisition device 102 includes a near-irradiation lamp 105A, a far-distance illumination lamp 105B, a single camera 108 that captures an area irradiated by each of the near-illumination lamp 105A and the far-distance illumination lamp 105B, It has.
  • the short distance lamp 105A and the long distance lamp 105B are separately provided, and the irradiation range of each of the lamps 105A and 105B is captured by the single camera 108. And a light distribution control mechanism). For this reason, it is possible to photograph a wide range in front of the host vehicle and to reduce the apparatus cost.
  • the near irradiation lamp 105A is mounted on one of the left and right headlamps of the vehicle, and the far irradiation lamp 105B is mounted on the other of the left and right headlamps. According to this configuration, a wide range of images ahead of the vehicle can be captured with a simple configuration using left and right headlamps.
  • FIG. 9 is a diagram illustrating image acquisition processing according to the second embodiment.
  • the timing controller 109 causes the near irradiation lamp 105A and the far irradiation lamp 105B to emit light simultaneously, and the reflection time tD 1 of the reflected light from the vicinity area included in the irradiation range of the near irradiation lamp 105A. with opening and closing the shutter of the camera 108 after a lapse of, again closing the shutter of the camera 108 after reflection time tD 2 lapse of the reflected light from the distant region included in the irradiation range of the distant irradiating lamp 105B.
  • the opening and closing operation of the shutter after reflection time tD 1 elapses, while the reflected light L1 from the pedestrian M1 near is received, the light L2 reflected on the remote pedestrian M2 does not reach the camera 108 at the time of shutter opening Therefore, no light is received.
  • the opening and closing operation of the shutter after reflection time tD 2 course, while the reflected light L2 from the remote pedestrian M2 is received, the light L1 reflected pedestrian M1 of near the time of shutter opening past the camera 108 Is not received.
  • the reflected light L1 from the nearby pedestrian M1 and the reflected light L2 from the distant pedestrian M2 are received by the camera 108 at different timings.
  • the timing controller 109 causes the near irradiation lamp 105A and the far irradiation lamp 105B to emit light at the same time, and the vicinity included in the irradiation range of the near irradiation lamp 105A.
  • the shutter of the camera 108 is opened and closed after the reflection time tD 1 + 1 of the reflected light from the region has elapsed, and the shutter of the camera 108 is opened after the reflection time tD 2 + 1 of the reflected light from the far region included in the irradiation range of the far irradiation lamp 105B. Open and close again.
  • the timing controller 109 while emitting a near irradiating lamp 105A and far irradiating lamp 105B simultaneously, the imaging timing as the reflection time tD 1 and tD 2 gradually lengthened Take an image with. Thereby, the camera 108 can acquire the captured image of the entire range of the target distance area.
  • the light emission and near irradiating lamp 105A and far irradiating lamp 105B simultaneously, the camera 108, from the reflection time tD 1 elapse and far range of the reflected light from the vicinity of the range
  • the shutter is opened and closed after the reflected light reflection time tD 2 has elapsed.
  • FIG. 10 is a block diagram illustrating the configuration of the image acquisition apparatus according to the third embodiment.
  • the obstacle detection device 201 includes an image acquisition device 202, an image processing unit (distance image data generation unit) 203, an object recognition processing unit 204, and a determination unit 210. It has.
  • the image acquisition device 202 includes a lamp (single light source) 205, a lamp control unit 206, a proximity imaging camera 208A (first camera), a far imaging camera 208B (second camera), and a timing controller. 209.
  • the lamp 205 is, for example, a near-infrared LED mounted on the front end of the vehicle.
  • the lamp 205 outputs pulsed light with a predetermined light emission time tL and light emission period tP in accordance with a pulse signal output from the timing controller 209 and transmitted via the lamp control unit 206.
  • the proximity imaging camera 208 ⁇ / b> A captures the reflected light of the pulsed light in response to a command signal from the timing controller 209 and outputs the captured image to the image processing unit 203. It is assumed that the objective lens and the photomultiplier shown in FIG. 1 are also included in the proximity imaging camera 208A.
  • the near-field imaging camera 208A can image reflected light from a near area (for example, an area of 0 to 100 m ahead of the host vehicle) in the irradiation range of the lamp 205.
  • the far-field imaging camera 208 ⁇ / b> B captures the reflected light of the pulsed light in response to a command signal from the timing controller 209 and outputs the captured image to the image processing unit 203. It is assumed that the objective lens and the photomultiplier shown in FIG. 1 are also included in the far-field imaging camera 208B.
  • the far-field imaging camera 208B can capture the reflected light from a far area (for example, a 100 to 200 m area ahead of the host vehicle) in the irradiation range of the lamp 205.
  • FIG. 11 is a diagram illustrating image acquisition processing according to the third embodiment.
  • the timing controller 209 the lamp 205 to emit light, as well as open and close the shutter in the vicinity of the imaging camera 208A after reflection time tD 1 lapse of the reflected light from the neighboring region, the reflection of the reflected light from the distant area opening and closing the shutter of the distant imaging camera 208B after a time tD 2 course.
  • the reflected light from the nearby pedestrian M1 and the reflected light from the distant pedestrian M2 are received by the camera 208, respectively.
  • the timing controller 209 causes the lamp 205 to emit light, and opens and closes the shutter of the proximity imaging camera 208A after the reflection time tD 1 + 1 of the reflected light from the vicinity area has elapsed.
  • the shutter of the remote imaging camera 208B is opened and closed after the reflection time tD 2 + 1 of the reflected light from the remote area has elapsed.
  • the timing controller 209 while the light emitting lamp 205, respectively captured by the camera 208A and far imaging camera 208B for near images the reflection time tD 1 and tD 2 at the imaging timing gradually lengthening I do.
  • captured images of the entire range of the target distance area can be acquired by the near-field imaging camera 208A and the far-field imaging camera 208B.
  • the image acquisition device 202 is irradiated with the single lamp 205, the proximity imaging camera 208 ⁇ / b> A that captures the vicinity range of the area irradiated with the lamp 205, and the lamp 205.
  • a far-field imaging camera 208 ⁇ / b> B that captures a far-range area in the region is provided, and the near-field imaging camera 208 ⁇ / b> A and the far-field imaging camera 208 ⁇ / b> B capture images in synchronization with the light emission of the lamp 205.
  • the length of the imaging target is appropriately set according to the performance of the cameras 8, 108, 208A, 208B and the image processing units 3, 103, 203. Can do.
  • the cameras 8, 108, 208A, and 208B function as an image acquisition unit, but the present invention is not limited to this example.
  • the image processing unit 3, 103, 203 may have a function as an image acquisition unit, or an image acquisition unit between the cameras 8, 108, 208A, 208B and the image processing unit 3, 103, 203.
  • a separate memory for storing captured images may be provided.
  • the photomultiplier 7 (gate 7a, image intensifier 7b) is provided between the objective lens 6 and the high-speed camera 8. It is not limited to this example. For example, it is possible to obtain a plurality of captured images by performing gating at a predetermined imaging timing in the high-speed camera 8 without providing the light multiplying unit 7.
  • the object recognition is performed by generating the distance image data by the image processing units 3, 103, 203.
  • the imaging of individual target distances captured by the cameras 8, 108, 208A, 208B is performed.
  • Object recognition may be performed from an image.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Studio Devices (AREA)
  • Traffic Control Systems (AREA)

Abstract

車両用距離画像データ生成装置(102)は、所定方向にパルス光を発光する発光部と、ターゲット距離領域に応じて設定される撮像タイミングでターゲット距離領域から帰ってくる反射光を撮像し、ターゲット距離領域の異なる複数の撮像画像を取得する画像取得部と、パルス光の発光周期および撮像タイミングを制御するタイミング制御部(109)とを備えている。発光部は、近傍照射用の第一の光源(105A)と、遠方照射用の第二の光源(105B)と、を含み、画像取得部は、第一の光源(105A)および第二の光源(105B)によりそれぞれ照射された範囲を撮像する単一のカメラ(108)から構成されている。

Description

車両用画像取得装置およびそれを備えた車両
 本開示は、車両用画像取得装置およびそれを備えた車両に関する。
 特許文献1には、いわゆるTOF(Time of Flight)センサである車両用距離画像データ生成装置が開示されている。このようなTOFセンサにおいては、自車両前方の近傍から遠方までの広範囲を撮像する場合に、自車両前方に所定周期でパルス光を投光し、当該パルス光の投光からパルス光の反射光を撮像手段により受光するまでの時間を可変させて撮像を行うことで、物体までの距離を表す距離画像データを生成している。
日本国特開2009-257983号公報
 特許文献1に記載のようなTOFセンサでは、パルス光の発光から反射光の受光までの時間を可変させて繰り返し撮像しているため、自車両前方の広範囲を撮像するために時間がかかってしまう。また、TOFセンサに用いられる投光手段や撮像手段を自車両近傍から遠方までの広範囲の撮影に対応可能とするために、光源やレンズの構成が複雑化する。また、これを解消するために、遠距離用の光学系と近距離用の光学系の2つ(あるいはそれ以上)でセンサ用光源を構成した場合、コスト増となる。
 本開示の目的は、自車両前方の広範囲を撮影可能であるとともに、コストを抑えることができる車両用画像取得装置およびそれを備えた車両を提供することにある。
 上記目的を達成するため、本開示の車両用画像取得装置は、
 所定方向にパルス光を発光する発光部と、
 ターゲット距離領域に応じて設定される撮像タイミングで前記ターゲット距離領域から帰ってくる反射光を撮像し、ターゲット距離の異なる複数の撮像画像を取得する画像取得部と、
 前記パルス光の発光周期および前記撮像タイミングを制御するタイミング制御部と、
を備え、
 前記発光部は、近傍照射用の第一の光源と、遠方照射用の第二の光源と、を含み、
 前記画像取得部は、前記第一の光源および前記第二の光源によりそれぞれ照射された範囲を撮像する単一のカメラから構成されている。
 上記構成によれば、近距離用光源と遠距離用光源とを別途設け、各光源による照射範囲を単一のカメラで撮像することにより、自車両前方の広範囲を撮影可能であるとともに、コストを抑えることができる。
 前記第一の光源は車両の左右ヘッドランプの一方に搭載され、前記第二の光源は前記左右ヘッドランプの他方に搭載されていても良い。
 上記構成によれば、左右ヘッドランプを用いた簡便な構成で車両前方の広範囲の撮像を行うことができる。
 前記単一のカメラは、前記第一の光源により照射され近傍範囲から反射された光の反射時間経過後にシャッタを開閉することで前記近傍範囲の画像を撮像するとともに、前記第二の光源により照射され遠方範囲から反射された光の反射時間経過後にシャッタを開閉することで前記遠方範囲の画像を撮像しても良い。
 上記構成によれば、単一のカメラで広範囲を高精度かつ高速に撮像することができる。
 前記第一の光源と前記第二の光源とが順に切り替えて発光され、
 前記単一のカメラは、近傍範囲からの反射光の反射時間経過後および遠方範囲からの反射光の反射時間経過後にそれぞれシャッタを開閉しても良い。
 前記第一の光源と前記第二の光源とが同時に発光され、
 前記単一のカメラは、近傍範囲からの反射光の反射時間経過後および遠方範囲からの反射光の反射時間経過後にそれぞれシャッタを開閉しても良い。
 これらの構成により、単一のカメラで広範囲の撮像画像を取得することができる。
 また、上記目的を達成するため、本開示の別の例の車両用画像取得装置は、
 所定方向にパルス光を発光する発光部と、
 ターゲット距離領域に応じて設定される撮像タイミングで前記ターゲット距離領域から帰ってくる反射光を撮像し、ターゲット距離の異なる複数の撮像画像を取得する画像取得部と、
 前記パルス光の発光周期および前記撮像タイミングを制御するタイミング制御部と、
を備え、
 前記発光部は、単一の光源から構成され、
 前記画像取得部は、前記単一の光源により照射された領域のうち近傍範囲を撮像する第一のカメラと、前記単一の光源により照射された領域のうち遠方範囲を撮像する第二のカメラとを含み、
 前記第一のカメラおよび前記第二のカメラは、前記単一の光源の発光と同期して撮像を行う。
 上記構成によれば、自車両前方の広範囲を撮影可能であるとともに、コストを抑えることができる。また、近距離画像と遠距離画像とを同時に撮像することができる。
 前記第一のカメラは、前記単一の光源により照射され前記近傍範囲から反射した光の反射時間経過後にシャッタを開閉することで前記近傍範囲の画像を撮像し、
 前記第二のカメラは、前記単一の光源により照射され前記遠方範囲から反射した光の反射時間経過後にシャッタを開閉することで前記遠方範囲の画像を撮像しても良い。
 上記構成によれば、単一の光源でも広範囲を高精度かつ高速に撮像することができる。
 また、本開示の車両は、上記に記載の車両用画像取得装置を備えている。
 上記構成によれば、例えば自動運転システムを搭載した車両における安全性を高めることができる。
 本開示によれば、自車両前方の広範囲を撮影可能であるとともに、コストを抑えることができる車両用画像取得装置およびそれを備えた車両を提供することができる。
本実施形態の障害物検出装置の構成を示すブロック図である。 各ターゲット距離領域を撮像する際の、発光部の動作(発光動作)とゲートの動作(カメラゲート動作)との時間的な関係を示す図である。 自車両前方の異なる位置に4つの異なる物体が存在している状況を示す図である。 撮像領域の一部がオーバーラップする状態を示す図である。 各物体に対応する画素の時間的な輝度変化を示す模式図である。 実施例1に係る画像取得装置の構成を示すブロック図である。 図7の画像取得装置が備える光源による照射範囲および画像取得部による撮影範囲を示す図である。 実施例1に係る画像取得処理を示す図である。 実施例2に係る画像取得処理を示す図である。 実施例3に係る画像取得装置の構成を示すブロック図である。 実施例3に係る画像取得処理を示す図である。
 以下、本実施形態の一例について、図面を参照して詳細に説明する。
 図1は、車両用画像取得装置を適用した本実施形態に係る障害物検出装置の構成を示すブロック図である。図2は、各ターゲット距離領域を撮像する際の、発光部の動作(発光動作)とゲートの動作(カメラゲート動作)との時間的な関係を示す模式図である。
 図1に示されるように、車両V(自車両)に設けられる障害物検出装置1は、画像取得装置2と、画像処理部(距離画像データ生成部)3と、物体認識処理部4と、判断部10とを備えている。
 画像取得装置2は、発光部5と、対物レンズ6と、光増倍部7と、高速度カメラ(画像取得部)8と、タイミングコントローラ(タイミング制御部)9とを備えている。
 発光部5は、例えば、車両Vの前端部に配置した近赤外線LEDである。図2に示されるように、発光部5は、タイミングコントローラ9から出力されるパルス信号に応じて、所定の発光時間tL(例えば、5ns)の間、所定方向(例えば、車両Vの前方)にパルス光を出射する。発光部5から照射されるパルス光の発光周期tPは、例えば、10μs以下の間隔とする。
 対物レンズ6は、例えば、車両V前方の所定範囲を撮像できる画角とするように設定された光学系であって、物体からの反射光を受光する。対物レンズ6は、発光部5と近接して配置されていても良く、離隔して配置されていても良い。
 光増倍部7は、ゲート7aとイメージインテンシファイア7bとを備えている。
 ゲート7aは、タイミングコントローラ9からの開閉指令信号に応じて開閉する。本実施形態では、ゲート7aの開放時間(ゲート時間)tGを、発光時間tLと同じ5nsとしている。ゲート時間tGは、領域1から領域nまでの全撮像領域における各領域(ターゲット距離領域)の撮像対象長さ(撮像対象深さ)に比例する。ゲート時間tGを長くするほど各領域の撮像対象長さは長くなる。撮像対象長さは、光速度×ゲート時間tGから求められ、本実施形態では、ゲート時間tG=5nsとしているため、撮像対象長さは、「光速度(約3×10m/s)×ゲート時間(5ns)」より、1.5mとなる。
 イメージインテンシファイア7bは、極微弱な光(物体からの反射光等)を一旦電子に変換して電気的に増幅し、再度蛍光像に戻すことで光量を倍増してコントラストのついた像を見るためのデバイスである。イメージインテンシファイア7bにより増幅された光は高速度カメラ8のイメージセンサに導かれる。
 高速度カメラ8は、タイミングコントローラ9からの指令信号に応じて、光増倍部7から発せられた像を撮像し、取得した撮像画像を画像処理部3へ出力する。本実施形態では、解像度640×480(横:縦)、輝度値1~255(256段階)、100fps以上のカメラを用いている。
 タイミングコントローラ9は、高速度カメラ8により撮像される撮像画像が、狙った撮像領域であるターゲット距離領域から帰ってくる反射光のタイミングとなるように、発光部5の発光開始時点からゲート7aを開くまでの時間であるディレイ時間tD(図2では、tD,tDn+1)を設定し、ディレイ時間tDに応じた開閉指令信号を出力することで、撮像タイミングを制御する。つまり、ディレイ時間tDは、車両Vからターゲット距離領域までの距離(撮像対象距離)を決める値である。ディレイ時間tDと撮像対象距離との関係は、以下の式(1)から求められる。
 撮像対象距離=光速度(約3×10m/s)×ディレイ時間tD/2 ・・・式(1)
 タイミングコントローラ9は、ターゲット距離領域が車両Vの前方(遠方)へと連続的に離れるように、ディレイ時間tDを所定間隔(例えば、10ns)ずつ長くすることで、高速度カメラ8の撮像範囲を車両Vの前方側へ変化させる。なお、タイミングコントローラ9は、ゲート7aが開く直前に高速度カメラ8の撮像動作を開始させ、ゲート7aが完全に閉じた後に撮像動作を終了させる。
 タイミングコントローラ9は、設定された所定のターゲット距離領域(領域1、領域2、…、領域nの各領域)毎に複数回の発光および露光を行うよう発光部5、ゲート7aおよび高速度カメラ8を制御する。高速度カメラ8が受光した光は電荷に変換され、複数回の発光および露光を繰り返すことで蓄積される。所定の電荷蓄積時間ごとに得られる1枚の撮像画像をフレームと呼ぶ。なお、高速度カメラ8は、ターゲット距離領域ごとに1枚(1フレーム)ずつ撮像画像を取得しても良く、あるいは各ターゲット距離領域において複数の撮像画像(数フレーム)を取得しても良い。このようにして、高速度カメラ8は、ターゲット距離領域の異なる複数の撮像画像を取得し、取得した複数の撮像画像を画像処理部3へ出力する。
 画像処理部3は、高速度カメラ8により撮像された全撮像領域の撮像画像における同一画素の輝度に基づいて、画素毎の物体(対象物)までの距離を表す距離画像データを生成し、生成した距離画像データを物体認識処理部4へ出力する。
 物体認識処理部4は、距離画像データに含まれる物体を特定する。物体の特定方法は、パターンマッチング等、周知の技術を用いることができる。
 判断部10は、物体認識処理部4により特定された物体(人、自動車、標識等)と自車両(車両V)との関係(距離、方向等)を判断する。
 次に、本実施形態に係る画像取得の作用を説明する。
[画像取得作用]
 タイミングコントローラ9は、高速度カメラ8により撮像される撮像画像が、所定のターゲット距離領域から帰ってくる反射光のタイミングとなるように、ディレイ時間tDを設定し、高速度カメラ8の撮像タイミングを制御する。ターゲット距離領域に物体が存在している場合、発光部5から出射された光がターゲット距離領域から戻ってくる時間は、車両Vとターゲット距離領域との間の距離(撮像対象距離)を光が往復する時間となるため、ディレイ時間tDは、撮像対象距離と光速度から求めることができる。
 上記方法で得られた高速度カメラ8の撮像画像において、ターゲット距離領域に物体が存在する場合、当該物体の位置に対応する画素の輝度値データは、反射光の影響を受け、他の画素の輝度値データよりも高い値を示す。これにより、各画素の輝度値データに基づいて、ターゲット距離領域に存在する物体との距離を求めることができる。
 図3は、車両Vの前方の異なる位置に4つの物体A~Dが存在している状況を示している。物体Aは傘をさした人物であり、物体Bは対向車線側のバイクであり、物体Cは歩道側の樹木であり、物体Dは対向車線側の車両(対向車)である。車両Vと各物体との距離の関係は、A<B<C<Dとする。
 このとき、本実施形態では、1つの物体からの反射光が連続する複数の撮像領域における撮像画像の画素に反映されるように、撮像領域の一部をオーバーラップさせている。すなわち、図4に示すように、撮像対象距離をB1→B2→B3→…と連続的に変化させながら撮像する際、撮像領域の撮像対象長さAよりも撮像対象距離の増加量(B2-B1)を短くすることで、撮像領域の一部がオーバーラップしながら変化するように撮像対象距離の増加量を設定している。
 図5は、各物体に対応する画素の時間的な輝度変化を示している。
 撮像領域の一部をオーバーラップさせることで、図5に示されるように、連続する複数の撮像画像における同一画素の輝度値は、徐々に増加し、各物体A~Dの位置でピークとなった後は徐々に小さくなる三角波状の特性を示す。このように、1つの物体からの反射光が複数の撮像画像に含まれるようにすることで、画素の時間的な輝度変化が三角波状となるため、当該三角波状のピークと対応する撮像領域を当該画素における車両Vから各物体(被写体)A~Dまでの距離とすることで、検出精度を高めることができる。
 なお、上記実施形態に係る画像取得装置2を備えた障害物検出装置1を、いわゆるAHB(オートマチック・ハイビーム)システムやADB(アダプティブ・ドライビング・ビーム)システムの配光制御に用いることができる。障害物検出装置1を車両Vに搭載される他のカメラセンサと併用することで、例えば、画像取得装置2にて得られたターゲット距離領域の異なる複数の撮像画像から車両V前方の物体の有無および距離を検出するとともに、他のカメラセンサで車両V前方の映像を取得する。カメラセンサで取得された映像の中の各光点の距離を画像取得装置2で取得した撮像画像から求め、各光点の距離、輝度、形状(光点とその周辺の形状)、時系列変化等から当該光点が車両か否かを判別することができる。このように、画像取得装置2と他のカメラセンサを併用することで、特に遠方の車両の検知を高精度かつ高速に行うことができ、AHBシステムやADBシステムの配光制御を好適に行うことができる。
[実施例1]
 図6は、実施形態1に係る画像取得装置の構成を示すブロック図である。図7は、図6の画像取得装置が備える光源による照射範囲および画像取得部による撮影範囲を示す図である。
 図6に示されるように、実施例1に係る障害物検出装置101は、画像取得装置102と、画像処理部(距離画像データ生成部)103と、物体認識処理部104と、判断部110とを備えている。画像取得装置102は、近傍照射用ランプ(第一の光源)105Aと、遠方照射用ランプ(第二の光源)105Bと、ランプ制御部106と、カメラ(画像取得部)108と、タイミングコントローラ109とを備えている。
 近傍照射用ランプ105Aは、例えば、車両の前端部の右側ヘッドランプ内に搭載された近赤外線LEDである。近傍照射用ランプ105Aは、タイミングコントローラ109から出力されランプ制御部106を介して伝達されるパルス信号に応じて、所定の発光時間tLおよび発光周期tPでパルス光を出力する。図7に示すように、近傍照射用ランプ105Aの照射範囲100Aは自車両前方の0~100m程度であって、近傍照射用ランプ105Aの光軸を中心に例えば左右±20~90度の範囲である。
 遠方照射用ランプ105Bは、例えば、車両の前端部の左側ヘッドランプ内に搭載された近赤外線LEDである。遠方照射用ランプ105Bは、タイミングコントローラ109から出力されランプ制御部106を介して伝達されるパルス信号に応じて、所定の発光時間tLおよび発光周期tPでパルス光を出力する。図7に示すように、遠方照射用ランプ105Bの照射範囲100Bは自車両前方の0~200m程度であって、遠方照射用ランプ105Bの光軸を中心に例えば左右±5~10度の範囲である。
 カメラ108は、タイミングコントローラ109からの指令信号に応じて、パルス光の反射光を撮像し、撮像画像を画像処理部103へ出力する。なお、本実施例では、図1に図示されている対物レンズおよび光増倍部もカメラ108に含まれるものとする。カメラ108は、図7に示すように、近傍照射用ランプ105Aの照射範囲100Aと遠方照射用ランプ105Bの照射範囲100Bとの双方を含む範囲100Cからの反射光を撮像可能である。
 図8は、実施例1に係る画像取得処理を示す図である。
 まず、処理fにおいて、タイミングコントローラ109は、遠方照射用ランプ105Bを発光させ、遠方照射用ランプ105Bの照射範囲100Bに含まれる遠方領域(例えば、100~200mの領域における所定の距離領域)からの反射光の反射時間tD経過後にカメラ108のシャッタ(ゲート)を開閉する。この処理fにおいては、自車両遠方の物体(例えば、歩行者M2)からの反射光L2が受光される一方、自車両近傍の物体(例えば、歩行者M1)に反射した光L1はカメラ108のシャッタが開放された時にはカメラ108を通り過ぎているため受光されない。
 次に、処理f+1において、タイミングコントローラ109は、近傍照射用ランプ105Aを発光させ、近傍照射用ランプ105Aの照射範囲100Aに含まれる近傍領域(例えば、0~100mの領域における所定の距離領域)からの反射光の反射時間tD経過後にカメラ108のシャッタを開閉する。この処理f+1においては、近傍の歩行者M1からの反射光L1が受光される一方、遠方の歩行者M2に反射した光L2はカメラ108のシャッタが開放された時にはカメラ108に到達していないため受光されない。
 次に、処理f+2において、タイミングコントローラ109は、遠方照射用ランプ105Bを再び発光させ、遠方領域からの反射光の反射時間tD2+1経過後にカメラ108のシャッタ(ゲート)を開閉する。処理fと同様に、処理f+2では、遠方の歩行者M2からの反射光L2が受光される一方、近傍の歩行者M1からの反射光L1は受光されない。
 次に、処理f+3において、タイミングコントローラ109は、近傍照射用ランプ105Aを再び発光させ、近傍領域からの反射光の反射時間tD1+1経過後にカメラ108のシャッタ(ゲート)を開閉する。処理f+1と同様に、処理f+3においては、近傍の歩行者M1からの反射光L1が受光される一方、遠方の歩行者M2からの反射光L2は受光されない。
 処理f+4~f+nにおいても、同様に、タイミングコントローラ109は、遠方照射用ランプ105Bと近傍照射用ランプ105Aとからの照射を順次切り替えつつ、反射時間tDおよびtDを徐々に長くするような撮像タイミングでカメラ108により撮像を行う。これにより、カメラ108は、ターゲット距離領域の全範囲の撮像画像を取得することができる。なお、画像処理部103は、カメラ108により取得された全撮像範囲の撮像画像を合成することで距離画像データを生成する。
 以上説明した実施例1の画像取得装置102によれば、以下に列挙する効果を奏する。
 (1)画像取得装置102は、近傍照射用ランプ105Aと、遠方照射用ランプ105Bと、近傍照射用ランプ105Aおよび遠方照射用ランプ105Bによりそれぞれ照射された範囲を撮像する単一のカメラ108と、を備えている。このように、近距離用のランプ105Aと遠距離用のランプ105Bとを別途設け、各ランプ105A,105Bによる照射範囲を単一のカメラ108で撮像する構成とすることで、ランプ(特に、レンズや配光制御機構)の構成の複雑化を抑えることができる。そのため、自車両前方の広範囲を撮影可能であるとともに、装置コストを抑えることができる。
 (2)近傍照射用ランプ105Aは車両の左右ヘッドランプの一方に搭載され、遠方照射用ランプ105Bは左右ヘッドランプの他方に搭載されていることが好ましい。この構成によれば、左右ヘッドランプを用いた簡便な構成で車両前方の広範囲の撮像を行うことができる。
 (3)カメラ108は、近傍照射用ランプ105Aにより照射され近傍範囲から反射された光の反射時間tD経過後にシャッタを開閉することで近傍範囲の画像を撮像するとともに、遠方照射用ランプ105Bにより照射され遠方範囲から反射された光の反射時間tD経過後にシャッタを開閉することで遠方範囲の画像を撮像することが好ましい。この構成によれば、単一のカメラ108で広範囲を高精度かつ高速に撮像することができる。
 (4)近傍照射用ランプ105Aと遠方照射用ランプ105Bとが順に切り替えて発光され、単一のカメラ108は、近傍範囲からの反射光の反射時間tD経過後および遠方範囲からの反射光の反射時間tD経過後にそれぞれシャッタを開閉することが好ましい。この構成によれば、単一のカメラ108で広範囲の撮像画像を取得することができる。
[実施例2]
 図9は、実施例2に係る画像取得処理を示す図である。
 まず、処理fにおいて、タイミングコントローラ109は、近傍照射用ランプ105Aと遠方照射用ランプ105Bとを同時に発光させ、近傍照射用ランプ105Aの照射範囲に含まれる近傍領域からの反射光の反射時間tD経過後にカメラ108のシャッタを開閉するとともに、遠方照射用ランプ105Bの照射範囲に含まれる遠方領域からの反射光の反射時間tD経過後にカメラ108のシャッタを再び開閉する。反射時間tD経過後のシャッタの開閉動作により、近傍の歩行者M1からの反射光L1が受光される一方、遠方の歩行者M2に反射した光L2はシャッタ開放時にはカメラ108に到達していないため受光されない。また、反射時間tD2経過後のシャッタの開閉動作により、遠方の歩行者M2からの反射光L2が受光される一方、近傍の歩行者M1に反射した光L1はシャッタ開放時にはカメラ108を通り過ぎているため受光されない。
 このように、処理fにおいては、近傍の歩行者M1からの反射光L1と遠方の歩行者M2からの反射光L2とがそれぞれ異なるタイミングでカメラ108により受光される。
 次に、処理f+1においても、処理fと同様に、タイミングコントローラ109は、近傍照射用ランプ105Aと遠方照射用ランプ105Bとを同時に発光させ、近傍照射用ランプ105Aの照射範囲に含まれる近傍領域からの反射光の反射時間tD1+1経過後にカメラ108のシャッタを開閉するとともに、遠方照射用ランプ105Bの照射範囲に含まれる遠方領域からの反射光の反射時間tD2+1経過後にカメラ108のシャッタを再び開閉する。
 処理f+2~f+nにおいても、タイミングコントローラ109は、近傍照射用ランプ105Aと遠方照射用ランプ105Bとを同時に発光させつつ、反射時間tDおよびtDを徐々に長くするような撮像タイミングで撮像を行う。これにより、カメラ108は、ターゲット距離領域の全範囲の撮像画像を取得することができる。
 以上のように、実施例2においては、近傍照射用ランプ105Aと遠方照射用ランプ105Bとが同時に発光され、カメラ108は、近傍範囲からの反射光の反射時間tD経過後および遠方範囲からの反射光の反射時間tD経過後にそれぞれシャッタを開閉するように構成されている。この構成によれば、単一のカメラ108で広範囲の撮像画像を短時間で取得することができる。
[実施例3]
 図10は、実施例3に係る画像取得装置の構成を示すブロック図である。
 図10に示されるように、実施例3に係る障害物検出装置201は、画像取得装置202と、画像処理部(距離画像データ生成部)203と、物体認識処理部204と、判断部210とを備えている。画像取得装置202は、ランプ(単一の光源)205と、ランプ制御部206と、近傍撮像用カメラ208A(第一のカメラ)と、遠方撮像用カメラ208B(第二のカメラ)と、タイミングコントローラ209とを備えている。
 ランプ205は、例えば、車両の前端部に搭載された近赤外線LEDである。ランプ205は、タイミングコントローラ209から出力されランプ制御部206を介して伝達されるパルス信号に応じて、所定の発光時間tLおよび発光周期tPでパルス光を出力する。
 近傍撮像用カメラ208Aは、タイミングコントローラ209からの指令信号に応じて、パルス光の反射光を撮像し、撮像画像を画像処理部203へ出力する。なお、図1に図示されている対物レンズおよび光増倍部も近傍撮像用カメラ208Aに含まれるものとする。近傍撮像用カメラ208Aは、ランプ205の照射範囲のうち近傍領域(例えば、自車両前方の0~100mの領域)からの反射光を撮像可能である。
 遠方撮像用カメラ208Bは、タイミングコントローラ209からの指令信号に応じて、パルス光の反射光を撮像し、撮像画像を画像処理部203へ出力する。なお、図1に図示されている対物レンズおよび光増倍部も遠方撮像用カメラ208Bに含まれるものとする。遠方撮像用カメラ208Bは、ランプ205の照射範囲のうち遠方領域(例えば、自車両前方の100~200mの領域)からの反射光を撮像可能である。
 図11は、実施例3に係る画像取得処理を示す図である。
 まず、処理fにおいて、タイミングコントローラ209は、ランプ205を発光させ、近傍領域からの反射光の反射時間tD経過後に近傍撮像用カメラ208Aのシャッタを開閉するとともに、遠方領域からの反射光の反射時間tD経過後に遠方撮像用カメラ208Bのシャッタを開閉する。この処理fにおいては、近傍の歩行者M1からの反射光と遠方の歩行者M2からの反射光とがそれぞれカメラ208により受光される。
 次に、処理f+1においても、処理fと同様に、タイミングコントローラ209は、ランプ205を発光させ、近傍領域からの反射光の反射時間tD1+1経過後に近傍撮像用カメラ208Aのシャッタを開閉するとともに、遠方領域からの反射光の反射時間tD2+1経過後に遠方撮像用カメラ208Bのシャッタを開閉する。
 処理f+2~f+nにおいても、タイミングコントローラ209は、ランプ205を発光させつつ、反射時間tDおよびtDを徐々に長くするような撮像タイミングで近傍撮像用カメラ208Aおよび遠方撮像用カメラ208Bによりそれぞれ撮像を行う。このように、近傍撮像用カメラ208Aおよび遠方撮像用カメラ208Bにより、ターゲット距離領域の全範囲の撮像画像を取得することができる。
 以上のように、実施例3に係る画像取得装置202は、単一のランプ205と、ランプ205により照射された領域のうち近傍範囲を撮像する近傍撮像用カメラ208Aと、ランプ205により照射された領域のうち遠方範囲を撮像する遠方撮像用カメラ208Bとを備え、近傍撮像用カメラ208Aおよび遠方撮像用カメラ208Bは、ランプ205の発光と同期して撮像を行う。この構成によれば、自車両前方の広範囲を撮影可能であるとともに、装置コストを抑えることができる。また、近距離画像と遠距離画像とを同時に撮像することができるため、画像取得の際の処理時間を短縮することができる。
 以上、本開示を実施するための形態を、実施例に基づき説明したが、本開示の具体的な構成については、実施例の構成に限らず、特許請求の範囲の各請求項に係る発明の要旨を逸脱しない限り、設計変更や追加等は許容される。
 例えば、撮像対象長さ、撮像対象距離の変化量、ターゲット距離領域ごとのフレーム数などは、カメラ8,108,208A,208Bや画像処理部3,103,203の性能に応じて適宜設定することができる。
 上記実施の形態では、図1、6、10に示されるように、カメラ8,108,208A,208Bが画像取得部として機能する構成としているが、この例に限られない。例えば、画像取得部としての機能を画像処理部3,103,203が有していても良く、あるいはカメラ8,108,208A,208Bと画像処理部3,103,203との間に画像取得部として撮像画像を格納する別個のメモリが設けられても良い。
 上記実施の形態では、図1に示されるように、対物レンズ6と高速度カメラ8との間に光増倍部7(ゲート7a、イメージインテンシファイア7b)が設けられた構成としているが、この例に限られない。例えば、光増倍部7を設けず、高速度カメラ8内で所定の撮像タイミングでゲーティングを行って複数の撮像画像を取得することも可能である。
 上記実施の形態では、画像処理部3,103,203により距離画像データを生成することで物体認識を行う構成としているが、カメラ8,108,208A,208Bで撮像された個々のターゲット距離の撮像画像から物体認識を行っても良い。
 本出願は、2015年12月21日出願の日本特許出願・出願番号2015-248823に基づくものであり、その内容はここに参照として取り込まれる。
 

Claims (8)

  1.  所定方向にパルス光を発光する発光部と、
     ターゲット距離領域に応じて設定される撮像タイミングで前記ターゲット距離領域から帰ってくる反射光を撮像し、ターゲット距離領域の異なる複数の撮像画像を取得する画像取得部と、
     前記パルス光の発光周期および前記撮像タイミングを制御するタイミング制御部と、
    を備え、
     前記発光部は、近傍照射用の第一の光源と、遠方照射用の第二の光源と、を含み、
     前記画像取得部は、前記第一の光源および前記第二の光源によりそれぞれ照射された範囲を撮像する単一のカメラから構成されている、車両用画像取得装置。
  2.  前記第一の光源は車両の左右ヘッドランプの一方に搭載され、前記第二の光源は前記左右ヘッドランプの他方に搭載されている、請求項1に記載の車両用画像取得装置。
  3.  前記単一のカメラは、前記第一の光源により照射され近傍範囲から反射された光の反射時間経過後にシャッタを開閉することで前記近傍範囲の画像を撮像するとともに、前記第二の光源により照射され遠方範囲から反射された光の反射時間経過後にシャッタを開閉することで前記遠方範囲の画像を撮像する、請求項1または2に記載の車両用画像取得装置。
  4.  前記第一の光源と前記第二の光源とが順に切り替えて発光され、
     前記単一のカメラは、近傍範囲からの反射光の反射時間経過後および遠方範囲からの反射光の反射時間経過後にそれぞれシャッタを開閉する、請求項1から3のいずれか一項に記載の車両用画像取得装置。
  5.  前記第一の光源と前記第二の光源とが同時に発光され、
     前記単一のカメラは、近傍範囲からの反射光の反射時間経過後および遠方範囲からの反射光の反射時間経過後にそれぞれシャッタを開閉する、請求項1から3のいずれか一項に記載の車両用画像取得装置。
  6.  所定方向にパルス光を発光する発光部と、
     ターゲット距離領域に応じて設定される撮像タイミングで前記ターゲット距離領域から帰ってくる反射光を撮像し、ターゲット距離領域の異なる複数の撮像画像を取得する画像取得部と、
     前記パルス光の発光周期および前記撮像タイミングを制御するタイミング制御部と、
    を備え、
     前記発光部は、単一の光源から構成され、
     前記画像取得部は、前記単一の光源により照射された領域のうち近傍範囲を撮像する第一のカメラと、前記単一の光源により照射された領域のうち遠方範囲を撮像する第二のカメラとを含み、
     前記第一のカメラおよび前記第二のカメラは、前記単一の光源の発光と同期して撮像を行う、車両用画像取得装置。
  7.  前記第一のカメラは、前記単一の光源により照射され前記近傍範囲から反射した光の反射時間経過後にシャッタを開閉することで前記近傍範囲の画像を撮像し、
     前記第二のカメラは、前記単一の光源により照射され前記遠方範囲から反射した光の反射時間経過後にシャッタを開閉することで前記遠方範囲の画像を撮像する、請求項6に記載の車両用画像取得装置。
  8.  請求項1から7のいずれか一項に記載の車両用画像取得装置を備えている、車両。
     
PCT/JP2016/085811 2015-12-21 2016-12-01 車両用画像取得装置およびそれを備えた車両 WO2017110414A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201680074579.3A CN108541305A (zh) 2015-12-21 2016-12-01 车辆用图像获取装置和包括该装置的车辆
JP2017557833A JP6766071B2 (ja) 2015-12-21 2016-12-01 車両用画像取得装置およびそれを備えた車両
EP16878307.4A EP3396411A4 (en) 2015-12-21 2016-12-01 IMAGING DEVICE FOR VEHICLES AND VEHICLE THEREWITH
US16/064,338 US11204425B2 (en) 2015-12-21 2016-12-01 Image acquisition device for vehicles and vehicle provided with same

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015-248823 2015-12-21
JP2015248823 2015-12-21

Publications (1)

Publication Number Publication Date
WO2017110414A1 true WO2017110414A1 (ja) 2017-06-29

Family

ID=59089385

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/085811 WO2017110414A1 (ja) 2015-12-21 2016-12-01 車両用画像取得装置およびそれを備えた車両

Country Status (5)

Country Link
US (1) US11204425B2 (ja)
EP (1) EP3396411A4 (ja)
JP (1) JP6766071B2 (ja)
CN (1) CN108541305A (ja)
WO (1) WO2017110414A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020184447A1 (ja) * 2019-03-11 2020-09-17 株式会社小糸製作所 ゲーティングカメラ、自動車、車両用灯具、物体識別システム、演算処理装置、物体識別方法、画像表示システム、検査方法、撮像装置、画像処理装置
WO2022163721A1 (ja) * 2021-01-27 2022-08-04 株式会社小糸製作所 ゲーティングカメラ、車両用センシングシステム、車両用灯具
JP7524207B2 (ja) 2019-10-23 2024-07-29 株式会社小糸製作所 イメージング装置、車両用灯具、車両、イメージング方法

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6766072B2 (ja) * 2015-12-21 2020-10-07 株式会社小糸製作所 車両用センサおよびそれを備えた車両
KR20190051146A (ko) * 2017-11-06 2019-05-15 에스케이하이닉스 주식회사 이미지 동기화 장치 및 이를 포함하는 이미지 정보 생성 장치
US11062149B2 (en) * 2018-03-02 2021-07-13 Honda Motor Co., Ltd. System and method for recording images reflected from a visor
CN114503543A (zh) * 2019-09-26 2022-05-13 株式会社小糸制作所 门控照相机、汽车、车辆用灯具、图像处理装置、图像处理方法
DE102020113579A1 (de) * 2020-05-19 2021-11-25 Audi Aktiengesellschaft Kameravorrichtung zum Erzeugen eines Abbilds einer Umgebung sowie Scheinwerferanordnung

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59198377A (ja) * 1983-04-27 1984-11-10 Nippon Soken Inc 車両用障害物検知装置
JP2010061304A (ja) * 2008-09-02 2010-03-18 Calsonic Kansei Corp 車両用距離画像データ生成装置
JP2010256291A (ja) * 2009-04-28 2010-11-11 Toyota Motor Corp 距離画像撮影装置
JP2015510586A (ja) * 2012-01-23 2015-04-09 マイクロソフト コーポレーション 3dズーム撮像装置

Family Cites Families (85)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3895388A (en) 1973-10-25 1975-07-15 Ibm Adaptive illuminator
JPS56164969A (en) 1980-05-23 1981-12-18 Koden Electronics Co Ltd Reflection searching device
JPS59117981U (ja) 1983-01-31 1984-08-09 日産自動車株式会社 車両用光レ−ダ装置
US5029009A (en) 1989-05-08 1991-07-02 Kaman Aerospace Corporation Imaging camera with adaptive range gating
DE4016973C1 (ja) 1990-02-24 1991-06-13 Eltro Gmbh, Gesellschaft Fuer Strahlungstechnik, 6900 Heidelberg, De
JPH0743451A (ja) 1993-08-02 1995-02-14 Oki Electric Ind Co Ltd レーダ映像作成装置
JPH07325152A (ja) 1994-05-31 1995-12-12 Nikon Corp 距離測定装置
JPH0865690A (ja) 1994-08-24 1996-03-08 Sony Tektronix Corp カラー静止画像撮影装置
JPH09257927A (ja) 1996-03-18 1997-10-03 Nissan Motor Co Ltd 車両用レーダ装置
JP3446466B2 (ja) 1996-04-04 2003-09-16 株式会社デンソー 車間距離制御装置用の反射測定装置及びこれを利用した車間距離制御装置
JPH10132932A (ja) 1996-10-28 1998-05-22 Unyusho Daiichi Kowan Kensetsukyoku 3原色水中レーザー視認装置
KR100268048B1 (ko) 1996-10-28 2000-11-01 고바야시 마사키 수중레이저영상장치
JP2000172995A (ja) 1998-12-04 2000-06-23 Sumitomo Electric Ind Ltd 物体検出装置
US6311020B1 (en) 1998-12-21 2001-10-30 Olympus Optical Co., Ltd. Camera having autofocusing function and self timer function
KR100823047B1 (ko) 2000-10-02 2008-04-18 가부시키가이샤 한도오따이 에네루기 켄큐쇼 자기발광 장치 및 그 구동 방법
JP2002139304A (ja) 2000-10-30 2002-05-17 Honda Motor Co Ltd 距離測定装置、及び距離測定方法
JP2002131016A (ja) 2000-10-27 2002-05-09 Honda Motor Co Ltd 距離測定装置、及び距離測定方法
JP4530571B2 (ja) 2001-04-16 2010-08-25 Hoya株式会社 3次元画像検出装置
US6730913B2 (en) 2002-02-21 2004-05-04 Ford Global Technologies, Llc Active night vision system for vehicles employing short-pulse laser illumination and a gated camera for image capture
JP2004157061A (ja) 2002-11-08 2004-06-03 Nikon-Trimble Co Ltd 距離測定装置
CA2554955C (en) 2004-02-04 2010-09-14 Elbit Systems Ltd. Gated imaging
KR100726142B1 (ko) 2004-02-18 2007-06-13 마쯔시다덴기산교 가부시키가이샤 화상 보정 방법 및 화상 보정 장치
JP4490716B2 (ja) 2004-03-26 2010-06-30 アイシン精機株式会社 車載カメラ用補助照明装置
JP4509704B2 (ja) 2004-09-03 2010-07-21 株式会社小糸製作所 車両用灯具の点灯制御回路
JP4379728B2 (ja) 2005-01-31 2009-12-09 カシオ計算機株式会社 撮像装置及びそのプログラム
JP4478599B2 (ja) 2005-03-22 2010-06-09 キヤノン株式会社 撮像装置
JP2007232498A (ja) 2006-02-28 2007-09-13 Hitachi Ltd 障害物検知システム
JP4321540B2 (ja) 2006-03-30 2009-08-26 株式会社豊田中央研究所 物体検出装置
JP4730267B2 (ja) 2006-07-04 2011-07-20 株式会社デンソー 車両用視界状況判定装置
JP2008070999A (ja) * 2006-09-13 2008-03-27 Hitachi Ltd 車両の障害物検出装置及びそれを搭載した自動車
JP2008166412A (ja) 2006-12-27 2008-07-17 Koito Mfg Co Ltd 発光素子駆動回路及び車両用灯具
GB0701869D0 (en) 2007-01-31 2007-03-14 Cambridge Consultants Adaptive radar
US7956988B1 (en) 2007-02-06 2011-06-07 Alpha Technology, LLC Light detection and ranging systems and related methods
JP2008298741A (ja) 2007-06-04 2008-12-11 Toyota Central R&D Labs Inc 距離計測装置及び距離計測方法
JP2009031165A (ja) 2007-07-27 2009-02-12 Toyota Motor Corp パルスレーダ装置
JP5092613B2 (ja) 2007-08-06 2012-12-05 日産自動車株式会社 距離計測方法および装置、ならびに距離計測装置を備えた車両
JP2009092555A (ja) 2007-10-10 2009-04-30 Denso Corp パルスレーダ装置
JP4359710B2 (ja) 2008-02-04 2009-11-04 本田技研工業株式会社 車両周辺監視装置、車両、車両周辺監視用プログラム、車両周辺監視方法
JP5552212B2 (ja) 2008-02-14 2014-07-16 トヨタ自動車株式会社 レーダー装置
JP2009257981A (ja) 2008-04-18 2009-11-05 Calsonic Kansei Corp 車両用距離画像データ生成装置
JP2009257983A (ja) * 2008-04-18 2009-11-05 Calsonic Kansei Corp 車両用距離画像データ生成装置および車両用距離画像データの生成方法
JP2009258015A (ja) 2008-04-18 2009-11-05 Calsonic Kansei Corp 車両用距離画像データ生成装置および車両用距離画像データの生成方法
CN101324749B (zh) 2008-07-24 2010-07-28 上海交通大学 在纹理平面上进行投影显示的方法
JP5146674B2 (ja) 2008-08-22 2013-02-20 トヨタ自動車株式会社 レーダ干渉回避装置、及びレーダ干渉回避方法
JP2010054461A (ja) 2008-08-29 2010-03-11 Calsonic Kansei Corp 車両用距離画像データ生成装置
JP2010066221A (ja) 2008-09-12 2010-03-25 Calsonic Kansei Corp 車両用距離画像データ生成装置
JP5457684B2 (ja) 2009-01-20 2014-04-02 株式会社小糸製作所 車両用灯具の点灯制御装置
JP2010170449A (ja) 2009-01-26 2010-08-05 Calsonic Kansei Corp 車両用距離画像データ生成装置及び方法
JP2010212042A (ja) 2009-03-10 2010-09-24 Calsonic Kansei Corp Led照明装置
JP2011013950A (ja) 2009-07-02 2011-01-20 Furuno Electric Co Ltd 擬似乱数出力装置、送信装置及び探知機
CN101644887A (zh) 2009-08-28 2010-02-10 中国工程物理研究院流体物理研究所 一种门控型像增强器曝光时间的测量方法及其测量系统
DE102009045600B4 (de) 2009-10-12 2021-11-04 pmdtechnologies ag Kamerasystem
KR101608867B1 (ko) 2009-10-15 2016-04-04 삼성전자주식회사 광학 조립체 및 이를 구비한 촬상 장치
JP2011136651A (ja) 2009-12-28 2011-07-14 Koito Mfg Co Ltd 車両用灯具システム
EP2544449B1 (en) 2010-03-01 2016-03-16 Honda Motor Co., Ltd. Vehicle perimeter monitoring device
EP2542913B1 (en) 2010-03-02 2019-05-08 Elbit Systems Ltd. Image gated camera for detecting objects in a marine environment
CN102792333B (zh) 2010-03-19 2016-11-23 拉碧斯半导体株式会社 图像处理装置、方法、程序以及记录介质
JP5523954B2 (ja) 2010-06-30 2014-06-18 富士通テン株式会社 画像表示システム
KR101753312B1 (ko) 2010-09-17 2017-07-03 삼성전자주식회사 뎁스 영상 생성 장치 및 방법
US8681255B2 (en) 2010-09-28 2014-03-25 Microsoft Corporation Integrated low power depth camera and projection device
JP2012165090A (ja) 2011-02-04 2012-08-30 Sanyo Electric Co Ltd 撮像装置およびその制御方法
US20120249781A1 (en) 2011-04-04 2012-10-04 Richard Vollmerhausen Method consisting of pulsing a laser communicating with a gated-sensor so as to reduce speckle, reduce scintillation, improve laser beam uniformity and improve eye safety in laser range gated imagery
JP5760220B2 (ja) 2011-04-11 2015-08-05 オプテックス株式会社 距離画像カメラおよびこれを用いた対象物の面形状認識方法
CN102737389A (zh) 2011-04-13 2012-10-17 南京大学 一种针对颜色编码结构光扫描系统的自适应反射率校正方法
US9182491B2 (en) 2011-05-06 2015-11-10 Waikatolink Limited Selective distance range imaging
CN202305416U (zh) 2011-09-29 2012-07-04 杭州力弘电子有限公司 智能图像传感器系统
JP2013096905A (ja) 2011-11-02 2013-05-20 Denso Corp 測距装置
WO2013108493A1 (ja) 2012-01-17 2013-07-25 本田技研工業株式会社 画像処理装置
JP5511863B2 (ja) 2012-02-03 2014-06-04 三菱電機株式会社 レーダ装置とその制御方法
US9723233B2 (en) * 2012-04-18 2017-08-01 Brightway Vision Ltd. Controllable gated sensor
KR102144521B1 (ko) 2012-05-29 2020-08-14 브라이트웨이 비젼 엘티디. 적응 피사계심도를 이용한 게이트된 영상 획득 방법 및 영상 시스템
KR101640875B1 (ko) 2012-06-13 2016-07-19 파나소닉 아이피 매니지먼트 가부시키가이샤 물체 검출 장치
CN105827983B (zh) 2012-07-12 2018-11-06 奥林巴斯株式会社 摄像装置
JP6161262B2 (ja) 2012-11-19 2017-07-12 株式会社ミツトヨ 画像測定機のled照明方法及び装置
WO2014097539A1 (ja) 2012-12-20 2014-06-26 パナソニック株式会社 3次元測定装置および3次元測定方法
JP6094252B2 (ja) 2013-02-20 2017-03-15 株式会社デンソー 道路標識認識装置
US9110169B2 (en) * 2013-03-08 2015-08-18 Advanced Scientific Concepts, Inc. LADAR enabled impact mitigation system
US9869767B2 (en) 2013-04-30 2018-01-16 Mitsubishi Electric Corporation Laser radar device
IL227265A0 (en) 2013-06-30 2013-12-31 Brightway Vision Ltd Smart flash for the camera
US10203399B2 (en) 2013-11-12 2019-02-12 Big Sky Financial Corporation Methods and apparatus for array based LiDAR systems with reduced interference
CN103744078B (zh) 2013-12-30 2016-04-13 中国科学技术大学 一种基于不同码速随机跳频的微波凝视关联成像装置
JP6320050B2 (ja) 2014-01-17 2018-05-09 オムロンオートモーティブエレクトロニクス株式会社 レーザレーダ装置
US9866208B2 (en) * 2015-06-15 2018-01-09 Microsoft Technology Lincensing, LLC Precision measurements and calibrations for timing generators
US10408922B2 (en) * 2015-07-10 2019-09-10 Ams Sensors Singapore Pte. Ltd. Optoelectronic module with low- and high-power illumination modes
US10912516B2 (en) 2015-12-07 2021-02-09 Panasonic Corporation Living body information measurement device, living body information measurement method, and storage medium storing program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59198377A (ja) * 1983-04-27 1984-11-10 Nippon Soken Inc 車両用障害物検知装置
JP2010061304A (ja) * 2008-09-02 2010-03-18 Calsonic Kansei Corp 車両用距離画像データ生成装置
JP2010256291A (ja) * 2009-04-28 2010-11-11 Toyota Motor Corp 距離画像撮影装置
JP2015510586A (ja) * 2012-01-23 2015-04-09 マイクロソフト コーポレーション 3dズーム撮像装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3396411A4 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020184447A1 (ja) * 2019-03-11 2020-09-17 株式会社小糸製作所 ゲーティングカメラ、自動車、車両用灯具、物体識別システム、演算処理装置、物体識別方法、画像表示システム、検査方法、撮像装置、画像処理装置
US20230179841A1 (en) * 2019-03-11 2023-06-08 Koito Manufacturing Co., Ltd. Gating camera
JP7524207B2 (ja) 2019-10-23 2024-07-29 株式会社小糸製作所 イメージング装置、車両用灯具、車両、イメージング方法
WO2022163721A1 (ja) * 2021-01-27 2022-08-04 株式会社小糸製作所 ゲーティングカメラ、車両用センシングシステム、車両用灯具

Also Published As

Publication number Publication date
US20190025432A1 (en) 2019-01-24
US11204425B2 (en) 2021-12-21
CN108541305A (zh) 2018-09-14
EP3396411A1 (en) 2018-10-31
JPWO2017110414A1 (ja) 2018-10-11
EP3396411A4 (en) 2019-08-21
JP6766071B2 (ja) 2020-10-07

Similar Documents

Publication Publication Date Title
WO2017110414A1 (ja) 車両用画像取得装置およびそれを備えた車両
JP6851985B2 (ja) 車両用画像取得装置、制御装置、車両用画像取得装置または制御装置を備えた車両および車両用画像取得方法
JP6766072B2 (ja) 車両用センサおよびそれを備えた車両
WO2017110413A1 (ja) 車両用画像取得装置、制御装置、車両用画像取得装置または制御装置を備えた車両および車両用画像取得方法
WO2017110418A1 (ja) 車両用画像取得装置、制御装置、車両用画像取得装置または制御装置を備えた車両および車両用画像取得方法
JP2009257981A (ja) 車両用距離画像データ生成装置
JP2009257983A (ja) 車両用距離画像データ生成装置および車両用距離画像データの生成方法
CN101223053A (zh) 摄像系统
JP2010170449A (ja) 車両用距離画像データ生成装置及び方法
JP6942637B2 (ja) 車両用画像取得装置、および車両用画像取得装置を備えた車両
JP2010061304A (ja) 車両用距離画像データ生成装置
JP2010066221A (ja) 車両用距離画像データ生成装置
JP2009257982A (ja) 車両用距離画像データ生成装置
JP2009282906A (ja) 車両用距離画像データ生成装置
JP2010071704A (ja) 車両用距離画像データ生成装置及び方法
JP2017039463A (ja) 対象物検出装置
JP2009259070A (ja) 車両用距離画像データ生成装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16878307

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017557833

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2016878307

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2016878307

Country of ref document: EP

Effective date: 20180723