WO2011055418A1 - 距離測定装置、及び距離測定方法 - Google Patents

距離測定装置、及び距離測定方法 Download PDF

Info

Publication number
WO2011055418A1
WO2011055418A1 PCT/JP2009/005958 JP2009005958W WO2011055418A1 WO 2011055418 A1 WO2011055418 A1 WO 2011055418A1 JP 2009005958 W JP2009005958 W JP 2009005958W WO 2011055418 A1 WO2011055418 A1 WO 2011055418A1
Authority
WO
WIPO (PCT)
Prior art keywords
captured image
direct light
threshold value
distribution
peak
Prior art date
Application number
PCT/JP2009/005958
Other languages
English (en)
French (fr)
Inventor
宇佐美祐之
Original Assignee
トヨタ自動車株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by トヨタ自動車株式会社 filed Critical トヨタ自動車株式会社
Priority to JP2011524089A priority Critical patent/JP5051405B2/ja
Priority to DE112009005352T priority patent/DE112009005352T5/de
Priority to US13/133,557 priority patent/US8760632B2/en
Priority to PCT/JP2009/005958 priority patent/WO2011055418A1/ja
Publication of WO2011055418A1 publication Critical patent/WO2011055418A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S11/00Systems for determining distance or velocity not using reflection or reradiation
    • G01S11/12Systems for determining distance or velocity not using reflection or reradiation using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • G01C3/08Use of electric radiation detectors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/10Measuring distances in line of sight; Optical rangefinders using a parallactic triangle with variable angles and a base of fixed length in the observation station, e.g. in the instrument

Definitions

  • the present invention relates to a distance measuring device, and more particularly to a distance measuring device mounted on a moving body such as an automobile.
  • a distance measuring device using a method of measuring a relative distance from a preceding vehicle based on an image obtained by capturing a traveling direction with a camera is mounted on a moving body such as an automobile.
  • a method for measuring the relative distance to the preceding vehicle for example, a position measurement method described in Patent Document 1 (hereinafter referred to as a conventional technique) is given as an example.
  • a straight flat road model image in which a travel road image during straight flat road travel is estimated is generated based on the captured image. Then, by measuring the relative distance to the object based on the object position from the lower end in the straight flat road model image and the object position from the lower end in the actual traveling road image, on a traveling road with a road gradient Can also accurately measure the relative distance to the object.
  • the conventional technology has the following problems.
  • the above-described conventional technique uses a method of measuring the relative distance from the target object based on the distance from the lower end to the position of the target object in the traveling road image.
  • the object is not clearly imaged (in the prior art, the ground contact position of the tire of the object is not clearly imaged as shown in FIG. 2).
  • the relative distance from the object cannot be measured at night based on the image.
  • an object of the present invention is to provide a distance measuring device and a distance measuring method capable of measuring a relative distance to an object based on an image even at night.
  • the present invention has the following features.
  • 1st aspect of this invention is the said picked-up image of the imaging means which images the traveling direction of the own vehicle as a captured image, the direct light currently imaged by the captured image, and the reflected light which the said direct light reflected on the road surface of driving
  • a measuring means for measuring the relative distance to the object based on the positions of the direct light and the reflected light of the combinations respectively specified by the specifying means.
  • the specifying unit is configured to determine, for each pixel column in the vertical direction of the captured image, the luminance value of the pixel included in the first region determined in advance in the captured image.
  • the first generation means for generating the vertical direction integrated luminance distribution by integrating, and the vertical direction integrated luminance distribution and a predetermined first threshold value are compared, whereby direct light and reflection in the captured image are obtained.
  • Area specifying means for specifying the second area in which the combination with light is imaged, and the luminance values of the pixels included in each of the second areas in the captured image are integrated for each pixel row in the horizontal direction of the captured image
  • a second generation means for generating the horizontal direction integrated luminance distribution corresponding to each of the second regions, and the measuring means includes a combination of direct lights identified based on the horizontal direction integrated luminance distribution. Position and anti Based on the position of the light, to measure the relative distance to the object.
  • the specifying means is determined in advance in a predetermined first peak threshold value and relatively lower than the first peak threshold value.
  • Storage means for storing each value, and peak values generated in the respective lateral integrated luminance distributions generated by the second generation means were compared with the first peak threshold value and the second peak threshold value.
  • the position of the direct light and the reflected light based on the result and the result of comparing the width of the distribution that generates the peak value of the horizontal integrated luminance distribution with the first distribution width threshold and the second distribution width threshold It further includes a combination specifying means for specifying a combination of positions. , Measuring means, based on the position of the direct light combinations identified and the position of the reflected light by the combination specifying means for measuring a relative distance to the object.
  • the combination specifying unit is configured such that the peak value exceeds the first peak threshold value in the lateral integrated luminance distribution and the width of the distribution is the first.
  • a direct light specifying means for specifying a distribution of a portion that is less than a distribution width threshold and specifying a vertical position as a direct light position in a captured image in which a peak value of the specified distribution occurs; and a horizontal integrated luminance distribution The distribution of the portion in which the peak value is within the range from the first peak threshold value to the second peak threshold value and the distribution width exceeds the second distribution width threshold value is specified and specified.
  • Reflected light specifying means for specifying the vertical position in the captured image where the peak value of the distribution is generated as the position of the direct light, and the combination specifying means is the same horizontal by the direct light specifying means and the reflected light specifying means, respectively.
  • Directional luminance distribution Combine to identify and al identified direct light position and the position of the reflected light.
  • the area specifying unit includes a first integrated luminance distribution in a vertical direction corresponding to a preceding vehicle presence area that is predetermined as an area where the preceding vehicle exists in the captured image, and the first aspect.
  • the second region is specified by comparing with the threshold value.
  • the apparatus further comprises angular velocity detecting means for detecting a rotational angular velocity around an axis passing through the center of gravity of the host vehicle in the vertical direction, and the region specifying means is detected by the angular velocity detecting means.
  • the preceding vehicle presence area is moved in the captured image according to the turning direction and the turning speed of the host vehicle determined based on the rotation angular velocity.
  • the captured image includes an imaging step of capturing the traveling direction of the host vehicle as a captured image, direct light captured in the captured image, and reflected light reflected from the traveling road surface by the direct light. And a measurement step of measuring a relative distance from the object based on the direct light position and the reflected light position of the combination specified in the specific step, respectively.
  • the present invention it is possible to provide a distance measuring device and a distance measuring method capable of measuring a relative distance to an object based on an image even at night.
  • FIG. 1 is a block diagram showing a schematic configuration of the distance measuring apparatus according to the first embodiment.
  • FIG. 2A is a diagram illustrating an example of a camera mounting position and an imaging range.
  • FIG. 2B is a diagram illustrating an example of a camera mounting position and an imaging range.
  • FIG. 3 is a diagram illustrating an example of a captured image captured by the camera.
  • FIG. 4A is a diagram illustrating an example of the vertical direction integrated luminance distribution.
  • FIG. 4B is a diagram illustrating an example of threshold values in the vertical direction integrated luminance distribution.
  • FIG. 5A is a diagram illustrating an example of the horizontal integrated luminance distribution.
  • FIG. 5B is a diagram illustrating an example of the direct light position and the reflected light position.
  • FIG. 5A is a diagram illustrating an example of the horizontal integrated luminance distribution.
  • FIG. 6 is a diagram illustrating an example of a positional relationship between the camera mounting position, the direct light source, and the reflection position.
  • FIG. 7A is a flowchart illustrating processing of the distance measurement unit.
  • FIG. 7B is a flowchart illustrating processing of the distance measurement unit.
  • FIG. 7C is a flowchart illustrating processing of the distance measurement unit.
  • FIG. 8 is a diagram illustrating an example of a preceding vehicle presence area.
  • FIG. 9 is a block diagram showing another schematic configuration of the distance measuring apparatus according to the present invention.
  • FIG. 10 is a diagram illustrating an example of the horizontal integrated luminance distribution.
  • FIG. 1 is a block diagram showing a schematic configuration of a distance measuring apparatus 1 according to the first embodiment of the present invention.
  • the distance measuring device 1 according to the present embodiment includes a camera 101, a distance measuring unit 102, a collision determining unit 103, a display unit 104, an electric brake ECU 105, and an alarm buzzer 106.
  • the distance measuring device 1 will be described as being mounted on a mobile body such as an automobile (hereinafter referred to as the host vehicle).
  • the camera 101 is a CCD (Charge Coupled Device) camera.
  • 2A and 2B are diagrams respectively showing an example of a mounting location of the camera 101 in the host vehicle and an imaging range.
  • 2A is a plan view of the traveling host vehicle looking down in the vertical direction
  • FIG. 2B is a right side view of the host vehicle shown in FIG. 2A.
  • the camera 101 is attached to the rear mirror of the host vehicle so that the traveling direction of the host vehicle can be imaged.
  • the camera 101 sequentially captures the traveling direction of the host vehicle (for example, captures every 1/24 second (one frame)), and captures images (hereinafter referred to as captured images). Image data is generated every time an image is captured.
  • the distance measuring unit 102 acquires image data generated by the camera 101 and measures the relative distance between the host vehicle and the preceding vehicle based on the captured image. When measuring the relative distance from the preceding vehicle, the distance measuring unit 102 generates distance data indicating the measured relative distance. Details of the process in which the distance measuring unit 102 measures the relative distance from the preceding vehicle will be described later.
  • the collision determination unit 103 acquires the generated distance data when the distance measurement unit 102 generates the distance data.
  • the collision determination unit 103 determines the possibility of a collision between the host vehicle and the preceding vehicle based on the relative distance indicated by the acquired distance data, and determines that there is a possibility of a collision A danger signal indicating that there is a possibility of collision is generated. Note that any known technique may be used as a method by which the collision determination unit 103 determines the possibility of collision based on the relative distance.
  • the display unit 104 is typically a display screen that displays information generated by a car navigation system mounted on the host vehicle, or a display screen that displays a traveling speed of the host vehicle, an engine speed, and the like. .
  • the display unit 104 also includes a processing circuit that controls the display content of the display screen.
  • the display unit 104 acquires the generated danger signal.
  • the display unit 104 displays an image indicating the possibility of a collision on the display screen to notify the driver that there is a possibility of the collision.
  • the electric brake ECU 105 is an ECU (Electric Control Unit) that controls an electric brake mounted on the host vehicle.
  • the collision determination unit 103 generates a danger signal
  • the electric brake ECU 105 acquires the generated danger signal.
  • the electric brake ECU 105 controls the braking force of the electric brake mounted on the host vehicle so as to reduce the possibility of a collision.
  • the alarm buzzer 106 includes a speaker capable of outputting sound toward the passenger compartment of the host vehicle and a control circuit for controlling the speaker to output sound.
  • the alarm buzzer 106 outputs a warning sound from the speaker to the passenger compartment to notify the driver of the host vehicle that there is a possibility of collision with the preceding vehicle. .
  • FIG. 3 is a diagram illustrating an example of a captured image when the host vehicle is traveling at night.
  • an object such as a leading vehicle, an oncoming vehicle, and a guide light installed beside the traveling road is captured. Since the captured image shown in FIG. 3 is a captured image at night, details such as the contours of the objects such as the preceding vehicle, the oncoming vehicle, and the guide light are not clearly captured.
  • the direct light directly incident on the camera 101 from the light emitting part for example, a tail lamp in the case of a preceding vehicle
  • the reflected light reflected by the road surface etc. from the light emitting part are clearly imaged. To do.
  • FIG. 3 shows direct light Pvd directly incident on the camera 101 from the tail lamp of the preceding vehicle, reflected light Pvi reflected by the road surface from the tail lamp of the preceding vehicle, and the head lamp of the oncoming vehicle.
  • Direct light Cvd directly incident on the camera 101 direct light Cvi reflected from the road surface of the headlamp of the oncoming vehicle, direct light Rd directly incident on the camera 101 from the guide light, and light emitted from the guide light
  • a typical lane line applied on the surface of the traveling road includes a reflective material (for example, glass beads), and reflects the light emitted from the headlamp of the own vehicle.
  • the lane markings on both sides of the travel path are also shown in the example shown in FIG.
  • the upper left of the captured image is the origin
  • the right horizontal direction from the origin is the positive lateral direction of the captured image
  • the downward direction perpendicular to the origin is the vertical direction. It is assumed that the captured image is in the positive vertical direction.
  • FIG. 4A is a diagram illustrating, as an example, a vertical direction integrated luminance distribution generated by the distance measurement unit 102 according to the present embodiment for the captured image illustrated as an example in FIG. 3.
  • the distance measuring unit 102 according to the present embodiment integrates the luminance value for each pixel column in the vertical direction for the pixels in the predetermined vertical luminance calculation region Tkr, so that the vertical integrated luminance distribution is obtained.
  • Tkr predetermined vertical luminance calculation region
  • FIG. 4B is a diagram illustrating an example of a region determined by the distance measurement unit 102 based on the vertical direction integrated luminance distribution. As shown in FIG. 4B as an example, the distance measurement unit 102 selects adjacent pixel columns having an integrated value that is equal to or greater than the threshold th among the integrated luminance values for each pixel column indicated by the vertical integrated luminance distribution. The combined horizontal area is determined as one horizontal luminance calculation area.
  • FIG. 4B shows, as an example, a case where four areas of horizontal luminance calculation areas Ykr1 to Ykr4 are determined.
  • the vertical height of the horizontal luminance calculation area may be the same height as the vertical luminance calculation area or the same as the number of pixels in the vertical direction of the captured image, as shown in FIG. 4B as an example. It may be any height.
  • the magnitude of the threshold value th is set in advance to an optimum value for detecting the area where the tail lamp of the preceding vehicle in the captured image is captured as the lateral luminance calculation area. More specifically, when the camera 101 captures a captured image in which the information amount of the brightness value of the pixel is 8 bits, the brightness value of the pixel in the captured image is indicated in the range of 0 to 255, respectively.
  • the vertical size of the captured image is 100 pixels
  • the magnitude of the threshold value th in the present embodiment may be predetermined as 10% or 20% of the maximum value, that is, 2550 or 5100.
  • FIG. 5A is a diagram showing an example of the horizontal integrated luminance distribution calculated by the distance measuring unit 102 according to the present embodiment for the horizontal luminance calculation region Ykr2 in the horizontal luminance calculation regions Ykr1 to Ykr4 shown in FIG. 4B. It is.
  • the distance measuring unit 102 performs a feature detection process for detecting the feature of the generated horizontal integrated luminance distribution.
  • FIG. 5B is a diagram showing a horizontal integrated luminance distribution calculated in correspondence with the horizontal luminance calculation region Ykr2 shown as an example in FIG. 5A.
  • the feature detection process of the distance measurement unit 102 will be described by taking as an example the case of detecting the feature of the laterally integrated luminance distribution shown in FIG.
  • the distance measuring unit 102 first extracts, as extraction curves, curves that generate peak values from the generated curve indicating the horizontal integrated luminance distribution.
  • the distance measuring unit 102 When extracting the extraction curve from the horizontal integrated luminance distribution, the distance measuring unit 102 firstly sets the vertical position in the captured image that generates the maximum value of the horizontal integrated luminance distribution to the position where the peak value is generated (example shown in FIG. 5B). Then, it detects as Y1 and Y2). When the position where the peak value is generated is detected, the distance measurement unit 102 generates the respective peak value by scanning the horizontal integrated luminance distribution from the position where the peak value is generated toward both sides in the vertical direction of the captured image. The positions until the horizontal integrated luminance distributions on both sides with respect to the position become zero are detected, and the respective ranges (Ym1 and Ym2 in the example shown in FIG. 5B) are included in the horizontal direction.
  • a curve indicating the integrated luminance distribution is extracted as an extraction curve.
  • the distance measuring unit 102 extracts an extraction curve from the lateral direction integrated luminance distribution shown in FIG. 5B, two extraction curves Bk1 and an extraction curve Bk2 are extracted as shown in FIG.
  • the distance measurement unit 102 specifies the size of the peak value of the extracted extraction curve and the curve width in association with each extraction curve, and completes the feature detection process.
  • the curve width is the width of the intersection where the extracted curve and a second peak threshold value thp2 described later intersect.
  • the distance measurement unit 102 When the distance measurement unit 102 according to the present embodiment completes the feature detection process, the distance measurement unit 102 of the direct light and the reflected light captured in the lateral luminance calculation area based on the peak value and the curve width of the extracted extraction curve. Each position in the vertical direction in the captured image is specified. More specifically, when the distance measurement unit 102 according to the present embodiment completes the feature detection process, the peak value of the extracted extracted curve is set to a first peak threshold value thp1 that is predetermined as described later, and Compared with the second peak threshold value thp2, the curve width of the extracted extracted curve is compared with a first curve width threshold value thpb1 and a second curve width threshold value thpb2 which are predetermined as will be described later. To do.
  • the distance measuring unit 102 directly extracts an extracted curve having a peak value exceeding the first peak threshold value thp1 and a curve width being less than the first curve width threshold value thpb1 among the extracted extracted curves. Judgment is made as a curve indicating the horizontal integrated luminance distribution obtained by integrating the luminance values of the pixels indicating light, and the position in the vertical direction of the captured image where the peak value occurs is directly specified as the light position Yd. Further, the distance measuring unit 102 has a peak value within the range from the first peak threshold value thp1 to the second peak threshold value thp2 in the extracted extracted curve, and the curve width is the second value.
  • the extracted curve Bk2 exceeding the curve width threshold value thpb2 is determined as a curve indicating the horizontal integrated luminance distribution obtained by integrating the luminance values of the pixels indicating the reflected light, and the position in the vertical direction of the captured image where the peak value occurs is reflected. It is specified as the light position Yi.
  • the distance measuring unit 102 compares the peak value Pk1 and the curve width Pkb1 of the extraction curve Bk1 shown as an example in FIG. 5B with the respective threshold values as described above, it is apparent from FIG. Since the peak value Pk1 exceeds the first peak threshold value thp1 and the curve width Pkb1 is less than the first curve width threshold value thpb1, the position Y1 where the peak value Pk1 occurs is directly It is specified as the light position Yd.
  • the extraction curve Bk1 that generates the peak value Pk1 at the position Y1 specified as the direct light position Yd is a curve that indicates a part of the horizontal luminance distribution of the horizontal luminance calculation region Ykr2. Therefore, the direct light position Yd is made to correspond to the horizontal luminance calculation area Ykr2.
  • the distance measurement unit 102 compares the peak value Pk2 and the curve width Pkb2 of the extraction curve Bk2 shown as an example in FIG. 5B with the respective threshold values as described above, FIG.
  • the peak value Pk2 is within the range from the first peak threshold value thp1 to the second peak threshold value thp2, and the curve width Pkb2 is equal to the second curve width threshold value thpb2. Therefore, the position Y2 where the peak value Pk2 occurs is specified as the above-described reflected light position Yi.
  • the extraction curve Bk2 that generates the peak value Pk2 at the position Y2 specified as the reflected light position Yi is a curve indicating a part of the horizontal luminance distribution of the horizontal luminance calculation region Ykr2. Therefore, the reflected light position Yi is made to correspond to the horizontal luminance calculation area Ykr2.
  • the characteristics of the curve indicating the horizontal integrated luminance distribution of the pixels that indicate direct light will be described.
  • the intensity of the direct light is relatively high because the light emitted from the tail lamp of the preceding vehicle is directly incident on the camera 101. Therefore, the curve indicating the horizontal integrated luminance distribution of the pixels indicating direct light has a relatively high peak value. Further, since direct light is directly incident on the camera 101 without being reflected and scattered by the surface of some object, the intensity does not vary. Therefore, the curve width of the curve indicating the horizontal integrated luminance distribution of the pixels indicating the direct light in the captured image is relatively narrow.
  • the reflected light is light that is incident on the camera 101 after the light emitted from the tail lamp of the preceding vehicle is reflected on the traveling road surface.
  • the road surface has irregularities on the surface, it is scattered when light is reflected. That is, the reflected light incident on the camera 101 is incident after being reflected and scattered by the traveling road surface, and therefore has relatively low and uneven intensity. Therefore, the curve indicating the horizontal integrated luminance distribution of the pixels indicating the reflected light in the captured image has a relatively low peak value and a relatively wide curve width.
  • the distance measurement unit 102 compares the peak value of the extraction curve extracted from the lateral luminance distribution as described above.
  • Peak threshold values in this embodiment, the first peak threshold value thp1 and the second peak threshold value thp2
  • the curve width threshold value for comparison with the curve width of the extraction curve In the present embodiment, a first curve width threshold value thpb1 and a second curve width threshold value thpb2) are respectively predetermined.
  • the distance measuring unit 102 specifies the intersection between the extraction curve and the second peak threshold thp2 as the curve width as described above.
  • the distance measuring unit 102 extracts an extraction curve whose peak value exceeds the first peak threshold value thp1 and whose curve width is less than the first curve width threshold value thpb1. Then, it is specified as a curve indicating an integrated value of luminance values of pixels indicating direct light. Therefore, the first peak threshold value thp1 is determined in advance as a relatively large value so that a relatively high peak value of the integrated value of the luminance values of the pixels indicating direct light can be identified as described above. There is a need.
  • the first curve width threshold value thpb1 is set to a relatively small value so that a relatively narrow curve width of the curve indicating the integrated value of the luminance values of the pixels indicating direct light can be identified as described above. It is necessary to determine in advance.
  • the distance measuring unit 102 has a peak value within the range from the first peak threshold value thp1 to the second peak threshold value thp2, and has a curve width of the first peak value.
  • An extraction curve exceeding the curve width threshold value thpb2 of 2 is specified as a curve indicating an integrated value of luminance values of pixels indicating reflected light. Therefore, as described above, the second peak threshold value thp2 has a relatively low peak value of the integrated value of the luminance values of the pixels indicating the reflected light as described above from the first peak threshold value thp1. It is necessary to determine in advance a relatively small value so as to be within the range up to the peak threshold value thp2.
  • the second curve width threshold value thpb2 is set to a relatively large value so that a relatively wide curve width of the curve indicating the integrated value of the luminance values of the pixels indicating the reflected light can be identified. It is necessary to determine in advance.
  • the distance measuring unit 102 directly specifies the light position Yd and the reflected light position Yi after performing the feature detection process.
  • the vertical position in the captured image of the direct light and reflected light captured in the horizontal brightness calculation area Ykr2 in the horizontal brightness calculation area shown in FIG. As an example, the case where the reflected light position Yi is specified is described.
  • the distance measurement unit 102 according to the present embodiment directly performs the feature detection process on all the horizontal luminance calculation regions as well as the horizontal luminance calculation region Ykr2, and then directly performs the light position Yd and the reflection. Each light position Yi is specified, and is associated with the horizontal luminance calculation area.
  • the distance measurement unit 102 determines the specified direct light position Yd and the reflected light position Yi. Based on this, the relative distance from the preceding vehicle is measured.
  • the distance measuring unit 102 uses these positions specified in association with only the horizontal luminance calculation area in which both the direct light position Yd and the reflected light position Yi can be specified. Based on this, the relative distance from the preceding vehicle is measured.
  • FIG. 6 is a diagram illustrating a method in which the distance measuring unit 102 according to the present embodiment measures the relative distance from the preceding vehicle based on the direct light position Yd and the reflected light position Yi.
  • FIG. 6 is a left side view of the host vehicle and a preceding vehicle of the host vehicle viewed from the left side. The preceding vehicle shown in FIG. 6 precedes the host vehicle with a relative distance D.
  • the camera 101 is mounted at a height h from the road surface as shown in FIG.
  • the pitch angle at the position where the direct light source Di (for example, tail lamp) of the preceding vehicle is present with respect to the mounting position of the camera 101 mounted on the host vehicle is indicated by the pitch angle ⁇ .
  • the pitch angle ⁇ of the reflection position Ii at which the direct light source Di of the preceding vehicle reflects on the road surface with respect to the mounting position of the camera 101 mounted on the host vehicle is indicated by the pitch angle ⁇ . .
  • the direct light source Di shown in FIG. 6 is a light source existing at the direct light position Yd specified corresponding to the horizontal luminance calculation region Ykr2 in the captured image shown in FIG. 5B.
  • the description will be continued assuming that the position of the reflection position Ii shown in FIG. 6 on the captured image is the reflected light position Yi specified in correspondence with the horizontal luminance calculation region Ykr2 in the captured image shown in FIG. 5B.
  • the distance measuring unit 102 sets the pitch angle ⁇ and the pitch angle ⁇ for each of all the horizontal luminance calculation regions in which both the direct light position Yd and the reflected light position Yi can be specified. Both are calculated and the relative distance D is calculated as the relative distance to the preceding vehicle as described above.
  • the distance measuring unit 102 calculates the relative distance D in association with each horizontal luminance calculation region.
  • the distance measuring unit 102 generates distance data indicating the calculated relative distance D.
  • FIGS. 7A to 7C are flowcharts showing the flow of processing of the distance measuring unit 102 according to this embodiment.
  • step S101 the distance measuring unit 102 acquires image data from the camera 101, and generates the above-described vertical integrated luminance distribution for the captured image indicated by the acquired image data.
  • step S102 the distance measuring unit 102 determines the horizontal luminance calculation region in the captured image as described above based on the vertical integrated luminance distribution generated in step S101.
  • step S103 the distance measuring unit 102 generates the horizontal integrated luminance distribution as described above in correspondence with all the horizontal luminance calculation regions determined in step S102.
  • step S104 the distance measuring unit 102 determines the direct light position Yd and the reflected light position Yi as described above based on the horizontal integrated luminance distribution generated in step S103 in association with the horizontal luminance calculation area.
  • a position specifying process is performed for specifying in correspondence with the direction luminance calculation area. Details of the position specifying process will be described later.
  • step S105 the distance measuring unit 102 obtains the relative distance D from the preceding vehicle based on the direct light position Yd and the reflected light position Yi specified in step S104. Further, when the relative distance D is obtained in step S105, the distance measuring unit 102 generates distance data indicating the obtained relative distance D.
  • step S104 details of the position specifying process in step S104 will be described.
  • step S201 the distance measurement unit 102 performs processing for directly specifying the light position Yd and the reflected light position Yi from the horizontal luminance calculation area generated by associating the horizontal integrated luminance distribution in step S103. An area that does not exist is selected and set as a process target area.
  • step S202 the distance measuring unit 102, as described above, from the horizontal integrated luminance distribution generated in step S103 corresponding to the horizontal luminance calculation region set as the processing target region in step S201,
  • the extracted curve Bk2 is extracted, and the peak value and the curve width of each extracted curve are specified as features.
  • step S203 the distance measurement unit 102 sets any one extraction curve that is not set as the processing target curve from the extraction curves Bk1 and Bk2 extracted in step S202 as the processing target curve.
  • the distance measurement unit 102 may sequentially set the extracted curve extracted in step S202 from the extracted curve existing at the position closest to the vertical direction from the origin of the captured image, Any one extraction curve may be set at random.
  • step S204 the distance measuring unit 102 determines whether or not the peak value of the extraction curve set in step S203 exceeds the first peak threshold value thp1.
  • the process proceeds to step S205.
  • the distance measurement unit 102 determines in step S204 that the peak value of the extraction curve set in step S203 does not exceed the first peak threshold value thp1
  • the process proceeds to step S207.
  • step S205 the distance measuring unit 102 determines whether or not the curve width of the extracted curve set in step S203 is less than the first curve width threshold thb1.
  • the process proceeds to step S206.
  • the distance measuring unit 102 determines in step S205 that the curve width is not less than the first curve width threshold thb1, the process proceeds to step S207.
  • step S206 the distance measuring unit 102 identifies the extraction curve set in step S203 as a curve indicating an integrated value of luminance values of pixels that indicate direct light in the captured image.
  • the distance measuring unit 102 can determine the extraction curve as a curve indicating the integrated value of the luminance values of the pixels indicating direct light in step S206 because the peak value of the extraction curve is the first peak threshold thp1 in step S204.
  • the curve width is determined to be less than the first curve width threshold value thpb1 in step S205, and the extracted curve is determined to be a curve indicating direct light. This is because the process of step S206 is performed.
  • step S207 the distance measuring unit 102 determines whether or not the peak value of the extraction curve set in step S203 is within a range from the first peak threshold value thp1 to the second peak threshold value thp2. .
  • the process proceeds to step S208.
  • the distance measurement unit 102 determines in step S207 that the peak value is not within the range from the first peak threshold value thp1 to the second peak threshold value thp2, the process proceeds to step S211.
  • step S208 the distance measuring unit 102 determines whether or not the curve width of the extracted curve set in step S203 exceeds the second curve width threshold thb2.
  • the process proceeds to step S209.
  • the distance measuring unit 102 determines in step S208 that the curve width does not exceed the second curve width threshold thb2
  • the process proceeds to step S211.
  • step S209 the distance measuring unit 102 specifies the extraction curve set in step S203 as a curve indicating an integrated value of luminance values of pixels indicating reflected light in the captured image.
  • the distance measuring unit 102 can determine the extraction curve as a curve indicating the integrated value of the luminance values of the pixels indicating the reflected light in step S209 because the peak value of the extraction curve is the first peak threshold thp1 in step S207.
  • the second peak threshold value thp2 and it is determined in step S208 that the curve width exceeds the second curve threshold value thpb2, and the extraction curve is a curve indicating reflected light. This is because the processing of step S209 is performed when the above-described conditions that can be determined to exist are satisfied.
  • step S210 the distance measuring unit 102 specifies the position where the peak value of the extraction curve set in step S203 is generated as the position of the light source. Specifically, when the distance measurement unit 102 proceeds from step S206 to step S210, the extracted curve set in step S203 can be determined to be a curve indicating direct light as described above. The position in the vertical direction in the captured image in which the peak value occurs is set as the direct light position Yd, and is specified in association with the horizontal luminance calculation area set as the processing target area.
  • the extraction curve set in step S203 can be determined to be a curve indicating reflected light as described above, and thus the peak value is The position in the vertical direction in the captured image to be generated is set as the reflected light position Yi, and is specified in association with the horizontal luminance calculation area set as the processing target area.
  • step S211 the distance measurement unit 102 determines whether there is an extraction curve that is not set as the processing target curve among the extraction curves extracted in step S202 from the horizontal luminance calculation region set as the processing target region. Judging. When the distance measurement unit 102 determines in step S211 that there is an extracted curve that is not set as a processing target curve, the process returns to step S203. On the other hand, when the distance measurement unit 102 determines in step S211 that there is no extracted curve that is not set as the processing target curve, the process proceeds to step S212.
  • step S212 the distance measurement unit 102 determines whether there is a horizontal luminance calculation region that is not set as a processing target region among the horizontal luminance calculation regions generated by associating the horizontal integrated luminance distribution in step S103. Determine whether.
  • the process returns to step S201.
  • the distance measurement unit 102 determines in step S212 that there is no horizontal luminance calculation region that is not set as the processing target region, the distance measurement unit 102 completes the processing illustrated in the flowchart of FIG. 7B and follows the flowchart of FIG. 7A. The process proceeds to step S105.
  • step S301 the distance measurement unit 102 does not set the calculation target area from the horizontal luminance calculation areas specified in correspondence with both the direct light position Yd and the reflected light position Yi in step S104.
  • the luminance calculation area is set as the calculation target area.
  • step S301 if there is no horizontal luminance calculation area specified by the distance measuring unit 102h corresponding to both the direct light position Yd and the reflected light position Yi, the process illustrated in FIG. 7C is immediately performed. Upon completion, the processing may be returned to step S101 according to the flowchart shown in FIG. 7A.
  • step S302 the distance measuring unit 102 calculates the pitch angle ⁇ as described above based on the direct light position Yd specified corresponding to the horizontal luminance calculation area set as the calculation target area in step S301.
  • step S303 the distance measuring unit 102 calculates the pitch angle ⁇ as described above based on the reflected light position Yi specified corresponding to the horizontal luminance calculation area set as the calculation target area in step S301.
  • step S304 the distance measurement unit 102, as described above, based on the pitch angle ⁇ calculated in step S302, the pitch angle ⁇ calculated in step S303, and the known height h of the mounting position of the camera 101 in the host vehicle.
  • the relative distance D is calculated to correspond to the horizontal luminance calculation region set as the calculation target region in step S301.
  • step S305 the distance measurement unit 102 does not set the calculation target area from the horizontal luminance calculation areas specified in correspondence with both the direct light position Yd and the reflected light position Yi in step S104. It is determined whether there is a luminance calculation area.
  • the process returns to step S301.
  • the process proceeds to step S306.
  • step S306 the distance measurement unit 102 generates distance data indicating all the calculated relative distances D, ends the process shown in the flowchart of FIG. 7C, and performs the process in step S101 according to the flowchart of FIG. 7A. return.
  • the distance measurement unit 102 can sequentially measure the relative distance from the preceding vehicle by repeating the processes shown in the flowcharts of FIGS. 7A to 7C at predetermined time intervals.
  • processing shown in the flowcharts of FIGS. 7A to 7C may be started when the ignition switch or the accessory switch of the host vehicle is turned on, and may be ended when it is turned off, for example.
  • the distance measurement unit 102 has the position (direct light position) in the captured image of the direct light captured in the captured image and the reflected light reflected by the traveling light on the road surface.
  • a combination of Yd and reflected light position Yi) is specified. This is because the horizontal luminance calculation region, that is, the region in the captured image in which the combination of the direct light and the reflected light is imaged is identified by comparing the vertical integrated luminance distribution and the threshold th.
  • the direct light position Yd and the reflected light position Yi are specified based on the extraction curve extracted from the horizontal integrated luminance distribution generated corresponding to the horizontal luminance calculation area, and the same This can be realized by corresponding to the horizontal luminance calculation area. Then, by calculating the relative distance D based on the combined direct light position Yd and reflected light position Yi as described in the first embodiment, the relative distance to the object such as the preceding vehicle is measured. be able to.
  • the extraction curve described in the first embodiment corresponds to a distribution of a portion where a peak value occurs in the horizontal direction integrated luminance distribution.
  • the distance measuring unit 102 for example, even at night, the direct light emitted from the direct light source mounted on the preceding vehicle and the light emitted from the direct light source travel. Based on the reflected light reflected on the road surface, the relative distance to the preceding vehicle can be measured.
  • the distance measuring unit 102 sets the peak value and the curve width of all the extracted curves as the first peak threshold value thp1, the second peak threshold value thp2, and the first curve width threshold.
  • Each of the value thpb1 and the second curve width threshold value thpb2 is compared as described in the first embodiment.
  • the distance measurement unit 102 randomly determines one of the extraction curves, The vertical position in the captured image where the peak value of the extraction curve occurs may be specified as the direct light position Yd.
  • the distance measurement unit 102 randomly determines any one extraction curve, The position in the vertical direction in the captured image where the peak value of the extraction curve occurs may be specified as the reflected light position Yi.
  • the distance measuring unit 102 has been described as measuring the relative distance D with the preceding vehicle.
  • the direct light emitted from the headlamp of the oncoming vehicle as the direct light emitted from the direct light source
  • the direct light emitted from the direct light source as the direct light emitted from the direct light source
  • the direct light position Yd and the reflected light position Yi are specified based on the reflected light reflected by the road surface, and the relative distance from the oncoming vehicle is calculated as the relative distance from the preceding vehicle based on these positions. May end up. Therefore, when it is not preferable to calculate the relative distance to the oncoming vehicle, as another embodiment, the distance measuring unit 102 is considered to have a preceding vehicle as shown in FIG.
  • a vertical direction integrated luminance distribution is generated, and the generated vertical direction integrated luminance is generated.
  • a horizontal luminance calculation area may be determined based on the distribution, and in the determined horizontal luminance calculation area, a feature detection process may be performed to directly identify the light position Yd and the reflected light position Yi, and calculate the relative distance. .
  • the distance measuring unit 102 is not affected by the light source mounted on the object that is not the preceding vehicle such as the oncoming vehicle, and is relative to the preceding vehicle based only on the light source mounted on the preceding vehicle. The distance can be calculated.
  • the distance measurement unit 102 performs the feature detection process only on the lateral luminance calculation area determined in the preceding vehicle presence area Sr as described above, specifies the direct light position Yd and the reflected light position Yi, and the relative distance.
  • the direct light source Di mounted on the preceding vehicle may deviate from the preceding vehicle existence area Sr. Therefore, in another embodiment, the schematic configuration of the distance measuring device 1 according to the first embodiment may be modified as shown in FIG.
  • the distance measuring device 2 shown in FIG. 9 is different from the distance measuring device 1 according to the first embodiment in that it further includes a yaw rate sensor 107.
  • the yaw rate sensor 107 sequentially detects the rotational angular velocity around the axis passing through the center of gravity of the host vehicle in the vertical direction, and generates rotational angular velocity data indicating the detected rotational angular velocity.
  • the distance measuring unit 102 provided in the distance measuring device 2 acquires rotational angular velocity data generated by the yaw rate sensor 107.
  • the distance measuring unit 102 determines the direction and curvature of the curve in which the host vehicle is traveling based on the rotational angular velocity indicated by the acquired rotational angular velocity data, and the determined direction and the magnitude of the curvature. Accordingly, the preceding vehicle presence area Sr is moved. More specifically, when the distance measuring unit 102 provided in the distance measuring device 2 indicates that the rotational angular velocity indicated by the rotational angular velocity data indicates that the host vehicle is traveling on a curved road curved in the right direction.
  • the curvature of the preceding vehicle presence area Sr is determined according to the magnitude of the rotational angular velocity, and is moved in the right direction in the captured image according to the determined curvature.
  • the rotational angular velocity indicated by the rotational angular velocity data indicates that the host vehicle is traveling on a curved road that curves in the left direction
  • the distance measuring unit 102 provided in the distance measuring device 2 has a preceding vehicle.
  • the curvature of the region Sr is determined according to the magnitude of the rotational angular velocity, and the region Sr is moved to the left in the captured image according to the determined curvature.
  • the distance measuring unit 102 provided in the distance measuring device 2 can detect the relative distance from the preceding vehicle based on the direct light source of only the preceding vehicle even when the host vehicle or the preceding vehicle is traveling on a curved road. Can be measured.
  • the camera 101 is a CCD camera.
  • the camera 101 sequentially captures the traveling direction of the host vehicle, such as a CMOS (Complementary Metal Oxide ⁇ ⁇ Semiconductor) camera.
  • CMOS Complementary Metal Oxide ⁇ ⁇ Semiconductor
  • other types of cameras may be used.
  • the alarm buzzer 106 outputs a warning sound when a danger signal is acquired by the electric brake ECU 105.
  • the distance measuring device 1 is configured so that the alarm buzzer 106 can directly acquire the danger signal generated by the collision determination unit 103, and the danger signal generated by the collision determination unit 103 is directly acquired. When this occurs, the alarm buzzer 106 may output a warning sound.
  • the distance is measured based on image data indicating a captured image captured at night by the camera 101.
  • image data indicating a captured image captured at night by the camera 101.
  • an image obtained by performing binarization processing or edge detection processing on an image captured at night by the camera 101 and extracting only direct light and reflected light is shown.
  • the distance may be measured based on the image data.
  • first peak threshold value thp1 and the second peak threshold value thp2 described in the first embodiment are changed to the first curve width threshold value thpb1 and the second curve width threshold value thpb2. May be stored in advance in a storage unit (not shown).
  • the horizontal integrated from the position where the peak value occurs in the horizontal integrated luminance distribution toward both sides in the vertical direction of the captured image By scanning the luminance distribution, the positions until the horizontal accumulated luminance distributions on both sides with respect to the positions where the respective peak values are generated become zero are detected, and the horizontal range of each range included in each position is detected.
  • the direction integrated luminance distribution was extracted as an extraction curve.
  • FIG. 10 when an extraction curve is extracted from a lateral integrated luminance distribution having a minimum value without becoming zero, each peak value is generated.
  • Y1 and Y2 are detected until the respective minimum integrated values are reached, and the respective ranges included in the respective positions (FIG. In the example shown in FIG. 10, the horizontal direction integrated luminance distributions of Ym1 and Ym2) may be extracted as extraction curves.
  • a distance measuring device capable of measuring a relative distance from a preceding vehicle based on an image even at night, which is useful for a distance measuring device mounted on a moving body such as an automobile.

Landscapes

  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Measurement Of Optical Distance (AREA)
  • Traffic Control Systems (AREA)

Abstract

 夜間においても、画像に基づいて対象物との相対距離を測定できる距離測定装置、及び距離測定方法を提供する。自車両の走行方向を撮像画像として撮像する撮像手段と、撮像画像に撮像されている直接光と当該直接光が走行路面で反射した反射光との当該撮像画像における位置の組み合わせをそれぞれ特定する特定手段と、特定手段によってそれぞれ特定された組み合わせの直接光の位置と反射光の位置とに基づき、対象物との相対距離を測定する測定手段とを備える。

Description

距離測定装置、及び距離測定方法
 本発明は、距離測定装置に関し、より特定的には、自動車などの移動体に搭載される距離測定装置に関する。
 近年、自動車などの移動体には、走行方向をカメラで撮像した画像に基づいて先行車両との相対距離を測定する方法を用いた距離測定装置が搭載されている。先行車両との相対距離を測定するこのような方法として、例えば、特許文献1に記載の位置計測方法(以下、従来技術と称する)が一例として挙げられる。
 従来技術では、撮像画像に基づいて、直線平坦路走行時の走行路画像を推定した直線平坦路モデル画像を生成する。そして、直線平坦路モデル画像における下端からの対象物位置と、実走行路画像における下端からの対象物位置とに基づいて対象物との相対距離を測定することにより、道路勾配がある走行路においても対象物との相対距離を精度よく測定できる。
特開平9-48299号公報
 しかしながら、上記従来技術では、以下に述べるような課題を有する。すなわち、上記従来技術では、走行路画像における下端から対象物の位置までの距離に基づいて、当該対象物との相対距離を測定する方法を用いている。しかし、夜間に撮像された画像では、対象物が明確に撮像されない(従来技術では、図2に示すように対象物のタイヤの接地位置が明確に撮像されない)。このため、従来技術では、夜間において対象物との相対距離を画像に基づいて測定することができない。
 それ故に、本発明は、夜間においても、画像に基づいて対象物との相対距離を測定できる距離測定装置、及び距離測定方法を提供することを目的とする。
 上記目的を達成するために本発明は、以下に示すような特徴を有する。
 本発明の第1の局面は、自車両の走行方向を撮像画像として撮像する撮像手段と、撮像画像に撮像されている直接光と当該直接光が走行路面で反射した反射光との当該撮像画像における位置の組み合わせをそれぞれ特定する特定手段と、特定手段によってそれぞれ特定された組み合わせの直接光の位置と反射光の位置とに基づき、対象物との相対距離を測定する測定手段とを備える。
 本発明の第2の局面は、上記第1の局面において、特定手段は、撮像画像において予め定められた第1の領域に含まれる画素の輝度値を当該撮像画像の縦方向の画素列毎に積算することにより縦方向積算輝度分布を生成する第1の生成手段と、縦方向積算輝度分布と予め定められた第1のしきい値とを比較することにより、撮像画像において直接光、及び反射光との組み合わせが撮像されている第2の領域を特定する領域特定手段と、撮像画像における第2の領域のそれぞれに含まれる画素の輝度値を当該撮像画像の横方向の画素列毎に積算することにより横方向積算輝度分布を当該第2の領域にそれぞれ対応させて生成する第2の生成手段とを含み、測定手段は、横方向積算輝度分布に基づいて特定された組み合わせの直接光の位置と反射光の位置とに基づき、対象物との相対距離を測定する。
 本発明の第3の局面は、上記第2の局面において、特定手段は、予め定められた第1のピークしきい値と、当該第1のピークしきい値よりも相対的に低く予め定められた第2のピークしきい値と、予め定められた第1の分布幅しきい値と、当該第1の分布幅しきい値よりも相対的に大きく予め定められた第2の分布幅しきい値とをそれぞれ記憶する記憶手段と、第2の生成手段によって生成されたそれぞれの横方向積算輝度分布に生じるピーク値を第1のピークしきい値、及び第2のピークしきい値と比較した結果と、当該横方向積算輝度分布のピーク値を生じる分布の幅を第1の分布幅しきい値、及び第2の分布幅しきい値と比較した結果に基づき直接光の位置、及び反射光の位置の組み合わせを特定する組み合わせ特定手段をさらに含み、測定手段は、組み合わせ特定手段によって特定された組み合わせの直接光の位置と反射光の位置とに基づき、対象物との相対距離を測定する。
 本発明の第4の局面は、上記第3の局面において、組み合わせ特定手段は、横方向積算輝度分布の中でピーク値が第1のピークしきい値を超え、且つ分布の幅が第1の分布幅しきい値未満となる部分の分布を特定し、特定した分布のピーク値が生じる撮像画像における縦方向の位置を直接光の位置として特定する直接光特定手段と、横方向積算輝度分布の中でピーク値が第1のピークしきい値から第2のピークしきい値までの範囲内であり、且つ分布の幅が第2の分布幅しきい値を超える部分の分布を特定し、特定した分布のピーク値が生じる撮像画像における縦方向の位置を直接光の位置として特定する反射光特定手段とを含み、組み合わせ特定手段は、直接光特定手段、及び反射光特定手段によってそれぞれ同一の横方向積算輝度分布から特定された直接光の位置と反射光の位置とを特定して組み合わせる。
 本発明の第5の局面は、上記第4の局面において、領域特定手段は、撮像画像において先行車両が存在する領域として予め定められた先行車両存在領域に対応する縦方向積算輝度分布と第1のしきい値とを比較することにより第2の領域を特定する。
 本発明の第6の局面は、上記第5の局面において、自車両の重心を鉛直方向に通る軸周りの回転角速度を検出する角速度検出手段をさらに備え、領域特定手段は、角速度検出手段によって検出された回転角速度に基づいて判断した自車両の旋回方向と旋回速度とに応じて先行車両存在領域を撮像画像内で移動させる。
 本発明の第7の局面は、自車両の走行方向を撮像画像として撮像する撮像ステップと、撮像画像に撮像されている直接光と当該直接光が走行路面で反射した反射光との当該撮像画像における位置の組み合わせをそれぞれ特定する特定ステップと、特定ステップにおいてそれぞれ特定された組み合わせの直接光の位置と反射光の位置とに基づき、対象物との相対距離を測定する測定ステップとを備える。
 本発明によれば、夜間においても、画像に基づいて対象物との相対距離を測定できる距離測定装置、及び距離測定方法を提供できる。
図1は、第1の実施形態に係る距離測定装置の概略構成を示すブロック図である。 図2Aは、カメラの搭載位置、及び撮像範囲の一例を示す図である。 図2Bは、カメラの搭載位置、及び撮像範囲の一例を示す図である。 図3は、カメラによって撮像された撮像画像の一例を示す図である。 図4Aは、縦方向積算輝度分布の一例を示す図である。 図4Bは、縦方向積算輝度分布におけるしきい値の一例を示す図である。 図5Aは、横方向積算輝度分布の一例を示す図である。 図5Bは、直接光位置、及び反射光位置の一例を示す図である。 図6は、カメラの搭載位置、直接光原、及び反射位置の位置関係の一例を示す図である。 図7Aは、距離測定部の処理を示すフローチャートである。 図7Bは、距離測定部の処理を示すフローチャートである。 図7Cは、距離測定部の処理を示すフローチャートである。 図8は、先行車両存在領域の一例を示す図である。 図9は、本発明に係る距離測定装置の他の概略構成を示すブロック図である。 図10は、横方向積算輝度分布の一例を示す図である。
 (第1の実施形態)
 図1は、本発明の第1の実施形態に係る距離測定装置1の概略構成を示すブロック図である。本実施形態に係る距離測定装置1は、カメラ101と、距離測定部102と、衝突判断部103と、表示部104と、電動ブレーキECU105と、警報ブザー106とを備える。尚、本実施形態では、距離測定装置1が自動車などの移動体(以下、自車両と称する)に搭載されるものとして説明する。
 カメラ101は、CCD(Charge Coupled Device)カメラである。図2A、及び図2Bは、カメラ101の自車両における搭載箇所と、撮像範囲との一例をそれぞれ示す図である。図2Aは走行中の自車両を鉛直方向に見下ろした平面図であり、図2Bは、図2Aに示す自車両の右側面図である。カメラ101は、図2A、及び図2Bに一例としてそれぞれ示すように、自車両の走行方向を撮像可能に自車両のルームミラーに取り付けられる。カメラ101は、図2A、及び図2Bにそれぞれ示すように自車両の走行方向を逐次撮像(例えば、24分の1秒(1フレーム)毎に撮像)し、撮像した画像(以下、撮像画像と称する)を示す画像データを、画像を撮像する度に生成する。
 距離測定部102は、カメラ101によって生成される画像データを取得し、撮像画像に基づいて自車両と先行車両との相対距離を測定する。距離測定部102は、先行車両との相対距離を測定すると、測定した相対距離を示す距離データを生成する。距離測定部102が先行車両との相対距離を測定する処理の詳細については後述する。
 衝突判断部103は、距離測定部102によって距離データが生成されたとき、生成された距離データを取得する。衝突判断部103は、距離データを取得すると、取得した距離データによって示される相対距離に基づいて、自車両と先行車両との衝突の可能性を判断し、衝突する可能性があると判断したときに、衝突する可能性があることを示す危険信号を生成する。尚、衝突判断部103が、相対距離に基づいて衝突する可能性を判断する手法は、任意の周知技術を用いてよい。
 表示部104は、典型的には、自車両に搭載されるカーナビゲーションシステムによって生成される情報を表示する表示画面、或いは自車両の走行速度、及びエンジンの回転数などを表示する表示画面である。また、表示部104は、その表示画面の表示内容を制御する処理回路も備えている。表示部104は、衝突判断部103によって危険信号が生成されたとき、生成された危険信号を取得する。危険信号を取得すると、表示部104は、衝突する可能性があることを示す画像をその表示画面に表示して、衝突の可能性があることを運転者に通知する。
 電動ブレーキECU105は、自車両に搭載される電動ブレーキを制御するECU(Electric Control Unit)である。電動ブレーキECU105は、衝突判断部103によって危険信号が生成されたとき、生成された危険信号を取得する。危険信号を取得すると、電動ブレーキECU105は、衝突する可能性を低減するように自車両に搭載される電動ブレーキの制動力を制御する。
 警報ブザー106は、自車両の車室内に向けて音声を出力可能なスピーカー、及び当該スピーカーを制御して音声を出力させる制御回路などからなる。警報ブザー106は、電動ブレーキECU105によって危険信号が取得されたとき、前述のスピーカーから車室内に警告音を出力させて、自車両の運転者に先行車両と衝突する可能性があることを通知する。
 以上が、本実施形態に係る距離測定装置1の概略構成の説明である。次に、距離測定部102が先行車両との相対距離を測定するときの距離測定処理について説明する。
 図3は、夜間に自車両が走行しているときの撮像画像の一例を示す図である。図3に示す撮像画像には、先行車両、対向車両、及び走行路の脇に設置されている誘導灯などの対象物が撮像されている。そして、図3に示す撮像画像は、夜間の撮像画像であるため、先行車両、対向車両、及び誘導灯などの対象物の輪郭など、細部が鮮明に撮像されておらず、これらの対象物が有する発光部(例えば、先行車両であればテールランプ)からカメラ101に直接入射する直接光、及びこれらの発光部から発せられた光が路面等で反射した反射光が鮮明に撮像されているものとする。
 より具体的には、図3には、先行車両のテールランプからカメラ101に直接入射する直接光Pvd、先行車両のテールランプから発せられた光が路面で反射した反射光Pvi、対向車両のヘッドランプからカメラ101に直接入射する直接光Cvd、対向車両のヘッドランプから発せられた光が路面で反射した直接光Cvi、誘導灯からカメラ101に直接入射する直接光Rd、及び誘導灯から発せられた光が路面で反射した反射光Riが鮮明に撮像されている画像の一例を示している。また、走行路の表面上に塗布される典型的な区画線には、反射材料(例えば、ガラスビーズなど)が含まれており、自車両のヘッドランプから発せられた光を反射した、自車両の走行路の両側の区画線も、図3に示す一例には図示されている。尚、本実施形態の説明では、図3に一例として示すように撮像画像の左上を原点とし、当該原点から水平な右方向を撮像画像の正の横方向とし、当該原点から垂直な下方向を撮像画像の正の縦方向であるものとする。
 本実施形態に係る距離測定部102は、カメラ101から画像データを取得すると、まず、撮像画像を構成する画素の輝度値を縦方向の画素列毎に積算して計算した積算輝度分布(以下、縦方向積算輝度分布と称する)を生成する。図4Aは、本実施形態に係る距離測定部102が、図3に一例として示した撮像画像について生成した縦方向積算輝度分布を一例として示す図である。本実施形態に係る距離測定部102は、図4Aに示すように予め定められた縦方向輝度計算領域Tkr内の画素について縦方向の画素列毎に輝度値を積算して縦方向積算輝度分布を生成する。
 縦方向積算輝度分布を生成すると、距離測定部102は、生成した縦方向積算輝度分布の中で輝度の積算値が予め定められたしきい値th以上となる領域を決定する。図4Bは、縦方向積算輝度分布に基づいて距離測定部102が決定した領域の一例を示す図である。図4Bに一例として示すように、距離測定部102は、縦方向積算輝度分布で示される画素列毎の輝度の積算値の中で、しきい値th以上となる積算値の隣り合う画素列をまとめた横方向の領域を1つの横方向輝度計算領域として決定する。図4Bには、一例として、横方向輝度計算領域Ykr1~Ykr4の4つの領域が決定された場合を示している。
 尚、横方向輝度計算領域の縦方向の高さは、図4Bに一例として示すように、縦方向輝度計算領域と同じ高さであってもよいし、撮像画像の縦方向の画素数と同じであってもよいし、任意の高さであってもよい。
 また、しきい値thの大きさは、撮像画像における先行車両のテールランプが撮像されている領域を横方向輝度計算領域として検出するのに最適な値に予め定めておくものとする。より具体的には、画素の輝度値の情報量が8ビットの撮像画像をカメラ101が撮像する場合、当該撮像画像における画素の輝度値は、それぞれ0乃至255の範囲で示される。ここで、例えば、撮像画像の縦方向の大きさが100画素であるとすると、縦方向積算輝度分布の最大値は、100×255=25500となる。本実施形態におけるしきい値thの大きさは、一例として、この最大値の10%、或いは20%の大きさ、すなわち、2550、或いは5100に予め定めてもよい。
 距離測定部102は、横方向輝度計算領域を決定すると、決定した横方向輝度計算領域に含まれる横方向の画素列毎の輝度値を積算して計算した積算輝度分布(以下、横方向積算輝度分布と称する)を生成する。図5Aは、本実施形態に係る距離測定部102が、図4Bに示す横方向輝度計算領域Ykr1~Ykr4の中で、横方向輝度計算領域Ykr2について計算した横方向積算輝度分布の一例を示す図である。
 そして、横方向輝度計算領域のそれぞれに対応させて横方向積算輝度分布を生成すると、距離測定部102は、生成した横方向積算輝度分布の特徴を検出する特徴検出処理をする。
 図5Bは、図5Aに一例として示した横方向輝度計算領域Ykr2に対応させて計算した横方向積算輝度分布を示す図である。以下、本実施形態に係る距離測定部102の特徴検出処理について、図5Bに示す横方向積算輝度分布の特徴を検出する場合を一例に挙げて説明する。特徴検出処理を開始すると、距離測定部102は、まず、生成した横方向積算輝度分布を示す曲線からピーク値を生じる曲線をそれぞれ抽出曲線として抽出する。
 横方向積算輝度分布から抽出曲線を抽出するとき、距離測定部102は、まず、横方向積算輝度分布の極大値を生じる撮像画像における縦方向の位置をピーク値を生じる位置(図5Bに示す例では、Y1、及びY2)として検出する。ピーク値を生じる位置を検出すると、距離測定部102は、ピーク値を生じるそれぞれの位置から撮像画像の縦方向の両側に向かって横方向積算輝度分布を走査することにより、それぞれのピーク値を生じる位置を基準とする両側の横方向積算輝度分布がそれぞれゼロになるまでの位置を検出して、互いの位置に含まれるそれぞれの範囲(図5Bに示す例では、Ym1、及びYm2)の横方向積算輝度分布を示す曲線を、それぞれ抽出曲線として抽出する。距離測定部102が、図5Bに示す横方向積算輝度分布から抽出曲線を抽出した場合には、同図に示すように2つの抽出曲線Bk1、及び抽出曲線Bk2が抽出される。
 抽出曲線を抽出すると、距離測定部102は、抽出した抽出曲線のピーク値の大きさと、曲線幅とをそれぞれの抽出曲線に対応させて特定し、特徴検出処理を完了する。ここで、曲線幅とは、抽出曲線と後述する第2のピークしきい値thp2とが交わる交点の幅である。
 本実施形態に係る距離測定部102は、特徴検出処理を完了すると、抽出した抽出曲線のピーク値と曲線幅とに基づいて、横方向輝度計算領域に撮像されている直接光、及び反射光の撮像画像における縦方向の位置をそれぞれ特定する。より具体的には、本実施形態に係る距離測定部102は、特徴検出処理を完了すると、抽出した抽出曲線のピーク値を後述するように予め定められた第1のピークしきい値thp1、及び第2のピークしきい値thp2と比較し、抽出した抽出曲線の曲線幅を後述するように予め定められた第1の曲線幅しきい値thpb1、及び第2の曲線幅しきい値thpb2と比較する。
 そして、距離測定部102は、抽出した抽出曲線の内、ピーク値が第1のピークしきい値thp1を超え、且つ曲線幅が第1の曲線幅しきい値thpb1未満である抽出曲線を、直接光を示す画素の輝度値を積算した横方向積算輝度分布を示す曲線として判断して、そのピーク値が生じる撮像画像の縦方向における位置を直接光位置Ydとして特定する。また、距離測定部102は、抽出した抽出曲線の内、ピーク値が第1のピークしきい値thp1から第2のピークしきい値thp2までの範囲内であって、且つ曲線幅が第2の曲線幅しきい値thpb2を超える抽出曲線Bk2を反射光を示す画素の輝度値を積算した横方向積算輝度分布を示す曲線として判断して、そのピーク値が生じる撮像画像の縦方向における位置を反射光位置Yiとして特定する。
 本実施形態に係る距離測定部102が、図5Bに一例として示す抽出曲線Bk1のピーク値Pk1と曲線幅Pkb1とを上述したようにそれぞれのしきい値と比較した場合には、同図から明らかなように、ピーク値Pk1が第1のピークしきい値thp1を超え、且つ曲線幅Pkb1が第1の曲線幅しきい値thpb1未満であるので、そのピーク値Pk1が生じる位置Y1を前述の直接光位置Ydとして特定する。そして、本実施形態に係る距離測定部102は、直接光位置Ydとして特定した位置Y1にピーク値Pk1を生じる抽出曲線Bk1が横方向輝度計算領域Ykr2の横方向輝度分布の一部を示す曲線であるため、当該直接光位置Ydを横方向輝度計算領域Ykr2に対応させる。
 一方、本実施形態に係る距離測定部102が、図5Bに一例として示す抽出曲線Bk2のピーク値Pk2と曲線幅Pkb2とを上述したようにそれぞれのしきい値と比較した場合には、同図から明らかなように、ピーク値Pk2が第1のピークしきい値thp1から第2のピークしきい値thp2までの範囲内であって、且つ曲線幅Pkb2が第2の曲線幅しきい値thpb2を超えるので、そのピーク値Pk2が生じる位置Y2を前述の反射光位置Yiとして特定する。そして、本実施形態に係る距離測定部102は、反射光位置Yiとして特定した位置Y2にピーク値Pk2を生じる抽出曲線Bk2が横方向輝度計算領域Ykr2の横方向輝度分布の一部を示す曲線であるため、当該反射光位置Yiを横方向輝度計算領域Ykr2に対応させる。
 ここで、直接光、及び反射光をそれぞれ示す画素の横方向積算輝度分布における積算輝度分布曲線の特徴について説明する。
 まず、直接光を示す画素の横方向積算輝度分布を示す曲線の特徴について説明する。直接光は、先行車両のテールランプから発せられた光がカメラ101に直接入射するため、強度が相対的に高くなる。したがって、直接光を示す画素の横方向積算輝度分布を示す曲線は、ピーク値が相対的に高くなる。また、直接光は、何らかの対象物の表面などで反射して散乱することなくカメラ101に直接入射するため、強度にむらが生じない。したがって、撮像画像における直接光を示す画素の横方向積算輝度分布を示す曲線の曲線幅は、相対的に狭くなる。
 次に、反射光を示す画素の横方向積算輝度分布を示す曲線の特徴について説明する。反射光は、先行車両のテールランプから発せられた光が、走行路面で反射してからカメラ101に入射する光である。ここで、走行路面は表面に凹凸を有しているため、光が反射するときには散乱もする。すなわち、カメラ101に入射する反射光は、走行路面で反射して散乱してから入射するため、相対的に低く、むらのある強度となる。したがって、撮像画像における反射光を示す画素の横方向積算輝度分布を示す曲線は、ピーク値が相対的に低くなり、その曲線幅は相対的に広くなる。
 このように、直接光、及び反射光をそれぞれ示す画素の横方向積算輝度分布を示す曲線には、ピーク値、及び曲線幅に互いに異なる特徴が現れる。このような特徴を識別して、直接光、及び反射光の撮像画像における位置を特定するため、距離測定部102には、上述したように横方向輝度分布から抽出した抽出曲線のピーク値と比較するためのピークしきい値(本実施形態では、第1のピークしきい値thp1、及び第2のピークしきい値thp2)、及び抽出曲線の曲線幅と比較するための曲線幅しきい値(本実施形態では、第1の曲線幅しきい値thpb1、及び第2の曲線幅しきい値thpb2)がそれぞれ予め定められている。
 また、直接光、反射光を示す画素の横方向積算輝度分布の曲線の曲線幅は、上述したように広さに特徴が現れる。そして、この特徴を識別するために、距離測定部102は、上述したように抽出曲線と第2のピークしきい値thp2との交点を曲線幅として特定する。
 また、本実施形態に係る距離測定部102は、上述したようにピーク値が第1のピークしきい値thp1を超え、且つ曲線幅が第1の曲線幅しきい値thpb1未満となる抽出曲線を、直接光を示す画素の輝度値の積算値を示す曲線として特定する。したがって、第1のピークしきい値thp1は、上述したように直接光を示す画素の輝度値の積算値の相対的に高いピーク値を識別できるように、相対的に大きな値として予め定めておく必要がある。また、第1の曲線幅しきい値thpb1は、上述したように直接光を示す画素の輝度値の積算値を示す曲線の相対的に狭い曲線幅を識別できるように、相対的に小さい値として予め定めておく必要がある。
 さらに、本実施形態に係る距離測定部102は、上述したようにピーク値が第1のピークしきい値thp1から第2のピークしきい値thp2までの範囲内であって、且つ曲線幅が第2の曲線幅しきい値thpb2を超える抽出曲線を、反射光を示す画素の輝度値の積算値を示す曲線として特定する。したがって、第2のピークしきい値thp2は、上述したように反射光を示す画素の輝度値の積算値の相対的に低いピーク値が、前述の第1のピークしきい値thp1から当該第2のピークしきい値thp2までの範囲内となるように、相対的に小さな値として予め定めておく必要がある。また、第2の曲線幅しきい値thpb2は、上述したように反射光を示す画素の輝度値の積算値を示す曲線の相対的に広い曲線幅を識別できるように、相対的に大きな値として予め定めておく必要がある。
 以上が、本実施形態に係る距離測定部102が、特徴検出処理をしてから直接光位置Yd、及び反射光位置Yiをそれぞれ特定する処理の説明である。尚、上述した説明では、図5Bに示す横方向輝度計算領域の内、横方向輝度計算領域Ykr2に撮像されている直接光、及び反射光の撮像画像における縦方向の位置を直接光位置Yd、及び反射光位置Yiとしてそれぞれ特定する場合を一例として説明した。しかしながら、本実施形態に係る距離測定部102は、横方向輝度計算領域Ykr2だけでなく、全ての横方向輝度計算領域について、上述したように特徴検出処理をしてから直接光位置Yd、及び反射光位置Yiをそれぞれ特定して、それそれの横方向輝度計算領域に対応させる。
 本実施形態に係る距離測定部102は、全ての横方向輝度計算領域について直接光位置Yd、及び反射光位置Yiをそれぞれ特定する処理をすると、特定した直接光位置Yd、及び反射光位置Yiに基づいて先行車両との相対距離を測定する。相対距離を測定するとき、本実施形態に係る距離測定部102は、直接光位置Yd、及び反射光位置Yiの両方を特定できた横方向輝度計算領域のみについて対応させて特定したこれらの位置に基づいて、先行車両との相対距離を測定する。
 図6は、本実施形態に係る距離測定部102が、直接光位置Yd、及び反射光位置Yiに基づいて先行車両との相対距離を測定する手法を説明する図である。図6は、自車両と、自車両の先行車両とを左側から見た左側面図である。図6に示す先行車両は、自車両に対して相対距離Dで先行している。また、本実施形態では、一例として図6に示すように走行路面から高さhの位置にカメラ101が搭載されているものとする。また、図6では、自車両に搭載されているカメラ101の搭載位置に対して、先行車両の直接光原Di(例えば、テールランプ)が存在する位置のピッチ角を、ピッチ角αで示している。さらに、図6では、自車両に搭載されているカメラ101の搭載位置に対して、先行車両の直接光原Diが走行路面で反射する反射位置Iiのピッチ角を、ピッチ角βで示している。
 尚、以下の説明では、一例として、図6に示す直接光原Diが、図5Bに示す撮像画像における横方向輝度計算領域Ykr2に対応させて特定した直接光位置Ydに存在する光源であるものとし、図6に示す反射位置Iiの撮像画像上における位置が、図5Bに示す撮像画像における横方向輝度計算領域Ykr2に対応させて特定した反射光位置Yiであるものとして説明を続ける。
 図6に示すピッチ角αと、上述したように特定した直接光位置Ydとの間には、α=tan―1(Yd×Sy/f)という関係が成り立つことが既に知られている。ここで、Syは、カメラ101の撮像素子の高さであり、fはカメラ101の焦点距離である。そして、カメラ101の撮像素子の高さ、及びカメラ101の焦点距離は、それぞれ既知である。このため、撮像画像における直接光位置Ydを特定することができれば、ピッチ角αを求めることができる。
 同様に、図6に示すピッチ角βと、上述したように特定した反射光位置Yiとの間には、β=tan―1(Yi×Sy/f)という関係が成り立つことが既に知られている。したがって、撮像画像における反射光位置Yiを特定することができれば、ピッチ角βを求めることができる。
 そして、図6にそれぞれ示すピッチ角α、ピッチ角β、及び相対距離Dの間には、D=h/(tanα+tanβ)という関係が成り立つことが既に知られている。したがって、本実施形態に係る距離測定部102は、上述したように直接光位置Yd、及び反射光位置Yiに基づいてピッチ角α、及びピッチ角βをそれぞれ求めれば、先行車両との相対距離Dを求めることができる。
 本実施形態に係る距離測定部102は、直接光位置Yd、及び反射光位置Yiの両方を特定することができた全ての横方向輝度計算領域のそれぞれについて、ピッチ角α、及びピッチ角βの両方を求めて上述したように相対距離Dを先行車両との相対距離として計算する。本実施形態に係る距離測定部102は、相対距離Dを計算するとき、それぞれの横方向輝度計算領域に対応させて計算する。そして、距離測定部102は、相対距離Dを計算すると、計算した相対距離Dをそれぞれ示す距離データを生成する。
 次に、本実施形態に係る距離測定部102の具体的な処理の流れについて説明する。図7A~図7Cは、本実施形態に係る距離測定部102の処理の流れを示すフローチャートである。
 ステップS101において、距離測定部102は、カメラ101から画像データを取得し、取得した画像データによって示される撮像画像について上述した縦方向積算輝度分布を生成する。
 ステップS102において、距離測定部102は、ステップS101において生成した縦方向積算輝度分布に基づいて、撮像画像における横方向輝度計算領域を上述したように決定する。
 ステップS103において、距離測定部102は、ステップS102で決定した全ての横方向輝度計算領域に対応させて、それぞれ上述したように横方向積算輝度分布を生成する。
 ステップS104において、距離測定部102は、横方向輝度計算領域に対応させてステップS103で生成した横方向積算輝度分布に基づいて、上述したように直接光位置Yd、及び反射光位置Yiを当該横方向輝度計算領域に対応させて特定する位置特定処理をする。位置特定処理の詳細については、後述する。
 ステップS105において、距離測定部102は、ステップS104で特定した直接光位置Yd、及び反射光位置Yiに基づいて、先行車両との相対距離Dを求める。さらに、距離測定部102は、ステップS105において、相対距離Dを求めると、求めた相対距離Dを示す距離データを生成する。
 次に、図7Bを参照して、ステップS104の位置特定処理の詳細を説明する。
 ステップS201において、距離測定部102は、ステップS103で横方向積算輝度分布を対応させて生成した横方向輝度計算領域の中から、直接光位置Yd、及び反射光位置Yiを特定する処理をしていない領域を選択し、処理対象領域として設定する。
 ステップS202において、距離測定部102は、ステップS201で処理対象領域として設定した横方向輝度計算領域に対応させてステップS103で生成した横方向積算輝度分布から上述したように2つの抽出曲線Bk1、及び抽出曲線Bk2を抽出して、抽出したそれぞれの抽出曲線のピーク値と曲線幅とを特徴として特定する。
 ステップS203において、距離測定部102は、ステップS202で抽出した抽出曲線Bk1、及び抽出曲線Bk2の中から、処理対象曲線として設定されていないいずれか1つの抽出曲線を処理対象曲線として設定する。処理対象曲線を設定するとき、距離測定部102は、ステップS202で抽出した抽出曲線の内、撮像画像の原点から縦方向に最も近い位置に存在する抽出曲線から順番に設定してもよいし、ランダムにいずれか1つの抽出曲線を設定してもよい。
 ステップS204において、距離測定部102は、ステップS203で設定した抽出曲線のピーク値が第1のピークしきい値thp1を超えるか否かを判断する。距離測定部102は、ステップS204において、ステップS203で設定した抽出曲線のピーク値が第1のピークしきい値thp1を超えると判断したとき、ステップS205へ処理を進める。一方、距離測定部102は、ステップS204において、ステップS203で設定した抽出曲線のピーク値が第1のピークしきい値thp1を超えないと判断したとき、ステップS207へ処理を進める。
 ステップS205において、距離測定部102は、ステップS203で設定した抽出曲線の曲線幅が第1の曲線幅しきい値thb1未満であるか否かを判断する。距離測定部102は、ステップS205において、曲線幅が第1の曲線幅しきい値thb1未満であると判断したとき、ステップS206へ処理を進める。一方、距離測定部102は、ステップS205において、曲線幅が第1の曲線幅しきい値thb1未満でないと判断したとき、ステップS207へ処理を進める。
 ステップS206において、距離測定部102は、ステップS203で設定した抽出曲線を、撮像画像において直接光を示す画素の輝度値の積算値を示す曲線であるとして特定する。距離測定部102が、ステップS206で直接光を示す画素の輝度値の積算値を示す曲線として抽出曲線を判断できるのは、ステップS204において、抽出曲線のピーク値が第1のピークしきい値thp1を超えると判断し、且つステップS205において曲線幅が第1の曲線幅しきい値thpb1未満であると判断し、抽出曲線が直接光を示す曲線であると判断できる上述した条件を満たすときに当該ステップS206の処理をするからである。
 ステップS207において、距離測定部102は、ステップS203で設定した抽出曲線のピーク値が第1のピークしきい値thp1から第2のピークしきい値thp2までの範囲内であるか否かを判断する。距離測定部102は、ステップS207において、ピーク値が第1のピークしきい値thp1から第2のピークしきい値thp2までの範囲内であると判断したとき、ステップS208へ処理を進める。一方、距離測定部102は、ステップS207において、ピーク値が第1のピークしきい値thp1から第2のピークしきい値thp2までの範囲内でないと判断したとき、ステップS211へ処理を進める。
 ステップS208において、距離測定部102は、ステップS203で設定した抽出曲線の曲線幅が第2の曲線幅しきい値thb2を超えるか否かを判断する。距離測定部102は、ステップS208において、曲線幅が第2の曲線幅しきい値thb2を超えると判断したとき、ステップS209へ処理を進める。一方、距離測定部102は、ステップS208において、曲線幅が第2の曲線幅しきい値thb2を超えないと判断したとき、ステップS211へ処理を進める。
 ステップS209において、距離測定部102は、ステップS203で設定した抽出曲線を、撮像画像において反射光を示す画素の輝度値の積算値を示す曲線であるとして特定する。距離測定部102が、ステップS209で反射光を示す画素の輝度値の積算値を示す曲線として抽出曲線を判断できるのは、ステップS207において、抽出曲線のピーク値が第1のピークしきい値thp1から第2のピークしきい値thp2までの範囲内であると判断し、且つステップS208において曲線幅が第2の曲線幅しきい値thpb2を超えると判断し、抽出曲線が反射光を示す曲線であると判断できる上述した条件を満たすときに当該ステップS209の処理をするからである。
 ステップS210において、距離測定部102は、ステップS203で設定した抽出曲線のピーク値を生じる位置を光源の位置として特定する。具体的には、距離測定部102は、ステップS206からステップS210へ処理を進めた場合には、ステップS203で設定した抽出曲線が、上述したように直接光を示す曲線であると判断できるため、そのピーク値が生じる撮像画像における縦方向の位置を直接光位置Ydとし、処理対象領域として設定されている横方向輝度計算領域に対応付けて特定する。一方、距離測定部102は、ステップS209からステップS210へ処理を進めた場合には、ステップS203で設定した抽出曲線が、上述したように反射光を示す曲線であると判断できるため、ピーク値が生じる撮像画像における縦方向の位置を反射光位置Yiとし、処理対象領域として設定されている横方向輝度計算領域に対応付けて特定する。
 ステップS211において、距離測定部102は、処理対象領域として設定されている横方向輝度計算領域からステップS202で抽出した抽出曲線の中で、処理対象曲線として設定されていない抽出曲線があるか否かを判断する。距離測定部102は、ステップS211において、処理対象曲線として設定されていない抽出曲線があると判断したとき、ステップS203へ処理を戻す。一方、距離測定部102は、ステップS211において、処理対象曲線として設定されていない抽出曲線がないと判断したとき、ステップS212へ処理を進める。
 ステップS212において、距離測定部102は、ステップS103で横方向積算輝度分布を対応させて生成した横方向輝度計算領域の中で、処理対象領域として設定されていない横方向輝度計算領域があるか否かを判断する。距離測定部102は、ステップS212において、処理対象領域として設定されていない横方向輝度計算領域があると判断したとき、ステップS201へ処理を戻す。一方、距離測定部102は、ステップS212において、処理対象領域として設定されていない横方向輝度計算領域がないと判断したとき、図7Bのフローチャートに示す処理を完了して、図7AのフローチャートにしたがってステップS105へ処理を進める。
 次に、図7Cを参照して、ステップS105の距離計算処理の詳細を説明する。
 ステップS301において、距離測定部102は、ステップS104で直接光位置Yd、及び反射光位置Yiの両方を対応させて特定した横方向輝度計算領域の中から、計算対象領域として設定されていない横方向輝度計算領域を計算対象領域として設定する。尚、ステップS301において、距離測定部102hが、直接光位置Yd、及び反射光位置Yiの両方を対応させて特定した横方向輝度計算領域が1つもない場合には、図7Cに示す処理を直ちに完了して、図7Aに示すフローチャートにしたがって、処理をステップS101に戻してもよい。
 ステップS302において、距離測定部102は、ステップS301で計算対象領域として設定した横方向輝度計算領域に対応させて特定された直接光位置Ydに基づいて上述したようにピッチ角αを計算する。
 ステップS303において、距離測定部102は、ステップS301で計算対象領域として設定した横方向輝度計算領域に対応させて特定された反射光位置Yiに基づいて上述したようにピッチ角βを計算する。
 ステップS304において、距離測定部102は、ステップS302で計算したピッチ角α、ステップS303で計算したピッチ角β、及び既知であるカメラ101の自車両における搭載位置の高さhに基づいて上述したように相対距離Dを計算して、ステップS301で計算対象領域として設定した横方向輝度計算領域に対応させる。
 ステップS305において、距離測定部102は、ステップS104で直接光位置Yd、及び反射光位置Yiの両方を対応させて特定した横方向輝度計算領域の中から、計算対象領域として設定されていない横方向輝度計算領域があるか否かを判断する。距離測定部102は、ステップS305において、計算対象領域として設定されていない横方向輝度計算領域があると判断したとき、ステップS301へ処理を戻す。一方、距離測定部102は、ステップS305において、計算対象領域として設定されていない横方向輝度計算領域がないと判断したとき、ステップS306へ処理を進める。
 ステップS306において、距離測定部102は、計算した全ての相対距離Dをそれぞれ示す距離データを生成し、図7Cのフローチャートに示す処理を終了して、図7Aのフローチャートにしたがって、ステップS101へ処理を戻す。
 本実施形態に係る距離測定部102は、図7A乃至図7Cのフローチャートに示す処理を予め定められた時間間隔で繰り返すことにより、先行車両との相対距離を逐次測定することができる。
 また、図7A乃至図7Cのフローチャートに示す処理は、例えば、自車両のイグニッションスイッチ、或いはアクセサリースイッチがオンにされたときに開始され、オフにされたときに終了されてもよい。
 以上が、本実施形態に係る距離測定部102の処理の説明である。上述で説明したように、本実施形態に係る距離測定部102は、撮像画像に撮像されている直接光と当該直接光が走行路面で反射した反射光との当該撮像画像における位置(直接光位置Yd、及び反射光位置Yi)の組み合わせを特定する。これは、縦方向積算輝度分布としきい値thとを比較することにより、横方向輝度計算領域、すなわち、直接光と反射光との組み合わせが撮像されている撮像画像における領域を特定し、全ての横方向輝度計算領域に対応させて生成した横方向積算輝度分布から抽出した抽出曲線に基づいて第1の実施形態で説明したように直接光位置Yd、及び反射光位置Yiを特定し、同一の横方向輝度計算領域に対応させることによって実現できる。そして、組み合わされた直接光位置Yd、及び反射光位置Yiに基づいて第1の実施形態で説明したように相対距離Dを計算することにより、先行車両などの対象物との相対距離を測定することができる。尚、第1の実施形態で説明した抽出曲線とは、横方向積算輝度分布の中でピーク値を生じる部分の分布に相当する。
 本実施形態に係る距離測定部102によれば、例えば、夜間であったとしても、先行車両に搭載されている直接光原から発せられた直接光、及び当該直接光源から発せられた光が走行路面で反射した反射光に基づいて、当該先行車両との相対距離を測定することができる。
 尚、上記第1の実施形態では、1つの横方向輝度計算領域について計算した横方向積算輝度分布から2つの抽出曲線が抽出されるものとした。しかしながら、他の一実施形態では、1つの横方向輝度計算領域から抽出される抽出曲線が3以上である場合がある。この場合、距離測定部102は、全ての抽出曲線について、そのピーク値と曲線幅とのそれぞれを第1のピークしきい値thp1、第2のピークしきい値thp2、第1の曲線幅しきい値thpb1、及び第2の曲線幅しきい値thpb2のそれぞれと、第1の実施形態で説明したように比較する。そして、例えば、1つの横方向輝度計算領域について、直接光を示すと判断した抽出曲線が2以上ある場合には、距離測定部102は、いずれか1つの抽出曲線をランダムに決定して、その抽出曲線のピーク値が生じる撮像画像における縦方向の位置を直接光位置Ydとして特定してもよい。同様に、例えば、1つの横方向輝度計算領域について、反射光を示すと判断した抽出曲線が2以上ある場合には、距離測定部102は、いずれか1つの抽出曲線をランダムに決定して、その抽出曲線のピーク値が生じる撮像画像における縦方向の位置を反射光位置Yiとして特定してもよい。
 また、上記第1の実施形態では、距離測定部102が先行車両との相対距離Dを測定するものとして説明をした。しかしながら、上記第1の実施形態では、図5Bに一例として示すように、直接光源から発せられた直接光として対向車両のヘッドランプから発せられた直接光、及び当該直接光源から発せられた直接光が走行路面で反射した反射光に基づいて、直接光位置Yd、及び反射光位置Yiが特定され、これらの位置に基づき、対向車両との相対距離が、先行車両との相対距離として計算されてしまう場合がある。したがって、対向車両との相対距離が計算されてしまうのが好ましくない場合には、他の一実施形態として、距離測定部102は、図8に一例として示すように、先行車両が存在すると考えられる撮像画像上の領域Sr(以下、先行車両存在領域Srと称する)内の画像に対して、第1の実施形態で説明したように、縦方向積算輝度分布を生成し、生成した縦方向積算輝度分布に基づいて横方向輝度計算領域を決定し、決定した横方向輝度計算領域において、特徴検出処理をして直接光位置Yd、及び反射光位置Yiを特定し、相対距離を計算してもよい。これにより、距離測定部102は、対向車両などの先行車両ではない対象物に搭載された光原の影響を受けずに、先行車両に搭載された光源のみに基づいて、当該先行車両との相対距離を計算することができる。
 また、距離測定部102が、上述したように先行車両存在領域Sr内で決定した横方向輝度計算領域についてのみ特徴検出処理をして直接光位置Yd、及び反射光位置Yiを特定し、相対距離を計算する場合、曲線路を走行していると、先行車両に搭載された直接光原Diが先行車両存在領域Srから外れてしまう場合がある。したがって、他の一実施形態では、第1の実施形態に係る距離測定装置1の概略構成を図9に示すように変形してもよい。図9に示す距離測定装置2は、第1の実施形態に係る距離測定装置1と比較してヨーレートセンサ107をさらに備える点が相違する。
 ヨーレートセンサ107は、自車両の重心を鉛直方向に通る軸周りの回転角速度を逐次検出して、検出した回転角速度を示す回転角速度データを生成する。
 そして、距離測定装置2に備えられる距離測定部102は、ヨーレートセンサ107によって生成される回転角速度データを取得する。回転角速度データを取得すると、距離測定部102は、取得した回転角速度データによって示される回転角速度に基づいて、自車両が走行しているカーブの方向と曲率を判断し、判断した方向と曲率の大きさとに応じて、先行車両存在領域Srを移動させる。より具体的には、距離測定装置2に備えられる距離測定部102は、回転角速度データによって示される回転角速度が、自車両が右方向にカーブしている曲線路を走行していることを示すとき、先行車両存在領域Srを回転角速度の大きさに応じて曲率を判断し、判断した曲率に応じて撮像画像における右方向に移動させる。一方、距離測定装置2に備えられる距離測定部102は、回転角速度データによって示される回転角速度が、自車両が左方向にカーブしている曲線路を走行していることを示すとき、先行車両存在領域Srを回転角速度の大きさに応じて曲率を判断し、判断した曲率に応じて撮像画像における左方向に移動させる。
 これにより、距離測定装置2に備えられる距離測定部102は、自車両、或いは先行車両が曲線路を走行しているときでも、先行車両のみの直接光原に基づいて当該先行車両との相対距離を測定できる。
 また、上記第1の実施形態では、カメラ101がCCDカメラであるものとしたが、他の一実施形態では、カメラ101がCMOS(Complementary Metal Oxide Semiconductor)カメラなど、自車両の走行方向を逐次撮像して画像データを生成できるのであれば、他の種類のカメラを用いてもよい。
 また、上記第1の実施形態では、警報ブザー106は、電動ブレーキECU105によって危険信号が取得されたときに警告音を出力するものとした。しかしながら、他の一実施形態では、衝突判断部103によって生成される危険信号を警報ブザー106が直接取得できるように距離測定装置1を構成し、衝突判断部103によって生成された危険信号を直接取得したときに、警報ブザー106が警告音を出力するようにしてもよい。
 また、上記第1の実施形態では、カメラ101によって夜間に撮像された撮像画像を示す画像データに基づいて距離を測定するものとした。しかしながら、他の一実施形態では、カメラ101によって夜間に撮像された画像に対して2値化処理、或いはエッジ検出処理などをして直接光、及び反射光のみを抽出する処理をした画像を示す画像データに基づいて第1の実施形態で説明したように距離を測定してもよい。
 また、上記第1の実施形態で説明した第1のピークしきい値thp1、第2のピークしきい値thp2を、第1の曲線幅しきい値thpb1、及び第2の曲線幅しきい値thpb2はそれぞれ図示しない記憶部に予め記憶させておいてもよい。
 また、上記第1の実施形態では、横方向積算輝度分布から抽出曲線を抽出するときに、横方向積算輝度分布においてピーク値を生じる位置から撮像画像の縦方向の両側に向かって当該横方向積算輝度分布を走査することにより、それぞれのピーク値を生じる位置を基準とする両側の横方向積算輝度分布がそれぞれゼロになるまでの位置を検出して、互いの位置に含まれるそれぞれの範囲の横方向積算輝度分布を、それぞれ抽出曲線として抽出するものとした。しかしながら、他の一実施形態において、例えば、図10に一例として示すように、ゼロにならずに極小値を有する横方向積算輝度分布から抽出曲線を抽出する場合には、それぞれのピーク値を生じる位置(図10に示す一例では、Y1、及びY2)を基準とする両側の横方向積算輝度分布がそれぞれ極小値を迎えるまでの位置を検出して、互いの位置に含まれるそれぞれの範囲(図10に示す一例では、Ym1、及びYm2)の横方向積算輝度分布をそれぞれ抽出曲線として抽出してもよい。
 以上、本発明を詳細に説明してきたが、上述の説明はあらゆる点において本発明の一例にすぎず、その範囲を限定しようとするものではない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。
 本発明によれば、夜間においても画像に基づいて先行車両との相対距離を測定できる距離測定装置を提供でき、例えば、自動車などの移動体に搭載される距離測定装置などに有用である。
 1  距離測定装置
 101  カメラ
 102  距離測定部
 103  衝突判断部
 104  表示部
 105  電動ブレーキECU
 106  警報ブザー
 107  ヨーレートセンサ

Claims (7)

  1.  自車両の走行方向を撮像画像として撮像する撮像手段と、
     前記撮像画像に撮像されている直接光と当該直接光が走行路面で反射した反射光との当該撮像画像における位置の組み合わせをそれぞれ特定する特定手段と、
     前記特定手段によってそれぞれ特定された組み合わせの前記直接光の位置と前記反射光の位置とに基づき、対象物との相対距離を測定する測定手段とを備える、距離測定装置。
  2.  前記特定手段は、
      前記撮像画像において予め定められた第1の領域に含まれる画素の輝度値を当該撮像画像の縦方向の画素列毎に積算することにより縦方向積算輝度分布を生成する第1の生成手段と、
      前記縦方向積算輝度分布と予め定められた第1のしきい値とを比較することにより、前記撮像画像において前記直接光、及び前記反射光との組み合わせが撮像されている第2の領域を特定する領域特定手段と、
      前記撮像画像における前記第2の領域のそれぞれに含まれる画素の輝度値を当該撮像画像の横方向の画素列毎に積算することにより横方向積算輝度分布を当該第2の領域にそれぞれ対応させて生成する第2の生成手段とを含み、
     前記測定手段は、前記横方向積算輝度分布に基づいて特定された組み合わせの前記直接光の位置と前記反射光の位置とに基づき、前記対象物との相対距離を測定する、請求項1に記載の距離測定装置。
  3.  前記特定手段は、
      予め定められた第1のピークしきい値と、当該第1のピークしきい値よりも相対的に低く予め定められた第2のピークしきい値と、予め定められた第1の分布幅しきい値と、当該第1の分布幅しきい値よりも相対的に大きく予め定められた第2の分布幅しきい値とをそれぞれ記憶する記憶手段と、
      前記第2の生成手段によって生成されたそれぞれの前記横方向積算輝度分布に生じるピーク値を前記第1のピークしきい値、及び前記第2のピークしきい値と比較した結果と、当該横方向積算輝度分布の前記ピーク値を生じる分布の幅を前記第1の分布幅しきい値、及び前記第2の分布幅しきい値と比較した結果に基づき前記直接光の位置、及び前記反射光の位置の組み合わせを特定する組み合わせ特定手段をさらに含み、
      前記測定手段は、前記組み合わせ特定手段によって特定された組み合わせの前記直接光の位置と前記反射光の位置とに基づき、前記対象物との相対距離を測定する、請求項2に記載の距離測定装置。
  4.  前記組み合わせ特定手段は、
      前記横方向積算輝度分布の中でピーク値が前記第1のピークしきい値を超え、且つ分布の幅が前記第1の分布幅しきい値未満となる部分の分布を特定し、特定した分布のピーク値が生じる前記撮像画像における縦方向の位置を前記直接光の位置として特定する直接光特定手段と、
      前記横方向積算輝度分布の中でピーク値が前記第1のピークしきい値から前記第2のピークしきい値までの範囲内であり、且つ分布の幅が前記第2の分布幅しきい値を超える部分の分布を特定し、特定した分布のピーク値が生じる前記撮像画像における縦方向の位置を前記直接光の位置として特定する反射光特定手段とを含み、
     前記組み合わせ特定手段は、前記直接光特定手段、及び前記反射光特定手段によってそれぞれ同一の前記横方向積算輝度分布から特定された前記直接光の位置と前記反射光の位置とを特定して組み合わせる、請求項3に記載の距離測定装置。
  5.  前記領域特定手段は、前記撮像画像において先行車両が存在する領域として予め定められた先行車両存在領域に対応する前記縦方向積算輝度分布と前記第1のしきい値とを比較することにより前記第2の領域を特定する、請求項4に記載の距離測定装置。
  6.  前記自車両の重心を鉛直方向に通る軸周りの回転角速度を検出する角速度検出手段をさらに備え、
     前記領域特定手段は、
      前記角速度検出手段によって検出された前記回転角速度に基づいて判断した前記自車両の旋回方向と旋回速度とに応じて前記先行車両存在領域を前記撮像画像内で移動させる、請求項5に記載の距離測定装置。
  7.  自車両の走行方向を撮像画像として撮像する撮像ステップと、
     前記撮像画像に撮像されている直接光と当該直接光が走行路面で反射した反射光との当該撮像画像における位置の組み合わせをそれぞれ特定する特定ステップと、
     前記特定ステップにおいてそれぞれ特定された組み合わせの前記直接光の位置と前記反射光の位置とに基づき、対象物との相対距離を測定する測定ステップとを備える、距離測定方法。
PCT/JP2009/005958 2009-11-09 2009-11-09 距離測定装置、及び距離測定方法 WO2011055418A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2011524089A JP5051405B2 (ja) 2009-11-09 2009-11-09 距離測定装置、及び距離測定方法
DE112009005352T DE112009005352T5 (de) 2009-11-09 2009-11-09 Distanzmessvorrichtung und Distanzmessverfahren
US13/133,557 US8760632B2 (en) 2009-11-09 2009-11-09 Distance measuring apparatus and distance measuring method
PCT/JP2009/005958 WO2011055418A1 (ja) 2009-11-09 2009-11-09 距離測定装置、及び距離測定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2009/005958 WO2011055418A1 (ja) 2009-11-09 2009-11-09 距離測定装置、及び距離測定方法

Publications (1)

Publication Number Publication Date
WO2011055418A1 true WO2011055418A1 (ja) 2011-05-12

Family

ID=43969663

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/005958 WO2011055418A1 (ja) 2009-11-09 2009-11-09 距離測定装置、及び距離測定方法

Country Status (4)

Country Link
US (1) US8760632B2 (ja)
JP (1) JP5051405B2 (ja)
DE (1) DE112009005352T5 (ja)
WO (1) WO2011055418A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015106332A (ja) * 2013-12-02 2015-06-08 株式会社リコー 座標検出システム、情報処理装置、プログラム、記憶媒体、座標検出方法
US10473785B2 (en) 2017-09-15 2019-11-12 Kabushiki Kaisha Toshiba Distance measuring device

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103101475B (zh) * 2013-01-25 2014-10-15 深圳市保千里电子有限公司 基于汽车照明系统视角与车速同步变化的控制方法及系统
CN103112392B (zh) * 2013-02-01 2014-08-27 深圳市保千里电子有限公司 汽车照明系统视角与转弯角度同步变化的控制方法及系统
KR20150076532A (ko) * 2013-12-27 2015-07-07 주식회사 만도 차량 거리 측정 시스템 및 그를 위한 방법
JP6657925B2 (ja) * 2015-06-04 2020-03-04 ソニー株式会社 車載カメラ・システム並びに画像処理装置
DE102016213858A1 (de) * 2016-07-28 2018-02-01 Continental Teves Ag & Co. Ohg Fahrassistenzsystem und Verfahren zur Erkennung von Verkehrsteilnehmern
JP7069340B2 (ja) * 2018-10-31 2022-05-17 三菱電機株式会社 光軸ズレ検出装置、対象物検出装置、および移動体

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6052710A (ja) * 1983-09-01 1985-03-26 Rikagaku Kenkyusho 距離検知装置
JPH109853A (ja) * 1996-06-20 1998-01-16 Gijutsu Kenkyu Kumiai Shinjoho Shiyori Kaihatsu Kiko 測距型全方位視覚センサ
JP2004522956A (ja) * 2001-01-30 2004-07-29 ダイムラークライスラー・アクチェンゲゼルシャフト 自動車用の画像認識方法
JP2007309799A (ja) * 2006-05-18 2007-11-29 Matsushita Electric Ind Co Ltd 車載測距装置

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3434214A (en) * 1965-10-20 1969-03-25 James S Pratt Measuring device for safety distances between moving vehicles
US3653769A (en) * 1970-03-06 1972-04-04 Us Navy Stadiametric ranging system
US3918172A (en) * 1973-12-26 1975-11-11 Hydro Quebec Method and apparatus for determining geodesic measurements by helicopter
GB2129641B (en) * 1982-11-09 1986-10-08 Marconi Co Ltd A passive target detector
US4652749A (en) * 1985-03-21 1987-03-24 Robotic Vision Systems, Inc. Optical coordinate measuring system with dual path reflecting means
US4688933A (en) * 1985-05-10 1987-08-25 The Laitram Corporation Electro-optical position determining system
JPH0789059B2 (ja) * 1987-01-14 1995-09-27 株式会社日立製作所 視覚センサシステム
IL82731A (en) * 1987-06-01 1991-04-15 El Op Electro Optic Ind Limite System for measuring the angular displacement of an object
JP2768042B2 (ja) * 1991-05-14 1998-06-25 三菱電機株式会社 距離測定装置
JP3099692B2 (ja) 1995-08-09 2000-10-16 三菱自動車工業株式会社 走行路における対象物の位置計測方法
JP3099691B2 (ja) 1995-08-09 2000-10-16 三菱自動車工業株式会社 走行路における対象物位置計測方法
JP3214364B2 (ja) * 1996-08-14 2001-10-02 富士電機株式会社 車間距離測定装置
GB2338300B (en) * 1997-03-05 2001-07-11 Philip Anthony Gallagher Reflectivity measuring apparatus and method
US7612870B2 (en) * 1998-02-25 2009-11-03 California Institute Of Technology Single-lens aperture-coded camera for three dimensional imaging in small volumes
JP4861574B2 (ja) * 2001-03-28 2012-01-25 パナソニック株式会社 運転支援装置
US6711280B2 (en) * 2001-05-25 2004-03-23 Oscar M. Stafsudd Method and apparatus for intelligent ranging via image subtraction
JP4258385B2 (ja) 2004-01-14 2009-04-30 株式会社デンソー 路面反射検出装置
JP4502733B2 (ja) 2004-07-15 2010-07-14 ダイハツ工業株式会社 障害物測定方法及び障害物測定装置
US7327440B2 (en) * 2004-08-16 2008-02-05 James N. Horn Distance measuring device
JP2007199932A (ja) 2006-01-25 2007-08-09 Toshiba Corp 画像処理装置及びその方法
JP2008164302A (ja) * 2006-12-26 2008-07-17 Yamaha Corp 車間距離測定システム
CN101211408B (zh) * 2006-12-29 2011-05-25 东软集团股份有限公司 车辆侧面图像识别方法及装置、车灯误识别检测和行驶安全预测方法
JP5234894B2 (ja) * 2007-06-28 2013-07-10 富士重工業株式会社 ステレオ画像処理装置
US7839490B2 (en) * 2007-06-29 2010-11-23 Laughlin Richard H Single-aperture passive rangefinder and method of determining a range
EP2065678B1 (en) * 2007-11-30 2016-02-10 Nissan Motor Co., Ltd. Distance measurement system and distance measurement method
US8949069B2 (en) * 2009-12-16 2015-02-03 Intel Corporation Position determination based on propagation delay differences of multiple signals received at multiple sensors
US8908155B2 (en) * 2011-01-21 2014-12-09 Trimble Navigation Limited Remote positioning
EP2698777B1 (en) * 2011-04-13 2016-04-13 Toyota Jidosha Kabushiki Kaisha Vehicle-mounted peripheral object recognition device and driving assistance device using same
US20130190971A1 (en) * 2012-01-19 2013-07-25 Noel Wayne Anderson Multifunction light transceiver device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6052710A (ja) * 1983-09-01 1985-03-26 Rikagaku Kenkyusho 距離検知装置
JPH109853A (ja) * 1996-06-20 1998-01-16 Gijutsu Kenkyu Kumiai Shinjoho Shiyori Kaihatsu Kiko 測距型全方位視覚センサ
JP2004522956A (ja) * 2001-01-30 2004-07-29 ダイムラークライスラー・アクチェンゲゼルシャフト 自動車用の画像認識方法
JP2007309799A (ja) * 2006-05-18 2007-11-29 Matsushita Electric Ind Co Ltd 車載測距装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015106332A (ja) * 2013-12-02 2015-06-08 株式会社リコー 座標検出システム、情報処理装置、プログラム、記憶媒体、座標検出方法
US10473785B2 (en) 2017-09-15 2019-11-12 Kabushiki Kaisha Toshiba Distance measuring device

Also Published As

Publication number Publication date
JPWO2011055418A1 (ja) 2013-03-21
JP5051405B2 (ja) 2012-10-17
US20120206707A1 (en) 2012-08-16
DE112009005352T5 (de) 2012-08-16
US8760632B2 (en) 2014-06-24

Similar Documents

Publication Publication Date Title
JP5051405B2 (ja) 距離測定装置、及び距離測定方法
CN113998034B (zh) 骑乘者辅助系统和方法
JP5680573B2 (ja) 車両の走行環境認識装置
JP6471528B2 (ja) 物体認識装置、物体認識方法
JP5855272B2 (ja) ブレーキ状況を認識する方法および装置
CN104185588B (zh) 用于确定道路宽度的车载成像系统及方法
JP5774481B2 (ja) カメラを持つ車両の前照灯の調節不良検出方法
JP5421072B2 (ja) 接近物体検知システム
TWI401175B (zh) Dual vision front vehicle safety warning device and method thereof
JP4714104B2 (ja) 物体傾き検出装置
JP6787157B2 (ja) 車両制御装置
JP3716623B2 (ja) 温体検出装置
US20080061950A1 (en) Apparatus for detecting the presence of fog for automotive vehicle
JP5313638B2 (ja) 車両用前照灯装置
JP5361901B2 (ja) 前照灯制御装置
JP2010510935A (ja) 遠距離灯の自動制御方法
JP2010019589A (ja) 車間距離検出装置、ドライブレコーダ装置
JP2008098976A (ja) 固体撮像素子
JP2017129543A (ja) ステレオカメラ装置及び車両
JP2008056163A (ja) 車両の障害物検知装置
JP2007310591A (ja) 画像処理装置及び駐車場判定方法
JP5643877B2 (ja) 車両用前照灯装置
JP4768499B2 (ja) 車載周辺他車検出装置
JP4900377B2 (ja) 画像処理装置
JP3532896B2 (ja) スミア検出方法及びこのスミア検出方法を用いた画像処理装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 2011524089

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 13133557

Country of ref document: US

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09851073

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 1120090053521

Country of ref document: DE

Ref document number: 112009005352

Country of ref document: DE

122 Ep: pct application non-entry in european phase

Ref document number: 09851073

Country of ref document: EP

Kind code of ref document: A1