WO2002050568A1 - Procede de detection d'un objet stationnaire sur une route - Google Patents

Procede de detection d'un objet stationnaire sur une route Download PDF

Info

Publication number
WO2002050568A1
WO2002050568A1 PCT/JP2001/011156 JP0111156W WO0250568A1 WO 2002050568 A1 WO2002050568 A1 WO 2002050568A1 JP 0111156 W JP0111156 W JP 0111156W WO 0250568 A1 WO0250568 A1 WO 0250568A1
Authority
WO
WIPO (PCT)
Prior art keywords
target
camera
radar
road
stationary object
Prior art date
Application number
PCT/JP2001/011156
Other languages
English (en)
French (fr)
Inventor
Kanako Honda
Original Assignee
Fujitsu Ten Limited
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ten Limited filed Critical Fujitsu Ten Limited
Priority to US10/203,843 priority Critical patent/US6670912B2/en
Priority to EP01271549A priority patent/EP1345045A4/en
Publication of WO2002050568A1 publication Critical patent/WO2002050568A1/ja

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J1/00Photometry, e.g. photographic exposure meter
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/411Identification of targets based on measurements of radar reflectivity
    • G01S7/412Identification of targets based on measurements of radar reflectivity based on a comparison between measured values and known or stored values
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • G06F18/256Fusion techniques of classification results, e.g. of results related to same input data of results relating to different input data, e.g. multimodal recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/809Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
    • G06V10/811Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data the classifiers operating on different input data, e.g. multi-modal recognition
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9318Controlling the steering
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/93185Controlling the brakes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9319Controlling the accelerator
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93271Sensor installation details in the front of the vehicles

Definitions

  • the present invention relates to a method for detecting a stationary object above a road, particularly a structure such as a bridge above a road, by combining image processing with a camera and detection with a radar.
  • the scanning radar scans the beam by rotating the radar from left to right or right to left at a small step angle within a certain time. At each step angle, a beam is emitted from the own vehicle to the vehicle in front, the reflected wave from the vehicle in front is received and processed, the presence of the vehicle in front is detected, and the distance to the vehicle in front is detected. And relative speed are detected. '
  • An object of the present invention is to provide a method for detecting a stationary object above a road, which is capable of determining whether an object ahead is a vehicle traveling ahead or a structure above a bridge or a sign or a structure on a roadside. It is the purpose.
  • a camera and a radar device are provided, the target captured by the camera and the target captured by the radar are determined to be the same, and the target captured from the camera is determined based on the image captured by the camera. If it is determined that the height is above the horizon, it is determined that the target is a stationary object above the road.
  • the target captured by the camera and the target captured by the radar are the same, and the height of the target, for example, a label, is obtained from the image captured by the camera. If it is determined that the height from the road is equal to or greater than a certain value, it is determined that the target is a stationary object above the road.
  • a camera device is provided, and when it is determined that the length of the vertical edge or the length of the horizontal edge of the target captured by the camera is increasing with time, the timer is used. It is determined that the get is a stationary object above the road.
  • the camera device uses a compound-eye camera or a monocular camera.
  • the determination as to whether or not the targets are the same is made by determining the difference between the distance Rg to the target captured by the camera and the distance Rr to the target captured by the radar, and the camera. If the difference between 0 g of the target captured by the radar and 0 r of the target captured by the radar is within a certain range, it is determined that the targets are the same. If it is determined that the object is a stationary object above the road, the data of the target is deleted from the data of the preceding vehicle.
  • the invention's effect is made by determining the difference between the distance Rg to the target captured by the camera and the distance Rr to the target captured by the radar, and the camera. If the difference between 0 g of the target captured by the radar and 0 r of the target captured by the radar is within a certain range, it is determined that the targets are the same. If it is determined that the object is a stationary object above the road, the data of the target is deleted from
  • information on the height of the target which cannot be obtained by the radar device alone, is obtained from the image captured by the camera device. You can judge whether it is an object.
  • the method of the present invention it is possible to easily determine whether or not the target is a stationary object located above by the change in the reception level obtained by the radar device.
  • the method of the present invention it is possible to easily determine whether or not the target is a stationary object located above from the edge information which is image information obtained from the camera device.
  • FIG. 1 is a block diagram of a block diagram of an image recognition device used in the method of the present invention.
  • Fig. 2 shows the positional relationship when a structure located above the road is a bridge and this is detected by radar, and the change in reception level.
  • Fig. 3 shows the bridge captured by radar.
  • FIG. 9 is a graph showing how the reception level changes depending on the angle of the radar beam in the case of the above.
  • Figure 4A is an image captured by a camera.
  • Figure 4B is a range image based on the distance measured by the camera.
  • FIG. 5 is a diagram showing an image captured with a force camera when Bridge 3 with a road sign is in front.
  • FIG. 6 is a diagram showing an edge image obtained by extracting a vertical edge of the image shown in FIG.
  • FIG. 7 is a diagram showing an edge image obtained by extracting a horizontal edge of the image shown in FIG.
  • FIG. 8 is a flowchart showing the first embodiment of the present invention.
  • FIG. 9 is a flowchart showing a second embodiment of the present invention.
  • FIG. 10 is a flowchart showing a third embodiment of the present invention.
  • FIG. 11 is a flowchart showing a fourth embodiment of the present invention.
  • FIG. 12 is a flowchart showing a fifth embodiment of the present invention.
  • FIG. 13 is a flowchart showing a sixth embodiment of the present invention.
  • FIG. 14 is a flowchart showing the seventh embodiment of the present invention. Detailed description of the invention
  • FIG. 1 is a block diagram of a block diagram of an image recognition device used in the method of the present invention.
  • 10 is an image recognition unit
  • 20 is an application unit.
  • reference numeral 13 denotes a radar, for example, a millimeter wave radar, which detects a distance from a preceding object such as a preceding vehicle, a relative speed, a detection angle, a reception level, and the like. These pieces of information detected by the radar are input to the object identification unit 14.
  • reference numeral 11 denotes a camera device.
  • a plurality of cameras for example, two cameras are installed at a distance to the left and right of the vehicle so as to capture images in front of the vehicle.
  • one camera is installed on the vehicle so as to capture an image in front of the vehicle.
  • the image information obtained from the camera 11 is sent to the image processing unit 12, where the image information is processed, and the distance, relative speed, detected winding degree, and height with respect to an object located in front of a preceding vehicle or the like are processed. And information such as width.
  • These pieces of information are also sent to the object identification unit 14, where the information is processed and the distance to the preceding vehicle, the relative speed, etc.
  • Information about the vehicle is obtained. At the same time, information on objects existing on the side of the road, structures above the road, or signs can be obtained.
  • FIG. 2 shows the structure existing above the road, For example, in the case of a bridge, this figure shows a case where this is detected by radar.
  • 1 is a car
  • 2 is a radar beam emitted from the car
  • 3 is a bridge as an overhead structure existing in front.
  • the lower graph in Fig. 2 shows the radar reception level with respect to the distance from bridge 3 to vehicle 1. As shown in the graph, the reception level decreases as approaching the bridge. On the other hand, although not shown in the figure, the reception level decreases even further from the bridge than a certain distance.
  • Fig. 3 is a graph showing how the reception level changes with the angle of the radar beam when bridge 3 is captured by radar.
  • the radar beam 3 shown in FIG. 2 is scanned horizontally and horizontally at a predetermined step angle, but the reception level changes depending on the beam angle.
  • the target is a bridge, as shown in Fig. 2, the changes generally appear as shown in the graph of Fig. 3. That is, if the horizontal axis is the scan angle of the radar and the vertical axis is the reception level, the bridge extends to the left and right, so the beam angle is 0 ° from the host vehicle, that is, the beam emitted straight ahead.
  • the received level of the reflected wave of the system becomes the highest, and the received level decreases as going left and right.
  • Fig. 4A Shows an image captured by the camera.
  • Figure 4B is a range image based on the distance measured by the camera.
  • a specific object can be located at any position in the image.
  • Information on whether it exists is obtained.
  • edge information and a distance image of the image can be obtained.
  • the edge information is information obtained by extracting the light and dark change points of the image, and the distance information is obtained by comparing the images obtained by the compound-eye camera and calculating the parallax to obtain the distance information.
  • edge information can be obtained and pattern recognition can be performed, and further, the approximate distance, the angle at which the object is located, and the approximate height can be determined.
  • FIG. 4B is a diagram showing an example of a distance image when the distance from the vehicle to the bridge is about 60 m and the viewing angle from the vehicle is 0 ° ⁇ 20 °.
  • the camera shows that the position of the bridge is 60 m from the vehicle and the road surface in front is 10 m and 15 m, respectively.
  • This figure was created by obtaining a distance image using parallax of the entire screen. From this figure, it can be seen that the object about 60 m in front is above the horizontal plane and is not an object on the road.
  • FIG. 5 shows an image captured by a camera when Bridge 3 with a road sign 4 is in front.
  • FIG. 6 shows an edge image when the vertical edge of the image shown in FIG. 5 is extracted. As shown in this figure, when the vertical edge is extracted, only the leg of bridge 3 and the vertical line of sign 4 appear. This vertical edge becomes longer on the screen as the vehicle approaches the bridge, and the position becomes higher on the screen.
  • FIG. 7 shows an edge image when the horizontal edge of the image shown in FIG. 5 is extracted. As shown in this figure, when the horizontal edge is extracted, only the leg of bridge 3 and the line beside sign 4 appear. This horizontal edge becomes longer on the screen as the vehicle approaches the bridge, like the vertical edge.
  • FIG. 8 is a flowchart for explaining the first embodiment.
  • a compound eye camera is used as a power camera.
  • the image information obtained from the camera is subjected to image processing in the image processing unit, and the distance R gm to the target and the angle 0 gm indicating the number of directions with respect to the direction of the camera.
  • the distance R rn from the signal obtained by the radar to the target, the angle 0 rn of the radar beam reflected by the target, and the relative speed V rn with respect to the target are calculated.
  • the distance R gm, the angle 0 gm, and the height H gm obtained by the image processing are turned in a loop of i (0_m). That is, R g, ⁇ g, and H g are calculated every moment. Also, the distance R rn from the radar to the target obtained from the radar, the angle of the beam reflected by the target 0 rn, and the relative speed V rn with respect to the target are rotated in a loop of j (0 — n). That is, R r, ⁇ r, and V r are calculated every moment.
  • S4 and S5 it is determined whether the target captured by the camera and the target captured by the radar are the same target.
  • the distance R gm obtained from the camera and the distance R rn obtained from the radar are compared to determine whether the difference is within a certain range. If within a certain range (Yes), proceed to S5.
  • the angle 0 gm detected by the camera and the angle 0 rm detected by the radar are compared to determine whether the difference is within a certain range. If Y es, the distance R g and the angle 0 g of the target captured by the camera are almost the same as the distance R r and the angle 0 r of the target captured by the radar. It is determined that the targets caught in are the same. Therefore, proceed to S6 to determine whether the height Hg of the target captured by the camera is above the horizontal line.
  • the target is recognized as an overhead structure, and the distance R r from the radar to the target, the target reflected beam, it is deleted from the data of the preceding vehicle. That is, the target is deleted from the targets for collision prevention and inter-vehicle distance control, and the loop ends in S8. On the other hand, also in the case of N0 in S4 to S6, the loop ends in S8.
  • FIG. 9 is a flowchart for explaining the second embodiment.
  • a monocular camera is used as a force camera.
  • the image information obtained from the camera is subjected to image processing in the image processing unit, and the approximate distance R 'gm to the target, the angle 0 gm, and the approximate height H' gm are calculated.
  • the distance R rn from the signal obtained by the radar to the target in S2 the angle 0 rn of the radar beam reflected by the target, and the relative speed V rn with respect to the target are calculated.
  • the distance R ′ gm, the angle 0 gm, and the approximate height H ′ gm obtained by the image processing are turned in a loop of i (0—m). Also, the distance R rn from the radar to the target, the angle of the beam reflected by the target 0 rn, and the relative velocity V 1: 11 with the target are turned in a (0-n) loop.
  • S4 and S5 it is determined whether or not the target captured by the force camera and the target captured by the radar are the same target.
  • the distance R'gm obtained from the camera and the distance Rrn obtained from the radar are compared to determine whether the difference is within a certain range.
  • the angle 0 gm detected by the camera is compared with the angle 0 rm detected by the radar to determine whether the difference is within a certain range. If it is within a certain range (Y es), the distance of the target captured by the camera: distance g, angle 0 g is equal to the distance of the target captured by the camera, distance R r, angle 0 Since each is almost the same as r, the target captured by the camera and the radar is determined to be the same. Therefore, proceed to S6, and determine whether or not the approximate height H'g of the target captured by the camera is above the horizontal line.
  • the target is recognized as an overhead structure, and the distance R r from the radar to the target, the angle of the beam reflected by the target 0 r, and the relative velocity V r with the target are obtained.
  • FIG. 10 is a flowchart for explaining the third embodiment.
  • either a compound-eye camera or a monocular camera may be used as the camera device.
  • the image information obtained from the camera is subjected to image processing in the image processing unit, and the distance R gm to the target, the angle 0 gm, and the height H gm are calculated.
  • the distance R rn from the signal obtained by the radar to the target, the angle 0 rn of the radar beam reflected by the target, and the relative speed V rn with respect to the target are calculated.
  • the reception level p rn of the radar is calculated. Then, in S3, the distance R rn from the radar to the target obtained from the radar, the angle ⁇ ⁇ ⁇ rn of the beam reflected by the target, the relative speed V rn with respect to the target, and the reception level P rn are represented by j (0-n). Turn in a loop. Next, in S4 and S5, it is determined whether the target captured by the radar is a stationary object. First, in S4, it is determined whether the distance R rn from the target captured by the radar is in a decreasing direction over time, that is, whether the radar is approaching the target. If it is approaching (Yes), proceed to S5 and determine whether the reception level is decreasing in time.
  • S9 and S10 it is determined whether or not the target captured by the camera and the target captured by the radar are the same target.
  • the distance R gm obtained from the camera and the distance R rn obtained from the radar are compared to determine whether or not the difference is within a certain range. If within a certain range, (Y es) proceed to S 10.
  • the angle 0 gm detected by the force camera is compared with the angle ⁇ rn detected by the radar to determine whether the difference is within a certain range.
  • the process proceeds to S11, and it is determined whether the height Hg of the target captured by the camera is equal to or greater than a certain value.
  • the value of H g depends on the distance R g or R r to the target, depending on the value of H g.
  • a map representing the relationship between R gm, R rn and H gm is created, and a fixed value of H gm is set according to the value of R gm or R rn for determination. If Yes, in the present embodiment, it is determined whether or not the stationary object candidate flag Frn is set in S12. If Yes, the target is recognized as a stationary object, an overhead structure, and the distance from the radar to the target R r, the angle of the beam reflected by the target 0 r, and the relative speed to the target Do not treat Vr data as data for preceding vehicles In order to avoid this, it is deleted from the data of the preceding vehicle (S13). Immediately, the target is deleted from the targets for collision prevention and inter-vehicle distance control, and the loop ends in S14. On the other hand, if N0 in S9 to S12, the process proceeds to S14 and the loop ends.
  • the height H gm is calculated in S1 because the compound eye camera is used, and it is determined whether H gm is equal to or more than a certain value in S I1.
  • the approximate height H 'gm is calculated in S1
  • FIG. 11 is a flowchart showing a fourth embodiment of the present invention.
  • no radar equipment is used, and only camera equipment is used.
  • This flowchart shows the case of using a compound eye lens.
  • S1 the length L gm of the vertical edge is calculated in addition to the distance R gm to the target, the angle 0 gm, and the height H g. Then, 3 2 8 111 it is determined whether or temporally in increasing direction.
  • the target is recognized as an overhead structure, the distance R g from the camera device to the target, the angle of the beam reflected by the target 0 g, the target height H g, Then, Lg is deleted from the data of the preceding vehicle so as not to be treated as the data of the preceding vehicle (S3).
  • the fourth embodiment can be applied to a case where a monocular camera is used.
  • the length L gm of the vertical edge is calculated in addition to the approximate distance R 'gm to the target, the angle 0 gm, and the approximate height H' gm.
  • FIG. 12 is a flowchart showing the fifth embodiment.
  • a compound-eye camera or a monocular camera may be used as the camera.
  • the case where a compound-eye camera is used will be described.
  • the image information obtained from the camera in S1 is subjected to image processing in the image processing unit, and the distance R gm to the target, the angle 0 gm, the height H gm, and the length L gm of the vertical edge are calculated.
  • S2 it is turned in the loop of i (0-m).
  • S3 it is determined whether L gm is increasing in time. If Yes, a flag F gm indicating that the target is a candidate for a stationary object is set in S4.
  • S8 it is determined whether the distance R rn from the target captured by the radar is decreasing in time, that is, whether the radar is approaching the target. If it is approaching (Yes), proceed to S9 and determine whether the reception level is decreasing in time. If Yes, it is considered that the object is a stationary object such as a bridge as shown in Fig. 2, so the stationary object candidate flag Frn is set (S10). Then, the process proceeds to S 1 1 and loops j (0-n). In the case of No in S8 and S9, the process also proceeds to S11. Then, go to S 1 2, loop i (0 — m) and j (0 — n) Turn in the loop.
  • S13 and S14 it is determined whether or not the target captured by the camera and the target captured by the radar are the same target.
  • the distance R gm obtained from the camera and the distance R rn obtained from the radar are compared to determine whether the difference is within a certain range. If it is within a certain range, proceed to (Y e s) S I 4.
  • the angle 0 gm detected by the camera and the angle 0 rm detected by the radar are compared to determine whether the difference is within a certain range.
  • the process proceeds to S15, and it is determined whether the height Hg of the target captured by the camera is equal to or greater than a certain value. If Y es, it is determined whether or not the stationary object candidate flags F gm and F rn are set in S 16.
  • the target is recognized as an overhead structure, and the data of the distance R r from the radar to the target, the angle of the beam reflected by the target 0 r, and the relative velocity V r with the target are obtained.
  • the process proceeds to S18 and the loop ends.
  • the height H gm is calculated in S 1 because a compound-eye camera is used, and it is determined whether H gm is equal to or more than a certain value in S 15. .
  • the approximate height H ′ gm is calculated in S 1, and it is determined in S 15 whether H ′ gm is equal to or more than a certain value.
  • FIG. 13 is a flowchart showing a sixth embodiment of the present invention. This shows the case where a compound-eye camera is used. In S 1, in addition to the distance R gm to the target, the angle 0 gm, and the height H g, the length W gm of the horizontal edge is calculated.
  • the sixth embodiment can be applied to a case where a monocular camera is used.
  • S 1 in addition to the approximate distance R 'gm to the target, the angle 0 gm, and the approximate height H' gm, the length W gm of the horizontal edge is calculated. Then, it is determined in S2 whether W gm is increasing in time. If Yes, the target is recognized as an overhead structure, the distance R g to the target obtained from the force-melter device, the angle of the beam reflected by the target 0 g, and the height of the target H g and Wg are deleted from the data of the preceding vehicle so as not to be treated as the data of the preceding vehicle (S3).
  • FIG. 14 is a flowchart showing the seventh embodiment.
  • a compound-eye camera or a monocular camera may be used as the camera.
  • the case where a compound eye camera is used will be described.
  • the image information obtained from the camera in S1 is subjected to image processing in the image processing unit, and the distance R gm to the target, the angle 0 gm, the height H gm, and the length W gm of the horizontal edge are calculated.
  • S2 it is turned in the loop of i (0-m).
  • W gm is increasing in time. If Yes, a flag F gm indicating that the target is a candidate for a stationary object is set in S 4.
  • S8 it is determined whether or not the distance R rn from the target captured by the radar is decreasing in time, that is, whether or not the target is approaching the target. If it is approaching (Yes), proceed to S9 and determine whether the reception level is decreasing in time. If Yes, it is considered that the object is a stationary object such as a bridge as shown in Fig. 2, so the stationary object candidate flag Frn is set (S10). Then, it proceeds to S 1 1 and turns the loop of j (0-n). In the case of No in S8 and S9, the process also proceeds to S11. Then go to S 1 2, turning with a loop of i (0 — m) and a loop of j (0-n).
  • S13 and S14 it is determined whether or not the target captured by the camera and the target captured by the radar are the same target.
  • the distance R gm obtained from the camera and the distance R rn obtained from the radar are compared to determine whether the difference is within a certain range. If it is within a certain range (Yes), proceed to SI4.
  • the angle 0 gm detected by the camera and the angle 0 rm detected by the radar are compared to determine whether the difference is within a certain range.
  • constant (Y es) the distance R g and the angle 0 g of the target captured by the camera are almost the same as the distance R r and the angle ⁇ r of the target captured by the radar.
  • the target captured by the camera and radar is determined to be the same. Therefore, the process proceeds to S15, and it is determined whether or not the height Hg of the target captured by the camera is equal to or more than a certain value. If Yes, it is determined in S16 whether or not the stationary object candidate flags F gm and F rn are set. If Yes, the target is recognized as an overhead structure, and the data of the distance R r from the radar to the target, the angle of the beam reflected by the target 0 r, and the relative speed V r with the target are obtained. Is deleted from the data of the preceding vehicle so that the data is not treated as the data of the preceding vehicle (S17). That is, the target is deleted from the target for collision prevention and inter-vehicle distance control, and the loop ends in S18. On the other hand, if No in S13 to S16, the process proceeds to S18 and the loop ends.
  • a height H gm is calculated in S 1 because a compound-eye camera is used, and it is determined in S 15 whether H g m is a certain value or more.
  • the approximate height H ′ g m is calculated in S 1, and it is determined in S 15 whether H ′ g m is equal to or more than a certain value.
  • a bridge or a sign on a road has been described as an example of a stationary object on a road.
  • a stationary object on a road also includes a stationary object such as a sign on a roadside. Shall be considered.

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Evolutionary Biology (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Electromagnetism (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)

Description

明 細 書
道路上方静止物検知方法
発明の属する技術分野
本発明は、 カメ ラによる画像処理と レーダによる検知を組み合わ せて、 道路上方静止物、 特に道路の上方にある橋等の構造物を検知 する方法に関する。
背景技術
スキャ ン式レーダは一定の時間内に微小なステップ角度でレーダ を左から右に、 又は右から左にビームを回転させてスキャ ンを行つ ている。 そして、 各ステ ップの角度において前方の車両に自車から ビームを発射し、 前方車両からの反射波を受信してこれを処理し、 前方車両の存在を検知し、 さらに前方車両との距離や相対速度を検 出している'。
上記のようにレーダの場合は通常ビームを横方向に振っているた め正確な高さに関する情報を得ることが困難である。 そのため、 道 路上方に位置する橋等の構造物あるいは路側上に位置する標識等の 構造物を検知し fこ場合、 それが道路上ゃ路側上の静止構造物である のか、 又は前方の車両なのか明確に判別できないことがある。
発明の開示
本発明は前方の物体を検知した場合、 それが前方を走行する車両 なのか、 又は橋や標識等の上方または路側上の構造物なのかを判別 できる道路上方静止物検知方法を提供することを目的とするもので ある。 本発明方法によれば、 カメ ラと レーダ装置を備え、 カメ ラで捕ら えたターゲッ 卜 と レーダで捕らえたターゲッ トが同一である と判定 し、 かつ、 カメ ラで捕らえた画像から該ターゲッ トの高さが水平線 よ り上に位置する と判定した場合、 該ターゲッ トが道路上方静止物 体である と判定する。
また、 本発明方法によれば、 カメ ラまたはレーダで捕らえたター ゲッ トからの距離が減少し、 かつレーダで捕らえたタ一ゲッ 卜から の受信レベルが減少している と判定した場合、 該ターゲッ トが道路 上方静止物体である と判定する。
また、 本発明方法によれば、 カメ ラで捕らえたターゲッ ト と レー ダで捕らえたタ一ゲッ 卜が同一で、 かつカメ ラで捕らえた画像から 該ターゲッ トの高さ、 例えば標識の場合、 道路からの高さが一定値 以上である と判定した場合、 該ターゲッ トが道路上方静止物体であ ると判定する。
また、 本発明方法によれば、 カメ ラ装置を備え、 カメ ラが捕らえ たターゲッ トの縦エッジの長さまたは横エッジの長さが時間と共に 増大している と判定された場合、 該タ一ゲッ 卜が道路上方静止物体 である と判定する。
そして、 前記カメ ラ装置は複眼カメ ラまたは単眼カメ ラを用いる 。 また、 前記ターゲッ トが同一であるかどうかの判定は、 前記カメ ラで捕らえたターゲッ 卜までの距離 R g と前記レーダで捕らえたタ ーゲッ 卜までの距離 R r との差、 および前記カメ ラで捕らえたター ゲッ 卜の角度 0 g と前記レーダで捕らえたターゲッ 卜の 0 r との差 が、 一定の範囲内である場合にターゲッ 卜が同一であると判定する そしで、 前記ターゲッ 卜が道路上方静止物体である と判定された 場合、 該ターゲッ トのデータを先行車両のデータから削除する。 発明の効果
本発明方法によれば、 レーダ装置だけでは得られないターゲッ ト の高さに関する情報を、 カメ ラ装置で捕らえた画像から得るこ とに よ り、 簡単な方法でターゲッ トが上方に位置する静止物かどうかを 判定するこ とができる。
また、 本発明方法によれば、 レーダ装置によ り得られる受信レべ ルの変化によっても、 ターゲッ トが上方に位置する静止物かどうか を簡単に判定するこ とができる。
さ らに、 本発明方法によれば、 カメ ラ装置から得た画像情報であ るエツジ情報からも、 ターゲッ トが上方に位置する静止物かどうか を簡単に判定するこ とができる。
また、 上記方法を組み合わせるこ とによって、 さ らに確実にター ゲッ 卜が上方に位置する静止物かどうかを簡単に判定するこ とがで きる。 図面の簡単な説明
図 1 は、 本発明の方法に用いる画像認識装置のプロ ック構成図で める。
図 2は、 道路の上方に存在する構造物が橋の場合、 これをレ一ダ で検出する場合の位置関係と、 受信レベルの変化を示した図である 図 3は、 橋をレーダで捕らえた場合、 受信レベルが レーダビーム の角度によってどのよ う に変化するかを示したグラフである。
図 4 Aは, カメ ラで捕らえた画像である。
図 4 Bは, カメ ラで測定した距離に基づく距離画像である。
図 5、 道路標識が取り付けられている橋 3が前方にある場合に力 メ ラで捕らえた画像を示した図である。 図 6は、 図 5に示した画像の縦エッジを抽出したエッジ画像を示 した図である。
図 7は、 図 5に示した画像の横エッジを抽出したエッジ画像を示 した図である。
図 8は、 本発明の第 1実施例を示すフローチャー トである。
図 9は、 本発明の第 2実施例を示すフローチャートである。
図 1 0は、 本発明の第 3実施例を示すフローチャー トである。 図 1 1は、 本発明の第 4実施例を示すフローチャー トである。 図 1 2は、 本発明の第 5実施例を示すフローチャー トである。 図 1 3は、 本発明の第 6実施例を示すフローチャー トである。 図 1 4は、 本発明の第 7実施例を示すフローチャー トである。 発明の詳細な説明
図 1は本発明方法に用いる画像認識装置のプロ ック構成図である 。 図において、 1 0は画像認識部であり、 2 0はアプリケーショ ン 部である。 画像認識部 1 0において、 1 3はレーダ、 例えばミ リ波 レーダであり、 先行車両等の前方に位置する物体との距離、 相対速 度、 検知角度、 受信レベル等を検出する。 レーダで検出されたこれ らの情報は物体識別部 1 4に入力する。 一方、 1 1 はカメラ装置で 、 複眼カメ ラの場合は複数のカメラ、 例えば 2台のカメラが自車の 前方の画像を取り込むように車両の左右に距離をおいて設置される 。 また、 単眼カメ ラの場合、 1台のカメ ラが自車の前方の画像を取 り込むように車両に設置されている。 カメ ラ 1 1から得られた画像 情報は画像処理部 1 2に送られ、 ここで画像情報は処理されて先行 車両等の前方に位置する物体との距離、 相対速度、 検出卷度、 高さ 、 幅等の情報,が得られる。 そして、 これらの情報も物体識別部 1 4 に送られ、 ここで処理されて先行車両との距離、 相対速度等、 先行 車両に関する情報が得られる。 また、 同時に道路の側部に存在する 物体や道路の上方に存 る構造物、 あるいは標識等の情報を得る こ とができる。
これらの情報は制御 E C U 2 1 に入力し、 これに基づいて E C U はアクセル 2 2、 ブレーキ 2 3、 ステアリ ング 2 4等の制御を行う 図 2は道路の上方に存在する構造物と して、 例えば橋の場合、 こ れをレーダで検出する場合の図を示したものである。 図において 1 は自車であり、 2は自車から発せられる レーダのビームであり、 3 は前方に存在する上方構造物と しての橋である。 図 2の下側のグラ フは、 橋 3から自車 1 までの距離に対する レーダの受信レベルを表 している。 グラフに示すよ うに、 橋に近づく に従って受信レベルは 減少する。 一方、 図には示していないが、 ある距離よ り橋から遠く なっても、 受信レベルは減少する。
図 3は図 2 と同様、 橋 3 をレーダで捕らえた場合、 受信レベルが レーダビームの角度によってどのよ うに変化するかを示したグラフ である。 図 2に示したレーダビーム 3は水平方向左右に所定のステ ップ角度でスキャンされるが、 ビームの角度によって受信レベルは 変化する。 図 2 に示したよ うにターゲッ トが橋の場合、 一般に図 3 のグラフに表したよ うな変化を示す。 即ち、 横軸をレーダのスキヤ ン角度と し、 縦軸を受信レベルとする と、 橋は左右に伸びているた め自車からビーム角度 0 ° 、 即ち、 真っ直ぐに前方に発射されたビ ームの反射波の受信レベルが最も高く な り、 左右にゆく ほど受信レ ベルは減少する。
図 4 A、 .はカメ ラで捕らえた画像を示した図である。 図 4 Bは、 カメ ラで測定した距離に基づく距離画像である。 カメ ラで捕らえた 信号を画像処理するこ とによって、 特定の物体が画像のどの位置に 存在するかの情報が得られる。 さらに、 画像のエッジ情報及び距離 画像を得ることができる。 エッジ情報は画像の明暗の変化点を抽出 した情報であり、 距離情報は複眼カメ ラで得た画像を比較し、 視差 を求めて距離情報を得るものである。
単眼カメ ラで画像を捕らえた場合でも、 エッジ情報を得ることが できパターン認識ができ、 さ らにおよその距離とその物体の位置す る角度およびおよその高さがわかる。
図 4 Bは、 自車から橋までの距離が約 6 0 mで、 自車からの視野 角が 0 ° ± 2 0 ° である場合の距離画像の例を示した図である。 図 に示されているように、 カメラによって橋の位置は自車から 6 0 m であり、 手前の道路面はそれぞれ 1 0 m、 1 5 mであることがわか る。 この図は全画面の視差をとつて距離画像を得て作成されたもの である。 この図から、 前方約 6 0 mにある物体が水平面より上側に あり、 道路上に存在する物体ではないことが判明する。
図 5は、 道路標識 4が取り付けられている橋 3が前方にある場合 にカメ ラで捕らえた画像を示したものである。 図 6は図 5に示され た画像の縦ェッジを抽出した場合のエッジ画像を示したものである 。 この図に示すように、 縦エッジを抽出した場合、 橋 3の脚部分と 標識 4の縦の線のみが現れる。 この縦エッジは橋に自車が近づく に つれ画面上では長くなり、 位置も画面上で高い位置にく る。 図 7は 図 5に示された画像の横エッジを抽出した場合のエッジ画像を示し たものである。 この図に示すよ うに、 横エッジを抽出した場合、 橋 3の脚部分と標識 4の横の線のみが現れる。 この横エッジは橋に自 車が近づく につれ縦ェッジと同様画面上では長くなる。 実施例
次に本発明の実施例をフローチャー トに従って説明する。 図 8は第 1 の実施例を説明するためのフローチヤ一 トである。 こ の実施例では力メ ラと して複眼カメ ラを用いている。 S 1 において カメ ラから得た画像情報は画像処理部において画像処理され、 ター ゲッ 卜までの距離 R g m、 カメ ラが向いている方向に対し何度の方 向にあるかを示す角度 0 g m、 ターゲッ トの高さ H g mを算出する 。 一方、 S 2においてレーダによって得た信号からターゲッ トまで の距離 R r n、 ターゲッ 卜が反射したレーダのビームの角度 0 r n 、 ターゲッ ト との相対速度 V r nを算出する。 そして、 S 3 におい て、 画像処理によって得られた上記距離 R g m、 角度 0 g m、 高さ H g mを i ( 0 _ m) のループで回す。 即ち、 R g 、 Θ g , H g を 時々刻々算出する。 また、 レーダから得たターゲッ トまでの距離 R r n、 ターゲッ トが反射したビームの角度 0 r n、 ターゲッ ト との 相対速度 V r nを j ( 0 — n ) のループで回す。 即ち、 R r 、 Θ r 、 V r を時々刻々算出する。 次に S 4 と S 5において、 カメ ラが捕 らえたターゲッ ト と レーダが捕らえたターゲッ 卜が同じターゲッ ト であるかどうか判断する。 まず、 S 4においてカメ ラから得た距離 R g mどレーダから得た距離 R r nを比較してその差が一定の範囲 内にあるかどうか判断する。 一定の範囲内にあれば (Y e s ) S 5 に進む。 S 5ではカメ ラで検出した角度 0 g mと レーダで検出した 角度 0 r mを比較してその差が一定の範囲内にあるかどうか判断す る。 そして Y e s であれば、 カメ ラで捕らえたターゲッ トの距離 R g、 角度 0 gが、 レーダで捕らえたターゲッ トの距離 R r 、 角度 0 r とそれぞれほぼ同じであるため、 カメ ラ と レーダで捕らえたター ゲッ トが同じである と判断される。 従って S 6に進み、 カメ ラで捕 らえたターゲッ トの高さ H gが水平線よ り上にあるかどうか判断す る。 Y e s であれば、 ターゲッ トを上方構造物と認識し、 レーダか ら得たターゲッ 卜 までの距離 R r 、 ターゲッ 卜が反射したビームの 角度 0 r 、 ターゲッ ト との相対速度 V r のデータを先行車両のデー タ と して扱わないよ うにするため、 先行車両のデータから削除する 。 即ち、 衝突防止や車間距離制御の対象となるターゲッ トから削除 し、 S 8 においてループは終了する。 一方、 S 4〜S 6にぉぃてN 0の場合も S 8においてループは終了する。
図 9は第 2の実施例を説明するためのフローチヤ一トである。 こ の実施例では力メ ラ と して単眼カメ ラを用いている。 S 1 において カメ ラから得た画像情報は画像処理部において画像処理され、 タ一 ゲッ トまでのおよその距離 R' g m、 角度 0 g m、 及びおよその高 さ H' g mを算出する。 一方、 S 2においてレーダによって得た信 号からタ一ゲッ トまでの距離 R r n、 ターゲッ トが反射したレーダ のビームの角度 0 r n、 ターゲッ ト との相対速度 V r nを算出する 。 そして、 S 3において、 画像処理によって得られた上記距離 R ' g m、 角度 0 g m、 およその高さ H' g mを i ( 0 — m) のループ で回す。 また、 レーダから得たターゲッ トまでの距離 R r n、 ター ゲッ トが反射したビームの角度 0 r n、 ターゲッ ト との相対速度 V 1: 11 を ( 0 - n ) のループで回す。 次に S 4 と S 5におレヽて、 力 メ ラが捕らえたターゲッ 卜 と レーダが捕らえたターゲッ 卜が同じタ 一ゲッ トであるかどうか判断する。 まず、 S 4においてカメ ラから 得た距離 R ' g mと レーダから得た距離 R r nを比較してその差が 一定の範囲内にあるかどうか判断する。 一定の範囲内にあれば (Y e s ) S 5に進む。 S 5ではカメ ラで検出した角度 0 g mと レーダ で検出した角度 0 r mを比較してその差が一定の範囲内にあるかど うか判断する。 そして一定の範囲内にあれば (Y e s ) 、 カメ ラで 捕らえたタ一ゲッ トの:距離 g、 角度 0 gが、 レ一:ダで捕らえた タ一ゲッ 卜の距離 R r 、 角度 0 r とそれぞれほぼ同じであるため、 カメ ラ と レーダで捕らえたターゲッ トが同じである と判断される。 従って S 6に進み、 カメ ラで捕らえたターゲッ 卜のおよその高さ H ' gが水平線よ り上にあるかどうか判断する。 Y e sであれば、 タ ーゲッ トを上方構造物と認識し, レーダから得たターゲッ トまでの 距離 R r 、 ターゲッ トが反射したビームの角度 0 r 、 ターゲッ ト と の相対速度 V rのデータを先行車両のデータと して扱わないように するため、 先行車両のデータから削除する。 即ち、 衝突防止や車間 距離制御の対象となるターゲッ 卜から削除し、 S 8においてループ は終了する。 一方、 S 4〜 S 6において N oの場合も S 8において ループは終了する。
図 1 0は第 3の実施例を説明するためのフローチャー トである。 この実施例ではカメ ラ装置と して複眼カメ ラ又は単眼カメラのいず れを用いてもよい。 しかし、 この図 1 0のフローチャー トでは複眼 カメ ラを用いた場合について説明する。 S 1 においてカメラから得 た画像情報は画像処理部において画像処理され、 ターゲッ トまでの 距離 R g m、 角度 0 g m、 及び高さ H g mを算出する。 一方、 S 2 においてレーダによつて得た信号からターゲッ トまでの距離 R r n 、 ターゲッ トが反射したレーダのビームの角度 0 r n、 ターゲッ ト との相対速度 V r nを算出する。 さ らに本実施例の場合、 レーダの 受信レベル p r nを算出する。 そして、 S 3において、 レーダから 得たターゲッ 卜 までの距離 R r n、 ターゲッ トが反射したビームの 角度 Θ r n、 ターゲッ ト との相対速度 V r n、 及び受信レベル P r nを j ( 0 - n ) のループで回す。 次に S 4 と S 5において、 レー ダで捕らえたターゲッ トが静止物体であるかどうか判断する。 まず S 4において、 レーダが捕らえたターゲッ 卜からの距離 R r nが時 間的に減少方向にあるかどう力、、 即ち、 そのターゲッ トに近づいて いるかどうか判断する。 近づいていれば (Y e s ) S 5に進み、 受 信レベルが時間的に減少方向にあるかどうか判断する。 図 2に示す よ う に、 ターゲッ トが橋等の上方構造物の場合、 ターゲッ トに近づ く につれ受信レベルは減少する。 従って Y e s であれば、 橋のよ う な上方静止物体である と考えられるので、 静止物体候補フラグ F r nを立てる ( S 6 ) 。 そして、 S 7に進み i ( 0— n ) のループを 回す。 一方、 S 4及び S 5で N 0 の場合は S 7に進む。 次に S 8に 進み、 i ( 0— m) のループと j ( 0— n ) のループで回す。
次に S 9 と S 1 0において、 カメ ラが捕らえたタ一ゲッ ト と レ一 ダが捕らえたタ一ゲッ 卜が同じターゲッ トであるかどうか判断する 。 まず、 S 9においてカメ ラから得た距離 R g mと レーダから得た 距離 R r nを比較してその差が一定の範囲内にあるかどうか判断す る。 一定の範囲内にあれば (Y e s ) S 1 0に進む。 S 1 0では力 メ ラで検出した角度 0 g mと レーダで検出した角度 Θ r nを比較し てその差が一定の範囲内にあるかどうか判断する。 そして一定の範 囲内にあれば (Y e s ) 、 カメ ラで捕らえたターゲッ トの距離 R g 、 角度 0 g力 s、 レーダで捕らえたターゲッ トの距離 R r、 角度 0 r とそれぞれほぼ同じであるため、 カメ ラ と レーダで捕らえたターゲ ッ トが同じである と判断される。 従って S 1 1 に進み、 カメ ラで捕 らえたターゲッ トの高さ H gが一定値以上であるかどうか判断する 。 この場合、 H gがどの程度の値であれば上方構造物体であるかは タ一ゲッ 卜までの距離 R gまたは R r によって変化する。 従って、 R g m、 R r n と H g mの関係を表すマップを作成し、 R g mまた は R r nの値に応じて H g mの一定値を設定して判断する。 Y e s であれば、 本実施例では、 S 1 2において静止物体候補のフラグ F r nが立っているかどうかを判断する。 Y e sであれば、 ターゲッ トを静止物体である上方構造物と認識し、 レーダから得たターゲッ 卜までの距離 R r、 ターゲッ トが反射したビームの角度 0 r 、 ター ゲッ ト との相対速度 V rのデータを先行車両のデータ と して扱わな いようにするため、 先行車両のデータから削除する ( S 1 3 ) 。 即 ち、 衝突防止や車間距離制御の対象となるターゲッ 卜から.削除し、 S 1 4においてループは終了する。 一方、 S 9〜 S 1 2において N 0の場合は S 1 4に進みループは終了する。
第 3の実施例を示す図 1 0のフローチャー トでは、 複眼カメ ラを 用いたため S 1において高さ H g mを算出し、 S I 1 において H g mが一定値以上であるか判断している。 しかし、 単眼カメラを用い た場合には、 S 1 においておよその高さ H' g mを算出し、 S 1 1 において H' g mが一定値以上であるかどうかを判断する。
図 1 1 は本発明の第 4の実施例を示すフローチヤ一 トである。 こ の場合、 レーダ装置は用いず、 カメ ラ装置のみを用いている。 この フローチヤ一 トは複眼力メ ラを用いた場合を示す。 S 1 において、 ターゲッ トまでの距離 R g m、 角度 0 g m、 及び高さ H gに加えて 、 縦エッジの長さ L g mを算出する。 そして、 3 2で 8 111が時間 的に増大方向にあるかどうかを判断する。 そして Y e sであれば、 ターゲッ トを上方構造物と認識し, カメラ装置から得たターゲッ ト までの距離 R g、 ターゲッ トが反射したビームの角度 0 g、 ターグ ッ 卜の高さ H g、 そして L gを先行車両のデータと して扱わないよ うにするため、 先行車両のデータから削除する ( S 3 ) 。
また、 第 4の実施例は、 単眼カメ ラを用いた場合にも適用できる 。 S 1において、 ターゲッ トまでのおよその距離 R' g m、 角度 0 g m、 及びおよその高さ H' g mに加えて、 縦エッジの長さ L g m を算出する。 そして、 S 2で L g mが時間的に増大方向にあるかど うかを判断する。 そして Y e sであれば、 ターゲッ トを上方構造物 と認識し、 レーダから得たターゲッ トまでの距離 R g、 ターゲッ ト が反射したビームの角度 0 g、 ターゲッ トの高さ H g、 そして L g のデータを先行車両のデータと して扱わないよ うにするため、 先行 車両のデータから削除する ( S 3 ) 。
図 1 2は第 5の実施例を示すフローチャー トである。 この実施例 ではカメ ラと して複眼カメ ラ又は単眼カメラのいずれを用いてもよ い。 しかし、 この図 1 2のフローチャー トでは複眼カメ ラを用いた 場合について説明する。 S 1においてカメラから得た画像情報は画 像処理部において画像処理され、 ターゲッ トまでの距離 R g m、 角 度 0 g m、 高さ H g m、 及び縦エッ ジの長さ L g mを算出する。 次 に S 2において、 i ( 0— m) のループで回す。 次に S 3において 、 L g mが時間的に増大方向にあるかどうか判断する。 Y e s であ れば S 4においてそのターゲッ 卜が静止物体の候補であることを示 すフラグ F g mを立てる。 次に S 5に進み i ( 0 — m) のループを 回す。 次に S 6において、 レーダによって検出されたターゲッ トま での距離 R r n、 タ一ゲッ トが反射したレーダのビームの角度 0 r n、 ターゲッ ト との相対速度 V r n、 及びレーダの受信レベル P r nを算出する。 そして、 S 7において、 レーダから得たターゲッ ト までの距離 R r n、 ターゲッ 卜が反射したビームの角度 0 r n、 タ 一ゲッ ト との相対速度 V r n、 及び受信レベル P r nを j ( 0 - n ) のループで回す。 次に S 8 と S 9において、 レーダで捕らえたタ ーゲッ トが静止物体であるかどうか判断する。 まず S 8において、 レーダが捕らえたターゲッ 卜からの距離 R r nが時間的に減少方向 にあるかどう力 、 即ち、 そのターゲッ トに近づいているかどうか判 断する。 近づいていれば (Y e s ) S 9に進み、 受信レベルが時間 的に減少方向にあるかどうか判断する。 Y e s であれば、 図 2で示 したよ うに橋のような静止物体であると考えられるので、 静止物体 候補フラグ F r nを立てる ( S 1 0 ) 。 そして、 S 1 1に進み j ( 0 - n ) のループを回す。 S 8及び S 9で N oの場合も S 1 1 に進 む。 次に S 1 2に進み、 i ( 0 — m) のループと j ( 0— n ) のル ープで回す。
次に S 1 3 と S 1 4において、 カメラが捕らえたタ一ゲッ ト と レ ーダが捕らえたタ一ゲッ トが同じターゲッ トであるかどうか判断す る。 まず、 S 1 3においてカメラから得た距離 R g mと レーダから 得た距離 R r nを比較してその差が一定の範囲内にあるかどうか判 断する。 一定の範囲内にあれば (Y e s ) S I 4に進む。 S 1 4で はカメラで検出した角度 0 g mと レーダで検出した角度 0 r mを比 較してその差が一定の範囲内にあるかどうか判断する。 そして一定 の範囲内にあれば (Y e s ) 、 カメ ラで捕らえたターゲッ トの距離 R g、 角度 0 gが、 レーダで捕らえたターゲッ トの距離 R r、 角度 Θ r とそれぞれほぼ同じであるため、 カメ ラとレーダが捕らえたタ —ゲッ 卜が同じであると判断される。 従って S 1 5に進み、 カメラ で捕らえたターゲッ 卜の高さ H gが一定値以上であるかどうか判断 する。 Y e sであれば、 S 1 6において静止物体候補のフラグ F g mと F r nが立っているかどうかを判断する。 Y e sであれば、 タ ーゲッ トを上方構造物と認識し、 レーダから得たターゲッ トまでの 距離 R r、 ターゲッ トが反射したビームの角度 0 r、 ターゲッ ト と の相対速度 V r のデータを先行車両のデータと して扱わないように するため、 先行車両のデータから削除する ( S 1 7 ) 。 即ち、 衝突 防止や車間距離制御の対象となるターゲッ トから削除し、 S 1 8に おいてループは終了する。 一方、 S 1 3〜 S 1 6において N oの場 合、 S 1 8に進みループは終了する。
第 5 の実施例を示す図 1 2 のフ ローチャー トでは、 複眼カメ ラを 用いたため S 1 において高さ H g mを算出し、 S 1 5において H g mが一定値以上であるか判断している。 しかし、 単眼カメラを用い た場合には、 S 1 においておよその高さ H' g mを算出し、 S 1 5 において H' g mが一定値以上であるかどうかを判断する。 図 1 3は本発明の第 6の実施例を示すフローチャー トである。 こ れは複眼カメ ラを用いた場合を示す。 S 1 において、 ターゲッ トま での距離 R g m、 角度 0 g m、 及び高さ H gに加えて、 横エッジの 長さ W g mを算出するものである。 そして、 S 2で W g mが時間的 に増大方向にあるかどうかを判断する。 図 7で説明したように、 標 識等の場合、 近づく につれ横エッジの長さは長く なる。 そのため Y e s であれば、 ターゲッ トを上方構造物と認識し、 カメラ装置から 得たターゲッ 卜までの距離 R g、 ターゲッ 卜が反射したビームの角 度 0 g、 ターゲッ トの高さ H g、 および W gのデータを先行車両の データと して扱わないよ うにするため、 先行車両のデータから削除 する ( S 3 ) 。
また、 第 6の実施例は、 単眼カメ ラを用いた場合にも適用できる 。 S 1 において、 ターゲッ トまでのおよその距離 R' g m、 角度 0 g m、 及びおよその高さ H' g mに加えて、 横エッジの長さ W g m を算出するものである。 そして、 S 2で W g mが時間的に増大方向 にあるかどうかを判断する。 そして Y e sであれば、 ターゲッ トを 上方構造物と認識し, 力メラ装置から得たタ一ゲッ トまでの距離 R g、 ターゲッ トが反射したビームの角度 0 g、 ターゲッ トの高さ H g、 および W gを先行車両のデータと して扱わないよ うにするため 、 先行車両のデータから削除する ( S 3 ) 。
図 1 4は第 7の実施例を示すフローチャー トである。 この実施例 ではカメ ラと して複眼カメ ラ又は単眼カメ ラのいずれを用いてもよ い。 しかし、 この図 1 4のフローチャー トでは複眼カメラを用いた 場合について説明する。 S 1 においてカメ ラから得た画像情報は画 像処理部において画像処理され、 ターゲッ トまでの距離 R g m、 角 度 0 g m、 高さ H g m、 及び横エッジの長さ W g mを算出する。 次 に S 2において、 i ( 0— m) のループで回す。 次に S 3において 、 W g mが時間的に増大方向にあるかどうか判断する。 Y e sであ れば S 4においてそのターゲッ トが静止物体の候補であることを示 すフラグ F g mを立てる。 次に S 5に進み i ( 0 — m) のループを 回す。 次に S 6において、 レーダによって検出されたターゲッ トま での距離 R r n、 ターゲッ トが反射したレーダのビームの角度 0 r n、 ターゲッ トとの相対速度 V r n、 及びレーダの受信レベル P r nを算出する。 そして、 S 7において、 レーダから得たターゲッ ト までの距離 R r n、 ターゲッ トが反射したビームの角度 0 r n、 タ ーゲッ 卜 との相対速度 V r n、 及び受信レベル P r nを j ( 0— n ) のループで回す。 次に S 8 と S 9において、 レーダで捕らえたタ ーゲッ トが静止物体であるかどうか判断する。 まず S 8において、 レーダが捕らえたタ一ゲッ 卜からの距離 R r nが時間的に減少方向 にあるかどう力、、 即ち、 そのターゲッ トに近づいているかどうか判 断する。 近づいていれば (Y e s ) S 9に進み、 受信レベルが時間 的に減少方向にあるかどうか判断する。 Y e sであれば、 図 2で示 したよ うに橋のような静止物体であると考えられるので、 静止物体 候補フラグ F r nを立てる ( S 1 0 ) 。 そして、 S 1 1 に進み j ( 0 - n ) のループを回す。 S 8及び S 9で N oの場合も S 1 1 に進 む。 次に S 1 2に進み、 i ( 0 — m) のループと j ( 0 - n ) のル ープで回す。
次に S 1 3 と S 1 4において、 カメラが捕らえたタ一ゲッ ト と レ ーダが捕らえたタ一ゲッ 卜が同じターゲッ 卜であるかどうか判断す る。 まず、 S 1 3においてカメ ラから得た距離 R g mと レーダから 得た距離 R r nを比較してその差が一定の範囲内にあるかどうか判 断する。 一定の範囲内にあれば (Y e s ) S I 4に進む。 S 1 4で はカメ ラで検出した角度 0 g mと レーダで検出した角度 0 r mを比 較してその差が一定の範囲内にあるかどうか判断する。 そして一定 の範囲内にあれば (Y e s ) 、 カメ ラで捕らえたターゲッ トの距離 R g、 角度 0 gが、 レーダで捕らえたターゲッ トの距離 R r 、 角度 Θ rがそれぞれほぼ同じであるため、 カメ ラと レーダが捕らえたタ ーゲッ 卜が同じであると判断される。 従って S 1 5に進み、 カメラ で捕らえたターゲッ トの高さ H gが一定値以上であるかどうか判断 する。 Y e sであれば、 S 1 6において静止物体候補のフラグ F g mと F r nが立っているかどうかを判断する。 Y e sであれば、 タ ーゲッ トを上方構造物と認識し、 レーダから得たターゲッ トまでの 距離 R r、 ターゲッ トが反射したビームの角度 0 r、 ターゲッ ト と の相対速度 V r のデータを先行車両のデータと して扱わないように するため、 先行車両のデータから削除する ( S 1 7 ) 。 即ち、 衝突 防止や車間距離制御の対象となるタ一ゲッ 卜から削除し、 S 1 8に おいてループは終了する。 一方、 S 1 3〜 S 1 6において N oの場 合 S 1 8に進みループは終了する。
第 7の実施例を示す図 1 2のフローチャー トでは、 複眼カメラを 用いたため S 1 において高さ H g mを算出し、 S 1 5において H g mが一定値以上であるか判断している。 しかし、 単眼カメラを用い た場合には、 S 1 においておよその高さ H' g mを算出し、 S 1 5 において H' g mが一定値以上であるかどうかを判断する。
本発明では、 道路上方静止物と して、 道路上の橋や標識を例に説 明したが、 本発明において、 道路上方静止物は、 これらの他に路側 上の標識等の静止物も含むものとする。

Claims

請 求 の 範 囲
1 . カメ ラ装置と レーダ装置を備え、 カメ ラで捕らえたターゲッ ト と レーダで捕らえたターゲッ トが同一である と判定し、 かつ、 力 メ ラで捕らえた画像から該ターゲッ トの高さが水平線よ り上に位置 する と判定した場合、 該ターゲッ トが道路上方静止物体である と判 定する、 道路上方静止物検知方法。
2 . カメ ラ装置と レーダ装置を備え、 カメ ラまたはレーダで捕ら えたターゲッ トからの距離が減少し、 かつレーダで捕らえたターゲ ッ 卜からの受信レベルが減少している と判定した場合、 該タ一ゲッ トが道路上方静止物体である と判定する、 道路上方静止物検知方法
3 . さ らに、 カメ ラで捕らえたターゲッ ト と レーダで捕らえたタ ーゲッ トが同一で、 かつカメ ラで捕らえた画像から該ターゲッ トの 高さが一定値以上である と判定した場合、 該ターゲッ トが道路上方 静止物体であると判定する、 請求項 2に記載の道路上方静止物検知 方法。
4 . カメ ラ装置を備え、 カメ ラ捕らえたターゲッ トの縦エッジの 長さが時間と共に増大している と判定された場合、 該ターゲッ トが 道路上方静止物体であると判定する、 道路上方静止物検知方法。
5 . カメ ラ装置を備え、 カメ ラ捕らえたターゲッ トの横エッジの 長さが時間と共に増大している と判定された場合、 該ターゲッ トが 道路上方静止物体である と判定する、 道路上方静止物検知方法。
6 . さ らに、 レーダで捕らえたターゲッ トからの受信レベルが減 少している と判定した場合、 該ターゲッ トが道路上方静止物体であ ると判定する、 請求項 4または 5 に記載の道路上方静止物検知方法
7 . さ らに、 カメ ラで捕らえたターゲッ ト と レーダで捕らえたタ ーゲッ 卜が同一で、 かつカメ ラで捕らえた画像から該ターゲッ 卜の 高さが水平線よ り上に位置する と判定した場合、 該ターゲッ トが道 路上方静止物体である と判定する、 請求項 6 に記載の道路上方静止 物検知方法。
8 . 前記カメ ラ装置は複眼カメ ラまたは単眼カメ ラである、 請求 項 1、 2, 4, 5のいずれか 1項に記載の道路上方静止物検知方法
9 . 前記ターゲッ トが同一であるかどうかの判定は、 前記カメ ラ で捕らえたターゲッ トまでの距離 R g と前記レーダで捕らえたタ一 ゲッ 卜までの距離 R r との差、 および前記カメ ラで捕らえたターゲ ッ 卜の角度 0 g と前記レーダで捕らえたターゲッ 卜の 0 r との差が 、 一定の範囲内である場合にターゲッ トが同一である と判定する、 請求項 1、 3, 7、 のいずれか 1項に記載の道路上方静止物検知方 法。
1 0 . 前記ターゲッ トが道路上方静止物体である と判定された場 合、 該ターゲッ トのデータを先行車両データから削除する、 請求項 1、 2, 4, 5のいずれ力 1項に記載の道路上方静止物検知方法。
1 1 . 前記道路上方静止物は、 道路上または路側上の静止物であ る、 請求項 1〜 1 0のいずれか 1項の道路上方静止物検知方法。
PCT/JP2001/011156 2000-12-20 2001-12-19 Procede de detection d'un objet stationnaire sur une route WO2002050568A1 (fr)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US10/203,843 US6670912B2 (en) 2000-12-20 2001-12-19 Method for detecting stationary object located above road
EP01271549A EP1345045A4 (en) 2000-12-20 2001-12-19 METHOD FOR DETECTING A STATIONARY OBJECT ON A ROAD

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2000387571A JP2002189075A (ja) 2000-12-20 2000-12-20 道路上方静止物検知方法
JP2000-387571 2000-12-20

Publications (1)

Publication Number Publication Date
WO2002050568A1 true WO2002050568A1 (fr) 2002-06-27

Family

ID=18854473

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2001/011156 WO2002050568A1 (fr) 2000-12-20 2001-12-19 Procede de detection d'un objet stationnaire sur une route

Country Status (6)

Country Link
US (1) US6670912B2 (ja)
EP (2) EP1345045A4 (ja)
JP (1) JP2002189075A (ja)
KR (1) KR100461228B1 (ja)
DE (1) DE60139967D1 (ja)
WO (1) WO2002050568A1 (ja)

Families Citing this family (68)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10361802B1 (en) 1999-02-01 2019-07-23 Blanding Hovenweep, Llc Adaptive pattern recognition based control system and method
US8352400B2 (en) 1991-12-23 2013-01-08 Hoffberg Steven M Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore
US7904187B2 (en) 1999-02-01 2011-03-08 Hoffberg Steven M Internet appliance system and method
US10298735B2 (en) 2001-04-24 2019-05-21 Northwater Intellectual Property Fund L.P. 2 Method and apparatus for dynamic configuration of a multiprocessor health data system
US7146260B2 (en) 2001-04-24 2006-12-05 Medius, Inc. Method and apparatus for dynamic configuration of multiprocessor system
US7027615B2 (en) * 2001-06-20 2006-04-11 Hrl Laboratories, Llc Vision-based highway overhead structure detection system
US7178049B2 (en) 2002-04-24 2007-02-13 Medius, Inc. Method for multi-tasking multiple Java virtual machines in a secure environment
US6771208B2 (en) * 2002-04-24 2004-08-03 Medius, Inc. Multi-sensor system
JP2004226158A (ja) * 2003-01-21 2004-08-12 Fujitsu Ten Ltd Fm−cwレーダ装置
JP3918791B2 (ja) * 2003-09-11 2007-05-23 トヨタ自動車株式会社 物体検出装置
JP3941765B2 (ja) * 2003-09-11 2007-07-04 トヨタ自動車株式会社 物体検出装置
US7889113B2 (en) 2003-10-10 2011-02-15 L-3 Communications Security and Detection Systems Inc. Mmw contraband screening system
US7389171B2 (en) * 2003-12-22 2008-06-17 Ford Global Technologies Llc Single vision sensor object detection system
JP4763250B2 (ja) * 2004-04-09 2011-08-31 株式会社デンソー 物体検出装置
US7561720B2 (en) * 2004-04-30 2009-07-14 Visteon Global Technologies, Inc. Single camera system and method for range and lateral position measurement of a preceding vehicle
US7337650B1 (en) 2004-11-09 2008-03-04 Medius Inc. System and method for aligning sensors on a vehicle
US7561721B2 (en) * 2005-02-02 2009-07-14 Visteon Global Technologies, Inc. System and method for range measurement of a preceding vehicle
US20070031008A1 (en) * 2005-08-02 2007-02-08 Visteon Global Technologies, Inc. System and method for range measurement of a preceding vehicle
US7706978B2 (en) * 2005-09-02 2010-04-27 Delphi Technologies, Inc. Method for estimating unknown parameters for a vehicle object detection system
US7623681B2 (en) * 2005-12-07 2009-11-24 Visteon Global Technologies, Inc. System and method for range measurement of a preceding vehicle
US7877209B2 (en) * 2006-09-26 2011-01-25 Harris Steven M Radar collison warning system for rooftop mounted cargo
DE102007002738A1 (de) * 2007-01-18 2008-07-24 Robert Bosch Gmbh Verfahren zur Unterstützung eines Einparkvorgangs eines Fahrzeugs
FR2917869B1 (fr) * 2007-06-25 2009-10-09 Valeo Vision Sa Procede de detection d'un objet cible
JP2009031053A (ja) 2007-07-25 2009-02-12 Fujitsu Ten Ltd 前方障害物検出装置
DE102007053989A1 (de) * 2007-11-13 2009-05-14 Wabco Gmbh Verfahren und Anordnung zur Warnung vor Hindernissen mit nicht ausreichender Durchfahrtshöhe und/oder nicht ausreichender Durchfahrtsbreite
JP2009230229A (ja) * 2008-03-19 2009-10-08 Toyota Motor Corp 物体検出装置
EP2307907A1 (en) * 2008-07-24 2011-04-13 Koninklijke Philips Electronics N.V. Distance measurement
US9358924B1 (en) 2009-05-08 2016-06-07 Eagle Harbor Holdings, Llc System and method for modeling advanced automotive safety systems
US8417490B1 (en) 2009-05-11 2013-04-09 Eagle Harbor Holdings, Llc System and method for the configuration of an automotive vehicle with modeled sensors
JP5551891B2 (ja) * 2009-06-18 2014-07-16 富士通テン株式会社 信号処理装置、及びレーダ装置
JP2011117896A (ja) * 2009-12-07 2011-06-16 Honda Elesys Co Ltd 電子走査型レーダ装置及びコンピュータプログラム
JP5629521B2 (ja) * 2010-07-29 2014-11-19 パナソニック株式会社 障害物検知システム及び方法、障害物検知装置
JP5655497B2 (ja) * 2010-10-22 2015-01-21 トヨタ自動車株式会社 障害物認識装置及び障害物認識方法
US9472097B2 (en) 2010-11-15 2016-10-18 Image Sensing Systems, Inc. Roadway sensing systems
EP2663971A1 (en) 2010-11-15 2013-11-20 Image Sensing Systems, Inc. Hybrid traffic sensor system and associated method
KR20120053713A (ko) * 2010-11-18 2012-05-29 에스엘 주식회사 차량용 카메라의 제어 장치 및 방법
JP2013002927A (ja) * 2011-06-15 2013-01-07 Honda Elesys Co Ltd 障害物検知装置及びコンピュータプログラム
CN102496030B (zh) * 2011-12-12 2013-06-26 杭州市电力局 电力监测系统中危险目标的识别方法及装置
US8886392B1 (en) 2011-12-21 2014-11-11 Intellectual Ventures Fund 79 Llc Methods, devices, and mediums associated with managing vehicle maintenance activities
US9446711B2 (en) 2012-05-09 2016-09-20 Toyota Jidosha Kabushiki Kaisha Driving assist device
JP5829980B2 (ja) * 2012-06-19 2015-12-09 トヨタ自動車株式会社 路側物検出装置
JP5853878B2 (ja) * 2012-06-21 2016-02-09 トヨタ自動車株式会社 上方構造物検出装置
US9405006B2 (en) * 2012-09-03 2016-08-02 Toyota Jidosha Kabushiki Kaisha Collision determination device and collision determination method
DE102012110595A1 (de) 2012-11-06 2014-05-08 Conti Temic Microelectronic Gmbh Verfahren und Vorrichtung zur Erkennung von Verkehrszeichen für ein Fahrzeug
JP2014102165A (ja) * 2012-11-20 2014-06-05 Denso Corp 物標判定装置
JP5812064B2 (ja) 2012-11-22 2015-11-11 株式会社デンソー 物標検出装置
JP6075408B2 (ja) * 2012-11-22 2017-02-08 株式会社デンソー 物標検出装置
DE102012024879A1 (de) * 2012-12-19 2014-06-26 Valeo Schalter Und Sensoren Gmbh Fahrerassistenzsystem zum zumindest partiellen Abbremsen eines Kraftfahrzeugs, Kraftfahrzeug und entsprechendes Verfahren
US8825260B1 (en) * 2013-07-23 2014-09-02 Google Inc. Object and ground segmentation from a sparse one-dimensional range data
US9205835B2 (en) * 2014-01-30 2015-12-08 Mobileye Vision Technologies Ltd. Systems and methods for detecting low-height objects in a roadway
JP6348332B2 (ja) * 2014-04-25 2018-06-27 株式会社デンソーテン レーダ装置、車両制御システム及び信号処理方法
US10890648B2 (en) * 2014-10-24 2021-01-12 Texas Instruments Incorporated Method and apparatus for generating alignment matrix for camera-radar system
US10373178B2 (en) * 2014-12-13 2019-08-06 Spinach Marketing, LLC Display monitoring system
JP6396838B2 (ja) * 2015-03-31 2018-09-26 株式会社デンソー 車両制御装置、及び車両制御方法
KR102435552B1 (ko) * 2015-10-22 2022-08-24 주식회사 에이치엘클레무브 차량용 레이더 장치 장치 및 그의 타겟 선정 방법
CN105512633A (zh) * 2015-12-11 2016-04-20 谭焕玲 一种电力系统危险目标识别方法及装置
US10565468B2 (en) 2016-01-19 2020-02-18 Aptiv Technologies Limited Object tracking system with radar/vision fusion for automated vehicles
JP6643166B2 (ja) * 2016-03-31 2020-02-12 株式会社デンソー 物体認識装置及び物体認識方法
JP6654087B2 (ja) * 2016-04-11 2020-02-26 株式会社デンソーウェーブ 物体検知装置及び物体検知プログラム
DE102016207463A1 (de) * 2016-04-29 2017-11-02 Robert Bosch Gmbh Verfahren und Vorrichtung zum Betreiben wenigstens eines Fahrzeugs in Bezug auf wenigstens ein passierbares Objekt in der Umgebung des wenigstens einen Fahrzeugs
JP2017223635A (ja) * 2016-06-17 2017-12-21 株式会社デンソーテン レーダ装置及び物標判定方法
WO2018021444A1 (ja) * 2016-07-29 2018-02-01 株式会社デンソー 物標検出装置
JP6547785B2 (ja) * 2016-07-29 2019-07-24 株式会社デンソー 物標検出装置
JP6881917B2 (ja) * 2016-08-30 2021-06-02 キヤノン株式会社 距離計測装置、撮像制御装置
DE102016218852A1 (de) * 2016-09-29 2018-03-29 Conti Temic Microelectronic Gmbh Detektion von Objekten aus Bildern einer Kamera
JP6856452B2 (ja) 2017-06-14 2021-04-07 トヨタ自動車株式会社 物標判定装置及び運転支援システム
US10663581B2 (en) * 2017-07-13 2020-05-26 GM Global Technology Operations LLC Detection systems and methods using ultra-short range radar
JP7111454B2 (ja) * 2017-09-28 2022-08-02 株式会社デンソー 制御対象車両設定装置、制御対象車両設定システムおよび制御対象車両設定方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06124340A (ja) * 1992-07-21 1994-05-06 Nissan Motor Co Ltd 車両用画像処理装置
JPH0765294A (ja) * 1993-08-23 1995-03-10 Mitsubishi Electric Corp 車両用予防安全装置
JPH08329393A (ja) * 1995-05-29 1996-12-13 Daihatsu Motor Co Ltd 先行車検出装置
JPH09288178A (ja) * 1996-04-23 1997-11-04 Toyota Motor Corp 車載モノパルスレーダ装置
JPH1116099A (ja) * 1997-06-27 1999-01-22 Hitachi Ltd 自動車走行支援装置
JP2000329852A (ja) * 1999-05-17 2000-11-30 Nissan Motor Co Ltd 障害物認識装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3156817B2 (ja) * 1994-03-14 2001-04-16 矢崎総業株式会社 車両周辺監視装置
JP3212218B2 (ja) * 1994-05-26 2001-09-25 三菱電機株式会社 車両用障害物検出装置
JP3430641B2 (ja) * 1994-06-10 2003-07-28 日産自動車株式会社 車間距離検出装置
EP0773452B1 (en) * 1995-11-10 2000-12-20 Toyota Jidosha Kabushiki Kaisha Radar apparatus for detecting a direction of a center of a target
DE19546506A1 (de) * 1995-12-13 1997-06-19 Daimler Benz Ag Fahrzeug-Navigationssystem und Signalverarbeitungsverfahren für ein solches Navigationssystem
JP3684776B2 (ja) * 1997-07-23 2005-08-17 株式会社デンソー 車両用障害物認識装置
SE511061C2 (sv) * 1997-11-21 1999-07-26 Celsiustech Electronics Ab Förfarande för klassificering av upphöjda objekt
JP3516856B2 (ja) * 1998-01-30 2004-04-05 富士重工業株式会社 車外監視装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06124340A (ja) * 1992-07-21 1994-05-06 Nissan Motor Co Ltd 車両用画像処理装置
JPH0765294A (ja) * 1993-08-23 1995-03-10 Mitsubishi Electric Corp 車両用予防安全装置
JPH08329393A (ja) * 1995-05-29 1996-12-13 Daihatsu Motor Co Ltd 先行車検出装置
JPH09288178A (ja) * 1996-04-23 1997-11-04 Toyota Motor Corp 車載モノパルスレーダ装置
JPH1116099A (ja) * 1997-06-27 1999-01-22 Hitachi Ltd 自動車走行支援装置
JP2000329852A (ja) * 1999-05-17 2000-11-30 Nissan Motor Co Ltd 障害物認識装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1345045A4 *

Also Published As

Publication number Publication date
EP1345045A1 (en) 2003-09-17
KR100461228B1 (ko) 2004-12-14
EP1881345B1 (en) 2009-09-16
US6670912B2 (en) 2003-12-30
KR20020079869A (ko) 2002-10-19
EP1881345A1 (en) 2008-01-23
US20030011509A1 (en) 2003-01-16
DE60139967D1 (de) 2009-10-29
EP1345045A4 (en) 2005-10-26
JP2002189075A (ja) 2002-07-05

Similar Documents

Publication Publication Date Title
WO2002050568A1 (fr) Procede de detection d'un objet stationnaire sur une route
US9251708B2 (en) Forward collision warning trap and pedestrian advanced warning system
JP3123303B2 (ja) 車両用画像処理装置
JP3822515B2 (ja) 障害物検知装置及びその方法
US8175331B2 (en) Vehicle surroundings monitoring apparatus, method, and program
JP4871909B2 (ja) 物体認識装置、および物体認識方法
KR101395089B1 (ko) 장애물 감지 시스템 및 방법
JP3904988B2 (ja) 画像処理装置およびその方法
JP3463858B2 (ja) 周辺監視装置及び方法
JP3304687B2 (ja) 車両用走行車線認識装置及び障害物検出装置・道路逸脱報知装置
JP6626410B2 (ja) 自車位置特定装置、自車位置特定方法
US20100030474A1 (en) Driving support apparatus for vehicle
JPH10187930A (ja) 走行環境認識装置
JP2002366936A (ja) カメラを利用した車両の道路情報抽出方法及びシステム
JP2003084064A (ja) 前方車両の認識装置及び認識方法
US10846546B2 (en) Traffic signal recognition device
JP2003099762A (ja) 前方車両認識装置及び認識方法
JP3666332B2 (ja) 歩行者検知装置
JP2019207651A (ja) 検知装置及び検知システム
JPH08156723A (ja) 車両用障害物検出装置
JP2019207654A (ja) 検知装置及び検知システム
JP2002334330A (ja) 車両認識装置
JP2001296357A (ja) 物体検出装置
JP2019207655A (ja) 検知装置及び検知システム
WO2017013692A1 (ja) 走行車線判定装置及び走行車線判定方法

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): KR US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE TR

WWE Wipo information: entry into national phase

Ref document number: 2001271549

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 10203843

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 1020027010771

Country of ref document: KR

WWP Wipo information: published in national office

Ref document number: 1020027010771

Country of ref document: KR

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWP Wipo information: published in national office

Ref document number: 2001271549

Country of ref document: EP

WWG Wipo information: grant in national office

Ref document number: 1020027010771

Country of ref document: KR

WWW Wipo information: withdrawn in national office

Ref document number: 2001271549

Country of ref document: EP