WO2007102520A1 - 物体検出装置 - Google Patents

物体検出装置 Download PDF

Info

Publication number
WO2007102520A1
WO2007102520A1 PCT/JP2007/054364 JP2007054364W WO2007102520A1 WO 2007102520 A1 WO2007102520 A1 WO 2007102520A1 JP 2007054364 W JP2007054364 W JP 2007054364W WO 2007102520 A1 WO2007102520 A1 WO 2007102520A1
Authority
WO
WIPO (PCT)
Prior art keywords
detection
radar
detection means
area
detected
Prior art date
Application number
PCT/JP2007/054364
Other languages
English (en)
French (fr)
Inventor
Tomoaki Harada
Hisashi Satonaka
Original Assignee
Toyota Jidosha Kabushiki Kaisha
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Jidosha Kabushiki Kaisha filed Critical Toyota Jidosha Kabushiki Kaisha
Priority to US12/281,436 priority Critical patent/US7889116B2/en
Priority to CN2007800070888A priority patent/CN101395492B/zh
Priority to EP07715255.1A priority patent/EP2009464B1/en
Publication of WO2007102520A1 publication Critical patent/WO2007102520A1/ja

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/87Combinations of radar systems, e.g. primary radar and secondary radar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9315Monitoring blind spots
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/932Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles using own vehicle data, e.g. ground speed, steering wheel direction
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93271Sensor installation details in the front of the vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93272Sensor installation details in the back of the vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93274Sensor installation details on the side of the vehicles

Definitions

  • the present invention relates to an apparatus for detecting an object using a radar, and more particularly to an object detection apparatus that can detect an object in a wider area by overlapping a part of detection areas.
  • a system for detecting obstacles around the vehicle, leading vehicles, and the like using a radar is known.
  • a system that recognizes obstacles using a combination of such radar and image recognition devices or a combination of multiple radars it is determined whether or not they are the same object when the detection results of each detection device are fused. It is necessary to perform processing.
  • Patent Document 1 Japanese Patent Laid-Open No. 2 0 3-1 6 8 1 9 7
  • Patent Document 2 Japanese Patent Laid-Open No. 2 0 3-1 6 8 1 9 7
  • This is related to fusion processing.
  • the distance to the detected object, relative speed, and direction are determined to be the same by the radar and the image recognition device, it is determined that they are the same object.
  • the image recognition device recognizes the vehicle image in the acquired image and detects the position thereof, so that it includes the area occupied by the vehicle. be able to.
  • the partial position is also recognized by the other vehicle. Fluctuates depending on the positional relationship between the vehicle and the host vehicle. For this reason, when the same other vehicle is detected using a plurality of radars, another partial position of the other vehicle may be detected, resulting in a difference in the detected position and moving direction. You can get it. According to the technique of Patent Document 1 described above, in such a case, it may be determined that they are not the same object.
  • the present invention provides an object detection apparatus that detects an object by a plurality of radars, and that improves the accuracy of the same object determination and position information acquisition when fusing detection results.
  • the task is to do.
  • an object detection device includes first detection means for detecting a position of an object by receiving a reflected wave from the object of the transmitted wave transmitted.
  • a first detection means and a second detection means arranged so that a part of the detection region overlaps, and detecting the position of the object by receiving a reflected wave from the object of the transmitted transmission wave;
  • Each of the first detection means and the second detection means sends a transmission wave to the object, and detects the reflected wave from the object, thereby determining the position and speed of the object. It is a radar that detects etc.
  • a particular problem when merging the detection results of multiple radars that overlap a part of the detection area is the target moving from the detection area of one detection means to the detection area of the other detection means. It is a thing. For example, considering an object moving from the detection area of the first detection means to the detection area of the second detection means, this object An object is initially detected only by the first detection means, but when a part thereof enters the detection area of the second detection means, it is detected by both the first and second detection means.
  • this state continues until the entire object comes out of the detection area of the first detection means, and after the time it comes out, it is detected only by the second detection means.
  • the part of the object that can be detected by the first detection means and the second detection means is determined. There is a possibility that different places may be detected due to differences, etc., and this causes a difference in the position of the detected object.
  • the estimated moving direction of the object is determined based on the position information of the object that has been detected in advance. If one of the detection means is continuously detecting, it is considered that the specific part of the non-detection target is continuously detected, and the moving direction information is also accurately determined. By detecting the same object when the detection position by the other detection means is included within a predetermined range set based on this estimated movement direction, the detection position can be accurately detected even when the detection position is far away. Perform pairing.
  • the range set for the path of the object based on the object position is an area within a predetermined width from the estimated movement trajectory of the object in the vicinity of the boundary position on the other detection means side of the detection area. There should be.
  • the object detection apparatus includes a first detection unit that detects a position of the object by receiving a reflected wave from the object of the transmitted transmission wave, and the first detection unit. And a part of the detection area overlap, and the transmitted wave
  • the object detection apparatus When the object positions paired at the time of fusion are not substantially the same and are separated from each other, it becomes a problem which one is adopted as the object detection position.
  • an object position on the side far from the boundary position of the self-detecting means is selected as the object position among the paired object positions. The farther the distance from the boundary position of the self-detecting means is, the more the part of the target object is considered to be located in the detection area, and the position accuracy becomes higher.
  • the detection when the detection is performed near the boundary position, the majority of the target object may be located outside the detection area. In such a case, the detection part of the object varies. This is because there is a possibility of being.
  • the first detection means and the second detection means output the position having the strongest reflection intensity among the reflected waves from the object as the object position.
  • the reflection is usually strongest from the tire house in the case of the side, and from the license plate in the case of the front and rear.
  • FIG. 1 is a block diagram showing a schematic configuration of an object detection apparatus according to the present invention.
  • FIG. 2 is a diagram showing a mounting example of radars 10 to 15 on the vehicle 3 and their detection areas.
  • FIG. 3 is a diagram showing the positional relationship between the detection areas of the radar A 10 placed in front of the vehicle 3 and the radar B 11 placed in the left front.
  • FIG. 4 is a diagram for explaining the movement state of the detection points detected by the radar B 11 when the other vehicle 40 is traveling from the left direction to the right direction at a constant speed.
  • FIG. 5 is a diagram for explaining the movement of the detection points detected by the radar A 10 in the same case as FIG.
  • FIG. 6 shows the detection points shown in FIGS. 4 and 5 superimposed on the same figure.
  • FIG. 7 is the first half of a flowchart showing an example of the fusion process in the apparatus of FIG.
  • FIG. 8 is the latter half of the flowchart showing an example of the fusion process in the apparatus of FIG.
  • Fig. 9 illustrates the pairing method.
  • FIG. 10 is a processing flowchart for calculating the object position from the detection point position.
  • Fig. 11 shows the data selected from the pair data by the sorting process of Fig. 10. It is.
  • FIG. 12 is a diagram for explaining detection of an approaching vehicle at the crossing point 6.
  • Figure 13 shows an example of a blind spot display power image.
  • Fig. 14 is a diagram showing the positional relationship with parallel running vehicles.
  • Figure 15 is a diagram showing the positional relationship with a pedestrian who has jumped out on the path when retreating.
  • FIG. 16 is a diagram for explaining the positional relationship with the overtaking vehicle.
  • FIG. 1 is a block diagram showing a schematic configuration of an object detection apparatus according to the present invention.
  • This object extraction device is mounted on a vehicle and detects obstacles around the vehicle by a plurality of radars.
  • FIG. 1 for simplicity, only two radars are shown as radar A 1 0 and radar B 11, but two or more radars may be arranged.
  • FIG. 2 shows an example of mounting radars 10 to 15 on the vehicle 3 and their detection areas.
  • the outputs of radar A 1 0 and radar B 1 1 are sent to the data processor 2.
  • the data processing unit 2 is configured by a CPU, ROM, RAM, and the like.
  • the index tracking unit 2 0 for tracking an object from the detection result of the radar A 10 and the radar B 11 and the radar A 1 0, Radar B 1 From the correspondence determination unit 2 1 that determines the correspondence of detection results to fuse the processing results of 1 1, the synthesis unit 2 2 that synthesizes the detection results, and the output unit 2 3 that outputs the detection results Become.
  • Each component may be configured by separate hardware, but may share part or all of the hardware and realize each function in software. In this case, it is only necessary to realize a function corresponding to each component, and it is not necessary for each component to be independent software. Further, the index tracking unit 20 may be incorporated in each of the radar A 10 and the radar B 11.
  • the data processing unit 2 further includes a vehicle speed sensor 3 1 for detecting the vehicle speed, a speed sensor 3 2 for detecting the speed acting on the vehicle, and a navigation for obtaining the current position of the vehicle and surrounding terrain information.
  • the output of device 3 3 etc. is input.
  • the radar A 1 0 placed in front of the vehicle 3 and the radar B 1 1 placed in front of the left, the front of the stopped vehicle 3 from the left to the right Consider a case in which another vehicle 40 traveling in the direction is detected.
  • the radar A 10 uses a fan-shaped area a A sandwiched between the boundaries R A and L A as a detection area.
  • the radar B 11 uses a fan-shaped area a B sandwiched between the boundaries R B and L B as a detection area.
  • the overlapping area of the area a A and the area a B is a fan-shaped area a AB sandwiched between the boundaries L A and R B.
  • P B. ⁇ P B 6 represents detection point positions at regular time intervals.
  • the reflected wave intensity from the vicinity of the right front tire house of the vehicle 40 becomes the strongest.
  • B. ⁇ P B 4 are also arranged at almost regular intervals.
  • the right border R B Eru Yue vehicle 4 0 detection region a B can not only detect the reflected waves from the vehicle 4 0 parts remaining in the detection region a B Therefore, the point at which the strongest intensity therein, appears near the border R B.
  • P B4 to P B6 will appear at substantially the same position as if the object is seen as if staying in the vicinity of the boundary R B. .
  • the vehicle 40 first enters the detection area a A across the boundary L A at the left front corner. The detection point at this time is P A. And Thereafter, as the vehicle 40 enters, the point where the reflected wave intensity is strong moves from the left front corner of the vehicle to the front end of the vehicle 40 from the left end to the right end (detection point P A1 ). Then, move along the right side and reach the right front tire house (detection point P A2 ).
  • the detection point After entering the detection area a A up to the vicinity of the tire house on the right front side of the vehicle, the detection point moves as shown in P A2 to P A4 in order to continue detection near the tire house. . That is, when the vehicle 40 enters the detection area, the detection point appears at the P A0 position, then moves on the boundary L A to the vehicle 3 side, and temporarily stays near the P A1 and P A2 Later, it will behave to the right.
  • FIG. 6 shows the detection points shown in FIGS. 4 and 5 superimposed on the same figure.
  • Detection points detected by Radar B 11 are indicated by black circles
  • detection points detected by Radar A10 are indicated by black triangles.
  • the combination of detection points corresponding to the vehicle 40 at the same position is a ⁇ b, c ⁇ 1d, e ⁇ f, g ⁇ h, and i ⁇ j.
  • c_d and g—h are the only combinations that are close to each other. Pairing is possible for these two sets, but the positions of the other three combinations are separated, so separate objects May be determined.
  • the fusion processing in the object detection apparatus according to the present invention enables pairing even in such a case.
  • FIG. 7 and FIG. 8 show flowcharts of the fusion process in the present embodiment. This processing is performed by the data processor 2 after the device is turned on. Until it is done (if there is a switch that switches the operation / non-operation of the object detection device itself), it is repeatedly executed at a predetermined timing.
  • the index tracking unit 20 of the data processing unit 2 acquires the outputs of the radar A 10 and the radar B 11 (step S 1), and obtains the vehicle state quantity such as the vehicle speed from the vehicle speed sensor 3 1 and the vehicle rate sensor 32. Obtain (Step S2). Further, the current position of the vehicle and road information are acquired from the navigation device 33 (step S 3).
  • the detection point position acquired by radar B 1 1 is P (1, i)
  • the detection point position acquired by radar A 1 0 is P (2, j).
  • the number of detection points acquired by radar B 11 is m
  • the number of detection points acquired by radar A 10 is n.
  • the correspondence determination unit 21 determines the number of m (step S4).
  • m is less than 1 (actually 0)
  • step S5 If m is 1 or more, that is, if an object is detected by the radar B11, the number of n is further determined (step S5).
  • the case where the number of n is less than 1 means that it is actually 0 as described above, and the radar A 10 has not detected an object.
  • the process proceeds to step S31, and detection detected by radar B11 is detected. All points, that is, P (1, 1) to P (1, m) are set as no pair, and the process ends.
  • the number of n is 1 or more, it is a case where both the radars A10 and B1 1 have detected an object.
  • step S6 the existence of a pair is determined, and if necessary, the process proceeds to step S6 and subsequent steps for pairing.
  • the initial value 0 is set to the variable i (step S 6).
  • step S7 it is examined whether or not P (1, i) exists in or near the overlapping area a AB (step S7). If the detection point is sufficiently far from the overlap area a AB (for example, in the case of the detection point at the black circle position to the left of the point a in FIG. 6), the object itself is far from the overlap area a AB. Can be estimated. In this case, the process proceeds to step S 1 2, P (1, i) is set as no pair, and the process proceeds to step S 13 described later.
  • step S 8 P (1, i) obtained by the index tracking unit 20 Get expected course information.
  • This predicted course information can be obtained by predicting the traveling direction based on the movement trajectory obtained by tracking the detection point in time. At that time, if information such as relative velocity obtained from the Doppler shift component is used, the traveling direction can be accurately predicted even when the number of tracking points is small.
  • step S 9 whether the direction of progression Direction of P 'from the resulting traveling direction prediction data (1, i) approaches to the radar A 1 0 detection region a A, from the region a A The direction of leaving is determined (step S 9). In the case of the direction away from the area a A , the process proceeds to step S 10 and the pair is reserved, and the process proceeds to step S 14 described later.
  • a detection point that is moving away from area a A is considered to have moved from within area a A to area a B , and if the corresponding detection point is within the detection point of radar A 10 This is because it is considered that the detection point of the radar A 10 is already being tracked for a long time, and detection from the detection point on the radar A 10 side is preferable from the viewpoint of accuracy.
  • step S11 When the traveling direction is in the direction approaching the detection area a A of radar A 10, the relative speed matches P (1, i) on the determined path.
  • P (2, j) to be searched is searched (step S11).
  • This course is set not as a line but as an area having a predetermined width. For example, in the example shown in FIG. 9, the course is set as a region where the Y coordinate is Y thr to Y th2 .
  • a matching P (2, j) was found In this case, the process proceeds to step S 1 2, and P (1, i) and P (2, j) are paired. If the matching P (2, j) is not found, P (1, i) is set as no pair (step S1 3).
  • step S14 After completion of any of steps S1 0, S12, and S13, the process proceeds to step S14, and variables i and m are compared. If the variable i is less than m, all pairing judgments of P (1, i) have not been completed, so 1 is added to i (step S 1 5), and the process returns to step S 7 and S By repeating the process up to 14, the judgment process is performed for all P (1, i).
  • step S14 If it is determined in step S14 that the variable i is greater than or equal to m, the process proceeds to step S16 and an initial value 1 is set to the variable j. Subsequently, it is determined whether P (2, j) has already been paired (step S 17). If the pairing has already been completed, it is not necessary to perform the pairing determination, and the process proceeds to step S25 described later. On the other hand, if the pairing has not been completed, the path of P (2, j) is predicted (step S 1 8), and the direction approaching into the detection area a B of radar B 11 is determined from the same area a B. It is determined whether the direction is away (step S 19).
  • step S 20 For the direction away from the region a B, it determines further whether duplicates are position within the region a AB (step S 20). If it is located in the overlapping area a AB , normally there should be a corresponding point in the detection area a B of radar B 1 1, and step S 8 ⁇ S 9 ⁇ S 1 1 ⁇ S 1 It should be paired by the process of 2. Nevertheless, since it is not paired, it can be considered that the object position is not correctly detected as shown in point b in Fig. 6. Therefore, it is set that the data should be ignored as the detection point (step S22). On the other hand, if it is located outside the overlap area a AB , the process moves to step S 2 1 and sets no pair.
  • the traveling direction is a direction approaching the detection area a B of the radar B 11
  • the determined course (this course is not a line but a predetermined width) It is set as an area to have. ) Search for P (1, i) whose relative velocity matches P (2, j) above (step S23). If a matching P (1, i) is found, the process proceeds to step S 24, and P (1, i) and P (2, j) are paired. On the other hand, if no matching P (1, i) is found, the process proceeds to step S21, and P (1, i) is set as no pair.
  • step S17 If it is determined in step S17 that pairing has been completed, and after completion of steps S21, S22, and S24, the process proceeds to step S25, and variables j and n are compared. If the variable j is less than n, all pairing judgments for P (2, j) have not been completed, so 1 is added to j (step S 26), the process returns to step S 17, and S 25 By repeating the process up to, the judgment process is performed for all P (2, j). ; If j is greater than or equal to n, it means that the pairing determination has ended, and the process proceeds to step S27.
  • step S27 P (1, i) of the pair holding is searched, and if it is located in the overlapping area a AB , it is set that the data should be ignored, and the overlapping area is set. a If it is located outside AB , set that there is no pair and end processing.
  • FIG. 10 is a processing flowchart for calculating the object position from the detection point position in this way.
  • step S 4 the distance between the pair data is compared with a predetermined value (threshold value) (step S 4 1). If the distance exceeds the predetermined value, the process proceeds to step S 4 2, and the data position away from the boundary of the own radar is set as the object position.
  • a predetermined value threshold value
  • point i is a point detected by the radar B 1 1
  • distance di from the border line R B of the radar B 1 1 of the radar A 1 0 side to point i is set as the distance from the boundary of the own radar
  • point j is the point detected by radar A 1 • 0 '
  • the distance from radar A 1 0's radar B 1 1 side boundary L A to point j dj is the distance from the radar's boundary Set as Since dj> d ;; i point is set as the object position.
  • step S43 the intermediate position of the pair data is set as the object position.
  • a combination of cd and g_h can be mentioned.
  • FIG. 11 shows the data selected by this sorting process from the pair data shown in Figure 6 and Figure 9.
  • points e, f and i are further removed.
  • the selected points, a, c _ d, g— h,: j are arranged at almost equal intervals, so that the detection points can be traced accurately without stagnation.
  • the detection points being tracked are predicted.
  • the pairing method is not limited to this.
  • FIG. 9 when an object moves from within the detection area a B of radar B 11 to the detection area a A of radar A 1 0, the detection point by radar A 1 0 is initially the detection area a B Appears near the side boundary L A. As if it appears as data, such as has entered from the boundary line L A. Therefore, a detection point that appears in a region having a predetermined width determined from the course determined from the detection result of the radar B 11 in a region close to the boundary line L A may be used as a corresponding point.
  • a point away from the area is handled by tracking from the area.
  • FIG. 12 is a diagram for explaining detection of an approaching vehicle at the intersection 6.
  • the host vehicle 3 is stopped before the intersection 6 of the road 60, and another vehicle 40 approaches from the left on the intersecting road 61.
  • the object detection device of the present embodiment when the vehicle 40 moves from the detection region a B by the radar 11 1 to the detection region a A by the radar 10 0, it is reliably tracked. It can be performed. For this reason, the approaching vehicle 40 is not lost near the overlap area a AB .
  • FIG. 13 is an example of an image of a display device that displays the detection points detected by the radar on the images captured by a plurality of cameras.
  • the radar detection results are superimposed on each other with a crosshair.
  • the black part in the center is the area that is the blind spot of the camera.
  • the object vehicle
  • the accuracy of pairing is improved, the vehicle can be tracked even in the blind spot area, and safety is improved.
  • the present invention can improve the detection accuracy of an object by using a plurality of radars having overlapping detection areas.

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Traffic Control Systems (AREA)

Abstract

本発明の目的は、複数のレーダにより物体を検出する物体検出装置において、検出結果を融合する際の同一物体判定や位置情報の取得精度を向上させた物体検出装置を提供することである。本発明の物体検出装置は、レーダ11で検出したa、c等から検出点の進路を求め、その進路に基づいた領域(Y座標がYth1~Yth2の領域)にレーダ10による検出点が存在し、かつ、相対速度が合致する場合に、その検出点を対応する検出点としてペアリングする。例えば、距離が離れているe−f、i−jについてもペアリング可能となる。

Description

明細書
物体検出装置
技術分野
【0 0 0 1】 本発明は、 レーダにより物体を検出する装置に関し、 特に、 検 出領域の一部を重ね合わせてより広い領域の物体を検出することを可能とした物 体検出装置に関する。
背景技術
【0 0 0 2】 車両周辺の障害物や先行車両等をレーダを用いて検出するシス テムが知られている。 また、 .レーダと画像認識装置を組み合わせて障害物等の検 出を行うシステムも知られている。 こうしたレーダと画像認識装置の組み合わせ や複数のレーダの組み合わせにより障害物を認識するシステムにおいては'、 それ ぞれの検出装置における検出結果を融合処理する際に、 同一物体か否かを判定す る処理を行う必要がある。
【0 0 0 3】 特開 2 0 0 3 - 1 6 8 1 9 7号公報 (特許文献 1 ) に記载され た技術は、 レーダと画像認識装置により物体を検出するシステムにおける検出結 果の融合処理に関するものであり、 レーダと画像認識装置により、 検出した物体 までの距離、 相対速度、 方向が同一であると判定した場合に、 同一物体であると 判定するものである。
発明の開示
【0 0 0 4】 例えば、 他車両を検出する場合を考えると、 画像認識装置では、 取得画像中の車両像を認識して、 その位置を検出するため、 車両が占める領域を 含めて検出することができる。 これに対して、 レーダの場合には、 他車両から返 つてきた反射波に基づ!/、て認識を行つているため、 車両の部分位置を認識できる だけであり、 その部分位置も他車両と自車両との位置関係によって変動する。 こ のため、 複数のレーダを用いて同一の他車両を検出しようとした場合に、 当該他 車両の別の部分位置を検出することがあり、 検出した位置や移動方向に差異が生 じ得る。 上記、 特許文献 1の技術によれば、 このような場合に同一物体ではない と判定してしまう可能性がある。
【0 0 0 5】 このように本来は同一の物体を他物体と認識すると、 例えば、 他物体を追跡して制御を行っている場合に、 追跡相手を見失うことで、 制御の遅 れが発生したり、 本来行われるべき制御が行われなかったり、 逆に本来行われる べきでない制御が行われる事態が発生する。 さらに、 検出領域が相互に重なり合 う領域で一方のレーダのみからしか出力が得られていないことから、 誤検出と判 定してしまい、 本来存在する障害物を見逃してしまうという可能性もある。
【0 0 0 6】 そこで本発明は、 複数のレーダにより物体を検出する物体検出 装置において、 検出結果を融合する際の同一物体判定や位置情報の取得精度を向 上させた物体検出装置を提供することを課題とする。
【0 0 0 7】 上記課題を解決するため、 本発明にかかる物体検出装置は、 送 出した送信波の物体からの反射波を受信することで当該物体の位置を検出する第 1検出手段と、 この第 1検出手段と検出領域の一部が重なり合うように配置され、 送出した送信波の物体からの反射波を受信することで当該物体の位置を検出する 第 2検出手段と、 第 1または第 2検出手段の一方で検出した物体位置に基づいて 当該物体の進路に範囲を設定し、 この範囲内に第 1または第 2検出手段の他方で 検出した物体位置が含まれる場合に、 第 1検出手段で検出した物体と第 2検出手 段で検出した物体とが同一物体であると判定する同一物判定手段と、 を備えてい ることを特徴とする。
【0 0 0 8】 第 1検出手段と、 第 2検出手段は、 いずれも送信波を物体に送 出して、 物体からの反射波を検出することにより物体の存否おょぴその位置、 速 度等を検出するレーダである。 検出領域の一部を重ね合わせた複数のレーダの検 出結果を融合する場合に特に問題となるのは、 一方の検出手段の検出領域から他 方の検出手段の検出領域へと移動中の対象物である。 例えば第 1検出手段の検出 領域から第 2検出手段の検出領域へと移動している対象物を考えると、 この対象 物は、 当初は第 1検出手段のみによって検出されるが、 その一部が第 2検出手段 の検出領域に進入すると、 第 1および第 2の検出手段双方によって検出される。 そして、 対象物の全体が第 1検出手段の検出領域から抜け出すまでは、 この状態 が継続し、 抜け出した時点以降は第 2検出手段のみにより検出される。 このよう に、 対象物が第 1検出手段の検出領域と第 2検出手段の検出領域にまたがるよう に位置している場合、 第 1検出手段と第 2検出手段で検出可能な対象物の部位が 異なること等により、 別々の場所を検知してしまう可能性があり、 これにより検 出した対象物の位置等に差異が生ずる。
【0 0 0 9】 本発明に力'かる物体検出装置においては、 対象物を先に継続し て検出していた物体の位置情報等に基づいて物体の推定移動方向を判定する。 一 方の検出手段で継続的に検出している場合には、 非検出対象物の特定部位を継続 的に検出しており、 移動方向情報も精度良く判定していると考えられる。 この推 定移動方向に基づいて設定した所定の範囲内に他方の検出手段による検出位置が 含まれる場合に同一物体であると判定することで、 検出位置が離れている場合で も精度良く検出位置のペアリングを行う。
【0 0 1 0】 ここで、 物体位置に基づいて当該物体の進路に設定する範囲は、 検出領域の他方の検出手段側の境界位置近傍において、 物体の推定移動軌跡から 所定幅以内の領域であるとよい。
【0 0 1 1】 自検出手段で継続的に検出していた物体が他方の検出手段の検 出領域に進入を始めた段階では、 当該物体の全体が自検出手段の検出エリアにと どまっていると考えられ、 推定移動軌跡の信頼性も高い。 他方の検出手段におい てその検出領域内に推定移動軌跡から所定の幅以内の境界領域から進入してきた かのように検出された物体を当該推定軌跡上を移動中の物体と判定する。
【0 0 1 2】 また、 本発明にかかる物体検出装置は、 送出した送信波の物体 からの反射波を受信することで当該物体の位置を検出する第 1検出手段と、 この 第 1検出手段と検出領域の一部が重なり合うように配置され、 送出した送信波の 物体からの反射波を受信することで当該物体の位置を検出する第 2検出手段と、 第 1検出手段と第 2検出手段の検出結果のペアリングを行うペアリング手段と、 ペアリング手段により、 ペアリングした物体位置のうち、 自検出手段の境界位置 からの距離が遠い側の物体位置を物体位置として選択する選択手段と、 を備えて いることを特徴とするものである。
【0 0 1 3】 融合の際にペアリングした物体位置が略同一ではなく、 離隔し ている場合に、 物体検出位置としていずれを採用するかが問題となる。 本発明に かかる物体検出装置においては、 ペアリングした物体位置のうち、 自検出手段の 境界位置からの距離が遠い側の物体位置を物体位置として選択する。 自検出手段 の境界位置からの距離が遠い場合ほど、 対象となる物体の多くの部分がその検出 領域内に位置していると見られ、 位置精度が高くなる。 一方、 境界位置近くで検 出している場合には、 対象となる物体の大部分が検出領域外に位置している可能 性があり、 このような場合には、 物体の検出部位が変動している可能性があるか らである。
【0 0 1 4】 第 1検出手段おょぴ第 2検出手段は、 物体からの反射波のうち 反射強度の最も強い位置を物体位置として出力するものである。 車両の場合は、 通常、 側面の場合はタイヤハウス、 前部、 後部の場合にはナンバープレートから 反射が最も強くなることが多い。
【0 0 1 5】 このような本発明によれば、 複数のレーダで物体を検出する場 合に、 それぞれのレーダでの検出位置が離れていた場合でも適切にペアリングを 行うことができる。 このため、 物体があるレーダの検出領域から他のレーダの検 出領域へと移動している場合に物体を適切に追跡することができるので、 検出結 果を用いた各種の制御や処理においても制御や処理の精度が向上する。
【0 0 1 6】 物体が検出領域へと進入してくる際に、 物体における検出部位 の変動に伴い、 当該物体が検出領域の境界付近であたかも停止しているかのよう な挙動を示す場合がある。 進入時の判定を推定移動軌跡に基づいて行うことで、 この種の滞留を判別することができ、 正確な物体位置、 移動状態の判定が行える。
【0 0 1 7】 ペアリングした物体位置のうち、 自検出領域中で他の物体の検 出領域側の境界位置から遠い側の位置を物体位置として選択することで、 特定の 部位の追跡が容易になる。
【0 0 1 8】
物体からの反射波のうち反射強度が最も強い位置を物体位置とすることで、 処 理が容易になるほか、 ノイズとの判別が容易になる。
図面の簡単な説明
【0 0 1 9】 図 1は、 本発明にかかる物体検出装置の概略構成を示すプロッ ク図である。
図 2は、 車両 3へのレーダ 1 0〜1 5の搭載例およびそれらの検知領域を示す 図である。
図 3は、 車両 3の前方に配置されるレーダ A 1 0と、 左前方に配置されるレー ダ B 1 1の検知領域の位置関係を示す図である。
図 4は、 他車両 4 0が左方向から右方向に一定速度で走行している場合のレー ダ B l 1により検出した検出点の移動状況を説明する図である。
図 5は、 図 4と同じ場合のレーダ A 1 0により検出した検出点の移動状況を説 明する図である。
図 6は、 図 4と図 5に示される検出点を同じ図上に重ねて示したものである。 図 7は、 図 1の装置における融合処理の一例を示すフローチャートの前半部で ある。
図 8は、 図 1の装置における融合処理の一例を示すフローチャートの後半部で ある。
図 9は、 ペアリング手法を説明する図である。
図 1 0は、 検出点位置から物体位置を算出する際の処理フローチャートである。 図 1 1は、 ペアデータから図 1 0の選別処理により選ばれたデータを示したも のである。
図 1 2は、 十字交窣点 6における接近車両の検出を説明する図である。
図 1 3は、 死角表示力メラの画像例を示す。
図 1 4は、 並走車両等との位置関係を示す図である。
図 1 5は、 後退時の進路上に飛び出してきた歩行者との位置関係を示す図であ る。
図 1 6は、 追い抜き車両との位置関係を説明する図である。
発明を実施するための最良の形態
【0 0 2 0】 以下、 添付図面を参照して本発明の好適な実施の形態について 詳細に説明する。 説明の理解を容易にするため、 各図面において同一の構成要素 に対しては可能な限り同一の参^番号を附し、 重複する説明は省略する。 '
【0 0 2 1】 図 1は、 本発明にかかる物体検出装置の概略構成を示すプロッ ク図である。 この物体^出装置は、 車両に搭載され、 複数のレーダにより車両周 囲の障害物等を検出するものである。 図 1には、 簡略化のためレーダ A 1 0と、 レーダ B 1 1として 2つのみを示しているが、 2個以上のレーダを配置してもよ い。 図 2は、 車両 3へのレーダ 1 0〜1 5の搭載例およびそれらの検出領域を示 している。
【0 0 2 2】 レーダ A 1 0、 レーダ B 1 1の各出力は、 データ処理部 2へと 送られる。 このデータ処理部 2は、 C P U、 R OM、 R AM等によって構成され ており、 レーダ A 1 0、 レーダ B 1 1の検出結臬から、 物体の追跡を行う指標追 跡部 2 0と、 レーダ A 1 0、 レーダ B 1 1の処理結果を融合するために検出結果 の対応を判定する対応判定部 2 1、 検出結果を合成する合成部 2 2と、 検出結果 を出力する出力部 2 3とからなる。 各構成要素は、 別々のハードウェアによって 構成されてもよいが、 ハードウェアの一部または全部を共有し、 ソフトウェア的 にそれぞれの機能を実現してもよい。 この場合、 各構成要素に応じた機能が実現 されれば足り、 各構成要素が独立したソフトウェアとなっていることは要しない。 また、 指標追跡部 2 0は、 レーダ A 1 0、 レーダ B 1 1のそれぞれに内蔵されて いてもよい。
【0 0 2 3】 データ処理部 2にはさらに、 車速を検出する車速センサ 3 1、 車両に働くョーレートを検出するョーレートセンサ 3 2、 車両の現在位置や周囲 の地形情報等を取得するナビグーション装置 3 3等の出力が入力されている。
【0 0 2 4】 車両 3の周囲全周を検出する場合には、 例えば、 図 2に示され るように、 車両前方、 後方おょぴ左右の側方の前方および中央に計 6個のレーダ 1 0〜1 5が配置される。 これにより、 進路が交錯する他車両 4 0、 4 1や並走 車両 4 2、 後続車両 4 3等を検知する。 図には示していないが、 先行車両や自転 車、 歩行者等、 あるいは静止している障害物等も検出対象となる。
【0 0 2 5】 本発明にかかる物体検出装置に,よる検出結果の融合処 Sについ て説明する前に、 融合処理にあたつて解決すべき問題点について具体的に述べる。 ここでは、 図 3に示されるように車両 3の前方に配置される'レーダ A 1 0と、 左 前方に配置されるレーダ B 1 1によって、 停車中の車両 3の前を左方向から右方 向へ向かって走行している他車両 4 0を検出する場合を考える。 レーダ A 1 0は、 境界 RAと L Aとで挟まれた扇形の領域 a Aを検出領域としている。 一方、 レーダ B 1 1は、 境界 R Bと L Bとで挟まれた扇形の領域 a Bを検出領域としている。 領 域 a Aと領域 a Bの重複領域は、 境界 L Aと R Bとで挟まれた扇形の領域 a ABであ る。
【0 0 2 6】 ここで、 他車両 4 0が左方向かち右方向に一定速度で走行して いる場合のレーダ B l 1により検出した検出点の移動は、 図 4に示されるように なる。 P B。〜P B 6は、 一定時刻おきの検出点位置を表す。 車両 4 0の全体がレ ーダ B 1 1の検出領域 a B内に位置している場合には、 車両 4 0の右前側タイヤ ハウス付近からの反射波強度が最も強くなるため、 検出点 P B。〜P B 4もほぼ一 定間隔で並ぶことになる。 この後、 車両 4 0が検出領域 a Bの右側境界 R Bを越 えると、 検出領域 a B内に残存する車両 4 0部分からの反射波しか検知できない ため、 その中で最強の強度となる点は、 境界 RB付近に現れる。 この結果、 PB4 〜PB6は、 ほぼ同じ位置に現れ、 あたかも物体が境界 RB付近で滞留しているか のように見える。 .
【0027】 同じ状況においてレーダ A 10により検出した検出点の移動は、 図 5に示されるようになる。 図 4と同様に、 PA。〜PA4は、 一定時刻おきの検 出点位置を表す。 なお、 PAiと PB jは、 i = jの時に同じ時点を示すものでは ない。 車両 40のうち、 最初に境界 LAを越えて検出領域 a A内に進入するのは、 その左前隅部である。 このときの検出点を PA。とする。 その後、 車両 40が進 入してくるに連れて反射波強度の強い点は、 車両の左前隅部から車両 40の前端 部を左端から右端方向へと移動し (検出点 PA1) 、 次に、 右側面に沿って移動 していき、 右前側のタイヤハウス付近に達する, (検出点 PA2) 。 車両の右前側 のタイャハウス付近までが検出領域 a A内に進入した以降は、 継続的にこのタイ ャハウス付近の検出を続けるため、 検出点は PA2〜PA4へ示されるように移動 していく。 つまり、 車両 40が検出エリアに進入する際に、 検出点は、 PA0位 置に登場した後、 境界 LA上付近を車両 3側へと移動し、 PA1、 PA2付近で一時 滞留した後に、 右方向へ進行するという挙動を示す。
【0028】 図 6は、 図 4と図 5に示される検出点を同じ図上に重ねて示し たものである。 レーダ B 1 1で検出した検出点を黒丸で示し、 レーダ A10で検 出した検出点を黒三角で示している。 同じ位置の車両 40に対応する検出点の組 み合わせは、 a— b、 c一 d、 e— f 、 g— h、 i— jである。 このうち、 位置 が近接する組み合わせは、 c_dと、 g— hのみであり、 この 2組についてはぺ ァリングが可能であるが、 他の 3つの組み合わせについては位置が離隔している ため、 別物体と判定される可能性がある。 本発明にかかる物体検出装置における 融合処理は、 このような場合でもペアリングを可能とするものである。
【0029】 図 7、 図 8に本実施形態における融合処理のフローチャートを 示す。 この処理はデータ処理部 2により、 装置の電源がオンにされてからオフに されるまでの間 (物体検出装置自体の作動/不作動を切り替えるスィッチがある 場合には、 そのスィッチが作動に設定されている間) 所定のタイミングで繰り返 し実行される。
【0030】
まず、 データ処理部 2の指標追跡部 20が、 レーダ A 10とレーダ B 1 1の出 力を取得し (ステップ S 1) 、 車速センサ 3 1、 ョーレートセンサ 32から車速 ゃョーレート等の車両状態量を取得する (ステップ S 2) 。 また、 ナビグーショ ン装置 33から車両の現在位置および道路情報を取得する (ステップ S 3) 。 以 下、 レーダ B 1 1で取得した検出点位置を P (1, i ) とし、 レーダ A 1 0で取 得した検出点位置を P (2, j ) とする。 そして、 レーダ B 1 1で取得した検出 点の個数を m、 レーダ A 10で取得した検出点の倜数を nとする。
【0031】 次に対応判定部 21が、 mの個数を判定する (ステップ S 4) 。 mが 1未満の場合 (実際には 0の場合) とは、 レーダ B 1 1では物体を検出して いないことを意味する。 したがって、 レーダ A 1 0で検出した検出点に対応する ペアは存在し得ないからステップ S 30へと移行し、 検出点が存在する場合 (n が 1以上の場合) であれば P (2, 1) 〜P (2, n) を全てペアなしと設定し て処理を終了する。
【0032】 mが 1以上、 つまり、 レーダ B 1 1で物体を検出している場合 には、 さらに、 nの個数を判定する (ステップ S 5) 。 nの個数が 1未満の場合 とは、 上述したように実際には 0の場合で、 レーダ A 10では物体を検出してい ないことを意味する。 この場合には、 レーダ B 1 1で検出した検出点のペアとな るレーダ A 10で検出した検出点は存在し得ないからステップ S 31へと移行し て、 レーダ B 1 1で検出した検出点の全て、 つまり、 P (1, 1) 〜P (1, m) をペアなしと設定し、 処理を終了する。 nの個数が 1以上の場合には、 レー ダ A10、 B 1 1ともに物体を検出した場合であるから、 ペアの存否を判定し、 必要ならペアリングを行うステップ S 6以降の処理に移る。 【0 0 3 3】 最初に変数 iに初期値 0を設定する (ステップ S 6 ) 。 次に、 P ( 1, i ) が重複領域 a A B内かその近傍に存在するか否かを調べる (ステツ プ S 7 ) 。 検出点が重複領域 a A Bから十分に離れている場合 (例えば、 図 6に おいて、 点 aより左側の黒丸位置の検出点の場合) には、 物体自体が重複領域 a A Bから遠くにあると推定できる。 この場合には、 ステップ S 1 2へと移行して、 P ( 1, i ) をペアなしと設定し、 後述するステップ S 1 3へと移行する。
【0 0 3 4】 一方、 検出点が重複領域 a A B内またはその近傍に存在する場 合には、 ステップ S 8へと移行し、 指標追踯部 2 0により求めた P ( 1, i ) の 予想進路情報を得る。 この予想進路情報は、 検出点を時間的に追跡することによ り得られた移動軌跡を基にしてその進行方向を予測することで得られる。 その際 に、 ドップラーシフト成分から得られた相対速度等の情報を用いると、 追跡点数 が少ない場合でも精度良く進行方向を予測することができる。
【0 0 3 5】 次に、 得られた進行方向予測データから P ' ( 1, i ) の進行方 向がレーダ A 1 0の検出領域 a A内へと近づく方向か、 同領域 a Aから離れる方 向かを判定する (ステップ S 9 ) 。 領域 a Aから離れる方向の場合には、. ステツ プ S 1 0へと移行してペア保留として、 後述するステップ S 1 4へと移行する。 領域 a Aから離れる方向に移動中の検出点は、 領域 a A内から領域 a Bへ移動して きたものと考えられ、 対応する検出点がレーダ A 1 0の検出点中にある場合、 当 該レーダ A 1 0の検出点のほうが既に長時間追跡されていると考えられるため、 レーダ A 1 0側の検出点により検出を行うことが精度の点からも好ましいからで ある。
【0 0 3 6】 一方、 進行方向がレーダ A 1 0の検出領域 a A内へと近づく方 向にある場合には、 さらに、 判定した進路上で P ( 1 , i ) と相対速度が一致す る P ( 2, j ) を探索する (ステップ S 1 1 ) 。 この進路は線ではなく、 所定の 幅を有する領域として設定される。 例えば、 図 9に示される例では、 進路は、 Y 座標が Ythr〜Yth2の領域として設定される。 一致する P ( 2 , j ) が見つかった 場合には、 ステップ S 1 2へと移行して、 当該 P (1, i) と P (2, j ) とを ペアリングする。 —方.、 —致する P (2, j ) が見つからなかった場合には、 P (1, i ) をペアなしと設定する (ステップ S 1 3) 。
【0037】 ステップ S 1 0、 S 1 2、 S 1 3のいずれかの終了後は、 ステ ップ S 14へと移行し、 変数 iと mとを比較する。 変数 iが m未満の場合には、 P (1, i ) の全てのペアリング判定を終了していないから iに 1を加算し (ス テツプ S 1 5) 、 ステップ S 7へと戻り、 S 14までの処理を繰り返すことで、 全ての P (1, i ) について判定処理を行う。
【0038】 ステップ S 14で、 変数 iが m以上と判定した場合には、 ステ ップ S 1 6へと移行し、 変数 jに初期値 1を設定する。 続いて、 P (2, j ) の ペアリングが既に済んでいるか否かを判定する (ステップ S 1 7) 。 ペアリング が既に済んでいる場合には、 ペアリング判定を行う必要がないので、 後述するス テツプ S 25に移行する。 一方ペアリング未了である場合には、 P (2, j ) の 進路を予測し (ステップ S 1 8) 、 レーダ B 1 1の検出領域 a B内へと近づく方 向カ 同領域 a Bから離れる方向かを判定する (ステップ S 1 9) 。
【0039】 領域 a Bから離れる方向の場合は、 さらに重複領域 aAB内に位 置しているか否かを判定する (ステップ S 20) 。 重複領域 a AB内に位置して いる場合、 通常なら、 レーダ B 1 1の検出領域 a B内に対応点が存在するはずで あり、 前述したステップ S 8→S 9→S 1 1→S 1 2の処理によってペアリング されているはずである。 にもかかわらず、 ペアリングされていないことから、 図 6における b点のように、 物体位置を正しく検出していない場合であると考えら れる。 そのため、 検出点として無視すべきデータであると設定する (ステップ S 22) 。 一方、 重複領域 a AB外に位置している場合には、 ステップ S 2 1へと 移行して、 ペアなしと設定する。
【0040】 一方、 進行方向がレーダ B 1 1の検出領域 a B内へと近づく方 向にある場合には、 さらに、 判定した進路 (この進路は線ではなく、 所定の幅を 有する領域として設定される。 ) 上で P (2, j ) と相対速度が一致する P (1, i ) を探索する (ス ップ S 23) 。 一致する P (1, i ) が見つかった場合に は、 ステップ S 24へと移行して、 当該 P (1, i ) と P (2, j ) とをペアリ ングする。 一方、 一致する P (1, i) が見つからなかった場合には、 ステップ S 21へと移行し、 P (1, i ) をペアなしと設定する。
【0041】 ステップ S 1 7でペアリング済みと判定された場合、 およびス デップ S 21、 S 22、 S 24の終了後は、 ステップ S 25へと移行し、 変数 j と nとを比較する。 変数 jが n未満の場合には、 P (2, j ) の全てのペアリン グ判定を終了していないから jに 1を加算し (ステップ S 26) 、 ステップ S 1 7へと戻り、 S 25までの処理を繰り返すことで、 全ての P (2, j ) について 判定処理を行う。 ; jが n以上の場合は、 ペアリン 判定を終了したことを意味す るから、 ステップ S 27へと移行する。
【0042】 ステップ S 27では、 ペア保留の P (1, i) を探索し、 それ が重複領域 a AB内に位置している場合には、 無視すべきデータである旨を設定 し、 重複領域 aAB外に位置している場合には、 ペアなしである旨を設定し、 処 理を終了する。
【0043】 ペアリングに際して、 位置と速度が略合致する場合のみにペア リングを行うのではなく、 追跡した側の進路で相対速度の略合致する場合にペア リングを行うことで、 図 6に示される c— d、 e— f 、 i— jについてもペアリ ングを行うことが可能となる。 このため、 検出領域を越えて物体が移動する場合 に、 その追跡を確実に行うことができ、 物体を見失うロストの発生を抑制するこ とができる。 このため、 追跡に基づいた各種の制御を安定して迅速に行うことが できるという利点がある。
【0044】 本実施形態においては、 離れた位置の検出点同士をペアリング することが可能となる。 一方で、 略同一位置のみペアリングした場合と異なり、 ペアリングした検出点位置二物体の代表位置とはならないので、 検出点位置に基 づいて物体の代表位置を設定する必要がある。 図 1 0は、 このように検出点位置 から物体位置を算出する際の処理フローチャートである。
【0 0 4 5】 まず、 ペアデータ間の距離を所定値 (しきい値) と比較する (ステップ S 4 1 ) 。 距離が所定値を上回っている場合には、 ステップ S 4 2へ と移行し、 自レーダの境界から離れているデータ位置を物体位置に設定する。 具 体的な例を図 9における i 一 jにより説明する。 点 iはレーダ B 1 1で検出され た点であるから、 レーダ B 1 1のレーダ A 1 0側の境界線 R Bから i点までの距 離 d iが自レーダの境界からの距離として設定される。 一方、 点 jはレーダ A 1 • 0で検出された点であるから'、 レーダ A 1 0のレーダ B 1 1側の境界線 L Aから j点までの距離 d jが自レーダの境界からの距離として設定される。 d j > d ;で あるから、 ; i点が物体位置として設定される。
【0 0 4 6】 一方、 ペアデータ間の距離が所定値を下回っている場合には、 ステップ S 4 3へと移行し、 ペアデータの中間位置を物体位置に設定する。 図 9 .に示される例では、 c— d、 g _ hの組み合わせが挙げられる。
【0 0 4 7】 ここでは、 物体位置を 1力所に特定する例で説明したが、 ペア データ間の距離が所定値を超えている場合には、 自レーダの相手レーダ側境界位 置からの距離が所定距離以内のデータを除外する選別処理を行うようにしてもよ レ、。 図 1 1は、 図 6、 図 9に示されるペアデータからこの選別処理により選ばれ たデータを示したものである。 図 9におけるペアリングされたデータ中でさらに e、 f 、 i点が除去される。 図 1 1においては、 選別した点、 a、 c _ d、 g— h、 : jはほぼ等間隔に並んでおり、 検出点の滞留なくして精度良く追跡が可能と なる。 また、 対象物の移動に伴い、 レーダ B 1 1のみにより検出している状態 ( a点) から、 レーダ A 1 0とレーダ B 1 1の双方で検出している状態 (c一 d 点、 g— h点) を経て、 レーダ A 1 0のみで検出している状態 (j点) へと移行 するので、 領域を超えて移動する物体の情報引継を確実に行うことができる。
【0 0 4 8】 ここでは、 ペアリングを行う際に、 追跡されている検出点の予 想進路上に他のレーダで検出した検出点がある場合にペアリングする例を説明し てきたが、 ペアリングの手法はこれに限られるものではない。 図 9において、 レ ーダ B 1 1の検出領域 a B内からレーダ A 1 0の検出領域 a Aへと対象物が移動 する場合、 レーダ A 1 0による検出点は、 最初は検出領域 a B側の境界線 L A近 傍に出現する。 あたかも境界線 L Aから進入してきたようなデータとして出現す る。 そこで、 境界線 L Aに近い領域でレーダ B 1 1の検出結果から定めた進路か ら定めた所定幅の領域内に出現した検出点を対応点とすればよい。 当該領域から 離れた点については当該領域からの追跡処理により対応する。 図 9においては、 Ythl〜Yth2の幅のある領域のうち L Aに近い領域に出現した検出点 (d点) があ る場合にペアリングを行い、 その移動を追跡する。 これによつても検出領域を越 えて移動してくる物体を精度良く追跡することが: Cきる。
【0 0 4 9】 以下、 追跡結果の利用について具体例のいくつかを説明する。 図 1 2は、 十字交差点 6における接近車両の検出を説明する図である。 自車両 3 は、 道路 6 0の交差点 6の手前で停車中であり、 交差する道路 6 1上を左から他 車両 4 0が接近している。 この接近車両を検出する場合、 本実施形態の物体検出 装置によれば、 レーダ 1 1による検出領域 a Bからレーダ 1 0による検出領域 a Aへと車両 4 0が移動する際に、 確実に追跡を行うことができる。 このため、 重 複領域 a AB付近で接近車両 4 0をロストすることがない。
【0 0 5 0】 車両 4 0の接近を運転者に警報したり、 衝突を回避する制御を 行う場合、 誤警報や誤制御を予防するため、 障害物等を一定時間連続して検出し ていることを制御開始の条件としている。 本実施形態を用いた制御では、 重複領 域 a A Bを越える際も連続して車两 4 0を検出しているため、 重複領域 a AB内お よびその近傍の障害物に対しても反応が遅れることがなくなり、 安全性 ·制御性 が向上する。
【0 0 5 1】 図 1 3は、 複数のカメラで撮像した画像上にレーダで検出した 検出点を重ね合わせて表示する表示装置の画像例である。 ここでは、 画像内の車 両にレーダの検出結果を十字線で重ねて示している。 中央の黒い部分は、 カメラ の死角となっている镩域である。 例えば、 死角領域とレーダの重複領域が重なり 合っている場合、 重複領域でのペアリングがうまくできないと、 死角部分で物体 (車両) の追跡が行えない。 これに対して、 本実施形態ではペアリングの精度が 向上しているので、 死角領域においても車両を追跡することができ、 安全性が向 上する。
【0 0 5 2】 さらに、 後方から接近する他車両 4 2や側方を後から通過する 自転車 4 5 (図 1 4参照) や後退中に進路上に飛び出してきた歩行者 4 6 (図 1 5参照) 、 自車両 3を追い抜く他車両 4 2 a→4 2 b (図 1 6参照) についても、 重複領域を通過する際に対象物をロストすることがないので、 迅速に各種の制御 を開始することができる。 ,
【0 0 5 3】 また、 レーダを配置する際に、 隨接するレーダ間で過度に重複 領域を設ける必要がなくなり、 また、 制御対象に応じてレーダの中心位置を厳密 に設定する必要がなくなるので、 広域でないレーダを用いる場合でもその個数を 減らすことができるとともに、 レーダの配置の自由度が増すという利点も有する。 産業上の利用可能性
【0 0—5 4】 本発明は、 重複した検出領域を有する複数のレーダを用いるこ とにより、 物体の検出精度を向上させることができる。

Claims

請求の範囲
1 . 送出し 送信波の物体からの反射波を受信することで当該物体の 位置を検出する第 1検出手段と、
前記第 1検出手段と検出領域の一部が重なり合うように配置され、 送出した送 信波の物体からの反射波を受信することで当該物体の位置を検出する第 2検出手 段と、
前記第 1または第 2検出手段の一方で検出した物体位置に基づいて当該物体の 進路に範囲を設定し、 該範囲内に前記第 1または第 2検出手段の他方で検出した 物体位置が含まれる場合に、 前記第 1検出手段で検出した物体と前記第 2検出手 段で検出した物体とが同一物体であると判定する同一物判定手段と、
を備えていることを特徴とする物体検出装置。 ,
2 . 前記物体位置に基づいて当該物体の進路に設定する範囲は、 検出 領域の他方の検出手段側の境界位置近傍において、 前記物体の推定移動軌跡から 所定幅以内の領域であることを特徴とする請求項 1記載の物体検出装置。
3 . 送出した送信波の物体からの反射波を受信することで当該物体の 位置を検出する第 1検出手段と、
前記第 1検出手段と検出領域の一部が重なり合うように配置され、 送出した送 信波の物体からの反射波を受信することで当該物体の位置を検出する第 2検出手 段と、
第 1検出手段と第 2検出手段の検出結果のペアリングを行うペアリング手段と、 前記ペアリング手段により、 ペアリングした物体位置のうち、 自検出手段の他 方の検出領域側の境界からの距離が遠い側の物体位置を物体位置として選択する 選択手段と、
を備えていることを特徴とする物体検出装置。
4 . 前記第 1検出手段および前記第 2検出手段は、 物体からの反射波 のうち反射強度の最も強い位置を物体位置として出力することを特徴とする請求 項 1〜 3のいずれか一項に記載の物体検出装置。
5 . 前記第 1検出手段および前記第 2検出手段は、 前記物体へ送信波 を送信し、 その反射波を受信することで当該物体の位置を検出するレーダである ことを特徴とする請求項 1〜 3のいずれか一項に記載の物体検出装置。
6 . 車両に搭載され、 その車両の周囲の障害物を検出するものである ことを特徴とする請求項 1〜 3のいずれか一項に記載の物体検出装置。
PCT/JP2007/054364 2006-03-01 2007-02-28 物体検出装置 WO2007102520A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US12/281,436 US7889116B2 (en) 2006-03-01 2007-02-28 Object detecting apparatus
CN2007800070888A CN101395492B (zh) 2006-03-01 2007-02-28 物体检测装置
EP07715255.1A EP2009464B1 (en) 2006-03-01 2007-02-28 Object detection device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2006055399A JP4371115B2 (ja) 2006-03-01 2006-03-01 物体検出装置
JP2006-055399 2006-03-01

Publications (1)

Publication Number Publication Date
WO2007102520A1 true WO2007102520A1 (ja) 2007-09-13

Family

ID=38474947

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2007/054364 WO2007102520A1 (ja) 2006-03-01 2007-02-28 物体検出装置

Country Status (5)

Country Link
US (1) US7889116B2 (ja)
EP (1) EP2009464B1 (ja)
JP (1) JP4371115B2 (ja)
CN (1) CN101395492B (ja)
WO (1) WO2007102520A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014069633A1 (ja) * 2012-11-02 2014-05-08 株式会社デンソー 物標検出装置、及び、当該装置を用いた接触回避システム

Families Citing this family (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009074803A (ja) * 2007-09-18 2009-04-09 Toyota Motor Corp 物体検出装置
JP5045356B2 (ja) * 2007-10-04 2012-10-10 トヨタ自動車株式会社 物体検出装置
JP4950959B2 (ja) * 2008-08-08 2012-06-13 本田技研工業株式会社 車両走行支援装置
JP4766404B2 (ja) * 2008-10-28 2011-09-07 トヨタ自動車株式会社 レーダ装置
JP5370132B2 (ja) * 2009-12-22 2013-12-18 株式会社デンソー 障害物検出装置
JP5613457B2 (ja) * 2010-05-27 2014-10-22 本田技研工業株式会社 物体検知装置
US20110291874A1 (en) * 2010-06-01 2011-12-01 De Mersseman Bernard Vehicle radar system and method for detecting objects
CN102529962B (zh) 2010-12-08 2014-11-05 安尼株式会社 移动体防碰撞装置和移动体
JP5590463B2 (ja) * 2010-12-17 2014-09-17 株式会社デンソー 車両用障害物監視装置
US20120188115A1 (en) * 2011-01-24 2012-07-26 Lang Hong Using Forward-Look and Side-Look Doppler Radars for Precise Vehicle Association in Automated Traffic Surveillance
EP2704123B1 (en) * 2011-04-28 2016-09-14 Honda Motor Co., Ltd. Object detection device for vehicle
JP5666987B2 (ja) * 2011-05-25 2015-02-12 株式会社デンソー 移動物体検出装置
US9430946B2 (en) * 2011-12-28 2016-08-30 Toyota Jidosha Kabushiki Kaisha Obstacle determination device
DE102012004791A1 (de) * 2012-03-07 2013-09-12 Audi Ag Verfahren zum Warnen des Fahrers eines Kraftfahrzeugs vor einer sich anbahnenden Gefahrensituation infolge eines unbeabsichtigten Driftens auf eine Gegenverkehrsfahrspur
WO2013186925A1 (ja) * 2012-06-15 2013-12-19 トヨタ自動車株式会社 追従制御装置
US9218538B2 (en) 2013-01-30 2015-12-22 Xerox Corporation Methods and systems for detecting an object borderline
WO2014189415A1 (en) * 2013-05-21 2014-11-27 Autoliv Development Ab Collision mitigation systems with adjustable trigger width
BR112015031832A2 (pt) * 2013-07-08 2017-07-25 Honda Motor Co Ltd dispositivo de reconhecimento de objeto
US9582886B2 (en) 2013-07-08 2017-02-28 Honda Motor Co., Ltd. Object recognition device
JP5812061B2 (ja) * 2013-08-22 2015-11-11 株式会社デンソー 物標検出装置およびプログラム
US20150102954A1 (en) * 2013-10-13 2015-04-16 Lang Hong 4-dimensional continuous wave radar system for traffic safety enforcement
US9939522B2 (en) 2013-10-13 2018-04-10 Oculii Corp Systems and methods for 4-dimensional radar tracking
US9939525B2 (en) * 2013-11-29 2018-04-10 L.H. Kosowsky & Associates, Inc. Imaging system for obscured environments
US10254395B2 (en) * 2013-12-04 2019-04-09 Trimble Inc. System and methods for scanning with integrated radar detection and image capture
WO2015082383A1 (de) * 2013-12-06 2015-06-11 Siemens Aktiengesellschaft Verfahren zur bestimmung einer anordnung zumindest zweier sensoren und sensornetzwerk
US9255988B2 (en) * 2014-01-16 2016-02-09 GM Global Technology Operations LLC Object fusion system of multiple radar imaging sensors
US9594160B2 (en) * 2014-02-25 2017-03-14 The Mitre Corporation Track associator
JP6429360B2 (ja) * 2014-04-25 2018-11-28 本田技研工業株式会社 物体検出装置
US10168425B2 (en) * 2014-07-03 2019-01-01 GM Global Technology Operations LLC Centralized vehicle radar methods and systems
JP6474228B2 (ja) * 2014-10-22 2019-02-27 株式会社デンソー 物体検知装置
JP2016080641A (ja) * 2014-10-22 2016-05-16 株式会社デンソー 物体検知装置
JP6404679B2 (ja) * 2014-10-22 2018-10-10 株式会社デンソー 物体検知装置
EP3021134B1 (en) * 2014-11-13 2020-06-03 Veoneer Sweden AB Sensor handover
JP6770299B2 (ja) * 2015-03-25 2020-10-14 パナソニック株式会社 物体検出装置および物体検出方法
JP6409680B2 (ja) * 2015-05-29 2018-10-24 株式会社デンソー 運転支援装置、運転支援方法
JP6659367B2 (ja) * 2016-01-15 2020-03-04 パナソニック株式会社 物体検出装置および物体検出方法
US9903946B2 (en) * 2016-05-26 2018-02-27 RFNAV, Inc. Low cost apparatus and method for multi-modal sensor fusion with single look ghost-free 3D target association from geographically diverse sensors
JP6619697B2 (ja) * 2016-06-09 2019-12-11 株式会社デンソー レーダ装置
JP6722066B2 (ja) * 2016-08-29 2020-07-15 株式会社Soken 周辺監視装置及び周辺監視方法
EP3520455A4 (en) 2016-09-27 2020-04-22 A9.com, Inc. NETWORK CONFIGURATION SHARING METHOD
JP6951728B2 (ja) * 2016-10-14 2021-10-20 国立大学法人金沢大学 物体追跡装置
JP6729287B2 (ja) * 2016-10-20 2020-07-22 株式会社デンソー 位置認識装置
JP6816658B2 (ja) * 2017-06-09 2021-01-20 トヨタ自動車株式会社 物標情報取得装置
JP6881219B2 (ja) * 2017-10-18 2021-06-02 トヨタ自動車株式会社 衝突前制御装置及び衝突前制御方法
WO2019092874A1 (ja) 2017-11-13 2019-05-16 三菱電機株式会社 物体認識装置および物体認識方法
US10466346B2 (en) * 2017-11-17 2019-11-05 Gm Global Technology Operations, Llc Method and apparatus for continuous tracking in a multi-radar system
CN108189754B (zh) * 2017-12-23 2018-12-18 西安科技大学 一种多点式主动探测的汽车防撞方法
JP6996353B2 (ja) * 2018-03-06 2022-01-17 トヨタ自動車株式会社 物体認識装置及び車両走行制御システム
DE112019001829T5 (de) * 2018-05-10 2020-12-31 Murata Manufacturing Co., Ltd. Objektpositionserfassungssystem
CN110376583B (zh) * 2018-09-30 2021-11-19 毫末智行科技有限公司 用于车辆传感器的数据融合方法及装置
JP7185547B2 (ja) * 2019-02-07 2022-12-07 株式会社デンソー 車両検出装置
CN114730526A (zh) * 2019-11-28 2022-07-08 三菱电机株式会社 物体识别装置、物体识别方法及物体识别程序

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58208680A (ja) * 1982-05-28 1983-12-05 Mitsubishi Electric Corp 移動目標追跡装置
JPS60102579A (ja) * 1983-11-10 1985-06-06 Hitachi Ltd 相関処理方法および装置
JPS6435391A (en) * 1987-07-31 1989-02-06 Hitachi Ltd Automatic track information correlation adjustment system for multiple radar system
JPH04208891A (ja) * 1990-12-03 1992-07-30 Nec Corp 複数レーダ自動追尾処理方式
JPH0875437A (ja) * 1994-09-02 1996-03-22 Mitsubishi Electric Corp 同一目標判定装置及び同一目標判定方法
JPH08285940A (ja) * 1995-04-18 1996-11-01 Oki Electric Ind Co Ltd 自動引継追尾装置
JP2000284049A (ja) * 1999-03-31 2000-10-13 Mitsubishi Electric Corp レーダ統合追尾方式
JP2003168197A (ja) 2001-11-30 2003-06-13 Hitachi Ltd 走行環境認識方法および装置
JP2005084034A (ja) * 2003-09-11 2005-03-31 Toyota Motor Corp 物体検出装置
JP2005084035A (ja) * 2003-09-11 2005-03-31 Toyota Motor Corp 物体検出装置
JP2006046962A (ja) * 2004-07-30 2006-02-16 Toyota Motor Corp 物標検出装置

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2256339B (en) * 1991-05-31 1995-07-19 Commw Of Australia A method of reducing tracking errors in determining target tracks of targets ina surveillance area
JP2567332B2 (ja) * 1993-02-17 1996-12-25 本田技研工業株式会社 時分割型レーダシステム
JP3012805B2 (ja) * 1996-05-09 2000-02-28 本田技研工業株式会社 Fmレーダ装置
DE19949409A1 (de) * 1999-10-13 2001-04-19 Bosch Gmbh Robert Verfahren und Vorrichtung zur Objektdetektierung
DE10007501A1 (de) 2000-02-18 2001-09-13 Daimler Chrysler Ag Verfahren und Vorrichtung zur Erfassung und Überwachung einer Mehrzahl von vorausfahrenden Fahrzeugen
JP2002099907A (ja) 2000-09-22 2002-04-05 Mazda Motor Corp 物体認識装置
EP1417512B1 (en) * 2001-08-16 2019-01-23 Valeo Radar Systems, Inc. Near object detection system
US6522288B1 (en) * 2002-01-09 2003-02-18 M/A-Com, Inc. Method and apparatus for determining location of objects based on range readings from multiple sensors
JP4019736B2 (ja) 2002-02-26 2007-12-12 トヨタ自動車株式会社 車両用障害物検出装置
US6771208B2 (en) * 2002-04-24 2004-08-03 Medius, Inc. Multi-sensor system
US6873251B2 (en) * 2002-07-16 2005-03-29 Delphi Technologies, Inc. Tracking system and method employing multiple overlapping sensors
DE10258287A1 (de) * 2002-12-13 2004-06-24 Robert Bosch Gmbh Verfahren und Einrichtung zur Objektdetekrierung
WO2005026769A1 (ja) * 2003-09-11 2005-03-24 Mitsubishi Denki Kabushiki Kaisha レーダ装置
JP4506163B2 (ja) 2003-12-10 2010-07-21 日産自動車株式会社 前方物体検出装置及び前方物体検出方法
US7369941B2 (en) * 2004-02-18 2008-05-06 Delphi Technologies, Inc. Collision detection system and method of estimating target crossing location
JP4208891B2 (ja) 2006-04-19 2009-01-14 株式会社沖データ 半導体複合装置、ledヘッド、及び画像形成装置

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58208680A (ja) * 1982-05-28 1983-12-05 Mitsubishi Electric Corp 移動目標追跡装置
JPS60102579A (ja) * 1983-11-10 1985-06-06 Hitachi Ltd 相関処理方法および装置
JPS6435391A (en) * 1987-07-31 1989-02-06 Hitachi Ltd Automatic track information correlation adjustment system for multiple radar system
JPH04208891A (ja) * 1990-12-03 1992-07-30 Nec Corp 複数レーダ自動追尾処理方式
JPH0875437A (ja) * 1994-09-02 1996-03-22 Mitsubishi Electric Corp 同一目標判定装置及び同一目標判定方法
JPH08285940A (ja) * 1995-04-18 1996-11-01 Oki Electric Ind Co Ltd 自動引継追尾装置
JP2000284049A (ja) * 1999-03-31 2000-10-13 Mitsubishi Electric Corp レーダ統合追尾方式
JP2003168197A (ja) 2001-11-30 2003-06-13 Hitachi Ltd 走行環境認識方法および装置
JP2005084034A (ja) * 2003-09-11 2005-03-31 Toyota Motor Corp 物体検出装置
JP2005084035A (ja) * 2003-09-11 2005-03-31 Toyota Motor Corp 物体検出装置
JP2006046962A (ja) * 2004-07-30 2006-02-16 Toyota Motor Corp 物標検出装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2009464A4

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014069633A1 (ja) * 2012-11-02 2014-05-08 株式会社デンソー 物標検出装置、及び、当該装置を用いた接触回避システム

Also Published As

Publication number Publication date
US7889116B2 (en) 2011-02-15
CN101395492B (zh) 2012-08-22
US20090040094A1 (en) 2009-02-12
JP4371115B2 (ja) 2009-11-25
JP2007232594A (ja) 2007-09-13
EP2009464A4 (en) 2011-05-04
CN101395492A (zh) 2009-03-25
EP2009464B1 (en) 2016-04-06
EP2009464A1 (en) 2008-12-31

Similar Documents

Publication Publication Date Title
WO2007102520A1 (ja) 物体検出装置
CN107251127B (zh) 车辆的行驶控制装置以及行驶控制方法
RU2741129C1 (ru) Способ прогнозирования поведения транспортного средства и устройство прогнозирования поведения транспортного средства
US10345443B2 (en) Vehicle cruise control apparatus and vehicle cruise control method
US20160339919A1 (en) Lane merging determination apparatus
KR20180117207A (ko) 자동주행 차량을 위한 시나리오 인지 인식 시스템
US20170008531A1 (en) Driving assistant for vehicles
US20100117813A1 (en) Method for detecting an environment of a vehicle
US10611240B2 (en) Vehicle cruise control apparatus and cruise control method
WO2010134428A1 (en) Vehicular environment estimation device
US8160300B2 (en) Pedestrian detecting apparatus
JP3588814B2 (ja) 自動車の障害物検知装置
CN101578533A (zh) 车辆用环境监视设备
JP4762830B2 (ja) 周辺監視システム
WO2017013692A1 (ja) 走行車線判定装置及び走行車線判定方法
CN109195849B (zh) 摄像装置
JP2003276538A (ja) 障害物予測装置
JP4872517B2 (ja) 障害物認識装置
JP5606468B2 (ja) 車両周辺監視装置
JP4661602B2 (ja) 後方車両解析装置及び衝突予測装置
US20180372860A1 (en) Object detection device and object detection method
CN107458337A (zh) 机动车保护装置的控制
JP2009075645A (ja) 走行環境検出装置
JP2006048568A (ja) 物体認識方法及び物体認識装置
JP4074550B2 (ja) 物体認識装置及び認識方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 200780007088.8

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 12281436

Country of ref document: US

Ref document number: 2007715255

Country of ref document: EP