WO2016103464A1 - 障害物検知装置及び障害物検知方法 - Google Patents

障害物検知装置及び障害物検知方法 Download PDF

Info

Publication number
WO2016103464A1
WO2016103464A1 PCT/JP2014/084568 JP2014084568W WO2016103464A1 WO 2016103464 A1 WO2016103464 A1 WO 2016103464A1 JP 2014084568 W JP2014084568 W JP 2014084568W WO 2016103464 A1 WO2016103464 A1 WO 2016103464A1
Authority
WO
WIPO (PCT)
Prior art keywords
obstacle
candidate points
virtual image
unit
distance
Prior art date
Application number
PCT/JP2014/084568
Other languages
English (en)
French (fr)
Inventor
涼太郎 鈴木
井上 悟
邦彦 荒木
崇浩 松井
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to JP2016565812A priority Critical patent/JP6333412B2/ja
Priority to PCT/JP2014/084568 priority patent/WO2016103464A1/ja
Publication of WO2016103464A1 publication Critical patent/WO2016103464A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Definitions

  • the present invention relates to an obstacle detection device and an obstacle detection method for detecting an obstacle existing around a moving body using a distance sensor provided on the moving body.
  • an obstacle detection device that detects an obstacle existing around a moving body using a distance sensor such as an ultrasonic sensor attached to the moving body such as a vehicle has been developed.
  • Conventional obstacle detection devices generally estimate the position of an obstacle with respect to a moving object using the propagation distance of a search wave transmitted and received by a plurality of distance sensors.
  • the object recognition apparatus of patent document 1 sets the object presence reliability which shows the reliability of whether an object exists with respect to the surrounding area of the own vehicle, and between the reflective points where the transmitted laser beam reflected
  • the reflection points are grouped based on the object existence reliability in the area.
  • two groups of objects are separated from each other. It becomes possible to group as a group, and avoids misrecognizing a plurality of objects as a single object.
  • the conventional obstacle detection device when there is a measurement error of the propagation distance by each distance sensor, a deviation occurs in the calculated candidate point of the reflected position of the search wave. Due to the deviation of the candidate points, the estimated obstacle position may deviate from the actual obstacle position, or the position of an obstacle that does not actually exist may be estimated. There was a problem with low accuracy.
  • Patent Document 1 avoids erroneous recognition of a plurality of objects as a single object, it does not take into account the measurement error of the propagation distance by individual distance sensors. For this reason, as in the case of a conventional obstacle detection device, the estimated object position may deviate from the actual object position, or the position of an object that does not actually exist may be estimated. There was a problem with low accuracy of estimation.
  • the present invention has been made to solve the above problems, and provides an obstacle detection device and an obstacle detection method capable of estimating the position of an obstacle with respect to a moving object with high accuracy. Objective.
  • the obstacle detection device of the present invention is an obstacle detection device that detects an obstacle existing outside a moving body using a plurality of distance sensors provided on the moving body, and the transmission distance sensor
  • a candidate point calculation unit for calculating an obstacle candidate point indicating a candidate for a position where the search wave is reflected, using a propagation distance until the transmitted search wave is reflected by the obstacle and propagated to the distance sensor for reception
  • a processing unit for estimating an obstacle existing area where an obstacle exists by mapping a plurality of obstacle candidate points calculated by a candidate point calculation unit on a two-dimensional map including a search area of a distance sensor and evaluating a frequency distribution
  • a processing unit for estimating an obstacle existing area where an obstacle exists by mapping a plurality of obstacle candidate points calculated by a candidate point calculation unit on a two
  • the obstacle existence area is estimated by mapping a plurality of obstacle candidate points on the two-dimensional map and evaluating the frequency distribution, and therefore, the influence of the measurement error of the propagation distance by each distance sensor, etc.
  • the position of the obstacle with respect to the moving object can be estimated with high accuracy.
  • FIG. 6A is an explanatory diagram illustrating an example of an obstacle around the vehicle.
  • FIG. 6B is a characteristic diagram illustrating an example of a frequency distribution of obstacle candidate points and a distribution of values obtained by integrating the frequencies for intervals.
  • FIG. 7A is an explanatory diagram illustrating another example of an obstacle around the vehicle.
  • FIG. 7B is a characteristic diagram illustrating another example of a frequency distribution of obstacle candidate points and a distribution of values obtained by integrating the frequencies for intervals.
  • FIG. 8A is an explanatory diagram illustrating another example of an obstacle around the vehicle.
  • FIG. 8B is a characteristic diagram illustrating another example of a frequency distribution of obstacle candidate points and a distribution of values obtained by integrating the frequencies for intervals. It is a functional block diagram of the principal part of ECU containing the obstacle detection apparatus which concerns on Embodiment 2 of this invention.
  • FIG. 12A is an explanatory diagram showing the propagation distance of the ultrasonic wave reflected by one obstacle.
  • FIG. 12B is an explanatory diagram showing the propagation distance of ultrasonic waves reflected by a plurality of obstacles. It is a flowchart which shows operation
  • FIG. 1 is a hardware configuration diagram of a main part of a corner sensor system 100 on which an obstacle detection device according to Embodiment 1 is mounted.
  • Four distance sensors 2 1 to 2 4 are attached to the rear bumper of the vehicle 1.
  • the distance sensors 2 1 to 2 4 are configured by, for example, an ultrasonic sensor, a radio wave sensor, a LIDAR (Light Detection and Ranging), a laser range finder, or the like.
  • the distance sensors 2 1 to 2 4 transmit search waves such as ultrasonic waves, radio waves, or laser beams, and receive search waves reflected by obstacles outside the vehicle 1.
  • the distance sensors 2 1 to 2 4 are electrically connected to signal input / output terminals of an ECU (Electronic Control Unit) 3 mounted on the vehicle 1 by a harness or the like.
  • a corner sensor system 100 is configured by the distance sensors 2 1 to 2 4 and the ECU 3.
  • the moving body on which the corner sensor system 100 is mounted is not limited to the vehicle 1 and may be any moving body including a vehicle, a railway, a ship, or an aircraft.
  • a distance sensor may be attached to the front bumper.
  • the number of distance sensors attached to each bumper may be two or more, and is not limited to four.
  • mounting four distance sensors 2 1 to 2 4 in the rear bumper of the vehicle 1 as shown in FIG. 1, the distance sensors 2 1 to 2 4 describes an example of configuration in an ultrasonic sensor.
  • FIG. 2 is a functional block diagram of a main part of the ECU 3 shown in FIG.
  • the transmission control unit 30 causes the transmission unit 31 to output a pulse signal.
  • the output signal of the transmission unit 31 is output to at least one distance sensor (hereinafter referred to as “transmission sensor”) among the four distance sensors 2 1 to 2 4 via the multiplexer 32.
  • transmission sensor transmits an ultrasonic wave.
  • the receiving units 33 1 to 33 4 are connected to the distance sensors 2 1 to 2 4 on a one-to-one basis via the multiplexer 32. Signals corresponding to the ultrasonic waves received by the distance sensors 2 1 to 2 4 are input to the receiving units 33 1 to 33 4 , respectively.
  • the distance measurement unit 34 monitors the timing at which the transmission control unit 30 causes the transmission unit 31 to output a signal and the timing at which the signals are input to the reception units 33 1 to 33 4 .
  • the distance measurement unit 34 includes a time at which the transmission control unit 30 outputs a signal to the transmission unit 31 (hereinafter referred to as “transmission time”), and at least one distance sensor (from four distance sensors 2 1 to 2 4 ( The time difference from the time (hereinafter referred to as “reception time”) when the signal is input to the reception unit corresponding to “reception sensor” hereinafter) is calculated.
  • the time difference between the transmission time and the reception time corresponds to the propagation time until the ultrasonic wave transmitted from the transmission sensor is reflected by an obstacle outside the vehicle 1 and reaches each reception sensor.
  • the distance measuring unit 34 calculates the propagation distance of the ultrasonic wave from the transmission sensor to each reception sensor by multiplying the propagation time by the value of sound velocity.
  • the candidate point calculation unit 35 uses the propagation distance value calculated by the distance measurement unit 34 to calculate an obstacle candidate point indicating a candidate position where the ultrasonic wave is reflected.
  • the distance measurement unit 34 uses one transmission sensor 2 1 out of four distance sensors 2 1 to 2 4 and two reception sensors 2 3 and 2 4 other than the transmission sensor 2 1. It shall be calculated with the first propagation distance from the transmission sensor 2 1 to one of the receiving sensor 2 3, and a second propagation distance from the transmission sensor 2 1 to the other receiving sensor 2 4.
  • the candidate point calculating section 35 the mounting position of the transmission sensor 2 1 with respect to the vehicle 1 as a first focal point, the mounting position of one of the receiving sensor 2 3 to the vehicle 1 as a second focal distance to the first focal point
  • the first ellipse which is a set of points whose first propagation distance is the sum of the distance to the second focus.
  • the candidate point calculation unit 35 calculates an intersection point between the first ellipse and the second ellipse as an obstacle candidate point.
  • the distance measurement unit 34 uses one transmission sensor 2 1 out of the four distance sensors 2 1 to 2 4 and two reception sensors 2 1 and 2 4 including the transmission sensor 2 1. It shall be calculated with the first propagation distance from the transmission sensor 2 1 to one of the receiving sensor 2 1, and a second propagation distance from the transmission sensor 2 1 to the other receiving sensor 2 4.
  • the candidate point calculating section 35 around the mounting position of the distance sensor 2 1 with respect to the vehicle 1, the radius is determined a circle is half the first propagation distance.
  • the candidate point calculation unit 35 calculates the intersection of the circle and the ellipse as an obstacle candidate point.
  • the distance measuring unit 34 changes the distance sensor 2 1 to the distance sensor 2 1. to a first ultrasonic wave propagation distance of up to 1, as that calculates a second ultrasonic wave propagation distance from the other distance sensor 2 4 until the distance sensor 2 4.
  • the candidate point calculating section 35 around the mounting position of the distance sensor 2 1 with respect to the vehicle 1, obtains the first circle radius is half of the first propagation distance.
  • the candidate point calculating section 35 around the mounting position of the distance sensor 2 4 with respect to the vehicle 1 obtains a second circular radius is half of the second propagation distance.
  • the candidate point calculation unit 35 calculates an intersection point between the first circle and the second circle as an obstacle candidate point.
  • the combination of the distance sensor used for the transmission sensor and the distance sensor used for the reception sensor is not limited to the above three examples, and any combination is possible. good.
  • the candidate point calculation unit 35 controls the timing at which the transmission control unit 30 outputs a signal to the transmission unit 31, and controls the connection between the transmission unit 31 and the signal input / output terminal in the multiplexer 32 to change the number of the candidate point calculation units 35.
  • the distance sensors 2 1 to 2 4 ultrasonic waves are transmitted a plurality of times while switching the distance sensor used for the transmission sensor.
  • the candidate point calculation unit 35 calculates obstacle candidate points using the propagation distance measured by each combination while switching the combination of the transmission sensor and the reception sensor by controlling the transmission control unit 30 and the multiplexer 32. This process (hereinafter referred to as “candidate point calculation process”) is executed a plurality of times.
  • the map processing unit 36 maps a plurality of obstacle candidate points calculated by the candidate point calculation unit 35 on a two-dimensional map.
  • This two-dimensional map is a map defined by two axes, an X-axis along the front-rear direction of the vehicle 1 and a Y-axis along the left-right direction of the vehicle 1, and at least search areas of the distance sensors 2 1 to 2 4 are defined. It is a map including.
  • the map processing unit 36 estimates an obstacle existence area indicating an area where an obstacle exists by evaluating the frequency distribution of obstacle candidate points mapped on the two-dimensional map.
  • the candidate point calculation unit 35 and the map processing unit 36 constitute an obstacle detection device 300.
  • the frequency in each region obtained by dividing the two-dimensional map into a mesh shape along the X axis and the Y axis is obtained, and the distribution of the frequency is evaluated.
  • the accuracy of the obstacle position estimation can be increased as the mesh size is reduced to reduce the size of each region.
  • the map processing unit 36 evaluates the frequency distribution and estimates the obstacle existence area, thereby reducing the influence of the measurement error of the propagation distance by the individual distance sensors and increasing the position of the obstacle with respect to the vehicle 1. It can be estimated with accuracy.
  • the finer the mesh mesh the greater the number of areas for which the frequency is determined, and the processing time required for evaluating the frequency distribution increases. For example, when the length per side of the mesh is halved, the accuracy of position estimation in each axial direction is doubled, but the number of regions included in the two-dimensional map is quadrupled, and the frequency distribution is evaluated.
  • the processing time required is four times.
  • the ECU 3 including the obstacle detection device 300 is generally equipped with a processing circuit having a low processing capacity from the viewpoint of realizing the corner sensor system 100 at a low cost. For this reason, it is difficult to increase the accuracy of obstacle position estimation by making the mesh mesh fine.
  • the map processing unit 36 when evaluating the frequency distribution of the obstacle candidate points, the map processing unit 36 separately evaluates the frequency distribution along the X axis and the frequency distribution along the Y axis, thereby evaluating the frequency distribution. It may be configured to significantly reduce the processing time required to suppress the increase in processing time even when the mesh mesh is fine. The detailed operation of the map processing unit 36 will be described below with reference to FIG.
  • FIG. 3 shows an example of obstacle candidate points on the two-dimensional map.
  • the size of the two-dimensional map is 400 cm ⁇ 400 cm, and one circle on the two-dimensional map represents one obstacle candidate point.
  • the map processing unit 36 obtains the frequency of obstacle candidate points in each section obtained by dividing the two-dimensional map at intervals of 10 cm along the X axis.
  • the map processing unit 36 extracts a section where the frequency distribution on the X axis is relatively high (for example, a section where the frequency is higher than the first threshold).
  • a section with an X coordinate of 90 cm to 120 cm and a section with 190 cm to 210 cm are extracted.
  • the map processing unit 36 obtains the frequency of obstacle candidate points in each section obtained by dividing the two-dimensional map at 10 cm intervals along the Y axis.
  • the map processing unit 36 extracts a section where the frequency distribution on the Y axis is relatively high (for example, a section where the frequency is higher than the first threshold).
  • a section where the frequency is higher than the first threshold when the first threshold value is set to one, a section with a Y coordinate of ⁇ 70 cm to ⁇ 30 cm and a section with 80 cm to 110 cm are extracted.
  • the first threshold value is a value set in advance according to the width of each section obtained by dividing the two-dimensional map along the X axis or the Y axis.
  • the value of the first threshold is not limited to 1, and may be a value greater than 1.
  • the map processing unit 36 estimates that an area where a section with a relatively high frequency distribution on the X-axis and a section with a relatively high frequency distribution on the Y-axis is an obstacle existing area.
  • the map processing unit 36 determines that an area where an interval where the frequency on the X axis is higher than the first threshold and an interval where the frequency on the Y axis is higher than the first threshold intersects the obstacle existing area. It is estimated that. That is, the map processing unit 36 estimates that the area where the X coordinate is within the range of 90 cm to 120 cm and the Y coordinate is within the range of ⁇ 70 cm to ⁇ 30 cm is the obstacle existing area A.
  • the map processing unit 36 estimates that an area having an X coordinate of 90 cm to 120 cm and a Y coordinate of 80 cm to 110 cm is an obstacle existing area B.
  • the map processing unit 36 estimates that the region where the X coordinate is 190 cm to 210 cm and the Y coordinate is within the range of ⁇ 70 cm to ⁇ 30 cm is the obstacle existing region C.
  • the map processing unit 36 estimates that an area having an X coordinate of 190 cm to 210 cm and a Y coordinate of 80 cm to 110 cm is an obstacle existing area D.
  • the four obstacle existence areas A to D estimated by the map processing unit 36 in the example of FIG. 3 include the obstacle existence area A including only one obstacle candidate point generated in noise, and the obstacle existence area A to D.
  • An obstacle existence area D that does not include an object candidate point is included. Therefore, the map processing unit 36 compares the number of obstacle candidate points included in the estimated obstacle existence areas A to D with the second threshold value, and the obstacle existence number of obstacle candidate points is less than the second threshold value.
  • the area may be excluded.
  • the map processing unit 36 excludes the two obstacle existence areas A and D from the four obstacle existence areas A to D.
  • the second threshold value is a preset value, and may be the same value as the first threshold value or a different value.
  • FIG. 4 is a hardware configuration diagram of a main part of the ECU 3.
  • Transceiver 50 includes a transmission circuit for configuring the transmitter 31, and the signal switching circuit constituting the multiplexer 32, and a receiving circuit constituting the reception section 33 1-33 4.
  • the functions of the transmission control unit 30, the distance measurement unit 34, the candidate point calculation unit 35, and the map processing unit 36 illustrated in FIG. 2 are, for example, a CPU (Central Processing Unit) that executes a program stored in the storage device 51 or a dedicated function. This is realized by a processing circuit 52 such as a system LSI (Large Scale Integration).
  • LSI Large Scale Integration
  • a plurality of processing circuits may cooperate to realize the above function, and some of these processing circuits may be provided in a device outside the ECU 3.
  • the program may be distributed and stored in a plurality of storage devices, and some of the storage devices may be provided in a device outside the ECU 3.
  • FIG. 5 is a flowchart showing the operation of the obstacle detection apparatus 300.
  • the candidate point calculation unit 35 executes the candidate point calculation process a plurality of times while switching the combination of the transmission sensor and the reception sensor by controlling the transmission control unit 30 and the multiplexer 32.
  • step ST2 the map processing unit 36 maps the obstacle candidate points calculated by the candidate point calculating unit 35 in step ST1 on the two-dimensional map.
  • the map processing unit 36 estimates the obstacle existence area indicating the area where the obstacle exists by evaluating the frequency distribution of the obstacle candidate points mapped on the two-dimensional map. The detailed operation of the map processing unit 36 in step ST2 has been described above with reference to FIG.
  • step ST3 the map processing unit 36 excludes the obstacle existence area in which the number of obstacle candidate points included in the obstacle existence area is less than the second threshold from the obstacle existence areas estimated in step ST2. To do. The detailed operation of the map processing unit 36 in step ST3 has been described above with reference to FIG.
  • the ECU 3 sends the information on the remaining obstacle existence area excluded by the map processing unit 36 in step ST3 to an external device such as a car navigation device mounted on the vehicle 1 or a portable information terminal brought into the vehicle 1. Send to device.
  • an external device such as a car navigation device mounted on the vehicle 1 or a portable information terminal brought into the vehicle 1.
  • the external device notifies the occupant of the vehicle 1 of the obstacle presence area using the display or the speaker, the occupant can grasp the presence / absence of the obstacle and the position of the obstacle with respect to the vehicle 1.
  • the map processing unit 36 may evaluate the distribution of values obtained by integrating the frequencies of obstacle candidate points in a plurality of adjacent sections as follows.
  • FIG. 6A shows an example of a pole-shaped obstacle E disposed facing the rear bumper of the vehicle 1 and obstacle candidate points generated by the obstacle E.
  • the X axis and the Y axis are the same as those in FIG.
  • a characteristic line I in FIG. 6B shows a frequency distribution of obstacle candidate points for each 10 cm section along the Y axis in the state shown in FIG.
  • a characteristic line II shows a distribution of values obtained by integrating the frequencies of obstacle candidate points in two sections adjacent along the Y axis.
  • both the characteristic line I and the characteristic line II exceed the first threshold Th. Accordingly, the map processing unit 36 determines that the region where the obstacle E exists is an obstacle present, both when evaluating the frequency distribution indicated by the characteristic line I and when evaluating the distribution of the interval integral value of the frequency indicated by the characteristic line II. It can be estimated that it is a region.
  • FIG. 7A shows an example of a wall-like obstacle F arranged facing the rear bumper of the vehicle 1 and obstacle candidate points generated by the obstacle F.
  • the X axis and the Y axis are the same as those in FIG.
  • a characteristic line I in FIG. 7B shows a frequency distribution of obstacle candidate points for each 10 cm section along the Y axis in the state shown in FIG.
  • a characteristic line II shows a distribution of values obtained by integrating the frequencies of obstacle candidate points in two sections adjacent along the Y axis.
  • the map processing unit 36 evaluates the distribution of the interval integral value of the frequency indicated by the characteristic line II, so that an area corresponding to at least a part of the obstacle F (in the example of FIG. It can be estimated that the regions in the range of ⁇ 40 cm, ⁇ 20 cm to 0 cm, and 20 cm to 40 cm are obstacle existing regions.
  • the map processing unit 36 evaluates the distribution of the interval integral values of the frequencies, so that obstacle candidate points (so-called obstacles) that are generated on the two-dimensional map in a noise manner and do not correspond to the actual positions where the ultrasonic waves are reflected. It becomes easy to exclude the area including the “virtual image”) from the obstacle existing area.
  • FIG. 8A shows an example of two pole-shaped obstacles G and H arranged facing the rear bumper of the vehicle 1 and obstacle candidate points generated by the obstacles G and H.
  • one cross indicates one obstacle candidate point.
  • the X axis and the Y axis are the same as those in FIG.
  • a characteristic line I in FIG. 8B shows a frequency distribution of obstacle candidate points for each 10 cm section along the Y axis in the state shown in FIG.
  • a characteristic line II shows a distribution of values obtained by integrating the frequencies of obstacle candidate points in two sections adjacent along the Y axis.
  • a virtual image is generated between the two obstacles G and H.
  • the generation principle of the virtual image will be described later in Embodiment 3.
  • a peak point due to the obstacle G is generated in the range where the Y coordinate is 60 cm to 70 cm
  • a peak point due to the obstacle H is present in the range from ⁇ 70 cm to ⁇ 80 cm.
  • a peak point due to a virtual image is generated in the range of ⁇ 10 cm to 0 cm.
  • the difference ⁇ f2 between the peak point due to the virtual image on the characteristic line II and the peak point due to the obstacles G and H is larger than the difference ⁇ f1 on the characteristic line I.
  • the number of intervals in which the frequency is integrated is not limited to two adjacent intervals along the X axis or the Y axis.
  • a value obtained by integrating the frequencies in an arbitrary number of sections may be used according to the size (10 cm in the above example) of each section divided along the X axis or the Y axis or the processing capability of the ECU 3.
  • the search wave transmitted by the transmission distance sensor in the distance sensors 2 1 to 2 4 is reflected by the obstacle and becomes the reception distance sensor.
  • a candidate point calculation unit 35 that calculates an obstacle candidate point indicating a candidate for a position where the search wave is reflected using the propagation distance until propagation, and a distance between the plurality of obstacle candidate points calculated by the candidate point calculation unit 35 mapped on a two-dimensional map containing the search area of the sensor 2 1-2 4 to evaluate the frequency distribution, and a map processor unit 36 for estimating the obstacle existing region where the obstacle exists.
  • the map processing unit 36 evaluates the frequency distribution and estimates the obstacle existence area, so that the propagation distance by each distance sensor is higher than that of the conventional obstacle detection apparatus that does not use the frequency distribution for estimation of the obstacle existence area. It is possible to estimate the position of the obstacle with respect to the vehicle 1 with high accuracy by reducing the influence of the measurement error. Further, the information on the obstacle presence area estimated by the obstacle detection device 300 is output to an external device such as a car navigation device, and the external device notifies the passenger of the vehicle 1 of the obstacle presence region, so that the passenger can In addition to the presence or absence of an obstacle, the exact position of the obstacle can be grasped.
  • an external device such as a car navigation device
  • the map processing unit 36 also includes a frequency distribution of obstacle candidate points along the X axis (first direction) on the two-dimensional map and a Y axis (first) orthogonal to the X axis (first direction) on the two-dimensional map.
  • the frequency distribution of the obstacle candidate points along the two directions) is evaluated separately, and the interval where the obstacle candidate points exist on the X axis (first direction) and the obstacle candidate points on the Y axis (second direction) It is estimated that the region where the section where the symbol exists intersects the obstacle existing region.
  • the frequency distribution along the X-axis and the frequency distribution along the Y-axis are separately evaluated, greatly reducing the processing time required for evaluating the frequency distribution. can do.
  • by reducing the division width of the section along each axis it is possible to suppress an increase in processing time while improving the accuracy of obstacle position estimation, so even if the processing capacity of the ECU 3 is low The accuracy of obstacle position estimation can be improved.
  • the map processing unit 36 excludes the obstacle existence area in which the number of obstacle candidate points included in the obstacle existence area is less than the second threshold from the estimated obstacle existence area. As a result, while reducing the processing time required for evaluating the frequency distribution, the obstacle existence area not including the obstacle candidate points and the obstacle existence area including only the obstacle candidate points generated in noise are excluded. The accuracy of the object position estimation can be further improved.
  • the frequency distribution of obstacle candidate points along the X axis (first direction) is the obstacle candidate points in a plurality of adjacent sections among the sections obtained by dividing the two-dimensional map along the X axis (first direction).
  • the frequency distribution of obstacle candidate points along the Y-axis (second direction) is adjacent in the section obtained by dividing the two-dimensional map along the Y-axis (second direction).
  • This is a distribution of values obtained by integrating the frequencies of obstacle candidate points in a plurality of sections.
  • FIG. 9 is a functional block diagram of a main part of the ECU 3 including the obstacle detection device 300a according to the second embodiment.
  • FIG. 9 the same blocks as those in the functional block diagram of the first embodiment shown in FIG. Further, since the hardware configurations of the corner sensor system 100 and the ECU 3 are the same as those in the first embodiment, the description will be made with reference to FIGS. 1 and 4.
  • the size estimation unit 37a estimates the size of the obstacle from the size of the range in which the obstacle candidate points are distributed in the obstacle existing region estimated by the map processing unit 36.
  • the candidate point calculation unit 35, the map processing unit 36, and the size estimation unit 37a constitute an obstacle detection device 300a.
  • FIG. 10 is a flowchart showing the operation of the obstacle detection apparatus 300a. In FIG. 10, the same steps as those in the flowchart of the first embodiment shown in FIG.
  • the candidate point calculation unit 35 executes the process of step ST1 similar to that of the first embodiment.
  • the map processing unit 36 executes the processes of steps ST2 and ST3 similar to those in the first embodiment.
  • the size estimation unit 37a determines the size of the obstacle from the size of the range in which the obstacle candidate points are distributed in the remaining obstacle existence area excluded by the map processing unit 36 in step ST3.
  • the size estimation unit 37 a estimates that the size of the obstacle corresponding to the obstacle existing area B is about 30 cm ⁇ 30 cm.
  • the size estimation unit 37a estimates that the size of the obstacle corresponding to the obstacle existence area C is about 20 cm ⁇ 40 cm.
  • the obstacle detection apparatus 300a uses the obstacle size information estimated by the size estimation unit 37a in step ST11 in addition to the obstacle existence area information calculated by the map processing unit 36 in step ST3. And output to an external device such as a car navigation device or a portable information terminal.
  • the external device notifies the occupant of the vehicle 1 of the obstacle existence area and the size of the obstacle using a display or a speaker, so that the occupant can detect the obstacle in addition to the presence of the obstacle and the position of the obstacle.
  • the size can be grasped.
  • the size estimation unit 37a may estimate the size of the portion where the obstacle candidate points are distributed in the obstacle existing area as the size of the obstacle as it is. Statistical processing may be performed on the obstacle candidate points, and the distribution range of the obstacle candidate points based on the result of the statistical processing may be estimated as the size of the obstacle.
  • Statistical processing may be performed on the obstacle candidate points, and the distribution range of the obstacle candidate points based on the result of the statistical processing may be estimated as the size of the obstacle.
  • an example of statistical processing by the size estimation unit 37a will be described.
  • the size estimation unit 37a obtains an average value and a standard deviation ⁇ for the frequency distribution of obstacle candidate points along the X axis in the obstacle existing region. Next, the size estimation unit 37a obtains a range of the average value ⁇ 2 ⁇ in the frequency distribution along the X axis. Similarly, the size estimation unit 37a obtains an average value and a standard deviation ⁇ for the frequency distribution of obstacle candidate points along the Y axis in the obstacle existing area. Next, the size estimation unit 37a obtains a range of the average value ⁇ 2 ⁇ in the frequency distribution along the Y axis.
  • the size estimation unit 37a extracts a range in which the frequency distribution along the X axis is an average value ⁇ 2 ⁇ and the frequency distribution along the Y axis is an average value ⁇ 2 ⁇ in the obstacle existing region, and the extracted range Is estimated as the size of the obstacle.
  • the obstacle size estimation By excluding the portion whose frequency distribution along the X-axis or Y-axis is outside the range of the average value ⁇ 2 ⁇ from the obstacle size estimation, there are obstacle candidate points generated in noise in the obstacle existence region. Even in this case, the size of the obstacle can be estimated by removing this obstacle candidate point. For this reason, the accuracy of the obstacle size estimation can be improved.
  • the distribution range of obstacle candidate points to be subjected to size estimation is not limited to the average value ⁇ 2 ⁇ .
  • An arbitrary range may be set according to the processing capability of the ECU 3 or the accuracy of obstacle size detection required for the obstacle detection device 300a.
  • the index used for statistical processing is not limited to the standard deviation ⁇ . Any index may be used as long as it indicates the variation of the obstacle candidate points in the obstacle existing area, and for example, an average deviation may be used.
  • the obstacle detection device 300a includes the size estimation unit 37a that estimates the size of the obstacle from the size of the range in which the obstacle candidate points are distributed in the obstacle existing region. .
  • the obstacle detection device 300a outputs information on the size of the obstacle to the external device, and the external device notifies the occupant of the vehicle 1 of the size of the obstacle using a display or a speaker. The size of the object can be grasped.
  • the size estimation unit 37a statistically processes obstacle candidate points within the obstacle existing area, and estimates the distribution range of the obstacle candidate points based on the statistical processing result as the size of the obstacle. Thereby, the accuracy of size estimation can be improved by estimating the size of an obstacle by excluding obstacle candidate points generated in a noise manner in the obstacle existing region.
  • FIG. 11 is a functional block diagram of a main part of the ECU 3 including the obstacle detection device 300b according to the third embodiment.
  • FIG. 11 blocks similar to those in the functional block diagram of the first embodiment shown in FIG. Further, since the hardware configurations of the corner sensor system 100 and the ECU 3 are the same as those in the first embodiment, the description will be made with reference to FIGS. 1 and 4.
  • the first virtual image removal unit 38b removes the obstacle candidate points calculated using the propagation distances of the ultrasonic waves reflected by the plurality of obstacles from the obstacle candidate points calculated by the candidate point calculation unit 35, The obstacle candidate points are output to the map processing unit 36.
  • the candidate point calculation unit 35, the map processing unit 36, and the first virtual image removal unit 38b constitute an obstacle detection device 300b.
  • a virtual image may be generated by calculating obstacle candidate points using the propagation distance of the ultrasonic waves reflected by the plurality of obstacles.
  • the first virtual image removing unit 38b calculates obstacle candidate points calculated from the obstacle candidate points calculated by the candidate point calculating unit 35 using the propagation distances of ultrasonic waves reflected by a plurality of obstacles. By removing, the virtual image is removed.
  • the generation principle of the virtual image and the detailed operation of the first virtual image removing unit 38b will be described with reference to FIG.
  • FIG. 12A shows a state in which one obstacle J exists facing the rear bumper of the vehicle 1.
  • the obstacle detection device 300b executes the candidate point calculation process twice using the two distance sensors 2 1 and 2 4 out of the four distance sensors 2 1 to 2 4 .
  • the obstacle detection device 300b is one of the distance sensor 2 1 a transmitting sensor, executing the first candidate point calculation process two distance sensors 2 1, 2 4 as a receiving sensor.
  • the distance measuring unit 34 the ultrasonic wave transmitted from the distance sensor 2 1 is transmitted directly propagation distance a to be received by the distance sensor 2 1 is reflected by the obstacle J, from the distance sensor 2 1 ultrasonic wave is calculated and indirect propagation distance b1 to be received by the distance sensor 2 4 reflected by the obstacle J.
  • the obstacle detection device 300b is one distance sensor 2 4 and transmitting sensor performs a second candidate point calculation process two distance sensors 2 1, 2 4 as a receiving sensor.
  • the distance measuring unit 34 the ultrasonic wave transmitted from the distance sensor 2 4 is transmitted directly propagation distance c to be received by the distance sensor 2 4 reflected by the obstacle J, from the distance sensor 2 4 ultrasonic wave is calculated and indirect propagation distance b2 to be received by the distance sensor 2 1 is reflected by the obstacle J.
  • the candidate point calculating section 35 includes a first circular d radius (a / 2) about the mounting position of the distance sensor 2 1, the distance sensor 2 4 radius centered on the mounting position (B1- (a / 2)) or the intersection of (b2- (a / 2)) with the second circle e is calculated as an obstacle candidate point f.
  • the obstacle candidate point f becomes an obstacle candidate point corresponding to the position of the obstacle J, as shown in FIG.
  • FIG. 12B shows a state where there are two obstacles K and L facing the rear bumper of the vehicle 1.
  • the distance measuring unit 34 directly transmits the ultrasonic wave reflected by one obstacle K and the indirect ultrasonic wave reflected by the other obstacle L.
  • the propagation distance b1 is calculated.
  • the distance measuring unit 34 calculates the direct propagation distance c of the ultrasonic wave reflected by the obstacle L and the indirect propagation distance b2 of the ultrasonic wave reflected by the obstacle L.
  • the candidate point calculation unit 35 calculates the intersection of the first circle d and the second circle e as an obstacle candidate point g.
  • the obstacle candidate point g is the obstacle. It does not correspond to any position of K and L, and is a virtual image.
  • the direct propagation distances a and c and the indirect propagation distances b1 and b2 include the propagation distances of ultrasonic waves reflected by a plurality of obstacles K and L
  • the values of the propagation distances a and c and the indirect propagation distances b1 and b2 do not satisfy any of the expressions (1) to (3).
  • the expression (1) is satisfied, but the expressions (2) and (3) are not satisfied.
  • the propagation distances used for calculating the obstacle candidate points are the propagation distances of the ultrasonic waves reflected by the same obstacle, these propagation distances are expressed by the equations (1) to (3). It satisfies a predetermined mathematical expression (hereinafter referred to as “virtual image discriminant”).
  • a predetermined mathematical expression hereinafter referred to as “virtual image discriminant”.
  • the propagation distances of ultrasonic waves reflected by a plurality of obstacles are included in the propagation distances used for calculating the obstacle candidate points, these propagation distances do not satisfy the virtual image discriminant.
  • the first virtual image removing unit 38b stores a virtual image discriminant in advance. For each obstacle candidate point calculated by the candidate point calculation unit 35, the first virtual image removing unit 38b includes distance information indicating the propagation distance used for calculating the obstacle candidate point, and a distance sensor used for calculating the propagation distance. The combination information indicating the combination is acquired from the candidate point calculation unit 35. The first virtual image removing unit 38b determines whether the value of the propagation distance indicated by the distance information satisfies a virtual image discriminant corresponding to the combination of sensors indicated by the combination information. When the value of the propagation distance does not satisfy the virtual image discriminant, the first virtual image removing unit 38b determines that this obstacle candidate point is a virtual image and removes it.
  • the virtual image discriminant stored by the first virtual image removing unit 38b is not limited to the above formulas (1) to (3).
  • a plurality of types of virtual image discriminants may be stored according to the number of transmission sensors and reception sensors and according to the number of obstacles assumed.
  • FIG. 13 is a flowchart showing the operation of the obstacle detection apparatus 300b. In FIG. 13, the same steps as those in the flowchart of the first embodiment shown in FIG.
  • the candidate point calculation unit 35 executes the process of step ST1 similar to that of the first embodiment.
  • step ST21 the first virtual image removing unit 38b removes the virtual image from the obstacle candidate points calculated by the candidate point calculating unit 35 in step ST1, and outputs the remaining obstacle candidate points to the map processing unit 36.
  • the detailed operation of the first virtual image removing unit 38b in step ST21 has been described above with reference to FIG.
  • the map processing unit 36 executes the processes of steps ST2 and ST3 similar to those in the first embodiment.
  • the map processing unit 36 maps the obstacle candidate points output by the first virtual image removing unit 38b on the two-dimensional map and evaluates the frequency distribution.
  • the obstacle detection device 300b is calculated using the propagation distances of the ultrasonic waves reflected by a plurality of obstacles among the obstacle candidate points calculated by the candidate point calculation unit 35.
  • a first virtual image removing unit 38b that removes the obstacle candidate points and outputs the remaining obstacle candidate points to the map processing unit 36.
  • the map processing unit 36 evaluates the frequency distribution by mapping the obstacle candidate points output by the first virtual image removing unit 38b on the two-dimensional map.
  • the obstacle candidate point calculated using the propagation distance of the ultrasonic wave reflected by the plurality of obstacles may be a virtual image.
  • the map processing unit 36 evaluates the frequency distribution of the obstacle candidate points, so that the accuracy of the obstacle position estimation can be further improved.
  • FIG. 14 is a functional block diagram of a main part of the ECU 3 including the obstacle detection device 300c according to the fourth embodiment.
  • FIG. 14 blocks similar to those in the functional block diagram of the first embodiment shown in FIG. Further, since the hardware configurations of the corner sensor system 100 and the ECU 3 are the same as those in the first embodiment, the description will be made with reference to FIGS. 1 and 4.
  • the virtual image is more likely to be generated as the interval between the plurality of distance sensors used for calculating the propagation distance is larger. Therefore, the second virtual image removing unit 38c stores a weight having a lower value as the attachment distance between the two distance sensors used for calculating the obstacle candidate points is larger. The second virtual image removing unit 38c weights the obstacle candidate points calculated by the candidate point calculating unit 35 and outputs the weighted obstacle points to the map processing unit 36.
  • the obstacle candidate points calculated using the distance sensor 2 1 and the distance sensor 2 4 having the largest attachment interval have a low weight.
  • adjacent distance sensor 2 mounted to 1 and the distance sensor 2 2 obstacle candidate points calculated by using the weight is increased.
  • the map processing unit 36 evaluates the frequency distribution by mapping the obstacle candidate points weighted by the second virtual image removing unit 38c on the two-dimensional map.
  • weighting of the section is performed by weighting.
  • the frequency is less than 1. That is, the frequency of the section that is likely to include a virtual image is reduced, and the influence of the virtual image can be reduced.
  • obstacle candidate points calculated using three or more distance sensors are weighted according to the largest mounting interval among the mounting intervals between the ultrasonic sensors.
  • the obstacle detection device 300c stores a weight whose value is lower as the attachment interval between the plurality of distance sensors used for calculating the obstacle candidate points is larger, and the candidate point calculation unit A second virtual image removing unit 38c is provided that weights the obstacle candidate points calculated by 35 and outputs the weighted obstacle points to the map processing unit 36.
  • the map processing unit 36 evaluates the frequency distribution by mapping the obstacle candidate points weighted by the second virtual image removing unit 38c on the two-dimensional map. Thereby, when the map process part 36 evaluates a frequency distribution, the influence of a virtual image can be reduced and the precision of the position estimation of an obstruction can be improved further.
  • FIG. 15 is a functional block diagram of a main part of the ECU 3 including the obstacle detection device 300d according to the fifth embodiment.
  • FIG. 15 blocks similar to those in the functional block diagram of the first embodiment shown in FIG. Further, since the hardware configurations of the corner sensor system 100 and the ECU 3 are the same as those in the first embodiment, the description will be made with reference to FIGS. 1 and 4.
  • the candidate point calculation unit 35 geometrically calculates obstacle candidate points using a circle or an ellipse corresponding to the propagation distance of the ultrasonic wave as described in the first embodiment. Further, in general, in the corner sensor system 100, the mounting position for attaching the distance sensors 2 1 to 2 4 to the vehicle 1 is predetermined. Therefore, the probability of occurrence of a virtual image varies depending on the combination of distance sensors used for transmission / reception of ultrasonic waves and the propagation distance of ultrasonic waves between the distance sensors.
  • the third virtual image removing unit 38d stores virtual image generation conditions in advance.
  • the obstacle candidate point f calculated by using the two distance sensors 2 1 and 2 4 with the obstacle J disposed at the position shown in FIG. 12A is not a virtual image.
  • obstacles K and L are arranged at the positions shown in FIG. 12B, and the obstacle candidate point g calculated using the two distance sensors 2 1 and 2 4 is a virtual image.
  • the third virtual image removing unit 38d the combination of the two distance sensors 2 1 and 2 4 and the conditions of the direct propagation distances a and c and the indirect propagation distances b1 and b2 shown in FIG.
  • the third virtual image removing unit 38d For each obstacle candidate point calculated by the candidate point calculation unit 35, the third virtual image removing unit 38d has distance information indicating the propagation distance used for calculating the obstacle candidate point and a distance sensor used for calculating the propagation distance.
  • the combination information indicating the combination is acquired from the candidate point calculation unit 35.
  • the third virtual image removing unit 38d is configured so that the value of the obstacle candidate point becomes low (for example, the value that is 1 is 1)
  • the weight is applied to the map processing unit 36 so as to be less than the predetermined value.
  • the third virtual image removal unit 38d increases the value of the obstacle candidate point (for example, 1). Weighting is performed so that the value becomes 1 or more, and the result is output to the map processing unit 36.
  • the map processing unit 36 maps the obstacle candidate points weighted by the third virtual image removing unit 38d on the two-dimensional map and evaluates the frequency distribution. Thereby, the frequency of the section including the obstacle candidate points that satisfy the virtual image generation condition is reduced, and the influence of the virtual image can be reduced.
  • the obstacle detection device 300d is the position where the ultrasonic wave is reflected among the combination of the plurality of distance sensors used for calculating the obstacle candidate point and the ultrasonic propagation distance condition.
  • the virtual image generation condition indicating the condition for calculating the obstacle candidate point that does not correspond to is stored, and compared with the obstacle candidate point that does not satisfy the virtual image generation condition among the obstacle candidate points calculated by the candidate point calculation unit 35.
  • a third virtual image removal unit 38d is provided that weights the obstacle candidate points that satisfy the virtual image generation condition so as to be low and outputs the weighted values to the map processing unit 36.
  • the map processing unit 36 evaluates the frequency distribution by mapping the obstacle candidate points weighted by the third virtual image removing unit 38d on the two-dimensional map. Thereby, when the map process part 36 evaluates a frequency distribution, the influence of a virtual image can be reduced and the precision of the position estimation of an obstruction can be improved further.
  • FIG. 16 is a functional block diagram of a main part of the ECU 3 including the obstacle detection device 300e according to the sixth embodiment.
  • the hardware configuration of the corner sensor system 100 and the ECU 3 is the same as that of the first embodiment, and therefore will be described with reference to FIGS. 1 and 4.
  • the candidate point calculation unit 35 geometrically calculates obstacle candidate points using a circle or an ellipse corresponding to the propagation distance of the ultrasonic wave as described in the first embodiment. For this reason, a virtual image may occur at a position far away from the actual position of the obstacle.
  • the fourth virtual image removing unit 38e stores in advance the search areas of the four distance sensors 2 1 to 2 4 in the two-dimensional map.
  • the fourth virtual image removing unit 38e receives, from the candidate point calculating unit 35, combination information indicating a combination of a plurality of distance sensors used for calculating the propagation distance for each obstacle candidate point calculated by the candidate point calculating unit 35. get.
  • the fourth virtual image removing unit 38e removes the obstacle candidate point as a virtual image.
  • FIG. 17A shows a state in which candidate point calculation processing is executed using two distance sensors 2 1 and 2 3 in a state where two obstacles M and N are present facing the rear bumper of the vehicle 1. Is shown.
  • the distance sensor 2 1 mounting position as the center, and the circles the propagation distance to the ultrasonic wave transmitted from the distance sensor 2 1 is received by the distance sensor 2 1 is reflected by one of the obstacle M and the radius h , circle the mounting position of the distance sensor 2 4 centered, the propagation distance to the ultrasonic wave transmitted from the distance sensor 2 4 is received by the distance sensor 2 4 is reflected by the other obstacle N and radius i Obstacle candidate point j is calculated at the intersection with.
  • the obstacle candidate point j is a virtual image generated by the principle described with reference to FIG. 12 in the third embodiment.
  • the fourth virtual image removing unit 38e removes the obstacle candidate point j as a virtual image.
  • FIG. 17B shows a state in which the candidate point calculation process is executed using the two distance sensors 2 1 and 2 2 in a state where one obstacle Q exists facing the rear bumper of the vehicle 1. ing.
  • the obstacle candidate point m is calculated.
  • the obstacle candidate point m does not indicate the position of the obstacle Q but is a virtual image.
  • the fourth virtual image removing unit 38e outputs the remaining obstacle candidate points from which the virtual image has been removed to the map processing unit 36.
  • the map processing unit 36 evaluates the frequency distribution by mapping the obstacle candidate points output by the fourth virtual image removing unit 38e on the two-dimensional map.
  • the obstacle detection device 300e has obstacles outside the search area of the distance sensor used for calculating the obstacle candidate points among the obstacle candidate points calculated by the candidate point calculation unit 35.
  • a fourth virtual image removing unit 38e that removes the object candidate points and outputs the remaining obstacle candidate points to the map processing unit 36 is provided.
  • the map processing unit 36 evaluates the frequency distribution by mapping the obstacle candidate points output by the fourth virtual image removing unit 38e on the two-dimensional map. Thereby, when the map process part 36 evaluates a frequency distribution, the influence of a virtual image can be reduced and the precision of the position estimation of an obstruction can be improved further.
  • Embodiment 7 FIG.
  • an obstacle detection apparatus that excludes an obstacle existence area caused by a virtual image that does not correspond to an actual obstacle will be described.
  • FIG. 18 is a functional block diagram of a main part of the ECU 3 including the obstacle detection device 300f according to the seventh embodiment.
  • the hardware configuration of the corner sensor system 100 and the ECU 3 is the same as that of the first embodiment, the description will be made with reference to FIGS. 1 and 4.
  • the Y axis of the two-dimensional map is an axis along the left-right direction of the vehicle 1.
  • the X axis of the two-dimensional map is an axis along the front-rear direction of the vehicle 1, and the farther from the vehicle, the greater the value of the X coordinate.
  • the invalid object determination unit 39f determines the positional relationship between the plurality of obstacle existence areas estimated by the map processing unit 36, and other obstacle existences exist behind the obstacle existence area as viewed from the vehicle 1.
  • An area that is, another obstacle existing area having an X coordinate value larger than a certain obstacle existing area and having a Y coordinate value at the same position is excluded as an invalid obstacle existing area.
  • obstacle candidate points generated by wall-like obstacles are concentrated in the range where the X coordinate is 80 cm to 110 cm and the Y coordinate is ⁇ 60 cm to 60 cm, and the obstacle existing region T is formed.
  • Obstacle candidate points generated by pole-like obstacles are concentrated in the range of the X coordinate of 180 cm to 220 cm and the Y coordinate of 140 cm to 80 cm, and the obstacle existence region U is formed.
  • This obstacle candidate point is a virtual image calculated by ultrasonic waves that are multiple-reflected between the vehicle 1 and a wall-like obstacle whose X coordinate is 80 cm to 110 cm.
  • the invalid object determination unit 39f excludes the obstacle existence region V behind the obstacle existence region T when viewed from the vehicle 1 among the three obstacle existence regions T to V calculated by the map processing unit 36.
  • FIG. 20 is a flowchart showing the operation of the obstacle detection device 300f. In FIG. 20, the same steps as those in the flowchart of the first embodiment shown in FIG.
  • the candidate point calculation unit 35 executes the process of step ST1 similar to that of the first embodiment.
  • the map processing unit 36 executes the processes of steps ST2 and ST3 similar to those in the first embodiment.
  • step ST31 the invalid object determination unit 39f determines the positional relationship of the plurality of remaining obstacle existence regions removed by the map processing unit 36 in step ST3, and the obstacle presence as viewed from the vehicle 1 is present. Other obstacle existing areas existing behind the area are excluded as invalid obstacle existing areas.
  • the detailed operation of the invalid object determination unit 39f in step ST31 has been described above with reference to FIG.
  • the obstacle detection device 300f outputs the information on the remaining obstacle existence area excluded by the invalid object determination unit 39f in step ST3 to an external device such as a car navigation device or a portable information terminal.
  • the external device notifies the occupant of the vehicle 1 of the obstacle existence area using a display or a speaker, so that the occupant can grasp the presence of the obstacle and the position of the obstacle with respect to the vehicle 1.
  • the obstacle detection device 300f determines the positional relationship between the plurality of obstacle existence areas estimated by the map processing unit 36, and is behind the obstacle existence area as viewed from the vehicle 1. Is provided with an invalid object determination unit 39f that excludes other obstacle existing areas.
  • the accuracy of the obstacle position estimation can be improved by removing the obstacle existence area of the virtual image caused by the measurement error of the propagation distance by each distance sensor or the multiple reflected ultrasonic waves between the vehicle 1 and the obstacle. This can be further improved.
  • FIG. A functional block diagram in this case is shown in FIG. 21, and a flowchart is shown in FIG. Following step ST2, the first virtual image removing unit 38b removes the virtual image in step ST21. Further, following step ST3, the size estimation unit 37a estimates the size of the obstacle in step ST31.
  • FIG. A functional block diagram in this case is shown in FIG. 23, and a flowchart is shown in FIG. After the invalid object determination unit 39f excludes the invalid obstacle existence region in step ST31, the size estimation unit 37a estimates the size of the obstacle for the remaining obstacle existence region in step ST11.
  • FIG. A functional block diagram in this case is shown in FIG. 25, and a flowchart is shown in FIG.
  • the map processing unit 36 evaluates the frequency distribution of the remaining obstacle candidate points in step ST2.
  • the invalid object determination unit 39f excludes invalid obstacle existing areas.
  • the obstacle detection device 300j including all of the size estimation unit 37a according to the second embodiment, the first virtual image removal unit 38b according to the third embodiment, and the invalid object determination unit 39f according to the seventh embodiment. May be configured.
  • a functional block diagram in this case is shown in FIG. 27, and a flowchart is shown in FIG.
  • the obstacle detection device may be any one of a virtual image removal process by the first virtual image removal unit 38b or the fourth virtual image removal unit 38e and a weighting process by the second virtual image removal unit 38c or the third virtual image removal unit 38d.
  • a virtual image removing unit that executes a combination of a plurality of processes may be provided.
  • the obstacle detection device estimates an obstacle existence area by mapping a plurality of obstacle candidate points on a two-dimensional map and evaluating a frequency distribution, and accurately determines the position of the obstacle with respect to a moving object. Since it can be estimated, it is suitable for use in a corner sensor system for vehicles.

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

 障害物検知装置(300)は、距離センサ(2~2)の中の送信用の距離センサが送信した探索波が障害物で反射して受信用の距離センサに伝搬するまでの伝搬距離を用いて、探索波が反射した位置の候補を示す障害物候補点を算出する候補点算出部(35)と、候補点算出部(35)が算出した複数の障害物候補点を距離センサ(2~2)の探索エリアを含む2次元マップ上にマッピングして度数分布を評価することで、障害物が存在する障害物存在領域を推定するマップ処理部(36)とを備える。

Description

障害物検知装置及び障害物検知方法
 本発明は、移動体に設けられた距離センサを用いて移動体の周辺に存在する障害物を検知する障害物検知装置及び障害物検知方法に関する。
 従来、車両などの移動体に取り付けられた超音波センサなどの距離センサを用いて、移動体の周辺に存在する障害物を検知する障害物検知装置が開発されている。従来の障害物検知装置は、一般に、複数個の距離センサで送受信した探索波の伝搬距離を用いて、移動体に対する障害物の位置を推定している。
 また、特許文献1の物体認識装置は、自車両の周辺エリアに対して物体が存在するか否かの信頼度を示す物体存在信頼度を設定し、発信したレーザ光が反射した反射地点間のエリアにおける物体存在信頼度に基いて反射地点をグルーピングしている。これにより、例えば2つの物体が近接していても、一方の物体の反射地点と他方の物体の反射地点との間のエリアにおける物体存在信頼度が低い場合に、2つの物体のグループを別々のグループとしてグルーピングすることができるようになり、複数の物体を単一の物体と誤認識することを避けている。
国際公開第2012/133457号
 従来の障害物検知装置は、個々の距離センサによる伝搬距離の測定誤差などがある場合、算出した探索波の反射位置の候補点にずれが生じる。この候補点のずれにより、推定した障害物の位置が実際の障害物の位置からずれていたり、実際には存在しない障害物の位置を推定したりする場合があるため、障害物の位置を推定する精度が低い課題があった。
 特許文献1の物体認識装置は、複数の物体を単一の物体と誤認識することを避けているものの、個々の距離センサによる伝搬距離の測定誤差などについては考慮していない。このため、従来の障害物検知装置と同様に、推定した物体の位置が実際の物体の位置からずれていたり、実際には存在しない物体の位置を推定したりする場合があり、物体の位置を推定する精度が低い課題があった。
 本発明は、上記のような課題を解決するためになされたものであり、移動体に対する障害物の位置を高い精度で推定することができる障害物検知装置及び障害物検知方法を提供することを目的とする。
 本発明の障害物検知装置は、移動体に設けられた複数個の距離センサを用いて、移動体の外部に存在する障害物を検知する障害物検知装置であって、送信用の距離センサが送信した探索波が障害物で反射して受信用の距離センサに伝搬するまでの伝搬距離を用いて、探索波が反射した位置の候補を示す障害物候補点を算出する候補点算出部と、候補点算出部が算出した複数の障害物候補点を距離センサの探索エリアを含む2次元マップ上にマッピングして度数分布を評価することで、障害物が存在する障害物存在領域を推定するマップ処理部と、を備えるものである。
 本発明によれば、複数の障害物候補点を2次元マップ上にマッピングして度数分布を評価することで障害物存在領域を推定するので、個々の距離センサによる伝搬距離の測定誤差などの影響を低減して、移動体に対する障害物の位置を高い精度で推定することができる。
本発明の実施の形態1に係る障害物検出装置が搭載されるコーナセンサシステムの要部のハードウェア構成図である。 本発明の実施の形態1に係る障害物検知装置を含むECUの要部の機能ブロック図である。 2次元マップ上の障害物候補点の一例を示す説明図である。 本発明の実施の形態1に係る障害物検知装置を含むECUの要部のハードウェア構成図である。 本発明の実施の形態1に係る障害物検知装置の動作を示すフローチャートである。 図6(a)は、車両の周辺にある障害物の一例を示す説明図である。図6(b)は、障害物候補点の度数分布及び度数を区間積分した値の分布の一例を示す特性図である。 図7(a)は、車両の周辺にある障害物の他の例を示す説明図である。図7(b)は、障害物候補点の度数分布及び度数を区間積分した値の分布の他の例を示す特性図である。 図8(a)は、車両の周辺にある障害物の他の例を示す説明図である。図8(b)は、障害物候補点の度数分布及び度数を区間積分した値の分布の他の例を示す特性図である。 本発明の実施の形態2に係る障害物検知装置を含むECUの要部の機能ブロック図である。 本発明の実施の形態2に係る障害物検知装置の動作を示すフローチャートである。 本発明の実施の形態3に係る障害物検知装置を含むECUの要部の機能ブロック図である。 図12(a)は、1個の障害物で反射した超音波の伝搬距離を示す説明図である。図12(b)は、複数個の障害物で反射した超音波の伝搬距離を示す説明図である。 本発明の実施の形態3に係る障害物検知装置の動作を示すフローチャートである。 本発明の実施の形態4に係る障害物検知装置を含むECUの要部の機能ブロック図である。 本発明の実施の形態5に係る障害物検知装置を含むECUの要部の機能ブロック図である。 本発明の実施の形態6に係る障害物検知装置を含むECUの要部の機能ブロック図である。 距離センサの探索エリアに対する虚像の位置の一例を示す説明図である。 本発明の実施の形態7に係る障害物検知装置を含むECUの要部の機能ブロック図である。 実際の障害物に対応していない障害物存在領域の一例を示す説明図である。 本発明の実施の形態7に係る障害物検知装置の動作を示すフローチャートである。 本発明に係る他の障害物検知装置を含むECUの要部の機能ブロック図である。 本発明に係る他の障害物検知装置の動作を示すフローチャートである。 本発明に係る他の障害物検知装置を含むECUの要部の機能ブロック図である。 本発明に係る他の障害物検知装置の動作を示すフローチャートである。 本発明に係る他の障害物検知装置を含むECUの要部の機能ブロック図である。 本発明に係る他の障害物検知装置の動作を示すフローチャートである。 本発明に係る他の障害物検知装置を含むECUの要部の機能ブロック図である。 本発明に係る他の障害物検知装置の動作を示すフローチャートである。
 以下、この発明をより詳細に説明するために、この発明を実施するための形態について、添付の図面に従って説明する。
実施の形態1.
 図1は、実施の形態1に係る障害物検知装置が搭載されるコーナセンサシステム100の要部のハードウェア構成図である。
 車両1のリアバンパに4個の距離センサ2~2が取り付けられている。距離センサ2~2は、例えば、超音波センサ、電波センサ、LIDAR(Light Detection and Ranging)又はレーザレンジファインダなどで構成されている。距離センサ2~2は、超音波、電波又はレーザ光などの探索波を送信するとともに、車両1の外部にある障害物で反射した探索波を受信するものである。
 距離センサ2~2は、ハーネスなどにより、車両1に搭載されたECU(Electronic Control Unit)3の信号入出力端子と電気的に接続されている。距離センサ2~2及びECU3により、コーナセンサシステム100が構成されている。
 なお、コーナセンサシステム100を搭載する移動体は車両1に限定されるものではなく、車両、鉄道、船舶又は航空機を含む如何なる移動体であっても良い。また、車両1のリアバンパに代えて又は加えて、フロントバンパに距離センサを取り付けたものとしても良い。また、各バンパに取り付ける距離センサの個数は2個以上であればよく、4個に限定されるものではない。以下、図1に示す如く車両1のリアバンパに4個の距離センサ2~2を取り付け、距離センサ2~2を超音波センサで構成した例について説明する。
 図2は、図1に示すECU3の要部の機能ブロック図である。
 送信制御部30は、送信部31にパルス状の信号を出力させるものである。送信部31の出力信号は、マルチプレクサ32を介して4個の距離センサ2~2の中の少なくとも1個の距離センサ(以下「送信センサ」という)に出力される。これにより、送信センサが超音波を送信する。
 受信部33~33は、マルチプレクサ32を介して、距離センサ2~2とそれぞれ1対1に接続されている。受信部33~33には、距離センサ2~2で受信した超音波に対応する信号がそれぞれ入力される。
 距離測定部34は、送信制御部30が送信部31に信号を出力させたタイミングと、それぞれの受信部33~33に信号が入力されたタイミングとを監視するものである。距離測定部34は、送信制御部30が送信部31に信号を出力させた時刻(以下「送信時刻」という)と、4個の距離センサ2~2のうち少なくとも1個の距離センサ(以下「受信センサ」という)に対応する受信部に信号が入力された時刻(以下「受信時刻」という)との時間差を算出する。
 送信時刻と受信時刻との時間差は、送信センサから送信された超音波が、車両1の外部にある障害物で反射して、各々の受信センサに到達するまでの伝搬時間に対応している。距離測定部34は、この伝搬時間に音速の値を乗ずることで、送信センサから各々の受信センサまでの超音波の伝搬距離を算出する。
 候補点算出部35は、距離測定部34で算出した伝搬距離の値を用いて、超音波が反射した位置の候補を示す障害物候補点を算出するものである。
 例えば、4個の距離センサ2~2のうちの1個の送信センサ2と、送信センサ2以外の2個の受信センサ2,2とを用いて、距離測定部34が、送信センサ2から一方の受信センサ2までの第1伝搬距離と、送信センサ2から他方の受信センサ2までの第2伝搬距離とを算出したものとする。この場合、候補点算出部35は、車両1に対する送信センサ2の取付位置を第1焦点とし、車両1に対する一方の受信センサ2の取付位置を第2焦点とし、第1焦点までの距離と第2焦点までの距離との和が第1伝搬距離となる点の集合である第1楕円を求める。また、候補点算出部35は、車両1に対する送信センサ2の取付位置を第1焦点とし、車両1に対する他方の受信センサ2の取付位置を第2焦点とし、第1焦点までの距離と第2焦点までの距離との和が第2伝搬距離となる点の集合である第2楕円を求める。候補点算出部35は、第1楕円と第2楕円との交点を障害物候補点として算出する。
 あるいは、4個の距離センサ2~2のうちの1個の送信センサ2と、送信センサ2を含む2個の受信センサ2,2とを用いて、距離測定部34が、送信センサ2から一方の受信センサ2までの第1伝搬距離と、送信センサ2から他方の受信センサ2までの第2伝搬距離とを算出したものとする。この場合、候補点算出部35は、車両1に対する距離センサ2の取付位置を中心とし、半径が第1伝搬距離の半分である円を求める。また、候補点算出部35は、車両1に対する送信センサ2の取付位置を第1焦点とし、車両1に対する受信センサ2の取付位置を第2焦点とし、第1焦点までの距離と第2焦点までの距離との和が第2伝搬距離となる点の集合である楕円を求める。候補点算出部35は、円と楕円との交点を障害物候補点として算出する。
 あるいは、4個の距離センサ2~2のうちの2個の距離センサ2,2を送受信用の距離センサとして、距離測定部34が、一方の距離センサ2からこの距離センサ2までの超音波の第1伝搬距離と、他方の距離センサ2からこの距離センサ2までの超音波の第2伝搬距離とを算出したものとする。この場合、候補点算出部35は、車両1に対する距離センサ2の取付位置を中心とし、半径が第1伝搬距離の半分である第1円を求める。また、候補点算出部35は、車両1に対する距離センサ2の取付位置を中心とし、半径が第2伝搬距離の半分である第2円を求める。候補点算出部35は、第1円と第2円との交点を障害物候補点として算出する。
 なお、4個の距離センサ2~2のうち、送信センサに用いる距離センサと受信センサに用いる距離センサとの組み合わせは上記3つの例に限定されるものではなく、如何なる組み合わせであっても良い。
 候補点算出部35は、送信制御部30が送信部31に信号を出力させるタイミングを制御するとともに、マルチプレクサ32内における送信部31と信号入出力端子との接続を切替制御することで、4個の距離センサ2~2のうち送信センサに用いる距離センサを切替えながら超音波を複数回送信させるようになっている。これにより、候補点算出部35は、送信制御部30及びマルチプレクサ32を制御することで送信センサと受信センサの組み合わせを切替えながら、各々の組み合わせで測定した伝搬距離を用いて障害物候補点を算出する処理(以下「候補点算出処理」という)を複数回実行するようになっている。
 マップ処理部36は、候補点算出部35が算出した複数の障害物候補点を2次元マップ上にマッピングするものである。この2次元マップは、車両1の前後方向に沿うX軸と、車両1の左右方向に沿うY軸との2軸によって定義されるマップであり、少なくとも距離センサ2~2の探索エリアを含むマップである。マップ処理部36は、2次元マップ上にマッピングした障害物候補点の度数分布を評価することで、障害物が存在する領域を示す障害物存在領域を推定するものである。候補点算出部35及びマップ処理部36により、障害物検知装置300が構成されている。
 ここで、マップ処理部36による度数分布の評価は、例えば、2次元マップをX軸及びY軸に沿ってメッシュ状に分割した各領域における度数を求め、この度数の分布を評価する。この場合、メッシュの網目を細かくして個々の領域のサイズを小さくするほど、障害物の位置推定の精度を高くすることができる。また、マップ処理部36が度数分布を評価して障害物存在領域を推定することで、個々の距離センサによる伝搬距離の測定誤差などの影響を低減して、車両1に対する障害物の位置を高い精度で推定することができる。
 しかしながら、メッシュの網目を細かくするほど度数を求める領域の個数が増えるため、度数分布の評価にかかる処理時間が増大する。例えば、メッシュの1辺当たりの長さを半分にした場合、各軸方向の位置推定の精度は2倍になるものの、2次元マップに含まれる領域の個数が4倍になり、度数分布の評価にかかる処理時間も4倍になる。
 障害物検知装置300を含むECU3は、一般に、コーナセンサシステム100を安価に実現する観点から処理能力の低い処理回路が搭載されている。このため、メッシュの網目を細かくして障害物の位置推定の精度を高くするのは困難である。
 そこで、マップ処理部36は、障害物候補点の度数分布を評価する際、X軸に沿う度数分布の評価とY軸に沿う度数分布の評価とを別個に実行することで、度数分布の評価にかかる処理時間を大幅に低減し、メッシュの網目を細かくした場合であっても処理時間の増大を抑制するように構成しても良い。以下、図3を参照して、かかるマップ処理部36の詳細な動作について説明する。
 図3は、2次元マップ上の障害物候補点の一例を示している。図3において、2次元マップの大きさは400cm×400cmであり、2次元マップ上の1個の丸印が1個の障害物候補点を表している
 まず、マップ処理部36は、2次元マップをX軸に沿って10cm間隔に分割した各区間における障害物候補点の度数を求める。マップ処理部36は、X軸上の度数分布が相対的に高い区間(例えば、度数が第1閾値よりも高い区間)を抽出する。図3において第1閾値が1個に設定されている場合、X座標が90cm~120cmの区間と、190cm~210cmの区間とが抽出される。
 次いで、マップ処理部36は、2次元マップをY軸に沿って10cm間隔に分割した各区間における障害物候補点の度数を求める。マップ処理部36は、Y軸上の度数分布が相対的に高い区間(例えば、度数が第1閾値よりも高い区間)を抽出する。図3において第1閾値が1個に設定されている場合、Y座標が-70cm~-30cmの区間と、80cm~110cmの区間とが抽出される。
 なお、第1閾値の値は、2次元マップをX軸又はY軸に沿って分割した各区間の幅などに応じて予め設定された値である。第1閾値の値は1に限定されるものではなく、1より大きい値であっても良い。
 次いで、マップ処理部36は、X軸上の度数分布が相対的に高い区間とY軸上の度数分布が相対的に高い区間とが交差する領域が、障害物存在領域であると推定する。
 図3の例では、マップ処理部36は、X軸上の度数が第1閾値よりも高い区間とY軸上の度数が第1閾値よりも高い区間とが交差する領域が、障害物存在領域であると推定する。すなわち、マップ処理部36は、X座標が90cm~120cmでY座標が-70cm~-30cmの範囲内にある領域が障害物存在領域Aであると推定する。同様に、マップ処理部36は、X座標が90cm~120cmでY座標が80cm~110cmの範囲内にある領域が障害物存在領域Bであると推定する。マップ処理部36は、X座標が190cm~210cmでY座標が-70cm~-30cmの範囲内である領域が障害物存在領域Cであると推定する。マップ処理部36は、X座標が190cm~210cmでY座標が80cm~110cmの範囲内にある領域が障害物存在領域Dであると推定する。
 400cm×400cmの2次元マップを10cm四方のメッシュ状に分割した各領域の度数分布を評価する場合、マップ処理部36は、40×40=1600個の領域の度数を求めて度数分布を評価する必要がある。一方、X軸に沿う10cm区間の度数分布とY軸に沿う10cm区間の度数分布とを別個に評価する場合、40+40=80個の区間の度数を求めて度数分布を評価すればよい。これにより、度数分布の評価にかかる処理時間を大幅に短縮することができる。
 なお、図3の例でマップ処理部36が推定した4個の障害物存在領域A~Dには、ノイズ的に発生した1個の障害物候補点のみを含む障害物存在領域Aと、障害物候補点を含まない障害物存在領域Dとが含まれている。そこで、マップ処理部36は、推定した障害物存在領域A~Dに含まれる障害物候補点の個数を第2閾値と比較して、障害物候補点の個数が第2閾値未満の障害物存在領域を除外するものとしても良い。例えば、図3において第2閾値が2個に設定されている場合、マップ処理部36は、4個の障害物存在領域A~Dのうち2個の障害物存在領域A,Dを除外する。
 なお、第2閾値は予め設定された値であり、第1閾値と同じ値であっても良く、異なる値であっても良い。
 図4は、ECU3の要部のハードウェア構成図である。
 図2に示す送信部31、マルチプレクサ32及び受信部33~33は、例えば、送受信装置50により構成される。送受信装置50は、送信部31を構成する送信回路と、マルチプレクサ32を構成する信号切替回路と、受信部33~33を構成する受信回路とを有している。
 図2に示す送信制御部30、距離測定部34、候補点算出部35及びマップ処理部36の機能は、例えば、記憶装置51に記憶されたプログラムを実行するCPU(Central Processing Unit)又は専用のシステムLSI(Large Scale Integration)などの処理回路52により実現される。なお、複数個の処理回路が連携して上記機能を実現するものとしても良く、このうち一部の処理回路はECU3外の装置に設けられたものであっても良い。また、上記プログラムは複数個の記憶装置に分散して記憶されたものでも良く、このうち一部の記憶装置はECU3外の装置に設けられたものであっても良い。
 図5は、障害物検知装置300の動作を示すフローチャートである。
 まず、ステップST1にて、候補点算出部35は、送信制御部30及びマルチプレクサ32を制御することで送信センサと受信センサの組み合わせを切替えながら、候補点算出処理を複数回実行する。
 次いで、ステップST2にて、マップ処理部36は、候補点算出部35がステップST1で算出した障害物候補点を2次元マップ上にマッピングする。マップ処理部36は、2次元マップ上にマッピングした障害物候補点の度数分布を評価することで、障害物が存在する領域を示す障害物存在領域を推定する。なお、ステップST2におけるマップ処理部36の詳細な動作については、図3を参照して上述したため説明を省略する。
 次いで、ステップST3にて、マップ処理部36は、ステップST2で推定した障害物存在領域のうち、障害物存在領域に含まれる障害物候補点の個数が第2閾値未満の障害物存在領域を除外する。なお、ステップST3におけるマップ処理部36の詳細な動作については、図3を参照して上述したため説明を省略する。
 ステップST3の後、ECU3は、マップ処理部36がステップST3で除外した残余の障害物存在領域の情報を、車両1に搭載されたカーナビゲーション装置又は車両1に持込まれた携帯情報端末などの外部装置に送信する。外部装置がディスプレイ又はスピーカを用いて障害物存在領域を車両1の搭乗者に通知することで、搭乗者は障害物の有無及び車両1に対する障害物の位置などを把握することができる。
 なお、マップ処理部36は、ステップST2において度数分布を評価する際、以下のように隣接する複数の区間における障害物候補点の度数を積分した値の分布を評価するものとしても良い。
 図6(a)は、車両1のリアバンパに対向して配置されたポール状の障害物Eと、障害物Eにより生じた障害物候補点の一例を示している。図中、1個の×印が1個の障害物候補点を表している。図6(a)において、X軸及びY軸については図3と同様であるため図示を省略する。
 図6(b)の特性線Iは、図6(a)に示す状態における、Y軸に沿う10cm区間毎の障害物候補点の度数分布を示している。特性線IIは、Y軸に沿って隣接する2区間における障害物候補点の度数を積分した値の分布を示している。
 図6(b)に示す如く、ポール状の障害物Eが存在するY座標(0cm)の近傍において、特性線I及び特性線IIの両方が第1閾値Thを超えている。したがって、マップ処理部36は、特性線Iに示す度数分布を評価する場合も、特性線IIに示す度数の区間積分値の分布を評価する場合も、障害物Eが存在する領域が障害物存在領域であると推定することができる。
 これに対し、例えば壁のような障害物を検知する場合、障害物候補点が隣接する複数の区間に分散しやすい。このため、マップ処理部36が度数分布を評価した場合、障害物に対応した障害物存在領域を抽出することができないことがある。
 図7(a)は、車両1のリアバンパに対向して配置された壁状の障害物Fと、障害物Fにより生じた障害物候補点の一例を示している。図中、1個の×印が1個の障害物候補点を表している。図7(a)において、X軸及びY軸については図3と同様であるため図示を省略する。
 図7(b)の特性線Iは、図7(a)に示す状態における、Y軸に沿う10cm区間毎の障害物候補点の度数分布を示している。特性線IIは、Y軸に沿って隣接する2区間における障害物候補点の度数を積分した値の分布を示している。
 図7(a)に示す如く、障害物Fの長手方向(Y軸方向)に沿って障害物候補点が3グループに分散しているため、図7(b)における特性線Iのピーク点も3つに分散し、いずれのピーク点の値も第1閾値Th未満になっている。したがって、マップ処理部36は、特性線Iに示す度数分布を評価する場合、障害物Fが存在する領域が障害物存在領域であると推定することができない。一方、特性線IIは、個々のピーク点の値が特性線Iよりも大きく、いずれも第1閾値Thを超えている。したがって、マップ処理部36は、特性線IIに示す度数の区間積分値の分布を評価することで、障害物Fの少なくとも一部に対応する領域(図7の例では、Y座標が-60cm~-40cm、-20cm~0cm、20cm~40cmの範囲に含まれる領域)が障害物存在領域であると推定することができる。
 また、マップ処理部36が度数の区間積分値の分布を評価することで、2次元マップ上にノイズ的に発生した、超音波が反射した実際の位置に対応していない障害物候補点(いわゆる「虚像」)を含む領域を、障害物存在領域から除外しやすくなる。
 図8(a)は、車両1のリアバンパに対向して配置された2個のポール状の障害物G,Hと、障害物G,Hにより生じた障害物候補点の一例を示している。図中、1個の×印が1個の障害物候補点を表している。図8(a)において、X軸及びY軸については図3と同様であるため図示を省略する。
 図8(b)の特性線Iは、図8(a)に示す状態における、Y軸に沿う10cm区間毎の障害物候補点の度数分布を示している。特性線IIは、Y軸に沿って隣接する2区間における障害物候補点の度数を積分した値の分布を示している。
 図8(a)に示す如く、2個の障害物G,H間に虚像が生じている。なお、虚像の発生原理については実施の形態3にて後述する。このため、図8(b)に示す特性線I,IIにおいて、Y座標が60cm~70cmの範囲に障害物Gによるピーク点が生じ、-70cm~-80cmの範囲に障害物Hによるピーク点が生じているのに加えて、-10cm~0cmの範囲に虚像によるピーク点が生じている。
 ここで、特性線IIにおける虚像によるピーク点と障害物G,Hによるピーク点との差分Δf2は、特性線Iにおける差分Δf1よりも大きくなる。これにより、障害物G,Hに対応する障害物候補点と虚像とを見分けやすくなり、虚像を含む領域が障害物存在領域として推定されるのを抑制することができる。
 なお、図6~図8ではY軸方向の度数分布の評価についてのみ説明したが、X軸方向の度数分布の評価も同様であるため、図示及び説明は省略する。
 また、度数を積分する区間の個数は、X軸又はY軸に沿って隣接する2個の区間に限定されるものではない。X軸又はY軸に沿って分割した個々の区間のサイズ(上記例では10cm)又はECU3の処理能力などに応じて、任意の個数の区間における度数を積分した値を用いても良い。
 以上のように、実施の形態1の障害物検知装置300は、距離センサ2~2の中の送信用の距離センサが送信した探索波が障害物で反射して受信用の距離センサに伝搬するまでの伝搬距離を用いて、探索波が反射した位置の候補を示す障害物候補点を算出する候補点算出部35と、候補点算出部35が算出した複数の障害物候補点を距離センサ2~2の探索エリアを含む2次元マップ上にマッピングして度数分布を評価することで、障害物が存在する障害物存在領域を推定するマップ処理部36とを備える。
 マップ処理部36が、度数分布を評価して障害物存在領域を推定することで、障害物存在領域の推定に度数分布を用いない従来の障害物検知装置よりも、個々の距離センサによる伝搬距離の測定誤差などの影響を低減して、車両1に対する障害物の位置を高い精度で推定することができる。
 また、障害物検知装置300で推定した障害物存在領域の情報をカーナビゲーション装置などの外部装置に出力し、外部装置が車両1の搭乗者に障害物存在領域を通知することで、搭乗者は障害物の有無に加えて障害物の正確な位置を把握することができる。
 また、マップ処理部36は、2次元マップ上のX軸(第1方向)に沿う障害物候補点の度数分布と、2次元マップ上でX軸(第1方向)と直交するY軸(第2方向)に沿う障害物候補点の度数分布とを別個に評価し、X軸(第1方向)上の障害物候補点が存在する区間とY軸(第2方向)上の障害物候補点が存在する区間とが交差する領域が障害物存在領域であると推定する。
 障害物候補点の度数分布を評価する際、X軸に沿う度数分布の評価とY軸に沿う度数分布の評価とを別個に実行することで、度数分布の評価にかかる処理時間を大幅に低減することができる。特に、各軸に沿う区間の分割幅を細かくすることで、障害物の位置推定の精度を向上させつつ処理時間の増大を抑制することができるため、ECU3の処理能力が低い場合であっても障害物の位置推定の精度を向上させることができる。
 また、マップ処理部36は、推定した障害物存在領域のうち、障害物存在領域に含まれる障害物候補点の個数が第2閾値未満の障害物存在領域を除外する。これにより、度数分布の評価にかかる処理時間を低減しつつ、障害物候補点を含まない障害物存在領域及びノイズ的に発生した障害物候補点のみを含む障害物存在領域を除外して、障害物の位置推定の精度をさらに向上することができる。
 また、X軸(第1方向)に沿う障害物候補点の度数分布は、2次元マップをX軸(第1方向)に沿って分割した区間のうち隣接する複数個の区間における障害物候補点の度数を積分した値の分布であり、Y軸(第2方向)に沿う障害物候補点の度数分布は、2次元マップをY軸(第2方向)に沿って分割した区間のうち隣接する複数個の区間における障害物候補点の度数を積分した値の分布である。
 障害物候補点の度数を区間積分した値の分布を評価することで、壁のような障害物候補点が分散しやすい障害物が存在する領域を障害物存在領域として推定することができる。また、障害物に対応する障害物候補点と虚像とを見分けやすくなり、虚像を含む領域が障害物存在領域として推定されるのを抑制することができる。
実施の形態2.
 実施の形態2では、障害物の大きさを推定する障害物検知装置について説明する。
 図9は、実施の形態2に係る障害物検知装置300aを含むECU3の要部の機能ブロック図である。なお、図9において、図2に示す実施の形態1の機能ブロック図と同様のブロックには同一符号を付して説明を省略する。また、コーナセンサシステム100及びECU3のハードウェア構成は実施の形態1と同様であるため、図1及び図4を援用して説明する。
 サイズ推定部37aは、マップ処理部36が推定した障害物存在領域内で障害物候補点が分布する範囲の大きさから、障害物の大きさを推定するものである。候補点算出部35、マップ処理部36及びサイズ推定部37aにより、障害物検知装置300aが構成されている。
 図10は、障害物検知装置300aの動作を示すフローチャートである。なお、図10において、図5に示す実施の形態1のフローチャートと同様のステップには同一符号を付して説明を省略する。
 まず、候補点算出部35が、実施の形態1と同様のステップST1の処理を実行する。次いで、マップ処理部36が、実施の形態1と同様のステップST2,ST3の処理を実行する。
 次いで、ステップST11にて、サイズ推定部37aは、マップ処理部36がステップST3で除外した残余の障害物存在領域内で障害物候補点が分布する範囲の大きさから、障害物の大きさを推定する。例えば、図3の例では、サイズ推定部37aは、障害物存在領域Bに対応する障害物の大きさが約30cm×30cmであると推定する。また、サイズ推定部37aは、障害物存在領域Cに対応する障害物の大きさが約20cm×40cmであると推定する。
 ステップST11の後、障害物検知装置300aは、ステップST3でマップ処理部36が算出した障害物存在領域の情報に加えて、ステップST11でサイズ推定部37aが推定した障害物の大きさの情報を、カーナビゲーション装置又は携帯情報端末などの外部装置に出力する。外部装置がディスプレイ又はスピーカを用いて障害物存在領域及び障害物の大きさを車両1の搭乗者に通知することで、搭乗者は、障害物の有無及び障害物の位置に加えて障害物の大きさを把握することができる。
 なお、ステップST11において、サイズ推定部37aは、障害物存在領域内で障害物候補点が分布する部分の大きさをそのまま障害物の大きさとして推定しても良いが、障害物存在領域内の障害物候補点に統計処理を施し、この統計処理の結果に基づく障害物候補点の分布範囲を障害物の大きさと推定するものとしても良い。以下、サイズ推定部37aによる統計処理の一例について説明する。
 例えば、サイズ推定部37aは、障害物存在領域内のX軸に沿う障害物候補点の度数分布について、平均値及び標準偏差σを求める。次いで、サイズ推定部37aは、X軸に沿う度数分布のうち平均値±2σの範囲を求める。
 同様に、サイズ推定部37aは、障害物存在領域内のY軸に沿う障害物候補点の度数分布について、平均値及び標準偏差σを求める。次いで、サイズ推定部37aは、Y軸に沿う度数分布のうち平均値±2σの範囲を求める。
 次いで、サイズ推定部37aは、障害物存在領域において、X軸に沿う度数分布が平均値±2σであり、かつ、Y軸に沿う度数分布が平均値±2σの範囲を抽出し、抽出した範囲の大きさを障害物の大きさとして推定する。
 X軸又はY軸に沿う度数分布が平均値±2σの範囲外の部分を障害物の大きさ推定から除外することで、障害物存在領域内にノイズ的に発生した障害物候補点が存在する場合であっても、この障害物候補点を除いて障害物の大きさを推定することができる。このため、障害物の大きさ推定の精度を向上することができる。
 なお、大きさ推定の対象となる障害物候補点の分布範囲は、平均値±2σに限定されるものではない。ECU3の処理能力又は障害物検知装置300aに要求される障害物の大きさ検知の精度などに応じて、任意の範囲として良い。
 また、統計処理に用いる指標は、標準偏差σに限定されるものではない。障害物存在領域内における障害物候補点のばらつきを示す指標であれば如何なるものであっても良く、例えば平均偏差を用いても良い。
 以上のように、実施の形態2の障害物検知装置300aは、障害物存在領域内で障害物候補点が分布する範囲の大きさから、障害物の大きさを推定するサイズ推定部37aを備える。障害物検知装置300aが障害物の大きさの情報を外部装置に出力し、外部装置がディスプレイ又はスピーカを用いて障害物の大きさを車両1の搭乗者に通知することで、搭乗者が障害物の大きさを把握することができる。
 また、サイズ推定部37aは、障害物存在領域内で障害物候補点を統計処理し、統計処理結果に基づく障害物候補点の分布範囲を障害物の大きさと推定する。これにより、障害物存在領域内にノイズ的に発生した障害物候補点を除いて障害物の大きさを推定することで、大きさ推定の精度を向上することができる。
実施の形態3.
 実施の形態3では、障害物候補点を算出した後、虚像である障害物候補点を除去してから度数分布を評価する障害物検知装置について説明する。
 図11は、実施の形態3に係る障害物検知装置300bを含むECU3の要部の機能ブロック図である。なお、図11において、図2に示す実施の形態1の機能ブロック図と同様のブロックには同一符号を付して説明を省略する。また、コーナセンサシステム100及びECU3のハードウェア構成は実施の形態1と同様であるため、図1及び図4を援用して説明する。
 第1虚像除去部38bは、候補点算出部35が算出した障害物候補点から、複数個の障害物で反射した超音波の伝搬距離を用いて算出された障害物候補点を除去し、残余の障害物候補点をマップ処理部36に出力するものである。候補点算出部35、マップ処理部36及び第1虚像除去部38bにより、障害物検知装置300bが構成されている。
 例えば、車両1の周辺に複数個の障害物が存在する場合、複数個の障害物で反射した超音波の伝搬距離を用いて障害物候補点を算出することで虚像が発生する場合がある。実施の形態3の第1虚像除去部38bは、候補点算出部35が算出した障害物候補点から、複数個の障害物で反射した超音波の伝搬距離を用いて算出された障害物候補点を除去することで、虚像を除去するようになっている。以下、図12を参照して、虚像の発生原理及び第1虚像除去部38bの詳細な動作について説明する。
 図12(a)は、車両1のリアバンパに対向して1個の障害物Jが存在する状態を示している。この状態において、障害物検知装置300bが、4個の距離センサ2~2のうち2個の距離センサ2,2を用いて2回の候補点算出処理を実行するものとする。
 まず、障害物検知装置300bは、1個の距離センサ2を送信センサとし、2個の距離センサ2,2を受信センサとして1回目の候補点算出処理を実行する。このとき、距離測定部34は、距離センサ2から送信された超音波が障害物Jで反射して距離センサ2で受信されるまでの直接伝搬距離aと、距離センサ2から送信された超音波が障害物Jで反射して距離センサ2で受信されるまでの間接伝搬距離b1とを算出する。
 次いで、障害物検知装置300bは、1個の距離センサ2を送信センサとし、2個の距離センサ2,2を受信センサとして2回目の候補点算出処理を実行する。このとき、距離測定部34は、距離センサ2から送信された超音波が障害物Jで反射して距離センサ2で受信されるまでの直接伝搬距離cと、距離センサ2から送信された超音波が障害物Jで反射して距離センサ2で受信されるまでの間接伝搬距離b2とを算出する。
 次いで、候補点算出部35は、距離センサ2の取付位置を中心とする半径(a/2)の第1円dと、距離センサ2の取付位置を中心とする半径(b1-(a/2))又は(b2-(a/2))の第2円eとの交点を、障害物候補点fとして算出する。障害物候補点fは、図12(a)に示す如く、障害物Jの位置に対応した障害物候補点となる。
 一方、図12(b)は、車両1のリアバンパに対向して2個の障害物K,Lが存在する状態を示している。
 この状態において、例えば、1回目の候補点算出処理で、距離測定部34が、一方の障害物Kで反射した超音波の直接伝搬距離aと、他方の障害物Lで反射した超音波の間接伝搬距離b1とを算出する。次いで、2回目の候補点算出処理で、距離測定部34が、障害物Lで反射した超音波の直接伝搬距離cと、障害物Lで反射した超音波の間接伝搬距離b2とを算出する。
 次いで、候補点算出部35は、第1円dと第2円eとの交点を障害物候補点gとして算出する。このとき、障害物候補点gの算出に用いた伝搬距離の中に、2個の障害物K,Lで反射した超音波の伝搬距離が含まれているため、障害物候補点gは障害物K,Lのいずれの位置にも対応しておらず、虚像となっている。
 ここで、図12(a)に示すように、直接伝搬距離a,c及び間接伝搬距離b1,b2がいずれも同じ障害物Jで反射した超音波の伝搬距離である場合、直接伝搬距離a,c及び間接伝搬距離b1,b2の値は、以下の式(1)~式(3)を全て満たしている。
 b1≒b2 (1)
 (a+c)/2≒b1 (2)
 (a+c)/2≒b2 (3)
 一方、図12(b)に示すように、直接伝搬距離a,c及び間接伝搬距離b1,b2に複数個の障害物K,Lで反射した超音波の伝搬距離が含まれている場合、直接伝搬距離a,c及び間接伝搬距離b1,b2の値は式(1)~式(3)のいずれかを満たさない。図12(b)の例では、式(1)は満たしているものの、式(2)及び式(3)は満たしていない。
 このように、障害物候補点の算出に用いた伝搬距離がいずれも同じ障害物で反射した超音波の伝搬距離である場合、これらの伝搬距離は式(1)~式(3)のような所定の数式(以下「虚像判別式」という)を満たしている。一方、障害物候補点の算出に用いた伝搬距離の中に複数個の障害物で反射した超音波の伝搬距離が含まれている場合、これらの伝搬距離は虚像判別式を満たさない。
 第1虚像除去部38bは、虚像判別式を予め記憶しておく。
 第1虚像除去部38bは、候補点算出部35が算出した障害物候補点のそれぞれについて、障害物候補点の算出に用いた伝搬距離を示す距離情報と、伝搬距離の算出に用いた距離センサの組み合わせを示す組合せ情報とを候補点算出部35から取得する。
 第1虚像除去部38bは、距離情報が示す伝搬距離の値が、組合せ情報が示すセンサの組み合わせに応じた虚像判別式を満たしているか否かを判定する。伝搬距離の値が虚像判別式を満たしていない場合、第1虚像除去部38bは、この障害物候補点が虚像であると判断し、除去する。
 なお、第1虚像除去部38bが記憶する虚像判別式は、上記式(1)~式(3)に限定されるものではない。送信センサ及び受信センサの個数に応じて、また想定する障害物の個数に応じて、複数種類の虚像判別式を記憶するものとしても良い。
 図13は、障害物検知装置300bの動作を示すフローチャートである。なお、図13において、図5に示す実施の形態1のフローチャートと同様のステップには同一符号を付して説明を省略する。
 まず、候補点算出部35が、実施の形態1と同様のステップST1の処理を実行する。
 次いで、ステップST21にて、第1虚像除去部38bは、候補点算出部35がステップST1で算出した障害物候補点から虚像を除去し、残余の障害物候補点をマップ処理部36に出力する。なお、ステップST21における第1虚像除去部38bの詳細な動作については、図12を参照して上述したため説明を省略する。
 次いで、マップ処理部36が、実施の形態1と同様のステップST2,ST3の処理を実行する。このとき、ステップST2において、マップ処理部36は、第1虚像除去部38bが出力した障害物候補点を2次元マップ上にマッピングして度数分布を評価する。
 以上のように、実施の形態3の障害物検知装置300bは、候補点算出部35が算出した障害物候補点のうち、複数個の障害物で反射した超音波の伝搬距離を用いて算出された障害物候補点を除去して残余の障害物候補点をマップ処理部36に出力する第1虚像除去部38bを備える。マップ処理部36は、第1虚像除去部38bが出力した障害物候補点を2次元マップ上にマッピングして度数分布を評価する。
 複数個の障害物で反射した超音波の伝搬距離を用いて算出された障害物候補点は、虚像である可能性がある。第1虚像除去部38bが虚像を除去した後にマップ処理部36が障害物候補点の度数分布を評価することで、障害物の位置推定の精度をさらに向上することができる。
実施の形態4.
 実施の形態4では、実施の形態3と異なる方法で虚像の影響を低減する障害物検知装置について説明する。
 図14は、実施の形態4に係る障害物検知装置300cを含むECU3の要部の機能ブロック図である。なお、図14において、図2に示す実施の形態1の機能ブロック図と同様のブロックには同一符号を付して説明を省略する。また、コーナセンサシステム100及びECU3のハードウェア構成は実施の形態1と同様であるため、図1及び図4を援用して説明する。
 実施の形態3で図12を参照して説明した虚像の発生原理より、伝搬距離の算出に用いた複数個の距離センサ間の間隔が大きいほど虚像が発生しやすい。
 そこで、第2虚像除去部38cは、障害物候補点の算出に用いた2個の距離センサの取付間隔が大きいほど値が低い重みを記憶しておく。第2虚像除去部38cは、候補点算出部35が算出した障害物候補点に重み付けしてマップ処理部36に出力する。
 例えば、4個の距離センサ2~2のうち、取付間隔が最も大きい距離センサ2と距離センサ2を用いて算出された障害物候補点は、重みが低くなる。一方、隣接して取り付けられた距離センサ2と距離センサ2を用いて算出された障害物候補点は、重みが高くなる。
 マップ処理部36は、第2虚像除去部38cが重み付けした障害物候補点を2次元マップ上にマッピングして度数分布を評価する。これにより、例えば重み付けしていない状態で度数が1であった区間において、取付間隔が大きい2個の距離センサを用いて算出された障害物候補点が含まれていた場合、重み付けにより当該区間の度数が1未満になる。すなわち、虚像を含む可能性の高い区間の度数が低くなり、虚像による影響を低減することができる。
 なお、3個以上の距離センサを用いて算出された障害物候補点については、各超音波センサ間の取付間隔のうちの最も大きい取付間隔に応じて重み付けするものとする。
 以上のように、実施の形態4の障害物検知装置300cは、障害物候補点の算出に用いた複数個の距離センサ間の取付間隔が大きいほど値が低い重みを記憶し、候補点算出部35が算出した障害物候補点に重み付けしてマップ処理部36に出力する第2虚像除去部38cを備える。マップ処理部36は、第2虚像除去部38cが重み付けした障害物候補点を2次元マップ上にマッピングして度数分布を評価する。
 これにより、マップ処理部36が度数分布を評価する際に虚像の影響を低減することができ、障害物の位置推定の精度をさらに向上することができる。
実施の形態5.
 実施の形態5では、実施の形態3,4と異なる方法で虚像の影響を低減する障害物検知装置について説明する。
 図15は、実施の形態5に係る障害物検知装置300dを含むECU3の要部の機能ブロック図である。なお、図15において、図2に示す実施の形態1の機能ブロック図と同様のブロックには同一符号を付して説明を省略する。また、コーナセンサシステム100及びECU3のハードウェア構成は実施の形態1と同様であるため、図1及び図4を援用して説明する。
 候補点算出部35は、実施の形態1で説明したように超音波の伝搬距離に応じた円又は楕円を用いて幾何学的に障害物候補点を算出するものである。また、一般にコーナセンサシステム100において、車両1に対して距離センサ2~2を取り付ける取付位置は予め決められている。したがって、虚像の発生確率は、超音波の送受信に用いる距離センサの組み合わせ及びそれぞれの距離センサ間の超音波の伝搬距離に応じて異なる。
 そこで、コーナセンサシステム100を搭載した車両1の出荷前に、複数個の距離センサの組み合わせのそれぞれについて、2次元マップ上の各位置に障害物を配置した場合の障害物候補点を実測又はシミュレーションさせることで、虚像が発生する可能性が高い距離センサの組み合わせ及び超音波の伝搬距離の条件(以下「虚像発生条件」という)を求めておく。第3虚像除去部38dには、虚像発生条件を予め記憶させておく。
 例えば、図12の例では、図12(a)に示す位置に障害物Jを配置し、2個の距離センサ2,2を用いて算出した障害物候補点fは虚像ではない。一方、図12(b)に示す位置に障害物K,Lを配置し、2個の距離センサ2,2を用いて算出した障害物候補点gは虚像となる。第3虚像除去部38dには、2個の距離センサ2,2の組み合わせ並びに図12(b)に示す直接伝搬距離a,c及び間接伝搬距離b1,b2の条件が、虚像発生条件として記憶される。
 第3虚像除去部38dは、候補点算出部35が算出した障害物候補点のそれぞれについて、障害物候補点の算出に用いた伝搬距離を示す距離情報と、伝搬距離の算出に用いた距離センサの組み合わせを示す組合せ情報とを候補点算出部35から取得する。
 第3虚像除去部38dは、組合せ情報及び距離情報が示す条件が予め記憶された虚像発生条件に含まれる場合、障害物候補点の値が低くなるように(例えば、1であった値が1未満になるように)重み付けしてマップ処理部36に出力する。一方、第3虚像除去部38dは、組合せ情報及び距離情報が示す条件が予め記憶された虚像発生条件に含まれない場合、障害物候補点の値が高くなるように(例えば、1であった値が1以上になるように)重み付けしてマップ処理部36に出力する。
 マップ処理部36は、第3虚像除去部38dが重み付けした障害物候補点を2次元マップ上にマッピングして度数分布を評価する。これにより、虚像発生条件を満たす障害物候補点を含む区間の度数が低くなり、虚像による影響を低減することができる。
 以上のように、実施の形態5の障害物検知装置300dは、障害物候補点の算出に用いた複数個の距離センサの組み合わせ及び超音波の伝搬距離の条件のうち、超音波が反射した位置に対応していない障害物候補点が算出される条件を示す虚像発生条件を記憶し、候補点算出部35が算出した障害物候補点のうち虚像発生条件を満たさない障害物候補点に比べて虚像発生条件を満たす障害物候補点の値が低くなるように重み付けしてマップ処理部36に出力する第3虚像除去部38dを備える。マップ処理部36は、第3虚像除去部38dが重み付けした障害物候補点を2次元マップ上にマッピングして度数分布を評価する。
 これにより、マップ処理部36が度数分布を評価する際に虚像の影響を低減することができ、障害物の位置推定の精度をさらに向上することができる。
実施の形態6.
 実施の形態6では、実施の形態3~5と異なる方法で虚像を除去する障害物検知装置について説明する。
 図16は、実施の形態6に係る障害物検知装置300eを含むECU3の要部の機能ブロック図である。なお、実施の形態6において、コーナセンサシステム100及びECU3のハードウェア構成は実施の形態1と同様であるため、図1及び図4を援用して説明する。
 候補点算出部35は、実施の形態1で説明したように超音波の伝搬距離に応じた円又は楕円を用いて幾何学的に障害物候補点を算出するものである。このため、実際の障害物の位置から大きく離れた位置に虚像が発生する場合がある。
 そこで、第4虚像除去部38eは、2次元マップにおける4個の距離センサ2~2のそれぞれの探索エリアを予め記憶しておく。
 第4虚像除去部38eは、候補点算出部35から、候補点算出部35が算出した障害物候補点のそれぞれについて、伝搬距離の算出に用いた複数個の距離センサの組み合わせを示す組合せ情報を取得する。第4虚像除去部38eは、障害物候補点の位置が、組合せ情報が示す距離センサの探索エリア外にある場合、障害物候補点を虚像として除去する。
 図17(a)は、車両1のリアバンパに対向して2個の障害物M,Nが存在する状態において、2個の距離センサ2,2を用いて候補点算出処理を実行した状態を示している。距離センサ2の取付位置を中心とし、距離センサ2から送信された超音波が一方の障害物Mで反射して距離センサ2で受信されるまでの伝搬距離を半径とする円hと、距離センサ2の取付位置を中心とし、距離センサ2から送信された超音波が他方の障害物Nで反射して距離センサ2で受信されるまでの伝搬距離を半径とする円iとの交点に、障害物候補点jが算出されている。障害物候補点jは、実施の形態3で図12を参照して説明した原理により発生した虚像である。
 障害物候補点jの位置は、距離センサ2の探索エリアO内になく、かつ、距離センサ2の探索エリアP内にない。よって、第4虚像除去部38eは、障害物候補点jを虚像として除去する。
 また、1個の障害物のみが存在する場合であっても、個々の距離センサによる伝搬距離の測定誤差などにより虚像が発生する場合がある。
 図17(b)は、車両1のリアバンパに対向して1個の障害物Qが存在する状態において、2個の距離センサ2,2を用いて候補点算出処理を実行した状態を示している。距離センサ2の取付位置を中心とし、距離センサ2から送信された超音波が障害物Qで反射して距離センサ2で受信されるまでの伝搬距離を半径とする円kと、距離センサ2の取付位置を中心とし、距離センサ2から送信された超音波が障害物Qで反射して距離センサ2で受信されるまでの伝搬距離を半径とする円lとの交点に、障害物候補点mが算出されている。
 ここで、距離センサ2による伝搬距離の測定誤差のため、円kの半径が距離センサ2と障害物Q間の距離よりも大きくなっている。また、距離センサ2による伝搬距離の測定誤差のため、円lの半径が距離センサ2と障害物Q間の距離よりも小さくなっている。これらの測定誤差により、障害物候補点mは障害物Qの位置を示しておらず、虚像となっている。
 図17(b)に示す障害物候補点mは、算出に用いた一方の距離センサ2の探索エリアR内になく、かつ、他方の距離センサ2の探索エリアS内にない。よって、第4虚像除去部38eは、この障害物候補点mを虚像として除去する。
 第4虚像除去部38eは、虚像を除去した残余の障害物候補点をマップ処理部36に出力する。マップ処理部36は、度数分布を評価する際、第4虚像除去部38eが出力した障害物候補点を2次元マップ上にマッピングして度数分布を評価する。
 以上のように、実施の形態6の障害物検知装置300eは、候補点算出部35が算出した障害物候補点のうち、障害物候補点の算出に用いた距離センサの探索エリア外にある障害物候補点を除去して残余の障害物候補点をマップ処理部36に出力する第4虚像除去部38eを備える。マップ処理部36は、第4虚像除去部38eが出力した障害物候補点を2次元マップ上にマッピングして度数分布を評価する。
 これにより、マップ処理部36が度数分布を評価する際に虚像の影響を低減することができ、障害物の位置推定の精度をさらに向上することができる。
実施の形態7.
 実施の形態7では、実際の障害物に対応していない、虚像で生じた障害物存在領域を除外する障害物検知装置について説明する。
 図18は、実施の形態7に係る障害物検知装置300fを含むECU3の要部の機能ブロック図である。なお、実施の形態7において、コーナセンサシステム100及びECU3のハードウェア構成は実施の形態1と同様であるため、図1及び図4を援用して説明する。
 図19の例では、実施の形態1で説明したように、2次元マップのY軸は車両1の左右方向に沿う軸である。Y=0[cm]が車両1のリアバンパの中心であり、Y座標の値が大きいほど車両1の右側の位置を示しており、Y座標の値が小さいほど車両1の左側の位置を示している。また、2次元マップのX軸は車両1の前後方向に沿う軸であり、X座標の値が大きいほど車両から遠い位置を示している。
 無効物体判定部39fは、マップ処理部36で推定した複数個の障害物存在領域の位置関係を判定して、車両1から見てある障害物存在領域の背後に存在する他の障害物物存在領域(すなわち、ある障害物存在領域よりもX座標の値が大きくY座標の値が同じ位置に存在する他の障害物存在領域)を、無効な障害物存在領域として除外するものである。
 一般に、距離センサを用いたコーナセンサシステム100では、障害物の背後に隠れた他の障害物は検知することができない。しかしながら、個々の距離センサによる伝搬距離の測定誤差、又は車両1と障害物との間で多重反射した超音波などにより、実際に存在する障害物を示す障害物存在領域の背後に、実際には存在しない障害物を示す他の障害物物存在領域が算出される場合がある。
 例えば、図19の例では、X座標が80cm~110cmでY座標が-60cm~60cmの範囲に壁状の障害物によって生じた障害物候補点が集中しており、障害物存在領域Tが形成されている。また、X座標が180cm~220cmでY座標が140cm~80cmの範囲にポール状の障害物によって生じた障害物候補点が集中しており、障害物存在領域Uが形成されている。
 ここで、X座標が190cm~210cmでY座標が-60cm~60cmの範囲にも障害物候補点が存在している。この障害物候補点は、車両1とX座標が80cm~110cmの位置にある壁状の障害物との間で多重反射した超音波により算出された虚像である。これらの虚像により、実際の障害物に対応していない障害物存在領域Vが形成されている。無効物体判定部39fは、マップ処理部36が算出した3個の障害物存在領域T~Vのうち、車両1から見て障害物存在領域Tの背後にある障害物存在領域Vを除外する。
 図20は、障害物検知装置300fの動作を示すフローチャートである。なお、図20において、図5に示す実施の形態1のフローチャートと同様のステップには同一符号を付して説明を省略する。
 まず、候補点算出部35が、実施の形態1と同様のステップST1の処理を実行する。次いで、マップ処理部36が、実施の形態1と同様のステップST2,ST3の処理を実行する。
 次いで、ステップST31にて、無効物体判定部39fは、マップ処理部36がステップST3で除去した残余の複数個の障害物存在領域の位置関係を判定して、車両1から見てある障害物存在領域の背後に存在する他の障害物物存在領域を、無効な障害物存在領域として除外する。なお、ステップST31における無効物体判定部39fの詳細な動作については、図19を参照して上述したため説明を省略する。
 ステップST31の後、障害物検知装置300fは、ステップST3で無効物体判定部39fが除外した残余の障害物存在領域の情報を、カーナビゲーション装置又は携帯情報端末などの外部装置に出力する。外部装置がディスプレイ又はスピーカを用いて障害物存在領域を車両1の搭乗者に通知することで、搭乗者は障害物の有無及び車両1に対する障害物の位置を把握することができる。
 以上のように、実施の形態7の障害物検知装置300fは、マップ処理部36が推定した複数個の障害物存在領域の位置関係を判定し、車両1から見てある障害物存在領域の背後に存在する他の障害物存在領域を除外する無効物体判定部39fを備える。
 個々の距離センサによる伝搬距離の測定誤差、又は車両1と障害物との間で多重反射した超音波などにより生じた虚像の障害物存在領域を除去することで、障害物の位置推定の精度をさらに向上することができる。
 なお、実施の形態2に係るサイズ推定部37aと、実施の形態3に係る第1虚像除去部38bとの両方を備えた障害物検知装置300gを構成しても良い。この場合の機能ブロック図を図21に示し、フローチャートを図22に示す。ステップST2に次いで、ステップST21にて第1虚像除去部38bが虚像を除去する。また、ステップST3に次いで、ステップST31にてサイズ推定部37aが障害物の大きさを推定する。
 また、実施の形態2に係るサイズ推定部37aと、実施の形態7に係る無効物体判定部39fとの両方を備えた障害物検知装置300hを構成しても良い。この場合の機能ブロック図を図23に示し、フローチャートを図24に示す。ステップST31にて無効物体判定部39fが無効な障害物存在領域を除外した後、ステップST11にてサイズ推定部37aが残余の障害物存在領域について障害物の大きさを推定する。
 また、実施の形態3に係る第1虚像除去部38bと、実施の形態7に係る無効物体判定部39fとの両方を備えた障害物検知装置300iを構成しても良い。この場合の機能ブロック図を図25に示し、フローチャートを図26に示す。ステップST21で第1虚像除去部38bが虚像を除去した後、ステップST2にてマップ処理部36が残余の障害物候補点の度数分布を評価する。また、ステップST3に次いで、ステップST31にて無効物体判定部39fが無効な障害物存在領域を除外する。
 また、実施の形態2に係るサイズ推定部37aと、実施の形態3に係る第1虚像除去部38bと、実施の形態7に係る無効物体判定部39fとの全部を備えた障害物検知装置300jを構成しても良い。この場合の機能ブロック図を図27に示し、フローチャートを図28に示す。
 また、障害物検知装置は、第1虚像除去部38b又は第4虚像除去部38eによる虚像の除去処理と、第2虚像除去部38c又は第3虚像除去部38dによる重み付け処理とのうち、いずれか複数個の処理を組み合わせて実行する虚像除去部を備えるものとしても良い。
 その他、本願発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。
 本発明の障害物検知装置は、複数の障害物候補点を2次元マップ上にマッピングして度数分布を評価することで障害物存在領域を推定し、移動体に対する障害物の位置を高い精度で推定することができるので、車両用のコーナセンサシステムなどに用いるのに適している。
 1 車両、2~2 距離センサ、3 ECU、30 送信制御部、31 送信部、32 マルチプレクサ、33~33 受信部、34 距離測定部、35 候補点算出部、36 マップ処理部、37a サイズ推定部、38b 第1虚像除去部、38c 第2虚像除去部、38d 第3虚像除去部、38e 第4虚像除去部、39f 無効物体判定部、50 送受信装置、51 記憶装置、52 処理回路、100 コーナセンサシステム、300,300a,300b,300c,300d,300e,300f,300g,300h,300i,300j 障害物検知装置。

Claims (12)

  1.  移動体に設けられた複数個の距離センサを用いて、該移動体の外部に存在する障害物を検知する障害物検知装置において、
     送信用の前記距離センサが送信した探索波が前記障害物で反射して受信用の前記距離センサに伝搬するまでの伝搬距離を用いて、前記探索波が反射した位置の候補を示す障害物候補点を算出する候補点算出部と、
     前記候補点算出部が算出した複数の前記障害物候補点を前記距離センサの探索エリアを含む2次元マップ上にマッピングして度数分布を評価することで、前記障害物が存在する障害物存在領域を推定するマップ処理部と、
     を備えることを特徴とする障害物検知装置。
  2.  前記マップ処理部は、前記2次元マップ上の第1方向に沿う前記障害物候補点の度数分布と、前記2次元マップ上で前記第1方向と直交する第2方向に沿う前記障害物候補点の度数分布とを別個に評価し、前記第1方向上の前記障害物候補点が存在する区間と前記第2方向上の前記障害物候補点が存在する区間とが交差する領域が前記障害物存在領域であると推定することを特徴とする請求項1記載の障害物検知装置。
  3.  前記マップ処理部は、推定した前記障害物存在領域のうち、該障害物存在領域に含まれる前記障害物候補点の個数が閾値未満の前記障害物存在領域を除外することを特徴とする請求項2記載の障害物検知装置。
  4.  前記第1方向に沿う前記障害物候補点の度数分布は、前記2次元マップを前記第1方向に沿って分割した区間のうち隣接する複数個の区間における前記障害物候補点の度数を積分した値の分布であり、
     前記第2方向に沿う前記障害物候補点の度数分布は、前記2次元マップを前記第2方向に沿って分割した区間のうち隣接する複数個の区間における前記障害物候補点の度数を積分した値の分布である
     ことを特徴とする請求項2記載の障害物検知装置。
  5.  前記障害物存在領域内で前記障害物候補点が分布する範囲の大きさから、前記障害物の大きさを推定するサイズ推定部を備えることを特徴とする請求項1記載の障害物検知装置。
  6.  前記サイズ推定部は、前記障害物存在領域内で前記障害物候補点を統計処理し、統計処理結果に基づく前記障害物候補点の分布範囲を前記障害物の大きさと推定することを特徴とする請求項5記載の障害物検知装置。
  7.  前記候補点算出部が算出した前記障害物候補点のうち、複数個の前記障害物で反射した前記探索波の伝搬距離を用いて算出された前記障害物候補点を除去して残余の前記障害物候補点を前記マップ処理部に出力する第1虚像除去部を備え、
     前記マップ処理部は、前記第1虚像除去部が出力した前記障害物候補点を前記2次元マップ上にマッピングして度数分布を評価する
     ことを特徴とする請求項1記載の障害物検知装置。
  8.  前記障害物候補点の算出に用いた複数個の前記距離センサ間の取付間隔が大きいほど値が低い重みを記憶し、前記候補点算出部が算出した前記障害物候補点に重み付けして前記マップ処理部に出力する第2虚像除去部を備え、
     前記マップ処理部は、前記第2虚像除去部が重み付けした前記障害物候補点を前記2次元マップ上にマッピングして度数分布を評価する
     ことを特徴とする請求項1記載の障害物検知装置。
  9.  前記障害物候補点の算出に用いた複数個の前記距離センサの組み合わせ及び前記探索波の伝搬距離の条件のうち、前記探索波が反射した位置に対応していない前記障害物候補点が算出される条件を示す虚像発生条件を記憶し、前記候補点算出部が算出した前記障害物候補点のうち前記虚像発生条件を満たさない前記障害物候補点に比べて前記虚像発生条件を満たす前記障害物候補点の値が低くなるように重み付けして前記マップ処理部に出力する第3虚像除去部を備え、
     前記マップ処理部は、前記第3虚像除去部が重み付けした前記障害物候補点を前記2次元マップ上にマッピングして度数分布を評価する
     ことを特徴とする請求項1記載の障害物検知装置。
  10.  前記候補点算出部が算出した前記障害物候補点のうち、該障害物候補点の算出に用いた前記距離センサの探索エリア外にある前記障害物候補点を除去して残余の前記障害物候補点を前記マップ処理部に出力する第4虚像除去部を備え、
     前記マップ処理部は、前記第4虚像除去部が出力した前記障害物候補点を前記2次元マップ上にマッピングして度数分布を評価する
     ことを特徴とする請求項1記載の障害物検知装置。
  11.  前記マップ処理部が推定した複数個の前記障害物存在領域の位置関係を判定し、前記移動体から見てある前記障害物存在領域の背後に存在する他の前記障害物存在領域を除外する無効物体判定部を備えることを特徴とする請求項1記載の障害物検知装置。
  12.  移動体に設けられた複数個の距離センサを用いて、該移動体の外部に存在する障害物を検知する障害物検知方法において、
     候補点算出部が、送信用の前記距離センサが送信した探索波が前記障害物で反射して受信用の前記距離センサに伝搬するまでの伝搬距離を用いて、前記探索波が反射した位置の候補を示す障害物候補点を算出し、
     マップ処理部が、前記候補点算出部が算出した複数の前記障害物候補点を前記距離センサの探索エリアを含む2次元マップ上にマッピングして度数分布を評価することで、前記障害物が存在する障害物存在領域を推定する
     ことを特徴とする障害物検知方法。
PCT/JP2014/084568 2014-12-26 2014-12-26 障害物検知装置及び障害物検知方法 WO2016103464A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016565812A JP6333412B2 (ja) 2014-12-26 2014-12-26 障害物検知装置
PCT/JP2014/084568 WO2016103464A1 (ja) 2014-12-26 2014-12-26 障害物検知装置及び障害物検知方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/084568 WO2016103464A1 (ja) 2014-12-26 2014-12-26 障害物検知装置及び障害物検知方法

Publications (1)

Publication Number Publication Date
WO2016103464A1 true WO2016103464A1 (ja) 2016-06-30

Family

ID=56149552

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/084568 WO2016103464A1 (ja) 2014-12-26 2014-12-26 障害物検知装置及び障害物検知方法

Country Status (2)

Country Link
JP (1) JP6333412B2 (ja)
WO (1) WO2016103464A1 (ja)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018037737A (ja) * 2016-08-29 2018-03-08 株式会社Soken 周辺監視装置及び周辺監視方法
WO2019053812A1 (ja) * 2017-09-13 2019-03-21 三菱電機株式会社 障害物検出装置および障害物検出方法
WO2019058507A1 (ja) * 2017-09-22 2019-03-28 三菱電機株式会社 障害物検出装置および障害物検出方法
WO2019138964A1 (ja) * 2018-01-09 2019-07-18 パイオニア株式会社 制御装置、走査装置、制御方法、プログラム及び記憶媒体
WO2020012852A1 (ja) * 2018-07-11 2020-01-16 クラリオン株式会社 測位支援装置及び測位支援方法
WO2020049650A1 (ja) * 2018-09-05 2020-03-12 三菱電機株式会社 運転支援装置
WO2020095819A1 (ja) * 2018-11-09 2020-05-14 株式会社デンソー 物体検出装置
JP2020112418A (ja) * 2019-01-10 2020-07-27 株式会社Soken 車両用位置推定システム、及び車両用位置推定装置
WO2020213054A1 (ja) * 2019-04-16 2020-10-22 三菱電機株式会社 障害物検知装置
JP2020190429A (ja) * 2019-05-20 2020-11-26 株式会社Soken 障害物検出装置および障害物検出方法
CN112823321A (zh) * 2018-10-10 2021-05-18 韩国机器人融合研究院 对基于多种类型传感器的位置识别结果进行混合的位置定位系统及其方法
JP2021165723A (ja) * 2020-04-08 2021-10-14 株式会社アイシン 物体検出装置、および物体検出システム
JPWO2021229722A1 (ja) * 2020-05-13 2021-11-18
US20220082689A1 (en) * 2020-09-16 2022-03-17 Hyundai Mobis Co., Ltd. Position detection system and method using sensor
JP2023525106A (ja) * 2020-05-11 2023-06-14 華為技術有限公司 車両走行可能領域検出方法、システム、及びそのシステムを使用する自律車両
JP7345148B1 (ja) 2022-03-09 2023-09-15 パナソニックIpマネジメント株式会社 障害物検知装置、障害物検知方法及び障害物検知プログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000329852A (ja) * 1999-05-17 2000-11-30 Nissan Motor Co Ltd 障害物認識装置
JP2002168953A (ja) * 2000-11-29 2002-06-14 Mitsubishi Electric Corp 車両周辺監視装置
JP2002181936A (ja) * 2000-12-11 2002-06-26 Nissan Motor Co Ltd 障害物位置計測方法および障害物位置計測装置
JP2003270342A (ja) * 2002-03-19 2003-09-25 Denso Corp 物体認識装置、物体認識方法、レーダ装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004069328A (ja) * 2002-08-01 2004-03-04 Nissan Motor Co Ltd 前方環境認識装置及び前方環境認識方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000329852A (ja) * 1999-05-17 2000-11-30 Nissan Motor Co Ltd 障害物認識装置
JP2002168953A (ja) * 2000-11-29 2002-06-14 Mitsubishi Electric Corp 車両周辺監視装置
JP2002181936A (ja) * 2000-12-11 2002-06-26 Nissan Motor Co Ltd 障害物位置計測方法および障害物位置計測装置
JP2003270342A (ja) * 2002-03-19 2003-09-25 Denso Corp 物体認識装置、物体認識方法、レーダ装置

Cited By (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018037737A (ja) * 2016-08-29 2018-03-08 株式会社Soken 周辺監視装置及び周辺監視方法
WO2019053812A1 (ja) * 2017-09-13 2019-03-21 三菱電機株式会社 障害物検出装置および障害物検出方法
WO2019058507A1 (ja) * 2017-09-22 2019-03-28 三菱電機株式会社 障害物検出装置および障害物検出方法
JPWO2019058507A1 (ja) * 2017-09-22 2019-12-12 三菱電機株式会社 障害物検出装置
WO2019138964A1 (ja) * 2018-01-09 2019-07-18 パイオニア株式会社 制御装置、走査装置、制御方法、プログラム及び記憶媒体
WO2020012852A1 (ja) * 2018-07-11 2020-01-16 クラリオン株式会社 測位支援装置及び測位支援方法
WO2020049650A1 (ja) * 2018-09-05 2020-03-12 三菱電機株式会社 運転支援装置
JPWO2020049650A1 (ja) * 2018-09-05 2020-12-17 三菱電機株式会社 運転支援装置
CN112823321B (zh) * 2018-10-10 2024-04-16 韩国机器人融合研究院 对基于多种类型传感器的位置识别结果进行混合的位置定位系统及其方法
CN112823321A (zh) * 2018-10-10 2021-05-18 韩国机器人融合研究院 对基于多种类型传感器的位置识别结果进行混合的位置定位系统及其方法
JP2020076711A (ja) * 2018-11-09 2020-05-21 株式会社Soken 物体検出装置
JP7111586B2 (ja) 2018-11-09 2022-08-02 株式会社Soken 物体検出装置
WO2020095819A1 (ja) * 2018-11-09 2020-05-14 株式会社デンソー 物体検出装置
US20210256728A1 (en) * 2018-11-09 2021-08-19 Denso Corporation Object detection apparatus
JP7120034B2 (ja) 2019-01-10 2022-08-17 株式会社デンソー 車両用位置推定システム、及び車両用位置推定装置
JP2020112418A (ja) * 2019-01-10 2020-07-27 株式会社Soken 車両用位置推定システム、及び車両用位置推定装置
JPWO2020213054A1 (ja) * 2019-04-16 2021-09-13 三菱電機株式会社 障害物検知装置
WO2020213054A1 (ja) * 2019-04-16 2020-10-22 三菱電機株式会社 障害物検知装置
WO2020235396A1 (ja) * 2019-05-20 2020-11-26 株式会社デンソー 障害物検出装置および障害物検出方法
JP2020190429A (ja) * 2019-05-20 2020-11-26 株式会社Soken 障害物検出装置および障害物検出方法
JP7152355B2 (ja) 2019-05-20 2022-10-12 株式会社Soken 障害物検出装置および障害物検出方法
JP7456248B2 (ja) 2020-04-08 2024-03-27 株式会社アイシン 物体検出装置、および物体検出システム
JP2021165723A (ja) * 2020-04-08 2021-10-14 株式会社アイシン 物体検出装置、および物体検出システム
JP7511673B2 (ja) 2020-05-11 2024-07-05 華為技術有限公司 車両走行可能領域検出方法、システム、及びそのシステムを使用する自律車両
JP2023525106A (ja) * 2020-05-11 2023-06-14 華為技術有限公司 車両走行可能領域検出方法、システム、及びそのシステムを使用する自律車両
JPWO2021229722A1 (ja) * 2020-05-13 2021-11-18
JP7186923B2 (ja) 2020-05-13 2022-12-09 三菱電機株式会社 障害物検知装置、駐車支援装置、衝突回避装置及び障害物検知方法
EP3971042A1 (en) * 2020-09-16 2022-03-23 Hyundai Mobis Co., Ltd. Position detection system and method using sensor
US11709264B2 (en) 2020-09-16 2023-07-25 Hyundai Mobis Co., Ltd. Position detection system and method using sensor
US20220082689A1 (en) * 2020-09-16 2022-03-17 Hyundai Mobis Co., Ltd. Position detection system and method using sensor
JP2023133636A (ja) * 2022-03-09 2023-09-26 パナソニックIpマネジメント株式会社 障害物検知装置、障害物検知方法及び障害物検知プログラム
JP7345148B1 (ja) 2022-03-09 2023-09-15 パナソニックIpマネジメント株式会社 障害物検知装置、障害物検知方法及び障害物検知プログラム

Also Published As

Publication number Publication date
JPWO2016103464A1 (ja) 2017-05-25
JP6333412B2 (ja) 2018-05-30

Similar Documents

Publication Publication Date Title
JP6333412B2 (ja) 障害物検知装置
US10386462B1 (en) Systems and methods for stereo radar tracking
JP6421935B2 (ja) 車両移動推定装置および車両移動推定方法
CN105549017B (zh) 物体检测装置
CN111656217A (zh) 用于虚拟孔径雷达跟踪的系统和方法
WO2014136408A1 (ja) 車両用障害物検知装置および、車両用障害物検知システム
JP6892600B2 (ja) 物体検出方法及び物体検出装置
US10451734B2 (en) Object detecting apparatus
JP5645928B2 (ja) 無線通信システムにおける環境評価
CN112119330B (zh) 物体检测装置及物体检测方法
JP2016223937A (ja) 物体検出装置
JP2016080648A (ja) 物体検知装置
JP6713946B2 (ja) 車載レーダ装置
JP2002372577A (ja) 障害物検出装置
JP2021513643A (ja) 危機的な横方向移動を検出するための方法および装置
EP3882639B1 (en) Acoustic air data system with radially paired receivers
JP2018105703A (ja) 物体検知装置
JP4863679B2 (ja) 位置測定装置
KR20220166704A (ko) 비가시 경로 레이더 장치
JP2019095302A (ja) 物体検出装置
JP2019082436A (ja) 物体検知装置
CN115698764B (zh) 基于多普勒的速度方向确定
WO2023153041A1 (ja) 物体検知装置および物体検知方法
JP6311230B2 (ja) 目標物検出装置、目標物検出方法、プログラム及び記録媒体
JP2023084561A (ja) 移動方向推定システム、移動方向推定装置、移動方向推定方法、移動方向推定プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14909068

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2016565812

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14909068

Country of ref document: EP

Kind code of ref document: A1