WO2007046336A1 - 物体認識装置 - Google Patents

物体認識装置 Download PDF

Info

Publication number
WO2007046336A1
WO2007046336A1 PCT/JP2006/320572 JP2006320572W WO2007046336A1 WO 2007046336 A1 WO2007046336 A1 WO 2007046336A1 JP 2006320572 W JP2006320572 W JP 2006320572W WO 2007046336 A1 WO2007046336 A1 WO 2007046336A1
Authority
WO
WIPO (PCT)
Prior art keywords
shape
reference value
shape model
goodness
contour
Prior art date
Application number
PCT/JP2006/320572
Other languages
English (en)
French (fr)
Inventor
Toshiaki Kakinami
Hiroyuki Watanabe
Original Assignee
Aisin Seiki Kabushiki Kaisha
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Kabushiki Kaisha filed Critical Aisin Seiki Kabushiki Kaisha
Priority to US12/088,499 priority Critical patent/US8031908B2/en
Priority to EP06821878A priority patent/EP1939585B1/en
Priority to DE602006007370T priority patent/DE602006007370D1/de
Publication of WO2007046336A1 publication Critical patent/WO2007046336A1/ja

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B21/00Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant
    • G01B21/20Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring contours or curvatures, e.g. determining profile
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/752Contour matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/586Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of parking space
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/06Automatic manoeuvring for parking
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9314Parking operations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/932Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles using own vehicle data, e.g. ground speed, steering wheel direction
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9322Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles using additional data, e.g. driver condition, road state or weather data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93274Sensor installation details on the side of the vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2015/932Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles for parking operations
    • G01S2015/933Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles for parking operations for measuring the dimensions of the parking space when driving past
    • G01S2015/935Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles for parking operations for measuring the dimensions of the parking space when driving past for measuring the contour, e.g. a trajectory of measurement points, representing the boundary of the parking space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection

Definitions

  • the present invention relates to an object recognition device that recognizes the contour shape of an object existing around a moving body.
  • Patent Document 1 there is an obstacle detection device as described in Patent Document 1 shown below.
  • This device detects an obstacle around the vehicle (moving body) and issues an alarm.
  • the device prior to the invention of Patent Document 1 measures only the distance between the vehicle and the obstacle and is shorter than the predetermined distance! It was configured to issue an alarm only in the case of ⁇ . Therefore, this device has a problem that it is difficult for the driver to determine which object around the vehicle is the obstacle force only by the warning based on the distance.
  • a plurality of obstacle detection sensors are mounted on a vehicle, and the distance to the obstacle is calculated. Based on the obtained calculation results, the obstacle shape is estimated and displayed as a straight line (flat plate shape) or a circular shape (convex shape).
  • Patent Document 1 Japanese Published Patent Publication No. 2003-194938A (see page 2-3, Figure 1-7 etc.)
  • Patent Document 1 The invention described in Patent Document 1 is useful not only for the distance to the obstacle but also for estimating the shape of the obstacle.
  • detection data that detects objects other than the object to be detected (obstacle) is often mixed.
  • Detection data other than the detection target acts as a noise component when estimating the shape of the detection target, and decreases the estimation accuracy. Therefore, the stability in detecting an object to be detected such as an obstacle is not sufficient. If the noise removal function is provided, the amount of calculation increases, and accordingly, the processing time increases and the apparatus becomes large-scale.
  • An object of the present invention is to provide an object recognition device that can stably recognize the shape of an object even if data to be detected is mixed.
  • an object recognition apparatus for recognizing an object existing around a moving body detects an object that detects surface shape information of an object existing around the moving body, as described below.
  • a detection unit; and a shape model setting unit that extracts an arbitrary sample from a sample group constituting the surface shape information up to a predetermined number of times, and determines a shape model based on the extracted sample; and
  • a fitness calculation unit that calculates the fitness of each shape model with respect to a sample group; and a contour shape determination unit that determines the shape model to be the contour shape based on the fitness with respect to the shape model. Consists of including.
  • the contour shape determining unit when there is the degree of conformity greater than or equal to the first reference value, has the degree of conformance that is the first reference value or more first regardless of the specified number of times.
  • the shape model is determined as the contour shape and there is no goodness of fit greater than or equal to the first reference value, the second goodness of the goodness obtained for the specified number of times is lower than the first reference value.
  • the shape model having the maximum conformity greater than or equal to a reference value is determined as the contour shape, and if the conformance greater than or equal to the second reference value does not exist, the shape corresponding to the contour shape Determine that the model does not exist.
  • the shape recognizing unit arbitrarily extracts a sample from the sample group for a specified number of times at the maximum, and determines a shape model based on the extracted sample. Then, the degree of matching of how much the entire sample group matches the shape model is calculated, and it is determined which shape model best fits the sample group.
  • the degree of fit between the specified shape model and the sample group will be low, and the shape model will be determined without including the noisy sample. In the case of a match, the fitness is high. Therefore, the contour shape of the target object can be recognized with a small amount of calculation, by removing a highly accurate noise sample.
  • the shape recognizing unit determines the shape model with the number of samples far smaller than the total number constituting the sample group.
  • the fitness of the sample group with respect to the shape model can be calculated geometrically using the coordinates in the space of each sample. Therefore, sample extraction and shape model setting Therefore, the amount of calculation required for calculating the fitness is reduced. Therefore, even if a shape model that is different for the specified number of times is repeatedly determined and the fitness is calculated, the increase in the total calculation amount can be suppressed. As a result, the contour shape can be recognized with high accuracy.
  • the contour shape determining unit of the shape recognizing unit when there is a shape model having a conformity greater than or equal to the first reference value, is the first reference value or more first regardless of the specified number of times.
  • a shape model having a good fitness is determined as a contour shape. Therefore, if there is a shape model with high and goodness that is higher than the first reference value in the process of calculating different goodness models repeatedly and calculating the goodness of fit, the contour shape is decided at that point and the process is terminated. Can do. As a result, the total calculation amount can be further suppressed.
  • another feature configuration of the object recognition apparatus is to include the following configuration in addition to the above configuration. That is, the contour shape determination unit defines the number of times that the degree of conformity with respect to the different shape models for which the same sample group force is also obtained is lower than the second reference value and less than or equal to the third reference value. When the number of detection times is reached, it is determined that the shape model corresponding to the contour shape does not exist.
  • the degree of conformity to all shape models is smaller than the second threshold value after performing a prescribed number of calculations on a sample group. In this case, it is very likely that this sample group does not constitute the surface shape information of the target object.
  • the conformity of each shape model from which such sample group forces are extracted is often very low and has a value. Therefore, if the number of times that the calculated fitness is less than or equal to the third reference value is greater than or equal to the specified number of detections, it is determined that the sample group does not constitute the surface shape information of the target object. In this way, it is possible to abort the evaluation of a useless sample group that does not require a specified number of calculations. As a result, the total amount of computation can be suppressed. it can.
  • a vehicle 10 as a moving body is equipped with a distance sensor 1 (object detection unit) facing sideways.
  • the distance sensor 1 is, for example, a point sensor, that is, a single beam sensor or a sonar using ultrasonic waves.
  • the vehicle 10 measures the distance to the parked vehicle 20 by the distance sensor 1 when it passes by another vehicle 20 parked and stopped (hereinafter referred to as a parked vehicle) in the X direction in the figure. That is, the distance sensor 1 measures the distance from the parked vehicle 20 according to the movement of the vehicle 10 and acquires surface shape information. This corresponds to an object detection step described later, and the parked vehicle 20 corresponds to an object of the present invention.
  • the distance sensor 1 is provided only on the left side of the vehicle 10. Of course, the distance sensor 1 may be provided on both sides.
  • the surface shape information of the parked vehicle 20 obtained in this way is discrete data corresponding to the travel distance of the vehicle 10.
  • “according to the moving distance” of the vehicle 10 also includes the meaning of “according to the predetermined time interval”. For example, when the vehicle 10 moves at a constant speed, if it is measured according to a predetermined time interval, it is measured according to the moving distance. The moving speed, moving distance, and moving time of the moving body 10 are determined linearly. Therefore, any method can be used as long as the surface shape information can be obtained almost uniformly as a result.
  • the distance sensor 1 may include an accompanying sensor such as a timer that measures the movement time, an encoder that measures the movement distance, and a rotation sensor that measures the movement speed. In addition, these sensors are provided separately so that information can be obtained!
  • FIG. 2 is a schematic block diagram of the object recognition apparatus according to the present invention.
  • the shape recognition unit 2 that recognizes the contour shape of the parked vehicle 20 is configured by an electronic circuit such as a microcomputer.
  • Each unit constituting the shape recognition unit 2 indicates a processing unit as a function that does not necessarily indicate a physically different electronic circuit. For example, a program corresponding to the function of each unit may be executed by the same CPU.
  • the shape recognition unit 2 includes a shape model setting unit 3, a fitness calculation unit 4, a contour shape determination unit 5, Have
  • the shape model setting unit 3 extracts an arbitrary sample from the sample group constituting the surface shape information, and determines a shape model based on the extracted sample.
  • the goodness-of-fit calculation unit 4 calculates the goodness of the shape model for the sample group.
  • the contour shape determination unit 5 determines the shape model to be the contour shape based on the degree of conformity to the shape model determined by the same specified sample group force at the maximum specified number of times (specified number of operations described later). .
  • the surface shape information S on the parked vehicle 20 is measured by the distance sensor 1.
  • the surface shape information is measurement data obtained discretely in a form along the outer shape of the bumper portion of the parked vehicle 20 in the present embodiment.
  • a group of these discretely obtained data is called a sample group S (Large S).
  • the sample group S is a data set that is a recognition target of the contour shape.
  • the point-by-point data composing the data set is called sample s (small s).
  • sample group S The surface shape information (sample group S) input to the shape recognition unit 2 is mapped onto two-dimensional orthogonal coordinates with the X and Y directions as axes shown in FIG. Then, as shown in FIG. 4 (b), an index is added and stored in the specimen storage unit 3 a of the shape model setting unit 3.
  • the sample storage unit 3a is composed of, for example, a memory or a register built in the microcomputer. Of course, other storage media such as a memory disk separate from the microcomputer may be used.
  • the sample s indicated by a black dot is an inlier
  • a sample indicated by a white dot. s is called an outlier.
  • samples sl, si 3 etc. are inliers
  • samples s2, s7, slO are outliers.
  • the inlier is a sample that forms the contour shape of the parked vehicle 20.
  • the outlier is a so-called noisy specimen with the contour shape force of the parked vehicle 20 removed.
  • the sample extraction unit 3b extracts several points of an arbitrary sample si (i is an index number) from the sample group S (samples sl to sl3) (sample extraction process: Fig. 7 # 1).
  • the sample s to be extracted is randomly determined using random numbers as shown in Fig. 5.
  • a random number generator (not shown) is installed in the shape recognition unit 2 to generate random numbers (Fig. 5 (a)).
  • a sample si is extracted with the generated random number as the index number (Fig. 5 (b)).
  • the random number may be generated by a random number generation program executed by the shape recognition unit 2 configured by a microcomputer.
  • the minimum number of samples extracted in the sample extraction step varies depending on the target shape to be recognized. For example, if the target is a straight line, there are 2 points, and if it is a quadratic curve, it is 5 points. In the present embodiment, the bumper shape of the parked vehicle 20 is approximated to a quadratic curve, and five points are extracted. A set of individual data (sample s) extracted in this way is called a subset as a concept corresponding to the data set.
  • the model generation unit 3c determines a shape model (shape model setting process: FIG. 7 # 2).
  • the first shape model LI is set based on the extracted five samples sl, s5, s8, sl l, and sl3.
  • This shape model L can be easily obtained by linear calculation with a light computational load.
  • several types of template shapes may be prepared in advance, and the optimum shape may be selected from these template shapes.
  • it may be determined using the least square method. Even if the least square method is used, the calculation load is relatively small because the number of samples is small.
  • the goodness-of-fit calculation unit 4 calculates the goodness of the shape model L (first shape model L1) with respect to the sample group S (goodness-of-fit calculation process: FIG. 7). # 3).
  • the goodness of fit is obtained as follows. As shown in FIG. 6, points separated by a predetermined distance in both directions perpendicular to the tangent line of the shape model L are connected along the shape model L to define dotted lines B1 and B2. The area between the dotted lines B1 and B2 is the effective range W. Then, the fitness is calculated according to how much each sample si constituting the sample group S is included in the effective range W. [0025] The effective range W for the first curve model LI shown in FIG.
  • the contour shape determination unit 5 determines whether or not the degree of conformity is greater than or equal to the first reference value TH1 (first determination step: FIG. 7 # 5). If the value is equal to or greater than the first reference value TH1, the shape model L stored in the fitness storage step is determined as the contour shape (contour shape determination step: Fig. 7 # 8). For example, if the first reference value TH1 is set to 75%, the first shape model L1 has a conformity of 77% that is greater than or equal to the first reference value TH1. Is determined as the contour shape. That is, regardless of the specified number of times, the first shape model L1 having a conformity greater than or equal to the first reference value is determined as the contour shape.
  • the process returns to the process # 1 of the flowchart through a predetermined number of times determination process (# 6) described later. Then, another sample s is extracted again to form a new subset, and the same processing is performed. This number of repetitions is defined in advance as the specified number of calculations (corresponding to the specified number of times of the present invention).
  • the second reference value TH2 maximum fitness stored in the temporary storage is smaller than the first reference value TH1 ( For example, it is determined whether it is 70% or more.
  • this goodness of fit is greater than or equal to the second reference value TH2
  • the shape model L stored in the temporary storage unit is determined as the contour shape (contour shape determination step: # 8).
  • samples s2, s4, s7, slO, and sl3 are extracted as subsets.
  • the samples s2, s7, and slO are so-called noise samples in which the contour shape force of the parked vehicle 20 is also removed. Therefore, when viewed from the outline shape of the parked vehicle 20, it is a specimen that should be an outlier. Therefore, as shown in FIG. 8, there are many samples s that are outside the effective range W of the second shape model L2.
  • the second shape model L2 has an agreement (consensus) with a high and high support rate by each sample s constituting the sample group S compared to the first shape model L1! / ,! / I will be.
  • the goodness-of-fit storage step (# 4) determines that the first shape model L1 is It is saved. As a result, after the second determination step (# 7), the first shape model L1 is determined as the contour shape in the contour shape determination step (# 8).
  • the noisy samples s2, s7, and slO are unused, and are removed as outliers. That is, even with a small amount of computation as described above, even if non-detection target data (outlier) is mixed in the sample group, it can be removed and the shape of the object can be recognized stably.
  • the sample group S is composed of 13 samples s is shown for easy understanding. Therefore, the number of samples, the first reference value TH1, and the second reference value TH2 are not values that limit the present invention! /.
  • Hough As is well known, the transformation uses the property that a straight line that exists on Cartesian coordinates (for example, the XY plane) intersects at one point on the polar coordinates- ⁇ space. It is the following.
  • the recognition method according to the present invention requires less memory capacity and less computation. Therefore, the calculation time is also shortened.
  • the shape model L determined based on a small number of samples does not reproduce an accurate contour shape.
  • the conformity between the shape model L and all samples in the sample group S is evaluated, all samples are evaluated as a result. Therefore, it can be considered that the shape model L can reproduce (recognize) the contour shape almost accurately. In this way, the fact that the shape model L determined from the small number of specimens constituting the subset can reproduce the contour shape greatly contributes to a reduction in the amount of computation.
  • FIG. 9 is a flowchart showing a general process compared with the flowchart of FIG.
  • FIG. 10 is a scatter diagram showing the results (prescribed number of calculations: 50) of calculating the fitness for 50 different shape models L defined for the same sample group S.
  • FIG. 10 In order to clearly show the calculation order, the scatter diagram is shown as a line graph.
  • the fitness storage step (# 40) is repeated 50 times from the sampling step (# 10) until it is confirmed that the number of operations has reached 50.
  • the contour shape determination step (# 80) the shape model L having the highest degree of matching is determined as the contour shape.
  • the 98% fitness in the 49th calculation process is the maximum value, so 49 The shape model L set for the second time is determined as the contour shape.
  • the first reference value TH1 is set to 90%
  • the second reference value TH2 is set to 60%.
  • the shape model L that has a goodness of fit over the first reference value TH1 in the first determination step (# 5) until it is confirmed that the number of calculations has reached 50 in the specified number determination step (# 6) The existence of is confirmed.
  • the shape model L having a fitness of 96% in the ninth calculation process is applicable.
  • this shape model L is determined as the contour shape.
  • the contour shape can be determined in a time of about 9Z50 as compared with the general process shown in FIG. Strictly speaking, the determination time of the first determination step (# 5) takes extra time, but a great shortening effect can be obtained. There is a significant factor in how many times the goodness of fit above the first reference value TH1 is calculated, but this number is also statistically distributed. Therefore, a general-purpose speed-up effect can be obtained rather than performing the calculation processing for all the specified number of calculations.
  • the difference in fitness is 2%. If the first reference value TH1 is set to an appropriate value, the difference in the shape model L due to the difference in fitness will not be a big problem. Appropriate values are determined by considering practicality, such as the outlier contamination rate for sample group S.
  • the mixing ratio of the auto-tria takes into account the characteristics of the target object, the characteristics of the object detection unit 1 that detects surface shape information of the object, and the environment (temperature, ambient brightness, time, weather conditions) at the time of detection. Can be determined. In other words, it is not necessary to make a permanent value, but it can be changed while the object recognition device is in operation. The same applies to the second reference value TH2.
  • the result force S in the update determination step (# 4a) is "No"
  • the first determination step (# 5) may be skipped. If it is not determined that the fitness level is higher than the previous level, the fitness level will not exceed the first reference value TH1. This is because if it exceeds the first reference value TH1, it already exceeds the first reference value TH1 at the previous time.
  • FIG. 11 is a scatter diagram showing the result of calculating the fitness for a different shape model L for a sample group S 50 times.
  • This sample group S is a sample group in the case where the surface shape information of the object can be accurately detected, and the target object exists.
  • the first reference value TH1 not only the first reference value TH1, but also the degree of conformity above the second reference value TH2 has not been calculated.
  • a third reference value T H3 is set, the processing is stopped early, and the processing time is shortened.
  • FIG. 12 is a flowchart according to the second embodiment. First determination step (
  • a third determination step (# 5B) is added between # 5) and the specified number of times determination step (# 6).
  • a third determination step (# 5B) may be added between the fitness storage step (# 4) and the first determination step (# 5).
  • the third determination step (# 5B) it is determined whether or not the number of times that the degree of conformity was the third reference value TH3 or less (the number of detections) has reached the specified number of detections.
  • the specified number of detections has been reached, the setting of the new shape model L and the calculation of the fitness are stopped, and the stored shape model L and the fitness are reset (# 9). Then, it is determined that the sample group S does not have the shape model L corresponding to the contour shape (# 8).
  • the third reference value TH3 is set to 20%, and the specified number of detections is set to five.
  • the first (18%), third (20%), fifth (9%), sixth (15%), and eighth (7%) fitness is 20% or less. Therefore, in the 8th calculation process, the number of detections reaches 5 (the specified number of detections) and it is determined that there is no shape model L corresponding to the contour shape. Is done. That is, as compared with the process shown in FIG. 7, the process for one sample group S can be completed in about 8Z50.
  • the third reference value TH3 and the specified number of detections are set to appropriate values in consideration of practicality in the same way as the first reference value TH1.
  • a shape recognition unit 2 and a relative arrangement calculation unit 6 are provided in the microcomputer 2A.
  • the shape recognition unit 2 the contour shape of the parked vehicle 20 as viewed from the vehicle 10, that is, the bumper shape is recognized.
  • the surface shape information of the parked vehicle 20 is acquired using the distance sensor 1, distance information between the vehicle 10 and the parked vehicle 20 can also be obtained at the same time.
  • the relative arrangement calculation unit 6 calculates the relative arrangement of the vehicle 10 and the parked vehicle 20 using the distance information and the contour shape.
  • the relative arrangement is a relative position between each part of the vehicle 10 and each part of the parked vehicle 20.
  • the external shape of the vehicle 10 is known because it is its own shape.
  • the contour shape of the parked vehicle 20 viewed from the vehicle 10 can be recognized as described above.
  • the relative arrangement of the vehicle 10 and the parked vehicle 20 is calculated in the relative arrangement calculation unit 6 as shown in FIG. In FIG. 14, for easy understanding, the entire parked vehicle 20 is indicated by a dotted line.
  • the recognized contour shape E and the relative arrangement of the vehicle 10 are calculated.
  • the contour shape E is recognized including other places of the parked vehicle 20
  • the relative arrangement of the parked vehicle 20 with a plurality of locations can be calculated.
  • This relative arrangement can also be displayed on a notification device such as a display. If the vehicle 10 is equipped with a navigation system or the like, the monitor may also be used. When displaying (notifying), the outer shape of the vehicle 10 and the recognized contour shape E are displayed. Alternatively, the entire parked vehicle 20 may be represented as an illustration based on the contour shape E, and the relative arrangement relationship between the vehicle 10 and the parked vehicle 20 may be displayed.
  • Not only visual notification but also notification (including sound) using a buzzer or chime may be used.
  • Some navigation systems have a voice guide function, and this voice guide function may be used as well.
  • These buzzers, chimes, navigators The Yon system is also included in the notification device.
  • a moving state detection unit 7 for detecting the moving state of the vehicle 10 such as a wheel speed sensor 7a and a rudder angle sensor 7b
  • a relative arrangement in the near future may be calculated. It can. In other words, it is possible not only to know the current relative arrangement in which the contour shape E is recognized, but also to estimate (predict) the future relative arrangement relationship.
  • FIG. 14 shows an example of the relative arrangement relationship between the vehicle 10 and the contour shape E of the parked vehicle 20 calculated in this way.
  • Reference numeral 10 A denotes a near future position of the vehicle 10, that is, an estimated (predicted) position.
  • the wheel speed sensor 7a is a rotation sensor using, for example, a Hall IC provided in each wheel portion of the vehicle 10 (front right FR, front left FL, rear right RR, rear left RL).
  • the steering angle sensor 4b is a sensor that detects the steering rotation angle and the tire rotation angle of the vehicle 10. Alternatively, it may be an arithmetic unit that calculates the rudder angle based on the measurement results at the respective wheel portions of the wheel speed sensor 4a described above (difference in rotational speed and rotational speed of the left and right wheels!). .
  • the object detection unit is not limited to the distance sensor 1 that detects the surface shape information of the parked vehicle 20 as the vehicle 10 moves as shown in FIG.
  • the distance sensor 1 can output surface shape information regardless of the movement of the vehicle 10, and can be selected for each moving distance and every elapsed time in the subsequent information processing.
  • a scanning unit that scans a wide-angle area with respect to the parked vehicle 20 regardless of the movement of the vehicle 10 may be provided, and surface shape information may be detected based on the obtained scanning information. That is, not only a point sensor but also a sensor that can obtain a signal (surface shape information) reflecting the shape of an object such as a one-dimensional sensor, a two-dimensional sensor, or a three-dimensional sensor can be used.
  • the one-dimensional sensor there is a scanning laser sensor.
  • the object (parked vehicle 20) is scanned radially from the sensor position, and the distance distribution is measured by the reflection of the laser wave from each position of the object. If the azimuth angle ⁇ when the laser wave is emitted is detected by an encoder or the like, surface shape information can be obtained in the same way as shown in Fig. 3 and mapped to XY rectangular coordinates.
  • an ultrasonic radar As another example of the one-dimensional sensor, an ultrasonic radar, an optical radar, a radio radar, a triangulation distance meter, or the like may be used.
  • a scanning radar capable of scanning in the horizontal and vertical directions. By using this scanning radar, it is possible to obtain information on the horizontal shape and vertical shape of the target object.
  • image input units such as CCD (Charge Coupled Device) and cameras using CIS (CMOS Image Sensor).
  • CIS CMOS Image Sensor
  • Various feature quantities such as outline information and intersection information may be extracted from image data obtained from this camera to obtain information on the surface shape.
  • information on the shape may be obtained using image data taken in stereo.
  • the embodiment of the present invention has been described with respect to the method and apparatus for recognizing the contour shape using the parked vehicle 20 as an object, and these additional features.
  • the “object” is not limited to an obstacle such as a parked vehicle or a building, but includes various things such as a road lane, a stop line, and a parking frame.
  • the recognition target is not limited to the contour shape of a three-dimensional object, and can be applied to shape recognition of a planar pattern.
  • the present invention can be applied to an object recognition device that recognizes an object existing around a moving body such as an automobile or a robot.
  • FIG. 1 is an explanatory diagram showing an example in which a vehicle equipped with an object recognition device according to the present invention recognizes another vehicle.
  • FIG. 2 is a block diagram schematically showing the configuration of an object recognition apparatus according to the present invention.
  • FIG. 3 is an explanatory diagram showing the results of measuring the surface shape information of the parked vehicle in FIG.
  • FIG. 5 is an explanatory diagram showing a method for arbitrarily extracting samples from the sample group shown in the scatter diagram of FIG.
  • FIG. 6 An explanatory diagram showing the principle of calculating the degree of fit between the first shape model and the sample group determined from samples arbitrarily extracted from the sample group shown in the scatter diagram of Fig. 4.
  • FIG. 7 is a flowchart for explaining a method (first embodiment) according to the present invention for recognizing a contour shape from a sample group shown in the scatter diagram of FIG.
  • FIG. 8 An explanatory diagram showing the principle of calculating the degree of fit between a second shape model and a sample group determined from samples arbitrarily extracted from the sample group shown in the scatter diagram of FIG.
  • FIG. 9 is a flowchart for explaining a general method for recognizing the contour shape of the sample group shown in the scatter diagram of FIG.
  • FIG. 10 Scatter chart showing an example of the result of calculating the fitness for 50 different shape models determined for the same sample group
  • FIG. 11 Scatter chart showing another example of the result of calculating the fitness for 50 different shape models determined for the same sample group.
  • FIG. 12 is a flowchart for explaining the method (second embodiment) according to the present invention for recognizing the contour shape from the sample group shown in the scatter diagram of FIG.
  • FIG. 13 is a schematic block diagram of an apparatus using the object recognition apparatus of the present invention.
  • FIG. 14 is an explanatory diagram showing a relative arrangement relationship between a vehicle on which the apparatus of FIG. 13 is mounted and the contour shape of another vehicle.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Electromagnetism (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)
  • Image Analysis (AREA)

Abstract

 少ない演算量で、被検出対象のデータが混在しても安定して物体の形状を認識することができる物体認識装置を提供する。  物体認識装置は、物体検出部1と、形状モデル設定部3と、適合度演算部4と、輪郭形状決定部5とを備える。形状モデル設定部3は、物体検出部1によって検出された表面形状情報を構成する標本群から任意の標本を抽出して形状モデルを定める。適合度演算部4は、各形状モデルの適合度を演算する。形状モデルの設定と適合度の演算は最大で規定回数分行われる。輪郭形状決定部5は、第一基準値以上の適合度が存在する場合は、規定回数に拘らず最先に第一基準値以上となった適合度を有する形状モデルを輪郭形状として決定する。

Description

明 細 書
物体認識装置
技術分野
[0001] 本発明は、移動体周辺に存在する物体の輪郭形状を認識する物体認識装置に関 する。
背景技術
[0002] このような装置として、下記に出典を示す特許文献 1に記載されたような障害物検 知装置がある。この装置は、車両 (移動体)の周辺に存在する障害物を検知して警報 を発するものである。特許文献 1の発明がなされる前の装置は、単に車両と障害物と の距離だけを測定して所定距離よりも短!ヽ場合にのみ、警報を発するように構成され ていた。従って、この装置には、距離に基づく警報だけでは運転者にとって車両の周 りのどの物体が障害物力判り難いという問題があった。これに対し、特許文献 1に記 載の発明は、車両に複数の障害物検知センサを搭載し、障害物までの距離を演算 する。そして、これら得られた演算結果より障害物の形状が直線 (平板形状)か円形( 凸面形状)かを推定して表示する。
特許文献 1 :日本国公開特許公報第 2003— 194938A (第 2— 3頁、第 1—7図等参 照)
発明の開示
発明が解決しょうとする課題
[0003] 特許文献 1に記載された発明は、障害物までの距離に留まらず、障害物の形状ま でも推定する点において、利用者にとって有益なものである。しかし、実際の計測に おいては、検出対象の物体 (障害物)以外を検出した検出データが混在することも多 い。検出対象物以外の検出データは、検出対象物の形状推定に際してノイズ成分と して作用し、推定精度を低下させる。従って、障害物等の検出対象となる物体を検出 する際の安定性が充分とはいえない。ノイズ除去の機能を具備すれば、演算量が増 え、それに伴って処理時間の増大や装置の大規模ィ匕を招くことになる。
[0004] 本願発明は上記課題に鑑みてなされたものである。本願発明は、少な 、演算量で 、被検出対象のデータが混在しても安定して物体の形状を認識することができる物 体認識装置を提供することを目的とする。
課題を解決するための手段
[0005] 上記目的を達成するため、本発明に係る移動体の周辺に存在する物体を認識する 物体認識装置は以下の、前記移動体の周辺に存在する物体の表面形状情報を検 出する物体検出部と、最大で規定回数分、前記表面形状情報を構成する標本群か ら任意の標本を抽出し、抽出された前記標本に基づ 、て形状モデルを定める形状モ デル設定部と、前記標本群に対する前記各形状モデルの適合度を演算する適合度 演算部と、前記形状モデルに対する前記適合度に基づ 、て前記輪郭形状となる前 記形状モデルを決定する輪郭形状決定部と、を含んで構成される。
ここで、当該輪郭形状決定部は、第一基準値以上の前記適合度が存在する場合 は、前記規定回数に拘らず最先に前記第一基準値以上となった前記適合度を有す る前記形状モデルを前記輪郭形状として決定し、前記第一基準値以上の前記適合 度が存在しない場合には、前記規定回数分求められた前記適合度の内、前記第一 基準値より低い第二基準値以上で最大の前記適合度を有する前記形状モデルを前 記輪郭形状として決定し、前記第二基準値以上の前記適合度が存在しな 、場合に は、前記輪郭形状に該当する前記形状モデルが存在しないと決定する。
[0006] この特徴構成によれば、形状認識部は、最大で規定回数分、この標本群より任意 に標本を抽出して、抽出した標本に基づいて形状モデルを定める。そして、標本群 全体がこの形状モデルに対して、どの程度一致するかの適合度を演算し、どの形状 モデルが標本群に最も適合するかを判定する。
任意に抽出した標本にノイズ性の標本が含まれて ヽた場合には、定めた形状モデ ルと標本群との適合度は低くなり、ノイズ性の標本を含まずに形状モデルを定めた場 合には、適合度は高くなる。従って、少ない演算量で、精度良ぐノイズ性の標本を除 去して対象となる物体の輪郭形状を認識することができる。
[0007] 形状認識部は、標本群を構成する総数よりも遥かに少ない標本数で形状モデルを 定める。また、形状モデルに対する標本群の適合度は、各標本の空間上の座標を用 いて、幾何学的に演算することができる。このため、標本の抽出や形状モデルの設定 、適合度の算出に必要となる演算量は少なくなる。よって、最大で規定回数分、繰り 返し異なる形状モデルを定めて適合度を演算しても総演算量の増大を抑制すること ができる。その結果、高い精度で輪郭形状を認識することができる。
[0008] さらに、形状認識部の輪郭形状決定部は、第一基準値以上の適合度を有する形 状モデルが存在する場合は、上記規定回数に拘らず最先に第一基準値以上となつ た適合度を有する形状モデルを、輪郭形状として決定する。従って、繰り返し異なる 形状モデルを定めて適合度を演算する過程で、第一基準値以上となる高 、適合度 を有する形状モデルがあれば、その時点で輪郭形状を定めて、処理を終了すること ができる。その結果、さらに総演算量を抑制することができる。
[0009] 一方、規定回数分の形状モデルを設定し、適合度を算出しても、第一基準値以上 の適合度が存在しない場合には、規定回数分求められた適合度の内、第一基準値 より低 、第二基準値以上で最大の適合度を有する形状モデルが、輪郭形状として決 定される。第二基準値以上の適合度が存在しない場合には、輪郭形状に該当する 形状モデルが存在しないと決定される。これにより、規定回数分の演算を行った後、 輪郭形状として好ましくない形状を認識する可能性を抑制することができる。
[0010] また、本発明に係る物体認識装置の他の特徴構成は、上記構成に加え、下記構成 を備えることにある。即ち、前記輪郭形状決定部は、同一の前記標本群力も求められ た異なる前記形状モデルに対する前記適合度が、前記第二基準値より低!、第三基 準値以下となった回数が、規定検出回数に達した場合には、前記輪郭形状に該当 する前記形状モデルが存在しな ヽと決定する。
[0011] ある標本群に対して規定回数分の演算を行った後、全ての形状モデルに対する適 合度が上記第二しきい値よりも小さいような場合がある。この場合、この標本群は対 象となる物体の表面形状情報を構成するものではない可能性が非常に高い。また、 このような標本群力 抽出された各形状モデルの適合度は、何れも非常に低 、値と なる場合が多い。そこで、計算された適合度が、第三基準値以下であった回数が規 定検出回数以上となった場合には、対象となる物体の表面形状情報を構成する標本 群ではないと判定する。このようにすれば、規定回数分の演算を行うことなぐ無駄な 標本群に対する評価を打ち切ることができる。その結果、総演算量を抑制することが できる。
発明を実施するための最良の形態
[0012] 以下、本発明の好適な実施形態を、車両が他の車両を認識する場合を例として、 図面に基づいて説明する。
図 1に示すように、移動体としての車両 10には、側方に向けて距離センサ 1 (物体 検出部)が搭載されている。この距離センサ 1は、例えばポイントセンサ、即ち、シング ルービームセンサや超音波を利用したソナ一等である。車両 10は、駐停車中の他の 車両 20 (以下、駐車車両と称す。)のそばを図示 X方向へ通過する際に、距離センサ 1によって駐車車両 20までの距離を計測する。つまり、距離センサ 1は、車両 10の移 動に応じて駐車車両 20との距離を計測し、表面形状情報を取得する。これは後述す る物体検出工程に相当し、駐車車両 20は本発明の物体に相当する。尚、図 1には、 簡略のため、車両 10の左側方にのみ距離センサ 1が設けられている力 当然両側方 に設けられていてもよい。
[0013] このようにして得られた駐車車両 20の表面形状情報は、車両 10の移動距離に応じ た離散的なデータである。尚、車両 10の「移動距離に応じて」には、「所定時間間隔 に応じて」の意味も含むものである。例えば、車両 10が等速で移動する場合には、所 定時間間隔に応じて計測すれば、移動距離に応じて測定することになる。移動体 10 の移動速度、移動距離、移動時間は、線形的に定まる。従って、結果として概ね均等 に表面形状情報を得ることができる方法であれば、どのような方法を用いてもょ 、。 尚、距離センサ 1は移動時間を計測するタイマ、移動距離を計測するエンコーダ、 移動速度を計測する回転センサ等の付随するセンサを備えていてもよい。また、これ らセンサを別に備え、情報を得るようにして!/、てもよ!/、。
[0014] 図 2は、本発明に係る物体認識装置の概略ブロック図である。駐車車両 20の輪郭 形状を認識する形状認識部 2は、例えばマイクロコンピュータ等の電子回路によって 構成される。形状認識部 2を構成する各部は、必ずしも物理的に異なる電子回路を 示すものではなぐ機能としての処理部を示すものである。例えば、同一の CPUによ つて、各部の機能に応じたプログラムが実行されるものであってもよい。
[0015] 形状認識部 2は、形状モデル設定部 3と、適合度演算部 4と、輪郭形状決定部 5と を有する。
形状モデル設定部 3は、表面形状情報を構成する標本群から任意の標本を抽出し て、抽出された標本に基づいて形状モデルを定める。適合度演算部 4は、上記標本 群に対する形状モデルの適合度を演算する。輪郭形状決定部 5は、同一の上記標 本群力 最大で規定回数 (後述する規定演算回数)分定められる形状モデルに対す る適合度に基づ ヽて、輪郭形状となる形状モデルを決定する。
[0016] 〔第一実施形態〕
以下、本発明に係る物体認識装置が物体としての駐車車両 20を認識する方法を 説明する。理解を容易にするために、物体検出工程と、それに続いて物体の輪郭形 状を認識する形状認識工程とに分けて説明する。
[0017] 〔物体検出工程〕
初めに、物体検出工程について説明する。図 3に示すように、距離センサ 1によって 駐車車両 20上の表面形状情報 Sが計測される。表面形状情報は、本実施形態にお いて駐車車両 20のバンパー部の外形形状に沿った形で離散的に得られた計測デ ータである。ここで、これら離散的に得られたデータの一群を標本群 S (ラージエス)と 称する。標本群 Sは、輪郭形状の認識対象となるデータセットである。また、データセ ットを構成する一点一点のデータを標本 s (スモールエス)と称する。
[0018] 形状認識部 2に入力された表面形状情報 (標本群 S)は、図 1に示す X方向及び Y 方向を軸とする二次元直交座標上にマッピングされる。そして、図 4 (b)に示すように インデックスを付されて、形状モデル設定部 3の標本記憶部 3aに記憶される。標本記 憶部 3aは、例えばマイクロコンピュータに内蔵されたメモリやレジスタで構成されてい る。勿論、マイクロコンピュータとは別体のメモリゃノヽードディスクなど、他の記憶媒体 を用いてもよい。
[0019] 簡略化のため、図中には全ての標本 sを示していないが、図 4 (a)に示した標本中、 黒点で示す標本 sをインライア (inlier)、白抜き点で示す標本 sをアウトライア(outlier) と称する。図中、標本 sl、 si 3等はインライアであり、標本 s2、 s7、 slOはアウトライア である。詳細は後述するが、インライアは駐車車両 20の輪郭形状を構成する標本で ある。アウトライアは駐車車両 20の輪郭形状力も外れた 、わゆるノイズ性の標本であ る。
[0020] 以下、図 7に示すフローチャートも利用して、得られた標本群 Sより、駐車車両 20の 輪郭形状を認識する手順 (形状認識工程)につ ヽて説明する。
[0021] 標本抽出部 3bは、標本群 S (標本 sl〜sl3)より任意の標本 si(iはインデックス番号 )を数点抽出する (標本抽出工程:図 7 # 1)。抽出される標本 sは、図 5に示すように 乱数を用いてランダムに定まる。例えば、形状認識部 2に乱数発生器 (不図示)を設 けて乱数を発生させる(図 5 (a) )。そして、発生させた乱数をインデックス番号とする 標本 siを抽出する(図 5 (b) )。尚、乱数は、マイクロコンピュータにより構成された形状 認識部 2が実行する乱数発生プログラムによって発生させてもよい。
[0022] 標本抽出工程において抽出される標本の最小数は、認識したい対象形状によって 異なる。例えば対象が直線であれば 2点であり、二次曲線であれば 5点である。本実 施形態においては、駐車車両 20のバンパー形状を二次曲線に近似し、 5点を抽出 する。このようにして抽出された個々のデータ (標本 s)の集合は、データセットに対応 する概念として、サブセットと称される。
[0023] 続、て、このサブセット (抽出された標本 s)に基づ 、てモデル生成部 3cが形状モデ ルを定める(形状モデル設定工程:図 7 # 2)。図 6に実線で示したように、抽出された 5つの標本 sl、 s5、 s8、 sl l、 sl3に基づいて第一の形状モデル LIが設定される。こ の形状モデル Lは、演算負荷の軽い線形計算により容易に求めることができる。また は、予め数種類のテンプレート形状を用意しておき、これらテンプレート形状の中より 最適なものを選択するようにして定めてもよい。あるいは、最小二乗法を用いて定め てもよい。最小二乗法を用いても、標本数が少ないため、演算負荷は比較的小さい。
[0024] 形状モデル Lが定まると、適合度演算部 4にお 、て、標本群 Sに対する形状モデル L (第一の形状モデル L1)の適合度が演算される (適合度演算工程:図 7 # 3)。 適合度は、以下のようにして求める。図 6に示すように、形状モデル Lの接線に対し て直交する両方向に所定距離離れた点を形状モデル Lに沿って結び、点線 B1及び B2を定める。この点線 B1及び B2に挟まれた部分が有効範囲 Wとなる。そして、この 有効範囲 Wの中に、標本群 Sを構成する各標本 siが、どの程度含まれるかによつて 適合度を算出する。 [0025] 図 6に示した第一の曲線モデル LIに対する有効範囲 Wの中には、標本 s2、 s7、 si 0のアウトライアを除く全ての標本 sが含まれている。従って、第一の形状モデル L1の 標本群 Sに対する適合度は、 77% ( = 10Z13)となる。つまり、第一の形状モデル L 1は、標本群 Sを構成する各標本 sにより、高い支持率 (77%)で合意 (コンセンサス) を得たということができる。
[0026] 適合度が求められると、前回までの最大の適合度よりも今回求めた適合度の方が 高!ヽか否かが判定される(更新判定工程:図 7 # 4a)。適合度の算出が初回の場合 には、初期値 (例えば、ゼロ)よりも高い値力否かが判定される。今回求めた適合度の 方が高い場合は、この適合度と、これに対応する形状モデル Lがレジスタ等の一時記 憶部 (不図示)に保存される(更新工程: # 4b)。つまり、最大適合度と、これに対応 する形状モデルが更新される。これら、更新判定工程と更新工程とを合わせて、適合 度保存工程(# 4)と称する。本例では、適合度 77%と、形状モデル L1とが保存され る。
[0027] 次に、輪郭形状決定部 5において、この適合度が第一基準値 TH1以上か否かを判 定する (第一判定工程:図 7 # 5)。第一基準値 TH1以上である場合には、適合度保 存工程にて保存された形状モデル Lを輪郭形状として決定する (輪郭形状決定工程 :図 7 # 8)。例えば、第一基準値 TH1が 75%と設定されているような場合には、第一 の形状モデル L1の適合度 77%が第一基準値 TH1以上であるので、第一の形状モ デル L1が輪郭形状と決定される。即ち、規定回数に拘らず、第一基準値以上の適 合度を有する第一の形状モデル L1が輪郭形状と決定される。
[0028] ここで、第一基準値 TH1が 80%と設定されていると、第一の形状モデル L1の適合 度は、第一基準値 TH1に達しない。この場合には、後述する規定回数判定工程(# 6)を経て、フローチャートの処理 # 1に戻る。そして、再度、別の標本 sを抽出して新 たなサブセットを構成し、同様の処理を行う。この繰り返し回数は、規定演算回数 (本 発明の規定回数に相当する。)として予め規定される。
[0029] 処理# 1〜 # 4 ( # 1〜 # 6)を規定演算回数繰り返しても第一基準値 TH1以上の 適合度が存在しない場合には、第二判定工程 (図 7 # 7)へ移行する。つまり、一時 記憶部に保存された最大適合度が第一基準値 TH1よりも小さい第二基準値 TH2 ( 例えば 70%)以上か否かが判定される。この適合度が第二基準値 TH2以上の場合 には、一時記憶部に保存された形状モデル L (最大適合度に対応する形状モデル L )が輪郭形状と決定される (輪郭形状決定工程: # 8)。第二基準値 TH2以上の適合 度が存在しな!ヽ場合には、一時記憶部に保存された形状モデル Lと適合度とをリセッ トする (適合度初期化工程: # 9)。その結果、輪郭形状決定工程 ( # 8)にお ヽて、「 該当無し」、即ち、対象となる物体 (駐車車両 20等)が無い、と決定される。
[0030] 図 8に示した形状モデル L (第二の形状モデル L2)では、サブセットとして標本 s2、 s4、 s7、 slO、 sl3が抽出されている。上述したように標本 s2、 s7、 slOは、駐車車両 20の輪郭形状力も外れたいわゆるノイズ性の標本である。従って、駐車車両 20の輪 郭形状から見た場合には、アウトライアとなるべき標本である。そのため、図 8に示す ように、第二の形状モデル L2の有効範囲 Wから外れる標本 sが多数存在する。第一 の形状モデル L1と同様に適合度を演算すると、 38% ( = 5Z13)となる。つまり、第 二の形状モデル L2は、第一の形状モデル L1に比べ、標本群 Sを構成する各標本 s により、高 、支持率で合意 (コンセンサス)を得られて!/、な 、と!/、うことになる。
[0031] 第一の形状モデル Ll、第二の形状モデル L2の何れの適合度も、第一基準値 TH 1以上でない場合、適合度保存工程(# 4)により、第一の形状モデル L1が保存され て 、る。その結果、第二判定工程 ( # 7)を経て、輪郭形状決定工程 ( # 8)で第一の 形状モデル L1が輪郭形状と決定される。
輪郭形状と決定された第一の形状モデル L1は、ノイズ性の標本 s2、 s7、 slOが未 使用であり、アウトライアとして、除去されたこととなる。即ち、上記説明したような少な い演算量で、非検出対象のデータ (アウトライア)が標本群に混在してもこれを除去し 、安定して物体の形状を認識することができる。
尚、本実施形態においては、理解を容易にするために 13ケの標本 sによって標本 群 Sが構成される例を示しているに過ぎない。従って、標本数や、第一基準値 TH1、 第二基準値 TH2の値は、本発明を限定する値ではな!/、。
[0032] 〔従来手法に対する効果〕
このような方法を用いず、標本 Sより輪郭形状を算出する方法は従来、種々提案さ れている。特に直線の認識に好適なハフ(Hough)変換を応用する方法もある。ハフ 変換はよく知られているように、直交座標(例えば XY平面)上に存在する直線は、極 座標 — Θ空間)上では 1点で交差する、という性質を利用したもので、その変換式 は、以下である。
[0033] p =X- cos Θ + Y- sin 0
[0034] 上記式より、理解できるように極座標空間で pや Θの範囲を広げたり、細か!/、分解 能を得たりしょうとすると、それだけ演算量が増大する。つまり、一次記憶部としての、 メモリは大容量が要求され、計算回数も多くなる。
これに対し、本発明に係る認識方法は、必要となるメモリ容量も少なぐ演算量も少 ない。よって、演算時間も短くなる。
[0035] 一般に少ない標本数に基づいて定めた形状モデル Lは、正確な輪郭形状を再現 するものではない、とも考えられる。しかし、本発明においては、形状モデル Lと標本 群 Sの全標本との適合度を評価しているため、結果として全標本を評価している。従 つて、形状モデル Lはほぼ正確に輪郭形状を再現 (認識)できていると考えてよい。こ のように、サブセットを構成する少な ヽ標本数から定めた形状モデル Lが輪郭形状を 再現できることは、演算量の削減に大きく貢献して 、る。
[0036] 〔処理時間の短縮効果 1〕
以上説明したように、図 7に例示したフローチャートでは、第一判定工程(# 5)を行 うことにより、一般に考えられる処理時間を短縮し、高速処理を可能としている。以下 、本発明による処理時間の短縮効果について説明する。図 9は、図 7のフローチヤ一 トに対比させる一般的な処理を示すフローチャートである。図 10は、同一の標本群 S に対して定められた異なる形状モデル Lに対する適合度を 50回算出した結果 (規定 演算回数 : 50回)を示す散布図である。尚、演算順序を明確に示すため、散布図を 折れ線グラフで示して 、る。
[0037] 図 9に示したフローチャートに従って演算が行われる場合を考える。規定回数判定 工程(# 60)において、演算回数が 50回に達したことが確認されるまで、標本抽出ェ 程(# 10)から適合度保存工程(# 40)が 50回繰り返される。そして、輪郭形状決定 工程(# 80)において、最大の適合度を有する形状モデル Lが輪郭形状と決定され る。本例では、 49回目の演算処理における 98%の適合度が最大値であるので、 49 回目に設定された形状モデル Lが輪郭形状と決定される。
尚、図 7の第二判定工程( # 7)に相当する処理は、説明を容易にするため、省略し た。
[0038] 同様に図 7に示したフローチャートに従って演算が行われる場合、即ち本発明に係 る方法を採る場合を考える。ここで、第一基準値 TH1は 90%、第二基準値 TH2は 6 0%に設定されている。規定回数判定工程(# 6)において、演算回数が 50回に達し たことが確認されるまでに、第一判定工程(# 5)にて第一基準値 TH1以上の適合度 を有する形状モデル Lの存在が確認される。本例では、 9回目の演算処理における 9 6%の適合度を有する形状モデル Lが該当する。そして、輪郭形状決定工程(# 8) にお 、て、この形状モデル Lが輪郭形状と決定される。
[0039] つまり、図 9に示した一般的な処理と比較して、約 9Z50の時間で輪郭形状を決定 することができる。厳密には、第一判定工程(# 5)の判定時間が余分に掛カるが、大 きな短縮効果を得ることができる。第一基準値 TH1以上となる適合度が何回目の演 算時に算出されるかは確立的な要素が大であるが、統計的にはこの回数も分散する 。従って、規定演算回数全ての演算処理を行うよりも汎用的な高速化効果が得られ る。
[0040] 上記例にお 、て、適合度の違!、は 2%である。第一基準値 TH1を適切な値に設定 すれば、適合度の違いによる形状モデル Lの差は大きな問題とはならない。適切な 値は、標本群 Sに対するアウトライアの混入率など、実用性を考慮して定められる。ァ ゥトライアの混入率は、対象とする物体の特性や、物体の表面形状情報を検出する 物体検出部 1の特性、検出時の環境 (気温、周囲の明るさ、時刻、気象条件)などを 加味して定めることができる。つまり、恒久的な値とする必要はなぐ物体認識装置の 稼動中に変更可能にされて 、てもよ 、。第二基準値 TH2につ 、ても同様である。
[0041] 尚、更新判定工程(# 4a)の結果力 S「否」であった場合、図 7に示す実線の如く第一 判定工程 ( # 5)へ進む必要はな 、。点線で示すように第一判定工程 ( # 5)を飛ばし ても構わない。前回までの適合度よりも高いと判定されない場合、適合度が第一基準 値 TH1以上となることはない。仮に、第一基準値 TH1以上となるならば、既に前回 の時点で第一基準値 TH1以上となるからである。 [0042] 〔第二実施形態及び処理時間の短縮効果 2〕
図 11は、ある標本群 Sに対して、異なる形状モデル Lに対する適合度を 50回算出 した結果を示す散布図である。この標本群 Sは、物体の表面形状情報が正確に検出 できて ヽな 、、ある 、は対象となる物体が存在して ヽな 、場合の標本群である。 図 11から明らかなように、第一基準値 TH1はおろか、第二基準値 TH2以上の適 合度も算出されていない。また、図 10に示した散布図では低い適合度力も高い適合 度まで、広範囲に分布している力 図 11に示した散布図では低い適合度に分布が 集中している。
[0043] 図 11に示したような適合度を示す標本群 Sの場合、図 7に示したフローチャートに 従って演算処理を進めると、最終的に「該当無し」と判定される。つまり、規定演算回 数である 50回の繰り返しの後、第二判定工程(# 7)を経て、「該当無し」と決定される 。つまり、輪郭形状として何れの形状モデル Lも定められないにも拘らず、最大の処 理時間を費やすこととなる。
そこで、図 11に示したような適合度を示す標本群 Sの特性に注目し、第三基準値 T H3を設けて、早期に処理を中止して、処理時間を短縮する。
[0044] 図 12は、第二実施形態に係るフローチャートである。図 7に示した第一判定工程(
# 5)と規定回数判定工程(# 6)との間に、第三判定工程(# 5B)を追加している。こ の形態に限らず、例えば、適合度保存工程(# 4)と第一判定工程(# 5)との間に第 三判定工程 ( # 5B)を追加してもよ 、。
第三判定工程(# 5B)では、適合度が第三基準値 TH3以下であった回数 (検出回 数)が、規定検出回数に達した力否かを判定する。そして、規定検出回数に達した場 合には、以降、新たな形状モデル Lの設定及び適合度の演算を中止し、保存されて いる形状モデル Lと適合度とをリセットする(# 9)。そして、当該標本群 Sには輪郭形 状に該当する形状モデル Lがな 、と決定する( # 8)。
[0045] 図 11に示した例では、第三基準値 TH3は 20%、規定検出回数は 5回に設定され ている。本例では、 1回目(18%)、 3回目(20%)、 5回目(9%)、 6回目(15%)、 8 回目(7%)の適合度が 20%以下である。従って、 8回目の演算処理において、検出 回数が 5回 (規定検出回数)に達し、輪郭形状に該当する形状モデル Lがないと決定 される。つまり、図 7に示した処理と比較して、約 8Z50の時間で一つの標本群 Sに対 する処理を終了することができる。
尚、第三基準値 TH3、規定検出回数の値は、第一基準値 TH1と同様に実用性を 考慮して適切な値に定められる。
[0046] 〔認識結果の利用例〕
以下、上述した物体の輪郭形状の認識結果を利用する例を説明する。図 13に示 すように、マイクロコンピュータ 2A内に、形状認識部 2と相対配置演算部 6とが備えら れる。形状認識部 2において、車両 10から見た駐車車両 20の輪郭形状、即ちパンパ 一形状が認識される。この認識に際して、距離センサ 1を用いて駐車車両 20の表面 形状情報を取得しているため、車両 10と駐車車両 20との距離情報も同時に得ること ができている。相対配置演算部 6は、この距離情報と、輪郭形状とを用いて、車両 10 と駐車車両 20との相対配置を演算する。
[0047] ここで、相対配置とは、車両 10の各部と駐車車両 20の各部との相対位置である。
車両 10の外形形状は、自己の形状であるため、既知である。そして、車両 10から見 た駐車車両 20の輪郭形状は、上述したように認識できている。これらにより、相対配 置演算部 6において図 14に示すように車両 10と駐車車両 20との相対配置を演算す る。尚、図 14では理解を容易にするために、駐車車両 20全体を点線で示しているが 、実際には認識された輪郭形状 Eと、車両 10との相対配置が演算される。勿論、駐 車車両 20の他の場所も含めて輪郭形状 Eを認識して ヽる場合には、駐車車両 20の 複数箇所との相対配置を演算することができる。
[0048] この相対配置は、ディスプレイ等の報知装置に表示させることもできる。車両 10に ナビゲーシヨンシステム等を搭載している場合には、そのモニタを兼用してもよい。表 示 (報知)に際しては、車両 10の外形と、認識した輪郭形状 Eとを表示する。あるいは 、輪郭形状 Eに基づいて駐車車両 20の全体をイラストとして表現し、車両 10と駐車車 両 20との相対配置関係を表示してもよ ヽ。
また、視覚的な報知に限らず、ブザーやチャイム等を用いて音声 (音響を含む)によ り報知してもよ 、。ナビゲーシヨンシステムには音声ガイドの機能を備えて 、るものも あり、この音声ガイドの機能を兼用してもよい。これら、ブザーやチャイム、ナビゲーシ ヨンシステム等も、報知装置に含まれる。
[0049] また、図 13に示すように車輪速センサ 7aや舵角センサ 7b等、車両 10の移動状態 を検出する移動状態検出部 7を具備すれば、近未来の相対配置を演算することもで きる。つまり、輪郭形状 Eが認識されている現在の相対配置を知るに留まらず、将来 の相対配置関係を推定 (予測)することができる。図 14は、このようにして算出された 車両 10と駐車車両 20の輪郭形状 Eとの相対配置関係の一例を示して 、る。符号 10 Aは車両 10の近未来の位置、即ち推定 (予測)位置である。
ここで、車輪速センサ 7aは、車両 10の各車輪部(前方右 FR、前方左 FL、後方右 R R、後方左 RL)に備えられた、例えば、ホール ICを利用した回転センサである。舵角 センサ 4bは、車両 10のステアリングの回転角度やタイヤの回動角度を検出するセン サである。あるいは、前述の車輪速センサ 4aの各車輪部での計測結果 (左右の車輪 の回転数や回転速度の違!、)に基づ!、て舵角を演算する演算装置であってもよ 、。
[0050] 〔その他の実施形態〕
物体検出部は、図 1に示したような車両 10の移動に伴って駐車車両 20の表面形状 情報を検出する距離センサ 1に限定されることはない。
距離センサ 1は、車両 10の移動に拘らず表面形状情報を出力し、後段の情報処理 において、移動距離毎、経過時間毎に選別することも可能である。また、車両 10の移 動に拘らず駐車車両 20に対する広角エリアを走査する走査部を備え、得られた走査 情報に基づいて表面形状情報を検出するものであってもよい。即ち、ポイントセンサ に限らず、一次元センサ、二次元センサ、三次元センサ等、物体の形状を反映した 信号 (表面形状情報)を得られるセンサが使用できる。
[0051] 一次元センサの一例として、スキャン型レーザーセンサがある。センサ位置より放射 状に物体 (駐車車両 20)を走査し、物体の各位置からのレーザー波の反射により、距 離の分布を計測する。レーザー波を発射したときの方位角 Θをエンコーダ等により検 出しておけば、図 3に示したものと同様に表面形状情報を得て、 XY直交座標にマツ ビングすることができる。
一次元センサの他の例として、超音波方式のレーダ、光方式のレーダ、電波方式 のレーダ、三角測量式の距離計等を用いてもよい。 [0052] 二次元センサとしては、水平'垂直方向に走査可能なスキャン型レーダがある。この スキャン型レーダを用いることにより、対象物体の水平方向の形状、垂直方向の形状 に関する情報を得ることができる。
また、よく知られた二次元センサとしては CCD (Charge Coupled Device)や、 CIS ( CMOS Image Sensor)を利用したカメラ等の画像入力部もある。このカメラより得られ た画像データより、輪郭線情報、交点情報等の各種特徴量を抽出し、表面形状に関 する情報を得てもよい。
三次元センサについても同様であり、例えばステレオ撮影した画像データ等を用い て、形状に関する情報を得てもよい。
[0053] 以上、本発明の実施形態を、駐車車両 20を物体として、この輪郭形状を認識する 方法及び装置とこれらの追加的特徴について説明した。この「物体」は、駐車車両や 、建造物等の障害物に限らず、道路の走行レーンや、停止線、駐車枠等、種々のも のが該当する。即ち、認識対象も立体物の輪郭形状に限定されるものではなぐ平面 模様の形状認識にも適用できるものである。
産業上の利用可能性
[0054] 本発明は、自動車やロボットなどの移動体の周辺に存在する物体を認識する物体 認識装置に適用することができる。
図面の簡単な説明
[0055] [図 1]本発明に係る物体認識装置を搭載した車両が他の車両を認識する場合の例を 示す説明図
[図 2]本発明に係る物体認識装置の構成を模式的に示すブロック図
[図 3]図 1の駐車車両の表面形状情報を測定した結果を示す説明図
[図 4]図 3に示す測定結果を二次元直交座標上にマッピングした散布図
[図 5]図 4の散布図に示す標本群から任意に標本を抽出する方法を示す説明図
[図 6]図 4の散布図に示す標本群から任意に抽出した標本より定めた第一の形状モ デルと標本群との適合度を算出する原理を示す説明図
[図 7]図 4の散布図に示す標本群から輪郭形状を認識する本発明に係る方法 (第一 実施形態)を説明するフローチャート [図 8]図 4の散布図に示す標本群から任意に抽出した標本より定めた第二の形状モ デルと標本群との適合度を演算する原理を示す説明図
[図 9]図 4の散布図に示す標本群カゝら輪郭形状を認識する一般的な方法を説明する フローチャート
[図 10]同一の標本群に対して定められた異なる形状モデルに対する適合度を 50回 算出した結果の一例を示す散布図
[図 11]同一の標本群に対して定められた異なる形状モデルに対する適合度を 50回 算出した結果の他の例を示す散布図
[図 12]図 4の散布図に示す標本群から輪郭形状を認識する本発明に係る方法 (第二 実施形態)を説明するフローチャート
[図 13]本発明の物体認識装置を利用する装置の概略ブロック図
[図 14]図 13の装置を搭載した車両と他の車両の輪郭形状との相対配置関係を示す 説明図
符号の説明
1 距離センサ (物体検出部)
2 形状認識部
3 形状モデル設定部
4 適合度演算部
5 輪郭形状決定部
S 標本群
s 標本

Claims

請求の範囲
[1] 移動体の周辺に存在する物体を認識する物体認識装置であって、
前記移動体の周辺に存在する物体の表面形状情報を検出する物体検出部と、 最大で規定回数分、前記表面形状情報を構成する標本群から任意の標本を抽出 し、抽出された前記標本に基づ 、て形状モデルを定める形状モデル設定部と、 前記標本群に対する前記各形状モデルの適合度を演算する適合度演算部と、 前記形状モデルに対する前記適合度に基づ!/、て、
第一基準値以上の前記適合度が存在する場合は、前記規定回数に拘らず最 先に前記第一基準値以上となった前記適合度を有する前記形状モデルを前記輪郭 形状として決定し、
前記第一基準値以上の前記適合度が存在しな!、場合には、前記規定回数分 求められた前記適合度の内、前記第一基準値より低い第二基準値以上で最大の前 記適合度を有する前記形状モデルを前記輪郭形状として決定し、
前記第二基準値以上の前記適合度が存在しな!、場合には、前記輪郭形状に 該当する前記形状モデルが存在しないと決定する、輪郭形状決定部と、を備える物 体認識装置。
[2] 前記輪郭形状決定部は、同一の前記標本群から求められた異なる前記形状モデ ルに対する前記適合度が、前記第二基準値より低!、第三基準値以下となった回数 が規定検出回数に達した場合には、前記輪郭形状に該当する前記形状モデルが存 在しな!ヽと決定する請求項 1に記載の物体認識装置。
PCT/JP2006/320572 2005-10-20 2006-10-16 物体認識装置 WO2007046336A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US12/088,499 US8031908B2 (en) 2005-10-20 2006-10-16 Object recognizing apparatus including profile shape determining section
EP06821878A EP1939585B1 (en) 2005-10-20 2006-10-16 Object recognizing device
DE602006007370T DE602006007370D1 (de) 2005-10-20 2006-10-16 Objekterkennungseinrichtung

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005306100A JP4662147B2 (ja) 2005-10-20 2005-10-20 物体認識装置
JP2005-306100 2005-10-20

Publications (1)

Publication Number Publication Date
WO2007046336A1 true WO2007046336A1 (ja) 2007-04-26

Family

ID=37962429

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/320572 WO2007046336A1 (ja) 2005-10-20 2006-10-16 物体認識装置

Country Status (5)

Country Link
US (1) US8031908B2 (ja)
EP (1) EP1939585B1 (ja)
JP (1) JP4662147B2 (ja)
DE (1) DE602006007370D1 (ja)
WO (1) WO2007046336A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009234294A (ja) * 2008-03-25 2009-10-15 Panasonic Electric Works Co Ltd 駐車空間監視装置

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4618506B2 (ja) * 2005-10-20 2011-01-26 アイシン精機株式会社 物体認識装置
JP4753053B2 (ja) * 2008-02-15 2011-08-17 本田技研工業株式会社 物体種別判定装置、物体種別判定方法、及び物体種別判定用プログラム
US8280112B2 (en) 2010-03-31 2012-10-02 Disney Enterprises, Inc. System and method for predicting object location
GB201211999D0 (en) * 2012-07-05 2012-08-22 Roke Manor Research Sensor location method and system
JP6152299B2 (ja) * 2013-05-16 2017-06-21 株式会社Subaru 密閉空間検出装置および自動車
CN109334657B (zh) * 2018-09-21 2020-06-23 广州欧纬德教学设备技术有限公司 一种基于教学车的自动泊车系统及方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003058998A (ja) * 2001-08-14 2003-02-28 Nissan Motor Co Ltd 車両駐車装置
JP2003255047A (ja) * 2001-12-27 2003-09-10 Nissan Motor Co Ltd 前方物体検出装置及び前方物体検出方法
JP2006189393A (ja) * 2005-01-07 2006-07-20 Toyota Motor Corp 周辺物体情報取得装置及びこれを用いる駐車支援装置
JP2006193014A (ja) * 2005-01-12 2006-07-27 Toyota Motor Corp 駐車支援装置
JP2006276985A (ja) * 2005-03-28 2006-10-12 Aisin Seiki Co Ltd 物体認識方法及び装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002228734A (ja) * 2001-02-05 2002-08-14 Nissan Motor Co Ltd 周囲物体認識装置
JP2003194938A (ja) 2001-12-25 2003-07-09 Denso Corp 障害物検知装置
JP4016180B2 (ja) * 2002-03-15 2007-12-05 ソニー株式会社 平面抽出方法、その装置、そのプログラム、その記録媒体及び撮像装置
JP4128837B2 (ja) * 2002-09-30 2008-07-30 佐藤 淳 路面走行レーン検出装置
US7248718B2 (en) * 2004-02-19 2007-07-24 Siemens Corporate Research, Inc. System and method for detecting a passing vehicle from dynamic background using robust information fusion
JP2006234493A (ja) * 2005-02-23 2006-09-07 Aisin Seiki Co Ltd 物体認識装置及び方法
JP2006234494A (ja) * 2005-02-23 2006-09-07 Aisin Seiki Co Ltd 物体認識装置
JP2006276984A (ja) * 2005-03-28 2006-10-12 Aisin Seiki Co Ltd 物体認識方法及び装置
US20060291697A1 (en) * 2005-06-21 2006-12-28 Trw Automotive U.S. Llc Method and apparatus for detecting the presence of an occupant within a vehicle
JP2007030700A (ja) 2005-07-27 2007-02-08 Aisin Seiki Co Ltd 駐車支援装置
JP4618506B2 (ja) * 2005-10-20 2011-01-26 アイシン精機株式会社 物体認識装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003058998A (ja) * 2001-08-14 2003-02-28 Nissan Motor Co Ltd 車両駐車装置
JP2003255047A (ja) * 2001-12-27 2003-09-10 Nissan Motor Co Ltd 前方物体検出装置及び前方物体検出方法
JP2006189393A (ja) * 2005-01-07 2006-07-20 Toyota Motor Corp 周辺物体情報取得装置及びこれを用いる駐車支援装置
JP2006193014A (ja) * 2005-01-12 2006-07-27 Toyota Motor Corp 駐車支援装置
JP2006276985A (ja) * 2005-03-28 2006-10-12 Aisin Seiki Co Ltd 物体認識方法及び装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1939585A4 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009234294A (ja) * 2008-03-25 2009-10-15 Panasonic Electric Works Co Ltd 駐車空間監視装置
US8742947B2 (en) 2008-03-25 2014-06-03 Panasonic Corporation Parking space monitoring device

Also Published As

Publication number Publication date
JP4662147B2 (ja) 2011-03-30
US8031908B2 (en) 2011-10-04
US20090052779A1 (en) 2009-02-26
JP2007114056A (ja) 2007-05-10
EP1939585B1 (en) 2009-06-17
EP1939585A1 (en) 2008-07-02
DE602006007370D1 (de) 2009-07-30
EP1939585A4 (en) 2008-10-15

Similar Documents

Publication Publication Date Title
WO2006090736A1 (ja) 物体認識装置
CN110867132B (zh) 环境感知的方法、装置、电子设备和计算机可读存储介质
US20090121899A1 (en) Parking assistance device
CN107632308B (zh) 一种基于递归叠加算法的车辆前方障碍物轮廓检测方法
JP2020507137A (ja) 車両周辺の物体を識別して測位するためのシステムおよび方法
CN110794406B (zh) 多源传感器数据融合系统和方法
JP2002168953A (ja) 車両周辺監視装置
WO2007046336A1 (ja) 物体認識装置
JP6622167B2 (ja) 軸ずれ推定装置
WO2016063529A1 (ja) 物体検知装置
US11144770B2 (en) Method and device for positioning vehicle, device, and computer readable storage medium
CN112313539B (zh) 护栏检测方法及设备、存储介质和可移动平台
Shao et al. A grid projection method based on ultrasonic sensor for parking space detection
CN110632617A (zh) 一种激光雷达点云数据处理的方法及装置
CN106080397B (zh) 自适应巡航系统及车载设备
JP2002243857A (ja) 周囲物体認識装置
JP2006234493A (ja) 物体認識装置及び方法
JP2002228734A (ja) 周囲物体認識装置
CN106240454B (zh) 提供车辆碰撞预警的系统及车载设备
JP4618506B2 (ja) 物体認識装置
Yang et al. Towards high accuracy parking slot detection for automated valet parking system
JP2006276985A (ja) 物体認識方法及び装置
JP2006276984A (ja) 物体認識方法及び装置
CN115995163B (zh) 一种车辆碰撞预警方法及系统
US20230186638A1 (en) Device for determining a topography of a vehicle environment, vehicle and method

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 12088499

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2006821878

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE