WO2006090736A1 - 物体認識装置 - Google Patents

物体認識装置 Download PDF

Info

Publication number
WO2006090736A1
WO2006090736A1 PCT/JP2006/303166 JP2006303166W WO2006090736A1 WO 2006090736 A1 WO2006090736 A1 WO 2006090736A1 JP 2006303166 W JP2006303166 W JP 2006303166W WO 2006090736 A1 WO2006090736 A1 WO 2006090736A1
Authority
WO
WIPO (PCT)
Prior art keywords
shape
degree
sample
recognizing
coincidence
Prior art date
Application number
PCT/JP2006/303166
Other languages
English (en)
French (fr)
Inventor
Toshiaki Kakinami
Jun Sato
Original Assignee
Aisin Seiki Kabushiki Kaisha
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Kabushiki Kaisha filed Critical Aisin Seiki Kabushiki Kaisha
Priority to US11/884,484 priority Critical patent/US20090208109A1/en
Priority to EP06714306A priority patent/EP1852713A4/en
Publication of WO2006090736A1 publication Critical patent/WO2006090736A1/ja

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q9/00Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
    • B60Q9/002Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling for parking purposes, e.g. for warning the driver that his vehicle has contacted or is about to contact an obstacle
    • B60Q9/004Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling for parking purposes, e.g. for warning the driver that his vehicle has contacted or is about to contact an obstacle using wave sensors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B21/00Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant
    • G01B21/20Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring contours or curvatures, e.g. determining profile
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/586Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of parking space
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/168Driving aids for parking, e.g. acoustic or visual feedback on parking space
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9314Parking operations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Definitions

  • the present invention recognizes the contour shape of an object existing around a moving object, obtains a relative arrangement relationship between the moving object and the object, and notifies the arrangement relationship visually or by voice.
  • the present invention relates to an object recognition apparatus.
  • an obstacle detection device as described in Patent Document 1 shown below.
  • This device detects an obstacle around the vehicle (moving body) and issues an alarm.
  • This is invented in contrast to the conventional device configured to issue an alarm only when the distance between the vehicle and the obstacle is simply measured and shorter than a predetermined distance.
  • the present invention has been made in view of the problem that it is difficult for the driver to understand which object around the vehicle is obstructive by only a distance-based warning.
  • multiple obstacle detection sensors are installed in the vehicle, and the distance to the obstacle is calculated. Based on the obtained calculation results, it is estimated whether the shape of the obstacle is a straight line (flat plate shape) or a circular shape (convex shape). By configuring in this way, a notification is made using the distance to the obstacle and the shape of the obstacle.
  • Patent Document 1 Japanese Laid-Open Patent Publication No. 2003-194938 (Page 2-3, Figure 1-7)
  • the above known technique is useful for the user in that it also estimates the shape of an obstacle.
  • detection data that detects objects other than the object to be detected (obstacle) is often mixed. Since detection data other than the detection target acts as a noise component, it may be a cause of misrecognition when estimating the shape of the detection target. That is, the stability when detecting an object to be detected such as an obstacle is not sufficient. In general, if such a noise removal function is provided, the amount of calculation increases, and accordingly, the processing time increases and the scale of the apparatus increases.
  • the present invention has been made in view of the above problems, and with a small amount of calculation, the shape of an object around a moving object can be recognized stably even when non-detection target data is mixed,
  • the object is to provide an object recognition device that can obtain the positional relationship between the two and provide a good notification of this positional relationship.
  • a feature configuration of an object recognition apparatus for recognizing an object existing around a moving body is provided with the following configuration. That is, the object detection means for detecting the surface shape information of the object, and the degree of coincidence of the sample group with respect to the shape model determined based on the sample arbitrarily extracted from the sample group constituting the surface shape information, Based on the shape recognition means for recognizing the contour shape of the object and the detection and recognition results of the object detection means and the shape recognition means, the relative positional relationship between the moving body and the object is calculated.
  • the object detection unit detects the surface shape information of the object, and the shape recognition unit recognizes the contour shape of the object based on the surface shape information.
  • the surface shape information is information indicating the shape of the surface of the object viewed from the moving body.
  • Image sensors and cameras that use reflective sensors that use radio waves, ultrasonic waves, etc., and obtain image data using visible light, infrared light, etc. May be used.
  • the shape recognition means recognizes the contour shape from the sample group obtained from the various object detection means.
  • the sample group refers to a collection of individual data constituting the surface shape information.
  • the individual data is information corresponding to each location obtained by receiving a signal reflected at each location of the obstacle, for example, when a reflective sensor is used.
  • image data data obtained by various image processing such as edge extraction and three-dimensional conversion can be used. In this way, data representing the surface shape of an object is treated as a sample regardless of the type of shape recognition means, and a collection of these samples is referred to as a sample group.
  • the shape recognition means arbitrarily (randomly) extracts some samples from the sample group, and determines a shape model based on the extracted samples. In defining this shape model Alternatively, it may be calculated geometrically from the extracted specimen, or a method in which a plurality of templates are prepared in advance and applied to the optimum one may be used. Then, the degree of coincidence of how much the entire sample group matches the shape model is calculated. Based on the calculation result, it is determined whether or not the embodied shape model is suitable for the sample group.
  • the shape recognition means determines a shape model from an arbitrarily extracted sample, which has a much smaller number of samples than the sample group. Therefore, the amount of computation required when extracting a sample or determining a shape model is small. Therefore, a device with a short calculation time is not large-scale.
  • the degree of coincidence of the sample group with the shape model can be calculated geometrically using the coordinates in the space of each sample. Therefore, this degree of coincidence can be calculated with a small amount of calculation. Furthermore, since these calculation amounts are small, an increase in the total calculation amount can be suppressed even when different shape models are repeatedly determined and the degree of match is calculated. As a result, the contour shape can be recognized with high accuracy.
  • the contour shape of a target object can be stably obtained.
  • the distance and positional relationship between the object detection means and the object can be acquired as information.
  • the location of the object detection means on the moving object is known, and the outer shape of the moving object is also known. Therefore, the relative arrangement relationship between each location of the moving object and each location of the object can be calculated using the recognized contour shape or the like.
  • non-detection target data is mixed with a small amount of calculation.
  • the object detection unit detects the surface shape information based on a distance between the surface of the object and the moving body.
  • the contour shape of the target object is a shape related to perspective from the moving body, for example, a so-called depth
  • the surface shape information detected based on the distance becomes a sample group representing the contour shape to be recognized substantially. Even if a noisy sample is included in this, if the noisy sample can be removed, the remaining sample group will show almost the recognized ridge contour shape.
  • a noisy sample can be satisfactorily removed by calculating the degree of coincidence between the shape model and the sample group. Therefore, when the object detection means detects the surface shape state based on the distance between the surface of the object and the moving object, stable and accurate object recognition can be performed.
  • the object recognition apparatus of the present invention is characterized in that the surface shape information is obtained discretely along the outer shape of the object.
  • the surface shape information is obtained discretely along the outer shape of the object (representing the outer contour of the object).
  • the object to be recognized is not limited to a flat object such as a wall, but may have a step.
  • the steps are the bumper portion of the vehicle, the front and rear window portions, the stairs, and the like.
  • Outline The outline is the surface shape indicating the outside, that is, the outline, including such a step of the object. If the object and the object detection means are closest to each other, that is, if the force cannot be detected only at the part where the object protrudes toward the object detection means, only the bumper part and the lowest step of the stairs are detected.
  • the protruding part does not necessarily coincide with the part where the object protrudes toward the moving body.
  • the mobile user wants to operate or supervise part of the mobile body and part of the object so that they are not too close.
  • the contour shape to be recognized is not limited to the bumper part but may be a window part.
  • the surface shape information does not target only the portion where the target object protrudes most toward the moving body, but targets various places of the target object. It is preferable to recognize the contour shape for various locations according to the application by obtaining surface shape information that represents the outer contour of the target object.
  • the object recognition apparatus of the present invention is characterized in that the number of samples corresponding to a recognition target shape is arbitrarily extracted from the sample group constituting the surface shape information.
  • the number of samples corresponding to the shape to be recognized is extracted, so that the shape model can be determined efficiently.
  • the object recognition apparatus of the present invention is characterized in that the target shape is a vehicle bumper shape approximated to a quadratic curve, and the five samples are arbitrarily extracted.
  • the shape model can be determined by a simple calculation by approximating the bumper shape of the vehicle to a quadratic curve.
  • the shape recognition means has an effective range of a portion sandwiched between two curves connecting points separated by a predetermined distance in both directions orthogonal to the tangent to the shape model. And the degree of coincidence is calculated based on the relationship between the number of the samples included in the effective range and the total number of the sample groups.
  • the effective range can be accurately determined by two curves that are equidistant from the shape model.
  • the shape recognition means can calculate the degree of coincidence under the same conditions for each defined shape model, and can accurately compare the degree of coincidence.
  • the object recognition apparatus of the present invention is characterized in that the shape recognition means recognizes as follows. That is, the shape recognition means extracts an arbitrary sample from the sample group over a predetermined number of times, and calculates the degree of coincidence for each of the determined shape models. And, after the predetermined number of repetitions, the shape model that exceeds a predetermined threshold value The shape model having the highest degree of coincidence is recognized as the contour shape of the object.
  • the shape model having the highest degree of coincidence among the shape models determined a plurality of times can be recognized as the contour shape, so that the accuracy can be recognized.
  • the shape recognition unit may include the shape model having the degree of coincidence that exceeds the predetermined threshold first, regardless of the predetermined number of times. It is characterized in that it is recognized as a contour shape.
  • the relative arrangement calculation unit calculates the arrangement relationship based on a detection result of the movement state detection unit that detects a movement state of the moving body, and the arrangement It is characterized by comprising determination means for determining the degree of approach between the moving body and the object based on the relationship.
  • the moving state detecting means detects the moving state of the moving body, the position of the moving body in the near future can be estimated. Therefore, based on the detection result of the moving state detecting means, it is possible to calculate not only the present but also the future relationship between the object and the moving body. Since the degree of approach of each part between the object and the moving body is already known from the arrangement relationship between the two, the change in the degree of approach can be calculated by the movement of the moving body. As a result, it is possible to predict in advance the degree of approach of each part between the moving object and the object. When the degree of approach is determined, for example, when a moving object and an object are too close, it is possible to quickly respond.
  • the object recognition apparatus of the present invention further includes a movement control means for controlling one or both of the moving speed and the turning direction of the moving body based on the degree of approach determined by the determining means. It is characterized by that.
  • the degree of approach is determined as described above, for example, when a moving body and an object approach too much, it is possible to connect to a quick response.
  • the object recognition device of the present invention is characterized in that the object detection means detects the surface shape information of the object as the moving body moves.
  • the object When configured to detect the surface shape information of the object as the moving body moves, the object is detected in accordance with the moving direction of the moving body, and efficient detection becomes possible. Further, for example, it may be configured by a fixed sensor (for example, a single beam sensor) in which the object detection means is directed in one direction. That is, even if the object detection means can detect only one direction in a fixed manner, it can scan a wide range by moving the moving body.
  • a fixed sensor for example, a single beam sensor
  • the object detection unit includes a scanning unit that scans a wide-angle area with respect to the object regardless of the movement of the moving body, and based on the obtained scanning information, The surface shape information of the object is detected.
  • an object can be detected by scanning a wide range even when the moving body is in a stopped state.
  • the surrounding situation such as the presence or absence of an object can be taken into account when the moving object is stopped.
  • a distance sensor 1 object detection means directed to the side is mounted on a vehicle 10 as a moving body.
  • the distance sensor 1 is, for example, a point sensor, that is, a single one-beam sensor or a sonar using ultrasonic waves.
  • the vehicle 10 measures the distance to the parked vehicle 20 by the distance sensor 1 when passing in the X direction in the figure in the vicinity of another parked vehicle 20 (hereinafter referred to as a parked vehicle).
  • the parked vehicle 20 corresponds to the object of the present invention.
  • the distance sensor 1 is provided only on the left side of the vehicle 10, but naturally it may be provided on both sides.
  • the distance sensor 1 measures the distance from the parked vehicle 20 in accordance with the movement of the vehicle 10.
  • the surface shape information of the parked vehicle 20 obtained in this way is discrete according to the moving distance of the vehicle 10. It is a lot of data.
  • “according to the moving distance” of the vehicle 10 also includes the meaning of “according to a predetermined time interval”. For example, when the vehicle 10 moves at a constant speed, if it is measured according to a predetermined time interval, it is measured according to the moving distance. The moving speed, moving distance, and moving time of the moving body 10 are determined linearly. Therefore, any method may be used as long as the surface shape information can be obtained almost uniformly as a result. In this way, the vehicle 10 acquires the surface shape information of the object (object detection process).
  • the distance sensor 1 may include an accompanying sensor such as a timer for measuring the movement time, an encoder for measuring the movement distance, and a rotation sensor for measuring the movement speed. In addition, these sensors are provided separately so that information can be obtained!
  • FIG. 2 is a schematic block diagram of the object recognition apparatus according to the first embodiment of the present invention.
  • the shape recognition unit 2 (shape recognition means) is configured by an electronic circuit such as a microcomputer 2A.
  • Each processing unit in the shape recognizing unit 2 indicates a processing unit as a function that does not necessarily indicate a physically different electronic circuit. For example, this includes the case where different functions are obtained by executing different programs with the same CPU.
  • the surface shape information measured by the distance sensor 1 is input to the shape recognition unit 2.
  • the input surface shape information is mapped to a two-dimensional plane with the X and Y directions as axes shown in FIG. 1 and stored in the specimen storage unit 2a.
  • the sample storage unit 2a is composed of a memory.
  • a form incorporated in the microcomputer 2A is shown.
  • a so-called external form may be used by using a memory separate from the microcomputer 2A.
  • other storage media such as a register and a hard disk may be used regardless of whether they are internal or external.
  • the microcomputer 2A includes a relative arrangement calculation unit 3 (relative arrangement calculation means). The details will be described later.
  • the relative arrangement calculation unit 3 calculates the relative arrangement of the vehicle 10 and the parked vehicle 20 using the distance information and the contour shape.
  • the relative arrangement is a relative position between each part of the vehicle 10 and each part of the parked vehicle 20.
  • the external shape of the vehicle 10 is known because it is its own shape.
  • the contour shape of the parked vehicle 20 viewed from the vehicle 10 can be well recognized by the method described in detail below.
  • the relative arrangement calculation unit 3 calculates the relative arrangement of the vehicle 10 and the parked vehicle 20 as shown in FIG. In FIG. 10, for easy understanding, the entire parked vehicle 20 is indicated by a dotted line, but in actuality, the recognized contour shape E and the relative arrangement of the vehicle 10 are calculated. Of course, when the contour shape E is recognized including other places, all relative arrangements can be calculated.
  • the relative arrangement is displayed on the notification means 5 such as the display 5a.
  • the display 5a can also be used as a monitor such as a navigation system.
  • the outer shape of the vehicle 10 and the recognized contour shape E are displayed.
  • the entire parked vehicle 20 may be represented as an illustration based on the contour shape E, and the relative arrangement relationship between the vehicle 10 and the parked vehicle 20 may be displayed.
  • the notification may be performed by voice (including sound). This sound can be emitted by buzzer 5b or chime.
  • voice guidance function Some navigation systems have a voice guidance function. Therefore, as with the use of the monitor, this voice guide function may also be used.
  • the surface shape information S on the parked vehicle 20 is measured by the distance sensor 1.
  • the surface shape information is measurement data obtained discretely in a form along the outer shape of the bumper portion of the parked vehicle 20 in the present embodiment.
  • a group of these discretely obtained data is called a sample group S (Large S).
  • the sample group S is a data set that is a recognition target of the contour shape.
  • the point-by-point data composing the data set is called sample s (small s).
  • the sample group S is mapped on the XY two-dimensional orthogonal coordinates in the sample storage unit 2a as shown in FIG.
  • sample s indicated by black dots is inliers
  • sample s indicated by white dots Are called outliers.
  • samples sl, sl3, etc. are inliers
  • samples s2, s7, slO are outliers.
  • the inlier is a sample that forms the contour shape of the parked vehicle 20.
  • the outlier is a very noisy specimen in which the contour shape force of the parked vehicle 20 is also removed.
  • the sample extraction unit 2b extracts a number of arbitrary samples si (i is the sample number) from the sample group S (samples sl to sl3) (sample extraction process, Fig. 7 # 1). Which sample s is extracted is determined randomly. Preferably random numbers are used. For example, a random number generator (not shown) is provided in the microcomputer 2A, and a sample si having the generated random number as a sample number is extracted. Alternatively, the sample number may be determined by a random number generation program executed by the microphone computer 2A.
  • the minimum number of samples to be extracted varies depending on the recognized! / And target shape. For example, it is 2 points when recognizing a straight line, and 5 points if it is a quadratic curve.
  • the bumper shape of the parked vehicle 20 is approximated to a quadratic curve, and five points are extracted.
  • the collection of individual data and sample s extracted in this way is a subset as a concept corresponding to the data set.
  • the shape model setting unit 2c determines a shape model (shape model setting step, Fig. 7 # 2).
  • FIG. 5 calculates the degree of coincidence between the sample model S arbitrarily selected from the sample group S shown in the scatter diagram of FIG. 4 and the sample model S (first shape model L1). It is explanatory drawing.
  • This first shape model L1 is determined based on five samples s of samples sl, s5, s8, sl l, and sl3.
  • This shape model L can be easily obtained by linear calculation with a light computational load. Alternatively, prepare several template shapes in advance and select the most suitable one from these template shapes.
  • points separated by a predetermined distance in both directions orthogonal to the tangent line of the shape model L are connected along the shape model L to define dotted lines B1 and B2.
  • the area between the dotted lines B1 and B2 is the effective range W.
  • the degree of coincidence between the defined shape model L and the sample group S is calculated by the coincidence degree calculating unit 2d. Calculate. Specifically, the degree of coincidence is calculated based on how much each sample si constituting the sample group S is included in the effective range W defined as above (the degree of coincidence calculation step, FIG. 7 # 3).
  • the effective range W for the first curve model L1 shown in FIG. 5 includes all the samples s except the outliers of the samples s2, s7, and si0. Therefore, the degree of coincidence of the first shape model L1 with the sample group S is 77% (10Z13). In other words, it can be said that the first shape model L1 obtained an agreement (consensus) with a high support rate (77%) by each sample s constituting the sample group S.
  • the main calculation unit 2e it is determined whether or not the degree of coincidence exceeds a predetermined threshold (determination step, Fig. 7 # 4). If the threshold is exceeded, the shape model (first shape model L1) determined from the extracted subset is recognized as the recognition result (certification process, Fig. 7 # 5). That is, the first shape model L1 is the contour shape. For example, when the threshold value is set to 75%, the first shape model L1 is set as the contour shape. If the threshold is not exceeded, the process returns to process # 1 in the flowchart of FIG. 7, and another sample s is extracted again to form a new subset, and the same process is performed. If processing # 1 to # 4 is repeated multiple times and the value is not exceeded, it is determined that there is no target object (20 parked vehicles, etc.). This number may be defined in advance.
  • the total number of samples s constituting the sample group S is 13 in order to facilitate understanding.
  • the threshold value (75%) is also a value for facilitating the description of the present embodiment. Therefore, neither the number of samples nor the judgment threshold value for the degree of coincidence is a value that limits the present invention. For example, if the number of samples is large, the number of inliers relative to the outlier will be relatively large, and a threshold value higher than the above example can be set.
  • samples s2, s4, s7, slO, and sl3 are extracted as subsets.
  • the samples s2, s7, and slO are so-called noise samples in which the contour shape force of the parked vehicle 20 is also removed. Therefore, it is a specimen that should be an outlier when viewed from the outline shape of the parked vehicle 20. Therefore, as shown in FIG. 6, there are many samples s that are outside the effective range W for the second shape model L2 determined based on the subset including these samples s2, s7, and slO.
  • the degree of coincidence is calculated in the same way as model LI, the degree of coincidence is 38% (5/13).
  • the second shape model L2 can be agreed (consensus) with a high support rate by each sample s constituting the sample group S! /, And so on.
  • the contour shape that is the recognition result is the first shape model L1.
  • the samples s2, s7, and slO which are noise samples s, are unused. These noise samples were treated as outliers and removed. In other words, even with a small amount of computation as described above, even if non-detection target data (outlier) is mixed, it can be removed and the shape of the object can be recognized stably.
  • Hough transform takes advantage of the property that straight lines that exist on Cartesian coordinates (for example, the XY plane) intersect at a single point on polar coordinates- ⁇ space.
  • the conversion formula is
  • the amount of computation increases as the range of p and ⁇ is expanded or a fine resolution is obtained in the polar coordinate space. That is, the memory as the primary storage means is required to have a large capacity and the number of calculations is increased.
  • the method of "calculating the degree of coincidence of the sample group S with respect to the shape model L determined based on the sample s arbitrarily extracted from the sample group S constituting the surface shape information" of the present invention Requires a small amount of computation and a small memory capacity.
  • the degree of coincidence between the shape model L and the sample group S is examined, and if the degree of coincidence exceeds a predetermined threshold, the shape model L is used as the recognition result.
  • the shape model L that exceeds the threshold first is the recognition result.
  • the shape model L may not be immediately recognized as a recognition result when the threshold value is simply exceeded, and a plurality of shape models L may be evaluated. A specific procedure will be described below.
  • FIG. 8 is a flowchart for explaining a second method for recognizing the contour shape from the sample group shown in the scatter diagram of FIG.
  • a subset model is extracted multiple times to define a shape model L, and the shape model L with the highest degree of coincidence among them is used as the recognition result.
  • the second method will be described with reference to FIG.
  • processes # 1 to # 4 are the same as those in the flowchart shown in FIG.
  • the subset is repeatedly extracted a plurality of times, so the number of repetitions is temporarily stored.
  • the number of repetitions temporarily stored is cleared (initialization process, Fig. 8 # 0).
  • the sample s is randomly extracted from the sample group S in the sample extraction step (# 1) to create a subset.
  • the shape model L is determined based on this subset in the shape model setting step (# 2).
  • the degree of coincidence between the shape model L and the sample group S is calculated in the coincidence degree calculating step (# 3), and the force that the degree of coincidence exceeds a predetermined threshold value in the determining step (# 4) Determine whether or not.
  • the threshold value exceeds the threshold as a result of the determination, the previously determined shape model L and the degree of coincidence with the shape model L are stored in a temporary storage unit (not shown) (storage step, # 41). Since the evaluation for one shape model L is completed, the number of iterations is incremented (counting process, # 42). As a result of the judgment, if the force does not exceed the threshold value, the memory step (# 41) is skipped and the repeat count is incremented (# 42).
  • the shape model L determined based on the subset V is recognized as the contour shape.
  • a small shape model L based on the number of specimens is considered not to reproduce the exact contour shape.
  • the degree of coincidence between the shape model L and all samples in the sample group S is evaluated. Therefore, it can be considered that the shape model L reproduces (recognizes) the contour shape almost accurately.
  • the ability to reproduce the contour shape using a shape model determined from the small number of samples that make up the subset has greatly contributed to a reduction in the amount of computation.
  • the present invention is not limited to this.
  • the contour shape may be recalculated when the computing means has sufficient capacity, such as the microcomputer 2A.
  • each of the samples s constituting the sample group S can be defined as an inlier and an outlier.
  • the inliers and outliers are certified.
  • the shape is recalculated using the method of least squares for all the samples s certified as inliers (recalculation process).
  • the least square method may not be able to reproduce the shape correctly due to the influence of the noisy sample s!
  • this recalculation process since the noisy sample s is removed as an outlier, an accurate contour shape can be reproduced.
  • FIG. 9 is a schematic block diagram of an object recognition apparatus according to the third embodiment of the present invention.
  • the relative position in the near future can be calculated if the input information from the movement state detection means 4 such as the wheel speed sensor 4a and the steering angle sensor 4b is detected. it can. In other words, it is possible to estimate (predict) the future relative arrangement relationship as well as the current relative arrangement in which the contour shape E is recognized (see Fig. 10).
  • the wheel speed sensor 4a is a sensor provided in each wheel portion of the vehicle 10 (front right FR, front left FL, rear right RR, rear left RL). This is, for example, a rotation sensor using Hall IC It is.
  • the steering angle sensor 4b is a sensor that detects the steering rotation angle and tire rotation angle of the vehicle 10. Alternatively, it may be an arithmetic device that calculates the rudder angle based on the measurement result at each wheel portion of the wheel speed sensor 4a described above (difference in rotational speed and rotational speed of the left and right wheels!). .
  • the relative positional relationship between the vehicle 10 and the contour shape E of the parked vehicle 20 in the present and future is calculated.
  • the traveling direction is estimated by the rudder angle sensor 4b, and the traveling speed is estimated by the wheel speed sensor 4a. Then, the expected locus of the vehicle 10 and the relative positional relationship between the contour shape E of the parked vehicle 20 and the vehicle 10 after a few seconds are calculated.
  • FIG. 11 shows an example of the relative arrangement relationship between the vehicle 10 and the contour shape E of the parked vehicle 20.
  • Reference numeral 10 ⁇ / b> A is a near future position of the vehicle 10.
  • a part of the vehicle 10 interferes with the contour shape E of the parked vehicle 20 due to the moving locus. Interference with the contour E indicates that there is a possibility that the vehicle 10 and the parked vehicle 20 come into contact with each other.
  • this relative arrangement and trajectory can be notified through the display means 5 such as the display 5a, the buzzer 5b, and the voice guide.
  • the display means 5 such as the display 5a, the buzzer 5b, and the voice guide.
  • the contour shape E and the movement trajectory interfere with each other, it is also possible to provide a warning for warning or warning.
  • interference can be prevented by the movement control means 6 such as the steering control unit 6a and the brake control unit 6b. That is, the steering control unit 6a can change the moving direction, and the brake control unit 6b can reduce the speed. This prevents future interference, that is, contact between the vehicle 10 and the parked vehicle 20.
  • the distance sensor 1 that detects the surface shape information of the parked vehicle 20 as the vehicle 10 moves as shown in FIG.
  • the object detection means according to the present invention is not limited to this.
  • the distance sensor 1 outputs surface shape information regardless of the movement of the vehicle 10, and can be selected for each moving distance and every elapsed time in the subsequent information processing.
  • scanning means for scanning a wide-angle area with respect to the parked vehicle 20 regardless of the movement of the vehicle 10 is provided, and based on the obtained scanning information. And may detect surface shape information. That is, not only the point sensor such as the distance sensor 1, but also a sensor that can obtain a signal (surface shape information) reflecting the shape of an object, such as a one-dimensional sensor, a two-dimensional sensor, or a three-dimensional sensor.
  • FIG. 12 shows an example in which a one-dimensional sensor is used as the object detection means according to the present invention.
  • a scanning laser sensor is used as an example of a one-dimensional sensor.
  • the object parking vehicle 20
  • the sensor position position of the scanning means la.
  • the distance distribution can be measured by the reflection of the laser wave from each position of the object. If the azimuth angle ⁇ when the laser wave is emitted is detected by an encoder or the like, surface shape information can be obtained in the same manner as shown in FIG. And it can be mapped to XY Cartesian coordinates.
  • an ultrasonic radar As another example of the one-dimensional sensor, an ultrasonic radar, an optical radar, a radio radar, a triangulation distance meter, or the like may be used.
  • the two-dimensional sensor there is a scan type radar that can scan in the horizontal and vertical directions. By using this scanning radar, it is possible to obtain information on the horizontal shape and vertical shape of the target object.
  • image input means such as a CCD (Charge Coupled Device) and a camera using a CIS (CMOS Image Sensor).
  • CIS CMOS Image Sensor
  • Various feature quantities such as contour information and intersection information may be extracted from image data obtained from this camera to obtain information on the surface shape.
  • the embodiment of the present invention has been described with respect to the method and apparatus for recognizing the contour shape using the parked vehicle 20 as an object, and these additional features.
  • the “object” is not limited to an obstacle such as a parked vehicle or a building, but includes various things such as a road lane, a stop line, and a parking frame.
  • the recognition target is not limited to the contour shape of a three-dimensional object, and can be applied to shape recognition of a planar pattern.
  • FIGS. 10 and 11 only when the vehicle 10 is moving forward, FIG. As shown in Fig. 3, it can also be used when the vehicle is moving backward and parked between the vehicles 20a and 20b.
  • the present invention can also be applied to a so-called switchback in which the vehicle moves forward as shown in FIG. 1 and then moves backward as shown in FIG. In this case, the vehicle can proceed between the two vehicles after reliably recognizing the contour E of the parked vehicles 20a and 20b.
  • the present invention can be applied to a driving support device or a parking support device for an automobile.
  • the present invention can be applied to a robot movement support device, a stop support device, and the like.
  • FIG. 1 is an explanatory diagram showing an example in which a vehicle equipped with an object recognition device according to the present invention recognizes another vehicle.
  • FIG. 2 is a schematic block diagram of an object recognition apparatus according to the first embodiment of the present invention.
  • FIG. 3 is a diagram showing the result of measuring surface shape information of the parked vehicle in FIG.
  • FIG. 5 is an explanatory diagram for calculating the degree of coincidence between the first shape model and the sample group determined from the samples arbitrarily extracted from the sample group shown in the scatter diagram of FIG.
  • FIG. 6 is an explanatory diagram for calculating the degree of coincidence between the second shape model and the sample group determined from samples arbitrarily extracted from the sample group shown in the scatter diagram of FIG.
  • FIG. 7 is a flowchart for explaining a first method (first embodiment) for recognizing the contour shape of the sample group shown in the scatter diagram of FIG.
  • FIG. 8 is a flowchart for explaining a second method (second embodiment) for recognizing the contour shape of the sample group shown in the scatter diagram of FIG.
  • FIG. 9 is a schematic block diagram of an object recognition apparatus according to the third embodiment of the present invention.
  • FIG. 10 is a diagram showing an example of a relative arrangement relationship between the vehicle on which the object recognition device calculated by the relative arrangement calculation unit shown in FIGS. 2 and 9 is mounted and the contour shape of another vehicle.
  • FIG. 11 is a diagram showing an example (third embodiment) of a relative arrangement relationship between a vehicle equipped with the object recognition device calculated by the relative arrangement calculation unit in FIG. 9 and the contour shape of another vehicle.
  • FIG. 12 is a diagram showing an example (another embodiment) in the case of using a one-dimensional sensor as the object detection means according to the present invention.
  • FIG. 13 is a diagram showing another example (another usage pattern) of the relative arrangement relationship between the vehicle on which the object recognition device calculated by the relative arrangement calculation unit in FIG. 9 is mounted and the contour shape of another vehicle.
  • Shape recognition unit shape recognition means

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Remote Sensing (AREA)
  • Human Computer Interaction (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Traffic Control Systems (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)

Abstract

 少ない演算量で、非検出対象のデータが混在しても安定して移動体周辺の物体の形状を認識することができ、両者の配置関係を求めて、この配置関係を良好に報知することのできる物体認識装置を提供する。  移動体周辺に存在する物体を認識する物体認識装置であって、下記構成を備える。物体の表面形状情報を検出する物体検出手段1と、表面形状情報を構成する標本群から任意に抽出した標本に基づいて定めた形状モデルに対する標本群の一致度を演算して前記物体の輪郭形状を認識する形状認識手段2と、物体検出手段1及び形状認識手段2の検出及び認識結果に基づいて、移動体と物体との相対的な配置関係を演算する相対配置演算手段3と、この相対配置演算手段3の演算結果に基づいて、配置関係についてディスプレイへの表示又は音声により報知する報知手段5と、を備える。

Description

明 細 書
物体認識装置
技術分野
[0001] 本発明は、移動体周辺に存在する物体の輪郭形状を認識し、移動体と物体との相 対的な配置関係を求めて、この配置関係について視覚的に、又は音声により報知す る物体認識装置に関する。
背景技術
[0002] このような装置として、下記に出典を示す特許文献 1に記載されたような障害物検 知装置がある。この装置は、車両 (移動体)の周辺に存在する障害物を検知して警報 を発するものである。これは、従来の装置が、単に車両と障害物との距離だけを測定 して所定距離よりも短い場合にのみ、警報を発するように構成されているのに対して 発明されたものである。この発明は、距離に基づく警報だけでは、運転者にとって車 両の周りのどの物体が障害物力判り難いという問題に鑑みてなされたものである。こ れによると、車両に複数の障害物検知センサを搭載し、障害物までの距離を演算す る。これら得られた演算結果より障害物の形状が直線 (平板形状)か円形 (凸面形状) かを推定して表示する。このように構成することにより、障害物との距離と、障害物の 形状とを利用して報知して 、る。
特許文献 1:特開 2003 - 194938号公報 (第 2— 3頁、第 1— 7図)
発明の開示
発明が解決しょうとする課題
[0003] 上記公知技術は、障害物の形状までも推定する点において、利用者にとって有益 なものである。しかし、実際の計測においては、検出対象の物体 (障害物)以外を検 出した検出データが混在することが多い。そして、検出対象物以外の検出データは、 ノイズ成分として作用するため、検出対象物の形状推定に際して誤認の原因となるこ とが考えられる。即ち、障害物等の検出対象となる物体を検出する際の安定性が充 分とはいえない。また、一般にこのようなノイズ除去の機能を具備すれば、演算量が 増え、それに伴って処理時間の増大や装置の大規模ィ匕を招くことになる。 [0004] 本願発明は上記課題に鑑みてなされたもので、少ない演算量で、非検出対象のデ ータが混在しても安定して移動体周辺の物体の形状を認識することができ、両者の 配置関係を求めて、この配置関係を良好に報知することのできる物体認識装置を提 供することを目的としている。
課題を解決するための手段
[0005] この目的を達成するための本発明に係る移動体周辺に存在する物体を認識する物 体認識装置の特徴構成は、下記構成を備える点にある。即ち、前記物体の表面形状 情報を検出する物体検出手段と、前記表面形状情報を構成する標本群から任意に 抽出した標本に基づいて定めた形状モデルに対する前記標本群の一致度を演算し て前記物体の輪郭形状を認識する形状認識手段と、前記物体検出手段及び前記形 状認識手段の検出及び認識結果に基づ!、て、前記移動体と前記物体との相対的な 配置関係を演算する相対配置演算手段と、この相対配置演算手段の演算結果に基 づいて、前記配置関係についてディスプレイへの表示又は音声により報知する報知 手段と、を備える点にある。
[0006] この特徴構成によれば、物体検出手段が物体の表面形状情報を検出し、この表面 形状情報に基づいて、形状認識手段が物体の輪郭形状を認識する。ここで、表面形 状情報とは、移動体から見た物体の表面の形状を示す情報である。電波や超音波 等を用いた反射型のセンサを用いてもょ 、し、可視光や赤外光等を利用して画像デ ータを得るイメージセンサ、カメラ (動画、静止画を問わず)を用いてもよい。
[0007] 形状認識手段は、上記種々の物体検出手段より得られた標本群より、輪郭形状を 認識する。ここで、標本群とは、表面形状情報を構成する個々のデータの集合体のこ とをいう。個々のデータとは、例えば、反射型のセンサを用いた場合には、障害物の 各場所で反射された信号を受信して得られた各場所に対応した情報である。画像デ ータを利用した場合には、エッジ抽出、三次元変換等の種々の画像処理により得ら れたデータを用いることができる。このように、形状認識手段の種類に依らず、物体の 表面形状を表すデータを標本として扱! ヽ、この標本の集合体を標本群と称する。
[0008] 形状認識手段は、この標本群より任意に (ランダムに)いくつかの標本を抽出して、 抽出した標本に基づいて形状モデルを定める。この形状モデルを定めるに際しては 、抽出した標本より幾何学的に算出してもよいし、予め複数のテンプレートを用意して 最適なものに当てはめる方法を用いてもよい。そして、標本群全体がこの形状モデル に対して、どの程度一致するかの一致度を演算する。この演算結果に基づいて、具 現化された形状モデルが標本群に適合するものか否かを判定する。
[0009] 即ち、任意に抽出した標本にノイズ性の標本が含まれて 、た場合には、定めた形 状モデルと標本群との一致度は低くなる。従って、この形状モデルは標本群に適合 しないと判定できる。ノイズ性の標本を含まずに形状モデルを定めた場合には、一致 度は高くなる。従って、形状モデルは標本群に適合すると判定できる。このように、少 な ヽ演算量で、ノイズ性の標本を除去して対象となる物体の輪郭形状を認識すること ができる。
[0010] 形状認識手段は、標本群よりも遥かに少ない標本数である、任意に抽出された標 本より形状モデルを定めている。従って、標本の抽出や形状モデルを定める際に必 要となる演算量は少ない。そのため、演算時間も短ぐ装置も大規模ィ匕しない。また、 形状モデルに対する標本群の一致度は、各標本の空間上の座標を用いて、幾何学 的に演算することができる。従って、この一致度の演算も少ない演算量で行うことがで きる。さらに、これらの演算量が少ないことより、繰り返し異なる形状モデルを定めて一 致度を演算しても総演算量の増大を抑制することができる。その結果、高い精度で輪 郭形状を認識することができる。
[0011] 上述したように、本発明によれば対象となる物体の輪郭形状を安定して得ることが できる。そして、表面形状情報を得るに際して、物体検出手段と物体との距離や位置 関係も情報として取得できて 、る。移動体における物体検出手段の配置場所は既知 であり、移動体の外形形状も既知である。従って、認識した輪郭形状等を用いて、移 動体の各場所と物体の各場所との相対的な配置関係を演算することができる。その 結果、相対的な配置関係より、移動体のどの部分と物体のどの部分とが接近している か等を容易に知ることができる。そして、これをディスプレイへの表示や音声により、 報知するようにしている。従って、移動体の操作者や監督者は、自分が想定している よりも接近して 、る力否か等、物体との関係を知ることができる。
[0012] このように、本特徴構成によれば、少ない演算量で、非検出対象のデータが混在し ても安定して移動体周辺に存在する物体の形状を認識すると共に、移動体と物体と の相対配置関係を報知することができる。
[0013] また、本発明の物体認識装置は、前記物体検出手段が、前記物体の表面と前記移 動体との距離に基づいて前記表面形状情報を検出することを特徴とする。
[0014] 対象となる物体の輪郭形状が、移動体からの遠近に関する形状、例えばいわゆる 奥行きであるような場合、表面形状情報を物体と移動体との距離に基づいて検出す ると好適である。このような場合、ノイズ性の標本が含まれない場合には、距離に基づ いて検出された表面形状情報は、ほぼ認識したい輪郭形状を表す標本群となる。こ れにノイズ性の標本が含まれた場合でも、ノイズ性の標本を除去できれば、残った標 本群はほぼ認識した ヽ輪郭形状を示すものとなる。上述したように本発明によれば、 形状モデルと標本群との一致度の演算により良好にノイズ性の標本を除去できる。従 つて、物体検出手段が物体の表面と移動体との距離に基づいて表面形状状態を検 出するものであると、安定且つ正確な物体認識が可能となる。
[0015] また、本発明の物体認識装置は、前記表面形状情報が、前記物体の外形形状に 沿って離散的に得られるものであることを特徴とする。
[0016] このように、前記表面形状情報が前記物体の外形形状に沿って離散的に得られる もの(前記物体の外形輪郭を表すもの)であると好適である。
認識の対象となる物体は、壁等の平坦なものに限らず、段差を持つような場合もあ る。段差とは、車両のバンパー部とフロントやリャのウィンドウ部、階段等である。外形 輪郭は、物体の有するこのような段差を含め、その外側、即ち外形を示す表面形状 である。物体と物体検出手段とが最も近い距離、即ち物体が物体検出手段側に突出 した部分だけし力検出できなければ、バンパー部や階段の最下段のみが検出される しかし、移動体が物体に対して突出した部分は、必ずしも物体が移動体側に突出し た部分と一致しているとは限らない。移動体の利用者 (監督者)は移動体の一部分と 物体の一部分とが、過度に接近しないように操作又は監督することを望む。従って、 場合によっては、認識したい輪郭形状は、物体が車両であれば、バンパー部に限ら ず、ウィンドウ部である場合もある。階段等の場合も同様である。 従って、表面形状情報は単に対象となる物体が移動体側に最も突出した部分だけ を対象とはせず、対象となる物体の種々の場所を対象とすることが好ましい。対象と なる物体の外形輪郭を表す表面形状情報を得ることにより、用途に応じて、種々の場 所に対する輪郭形状を認識するようにすると好ま Uヽ。
そして、外形形状に沿ったデータを連続した情報などで記憶するには膨大な記憶 領域を必要とし、また、信号処理も容易でない。しかし、本特徴構成のように離散的 なデータとすると、適宜、間を間引かれてデータ量を削減することができる。その結果 、信号処理も高速にできる。
[0017] また、本発明の物体認識装置は、前記表面形状情報を構成する前記標本群から、 認識の対象形状に応じた数の前記標本が任意に抽出されることを特徴とする。
[0018] この特徴構成によれば、認識の対象形状に応じた数の標本が抽出されるので、効 率よく形状モデルを定めることができる。
[0019] さらに、本発明の物体認識装置は、前記対象形状が、二次曲線に近似された車両 のバンパー形状であり、 5つの前記標本が任意に抽出されることを特徴とする。
[0020] この特徴構成によれば、車両のバンパー形状を二次曲線に近似することにより、形 状モデルを簡単な演算によって定めることができる。
[0021] また、本発明の物体認識装置は、前記形状認識手段が、前記形状モデルの接線 に対して直交する両方向に所定距離離れた点を結んだ 2つの曲線に挟まれた部分 を有効範囲と定め、前記有効範囲の中に含まれる前記標本の数と前記標本群の総 数との関係によって前記一致度を算出することを特徴とする。
[0022] この特徴構成によれば、形状モデルから等距離離れた 2本の曲線によって正確に 有効範囲を定めることができる。その結果、形状認識手段は、定められる各形状モデ ルに対して同一の条件で一致度を算出することができ、正確な一致度の比較を行う ことができる。
[0023] また、本発明の物体認識装置は、前記形状認識手段が下記のように認識すること を特徴とする。即ち前記形状認識手段は、所定回数に亘つて、前記標本群から任意 の前記標本を抽出し、定められた各前記形状モデルに対して前記一致度を演算す る。そして、前記所定回数の繰り返しの後、所定のしきい値を超えた前記形状モデル のうちで最大の前記一致度を有する前記形状モデルを前記物体の輪郭形状として 認識することを特徴とする。
[0024] この特徴構成によれば、複数回定められる形状モデルのうちで最大の一致度を有 するものを輪郭形状として認識することができるので、精度のょ ヽ認識を行うことがで きる。
[0025] また、本発明の物体認識装置は、前記形状認識手段が、前記所定回数に拘らず、 最先に前記所定のしきい値を超えた前記一致度を有する前記形状モデルを前記物 体の輪郭形状として認識することを特徴とする。
[0026] この特徴構成によれば、所定回数に拘らず、一致度が最先に所定のしき!、値を超 えた形状モデルを認識結果とするので、迅速な認識が可能となる。
[0027] また、本発明の物体認識装置は、前記相対配置演算手段が、前記移動体の移動 状態を検出する移動状態検出手段の検出結果に基づいて前記配置関係を演算す ると共に、この配置関係に基づいて前記移動体と前記物体との接近度合いを判定す る判定手段を備えることを特徴とする。
[0028] 移動状態検出手段によって移動体の移動状態を検出すると、近未来の移動体の 位置を推定することができる。従って、移動状態検出手段の検出結果に基づいて、 現在に留まらず未来の、物体と移動体との配置関係を演算することができる。既に両 者の配置関係により、物体と移動体との各部分の接近度合いが知られているので、 移動体の移動によりこの接近度合いの変化を演算することができる。その結果、移動 体と物体との各部分の接近度合いを事前に予測することが可能となる。そして、この 接近度合いを判定すると、例えば移動体と物体とが過度に接近したような場合に、迅 速な対応が可能となる。
[0029] また、本発明の物体認識装置は、さらに、前記判定手段により判定された前記接近 度合いに基づいて、前記移動体の移動速度及び旋回方向の一方又は双方を制御 する移動制御手段を備えることを特徴とする。
[0030] 既に説明したように接近度合いを判定すると、例えば移動体と物体とが過度に接近 したような場合に、迅速な対応につなげることができる。この対応として、上記のように 、移動体の移動速度及び旋回方向の一方又は双方を制御するようにすると、好まし い。即ち、移動速度を制御すれば、過度に物体に接近する移動体の接近速度を遅く することや、接近を停止することができる。また、旋回方向を制御すれば、物体に接 近しない方向へ移動方向を変更することができる。
[0031] また、本発明の物体認識装置は、前記物体検出手段が、前記移動体の移動に伴 つて前記物体の前記表面形状情報を検出するものであることを特徴とする。
[0032] 移動体の移動に伴って物体の表面形状情報を検出するように構成すると、移動体 の移動方向に合わせて物体を検出することとなり、効率的な検出が可能となる。また 、例えば物体検出手段を一方向に向けた固定的なセンサ (例えば、シングノレビーム センサ)で構成することもできる。即ち、固定的に一方向しか検出できない物体検出 手段であっても、移動体が動くことによって広 、範囲を走査することができる。
[0033] また、本発明の物体認識装置は、前記物体検出手段が、前記移動体の移動に拘ら ず前記物体に対する広角エリアを走査する走査手段を備え、得られた走査情報に基 づいて前記物体の前記表面形状情報を検出することを特徴とする。
[0034] この構成によれば、移動体が停止状態にあっても、広い範囲を走査して物体を検 出することができる。その結果、例えば停止している移動体が移動を開始する際に物 体の有無等の周囲の状況を考慮することができる。
発明を実施するための最良の形態
[0035] 〔第一実施形態〕
以下、本発明の好適な実施形態を、車両が他の車両を認識する場合を例として、 図面に基づいて説明する。図 1に示すように、移動体としての車両 10には、側方に向 けた距離センサ 1 (物体検出手段)が搭載されている。この距離センサ 1は、例えばポ イントセンサ、即ち、シングル一ビームセンサや超音波を利用したソナ一等である。そ して、車両 10は、駐停車中の他の車両 20 (以下、駐車車両と称す。)のそばを図示 X 方向へ通過する際に、距離センサ 1によって駐車車両 20までの距離を計測する。駐 車車両 20は本発明の物体に相当するものである。尚、図 1には、簡略のため、車両 1 0の左側方にのみ距離センサ 1を設けて 、るが、当然両側方に設けて 、てもよい。
[0036] 距離センサ 1は、車両 10の移動に応じて駐車車両 20との距離を計測する。このよう にして得られた駐車車両 20の表面形状情報は、車両 10の移動距離に応じた離散的 なデータである。尚、車両 10の「移動距離に応じて」には、「所定時間間隔に応じて」 の意味も含むものである。例えば、車両 10が等速で移動する場合には、所定時間間 隔に応じて計測すれば、移動距離に応じて測定することになる。移動体 10の移動速 度、移動距離、移動時間は、線形的に定まる。従って、結果として概ね均等に表面形 状情報を得ることができる方法であれば、どのような方法を用いてもよい。このようにし て、車両 10は物体の表面形状情報を取得する (物体検出工程)。
[0037] 尚、距離センサ 1は移動時間を計測するタイマ、移動距離を計測するエンコーダ、 移動速度を計測する回転センサ等の付随するセンサを備えていてもよい。また、これ らセンサを別に備え、情報を得るようにして!/、てもよ!/、。
[0038] 図 2は、本発明の第一実施形態に係る物体認識装置の概略ブロック図である。図 2 において、形状認識部 2 (形状認識手段)は、マイクロコンピュータ 2A等の電子回路 によって構成されている。形状認識部 2内の各処理部は、必ずしも物理的に異なる電 子回路を示すものではなぐ機能としての処理部を示すものである。例えば、異なる プログラムを同一の CPUによって実行することにより、異なる機能を得るような場合も 含むものである。
[0039] 図 2に示すように距離センサ 1によって測定された表面形状情報は、形状認識部 2 に入力される。入力された表面形状情報は、図 1に示す X方向及び Y方向を軸とする 二次元平面にマッピングされて、標本記憶部 2aに記憶される。この標本記憶部 2aは 、メモリで構成されている。本実施形態においては、マイクロコンピュータ 2Aに内蔵 する形態を示している。勿論、マイクロコンピュータ 2Aとは別体のメモリを用いて、い わゆる外付けの形態としていてもよい。また、内蔵、外付けを問わず、レジスタ、ハー ドディスク等、他の記憶媒体を用いてもよい。
[0040] マイクロコンピュータ 2A内には、上記の他、相対配置演算部 3 (相対配置演算手段 )を備えている。詳細は後述する力 上述したように車両 10から見た駐車車両 20の 輪郭形状の認識に際して、距離センサ 1を用いて駐車車両 20の表面形状情報を取 得している。従って、車両 10と駐車車両 20との距離情報も同時に得ることができてい る。相対配置演算部 3は、この距離情報と、輪郭形状とを用いて、車両 10と駐車車両 20との相対配置を演算するものである。 [0041] ここで、相対配置とは、車両 10の各部と駐車車両 20の各部との相対位置である。 車両 10の外形形状は、自己の形状であるため、既知である。そして、車両 10から見 た駐車車両 20の輪郭形状は、下記に詳述する方法により良好に認識できる。これら により、相対配置演算部 3において図 10に示すように車両 10と駐車車両 20との相対 配置を演算する。尚、図 10では理解を容易にするために、駐車車両 20全体を点線 で示しているが、実際には認識された輪郭形状 Eと、車両 10との相対配置を演算す る。勿論、他の場所も含めて輪郭形状 Eを認識している場合には、全ての相対配置 を演算することができる。
[0042] そして、この相対配置は、ディスプレイ 5a等の報知手段 5に表示される。ディスプレ ィ 5aには、ナビゲーシヨンシステム等のモニタを兼用することができる。ディスプレイ 5 aへの表示 (報知)に際しては、車両 10の外形と、認識した輪郭形状 Eとを表示する。 あるいは、輪郭形状 Eに基づいて駐車車両 20の全体をイラストとして表現し、車両 10 と駐車車両 20との相対配置関係を表示してもよ 、。
[0043] また、上記のように視覚的に表示することによる報知に限らず、音声 (音響を含む) により報知してもよい。この音声は、ブザー 5bや、チャイム等によって発することがで きる。また、ナビゲーシヨンシステムには音声ガイドの機能を備えているものもある。従 つて、モニタの利用と同様、この音声ガイドの機能を兼用するようにしてもよい。
[0044] 以下、物体検出工程と、それに続!ヽて物体の輪郭形状を認識する形状認識工程と 、の詳細について説明する。
[0045] 初めに、物体検出工程について説明する。図 3に示すように、距離センサ 1によって 駐車車両 20上の表面形状情報 Sが計測される。表面形状情報は、本実施形態にお いて駐車車両 20のバンパー部の外形形状に沿った形で離散的に得られた計測デ ータである。ここで、これら離散的に得られたデータの一群を標本群 S (ラージエス)と 称する。標本群 Sは、輪郭形状の認識対象となるデータセットである。また、データセ ットを構成する一点一点のデータを標本 s (スモールエス)と称する。
[0046] 標本群 Sは、標本記憶部 2aの中で、図 4に示すように XYの二次元直交座標上にマ ッビングされる。尚、説明を容易にするため、図中には全ての標本 sを示していない。 図 4に示した標本中、黒点で示す標本 sをインライア (inliers)、白抜き点で示す標本 s をアウトライア (outliers)と称する。図中、標本 sl、 sl3等はインライアであり、標本 s2、 s 7、 slOはアウトライアである。詳細は後述するが、インライアは駐車車両 20の輪郭形 状を構成する標本である。アウトライアは駐車車両 20の輪郭形状力も外れた 、わゆ るノイズ性の標本である。
[0047] 以下、図 7に示すフローチャートも利用して、得られた標本群 Sより、駐車車両 20の 輪郭形状を認識する手順 (形状認識工程)につ ヽて説明する。
[0048] 標本抽出部 2bは、標本群 S (標本 sl〜sl3)より任意の標本 si (iは標本番号)を数 点抽出する(標本抽出工程、図 7 # 1)。どの標本 sを抽出するかについてはランダム に定まる。好適には乱数を用いる。例えば、マイクロコンピュータ 2Aに乱数発生器( 不図示)を設け、発生した乱数を標本番号とする標本 siを抽出する。あるいは、マイク 口コンピュータ 2Aが実行する乱数発生プログラムによって標本番号を定めてもよい。
[0049] また、抽出する標本の最小数は、認識した!/、対象形状によって異なる。例えば直線 の認識をする場合には 2点であり、二次曲線であれば 5点である。本実施形態におい ては、駐車車両 20のバンパー形状を二次曲線に近似し、 5点を抽出する。このように して抽出された個々のデータ、標本 sの集合は、データセットに対応する概念としての サブセットである。
[0050] 続、て、このサブセット (ランダムに抽出した標本 sの集合体)に基づ!/、て形状モデ ル設定部 2cが形状モデルを定める(形状モデル設定工程、図 7 # 2)。
[0051] 図 5は、図 4の散布図に示す標本群 Sから任意に抽出した標本 3はり定めた形状モ デル L (第一の形状モデル L1)と標本群 Sとの一致度を演算する説明図である。この 第一の形状モデル L1は、標本 sl、 s5、 s8、 sl l、 sl3の 5つの標本 sに基づいて定め られたものである。この形状モデル Lは、演算負荷の軽い線形計算により容易に求め ることができる。または、予め数種類のテンプレート形状を用意しておき、これらテン プレート形状の中より最適なものを選択するようにして定めてもょ 、。
[0052] また、図 5に示すように、形状モデル Lの接線に対して直交する両方向に所定距離 離れた点を形状モデル Lに沿って結び、点線 B1及び B2を定める。この点線 B1及び B2に挟まれた部分が有効範囲 Wとなる。
[0053] 次に、定めた形状モデル Lと標本群 Sとの一致度を、一致度演算部 2dにおいて演 算する。具体的には、上記のように定めた有効範囲 Wの中に、標本群 Sを構成する 各標本 siがどの程度含まれるかによつて一致度を算出する(一致度演算工程、図 7 # 3)。
[0054] 図 5に示した第一の曲線モデル L1に対する有効範囲 Wの中には、標本 s2、 s7、 si 0のアウトライアを除く全ての標本 sが含まれている。従って、第一の形状モデル L1の 標本群 Sに対する一致度は、 77% (10Z13)となる。つまり、第一の形状モデル L1 は、標本群 Sを構成する各標本 sにより、高い支持率 (77%)で合意 (コンセンサス)を 得たということができる。
[0055] 次に、主演算部 2eにおいて、この一致度が所定のしきい値を超えているか否かを 判定する(判定工程、図 7 # 4)。そして、しきい値を超えている場合には抽出したサ ブセットより定めた形状モデル (第一の形状モデル L1)を認識結果として認定する( 認定工程、図 7 # 5)。即ち、第一の形状モデル L1を輪郭形状とする。例えば、しきい 値が、 75%と設定されているような場合には、第一の形状モデル L1を輪郭形状とす る。しきい値を超えていない場合には、図 7のフローチャートの処理 # 1に戻り、再度 、別の標本 sを抽出して新たなサブセットを構成し、同様の処理を行う。複数回処理 # 1〜 # 4を繰り返してもしき 、値を超えな ヽような場合には、対象となる物体 (駐車車 両 20等)が無い、と判断する。この回数は、予め規定しておけばよい。
[0056] 尚、本実施形態にぉ ヽては、理解を容易にするために標本群 Sを構成する標本 sの 総数を 13ケとしている。しきい値の値 (75%)も、本実施形態の説明を容易にするた めの値である。従って、標本数、一致度の判定しきい値共に、本発明を限定する値で はない。例えば、標本数が多ければ、アウトライアに対するインライアの数は相対的に 多くなり、上記の例よりも高いしきい値を設定することもできる。
[0057] 図 6に示した形状モデル L (第二の形状モデル L2)では、サブセットとして標本 s2、 s4、 s7、 slO、 sl3が抽出されている。上述したように標本 s2、 s7、 slOは、駐車車両 20の輪郭形状力も外れたいわゆるノイズ性の標本である。従って、駐車車両 20の輪 郭形状から見た場合には、アウトライアとなるべき、標本である。そのため、図 6に示 すように、これらの標本 s2、 s7、 slOを含むサブセットに基づいて定められた第二の 形状モデル L2に対する有効範囲 Wから外れる標本 sが多数存在する。第一の形状 モデル LIと同様の方法により一致度を演算すると、その一致度は 38% (5/13)とな る。つまり、第二の形状モデル L2は、標本群 Sを構成する各標本 sにより、高い支持 率で合意 (コンセンサス)を得られて!/、な 、と 、うことになる。
[0058] 上記 2つの形状モデル L1及び L2が抽出されるような場合、認識結果となる輪郭形 状は第一の形状モデル L1となる。第一の形状モデル L1を定めるに際しては、ノイズ 性の標本 sである標本 s2、 s7、 slOは、未使用である。これらノイズ性の標本は、アウト ライアとして扱われ、除去されたこととなる。即ち、上記説明したような少ない演算量で 、非検出対象のデータ (アウトライア)が混在してもこれを除去し、安定して物体の形 状を認識することができる。
[0059] このような方法を用いず、標本 Sより輪郭形状を算出する方法は従来、種々提案さ れている。その一つは、最小自乗法である。最小自乗法では、データセットの全ての 標本 sを用いて、夫々の標本 sが同一の重みとなって形状が計算される。その結果、 上述したアウトライア (標本 s2等)の影響を受けて、本来とは異なった輪郭形状を認識 する。輪郭形状を認識した後に、データセット全体との一致度を再確認することも可 能ではある。しかし、最小自乗法自体の演算負荷が比較的重い上、この再確認の結 果により繰り返し最小自乗法による形状認識を行うとさらに演算負荷を重くすることに なる。
[0060] また別の方法として、特に直線の認識に好適なハフ(Hough)変換を利用する方法 もある。ハフ変換はよく知られているように、直交座標(例えば XY平面)上に存在する 直線は、極座標 - Θ空間)上では 1点で交差する、という性質を利用したものであ る。その変換式は、
p =X- cos Θ + Y- sin 0
である。上記式より、理解できるように極座標空間で pや Θの範囲を広げたり、細か い分解能を得たりしょうとすると、それだけ演算量が増大する。つまり、一次記憶手段 としての、メモリは大容量が要求され、計算回数も多くなる。
[0061] これら従来の演算に比べ、本発明の「表面形状情報を構成する標本群 Sから任意 に抽出した標本 sに基づいて定めた形状モデル Lに対する標本群 Sの一致度を演算 する」方法は、演算量が少なぐ必要となるメモリ容量も少ない。 [0062] 〔第二実施形態〕
上記説明においては、形状モデル Lと標本群 Sとの一致度を調べ、この一致度が所 定のしきい値を超えていれば、その形状モデル Lを認識結果とする。つまり、最先に しきい値を超えた形状モデル Lがそのまま認識結果となる。これに限らず、単にしきい 値を超えただけで直ちにその形状モデル Lを認識結果とはせず、複数個の形状モデ ル Lを評価するようにしてもよい。具体的な手順については、以下に説明する。
[0063] 図 8は、図 4の散布図に示す標本群から輪郭形状を認識する第二の方法を説明す るフローチャートである。この第二の方法では、サブセットを複数回抽出して形状モデ ル Lを定め、その中で最も一致度の高力つた形状モデル Lを認識結果とするようにし ている。以下、図 8に基づいて、第二の方法について説明する。但し、処理 # 1〜# 4 は第一の方法である図 7に示したフローチャートと同様であるので、説明を省略する。
[0064] 本第二の方法では、サブセットを複数回繰り返して抽出するので、繰り返し回数を 一時記憶する。形状認識工程の開始に当たって、まず初めにこの一時記憶する繰り 返し回数をクリアする(初期化工程、図 8 # 0)。以下、第一実施形態と同様に、標本 抽出工程(# 1)にて、標本群 Sよりランダムに標本 sを抽出してサブセットを作る。次 に、形状モデル設定工程(# 2)にて、このサブセットに基づいて形状モデル Lを定め る。そして、一致度演算工程(# 3)にて、形状モデル Lと標本群 Sとの一致度を演算 し、判定工程(# 4)にて、一致度が所定のしきい値を超えている力否かを判定する。
[0065] 判定の結果、しき 、値を超えて 、た場合には、先に定めた形状モデル Lとこの形状 モデル Lに対する一致度を一時記憶部(不図示)に記憶する(記憶工程、 # 41)。そ して、一つの形状モデル Lに対する評価が完了したので、繰り返し回数をインクリメン トする(計数工程、 # 42)。判定の結果、しきい値を超えていな力つた場合には、記憶 工程( # 41)を飛ばして、繰り返し回数をインクリメントする ( # 42)。
[0066] 次に、繰り返し回数が所定の回数に達した力否力 (超えた力否かでもよい)を判定 する(離脱判定工程、 # 43)。所定の回数に達していなければ、標本抽出工程(# 1 )に戻り、以下判定工程(# 4)までを行って、新たな形状モデル Lの評価を行う。所定 の回数に達していた場合には、記憶されている形状モデル Lの内、最も一致度の高 力つた形状モデル Lを選択し、これを認識結果としての輪郭形状とする (認定工程、 # 51)。ここで、判定工程(# 4)において一致度のしきい値を超えたものが一つも無 力 たような場合には、認定工程(# 51)において該当無しと判断する。
[0067] このように、図 7に示す第一の方法、図 8に示す第二の方法共に、サブセットに基づ V、て定めた形状モデル Lを輪郭形状と認定して 、る。一般に少な 、標本数に基づ!/ヽ て定めた形状モデル Lは、正確な輪郭形状を再現するものではない、とも考えられる 。しかし、本発明においては、形状モデル Lと標本群 Sの全標本との一致度を評価し ている。従って、形状モデル Lはほぼ正確に輪郭形状を再現 (認識)できていると考 えてよい。このように、サブセットを構成する少ない標本数から定めた形状モデルしが 輪郭形状を再現できることは、演算量の削減に大きく貢献している。
[0068] 上述したように、形状モデル Lをそのまま認識結果として輪郭形状と認定することは 、演算量の削減に大きく貢献する。しかし、本発明はこれに限定されるものではない。 マイクロコンピュータ 2A等、演算手段の能力に余裕のある場合などでは、輪郭形状 を再計算してもよい。
[0069] 例えば、一致度がしき ヽ値を超えた形状モデル Lを基準とすれば、標本群 Sを構成 する標本 sの夫々をインライア、アウトライアとして定義することができる。認定工程で は、このインライア、アウトライアを認定する。そして、インライアと認定された全ての標 本 sを対象として最小自乗法等を用いて形状を再計算する (再計算工程)。上述した ように最小自乗法ではノイズ性の標本 sの影響を受けて、形状を正しく再現できな!、 場合がある。しかし、この再計算工程においては、ノイズ性の標本 sはアウトライアとし て除去されているため、正確な輪郭形状の再現が可能となる。
[0070] 〔第三実施形態〕
図 9は、本発明の第三実施形態に係る物体認識装置の概略ブロック図である。 図 9に示すように、車輪速センサ 4aや舵角センサ 4b等、車両 10の移動状態を検出する 移動状態検出手段 4からの入力情報を加味すれば、近未来の相対配置を演算する こともできる。つまり、輪郭形状 Eが認識された現在の相対配置(図 10参照)に留まら ず、将来の相対配置関係を推定 (予測)することができる。
[0071] 車輪速センサ 4aは、車両 10の各車輪部(前方右 FR、前方左 FL、後方右 RR、後 方左 RL)に備えられたセンサである。これは例えば、ホール ICを利用した回転センサ である。舵角センサ 4bは、車両 10のステアリングの回転角度やタイヤの回動角度を 検出するセンサである。あるいは、前述の車輪速センサ 4aの各車輪部での計測結果 (左右の車輪の回転数や回転速度の違!、)に基づ!/、て舵角を演算する演算装置で あってもよい。
[0072] これらのセンサにより検出した移動状態を加味して、現在及び未来における車両 1 0と駐車車両 20の輪郭形状 Eとの相対位置関係を演算する。舵角センサ 4bによって 進行方向を推定し、車輪速センサ 4aによって進行速度を推定する。そして、車両 10 の予想軌跡や、駐車車両 20の輪郭形状 Eと車両 10との数秒後の相対配置関係を演 算する。
[0073] 図 11は、車両 10と駐車車両 20の輪郭形状 Eとの相対配置関係の一例を示して 、 る。符号 10Aは車両 10の近未来の位置である。ここでは、移動する軌跡により、車両 10の一部と、駐車車両 20の輪郭形状 Eとが、干渉する例を示している。輪郭形状 Eと 干渉すると 、うことは、車両 10と駐車車両 20とが接触する可能性を示して 、ると 、え る。
[0074] そして、上述したようにこの相対配置や軌跡をディスプレイ 5aやブザー 5b、音声ガ イド等の報知手段 5を介して報知することができる。また、図 11に示すように輪郭形状 Eと、移動軌跡とが干渉するような場合には、注意や警告を促す報知を行うこともでき る。さらに、ステアリング制御部 6aやブレーキ制御部 6b等の移動制御手段 6によって 干渉を防止することができる。つまり、ステアリング制御部 6aで移動方向を変更したり 、ブレーキ制御部 6bで速度を低下させたりすることができる。そして、これにより、未 来の干渉、即ち車両 10と駐車車両 20との接触を防止することができる。
[0075] 〔その他の実施形態〕
上記説明においては、物体検出手段として、図 1に示したような車両 10の移動に伴 つて駐車車両 20の表面形状情報を検出する距離センサ 1を例として説明した。しか し、本発明に係る物体検出手段は、これに限定されることはない。距離センサ 1は、 車両 10の移動に拘らず表面形状情報を出力し、後段の情報処理において、移動距 離毎、経過時間毎に選別することも可能である。また、車両 10の移動に拘らず駐車 車両 20に対する広角エリアを走査する走査手段を備え、得られた走査情報に基づ いて表面形状情報を検出するものであってもよい。即ち、距離センサ 1のようなポイン トセンサに限らず、一次元センサ、二次元センサ、三次元センサ等、物体の形状を反 映した信号 (表面形状情報)を得られるセンサが使用できる。
[0076] 図 12には、本発明に係る物体検出手段として一次元センサを用いる場合の例が示 されている。ここでは、一次元センサの一例として、スキャン型レーザーセンサを用い ている。図 12に示すように、センサ位置(走査手段 laの位置)より放射状に物体 (駐 車車両 20)が走査される。物体の各位置からのレーザー波の反射により、距離の分 布を計測することができる。レーザー波を発射したときの方位角 Θをエンコーダ等に より検出しておけば、図 3に示したものと同様に表面形状情報を得ることができる。そ して、 XY直交座標にマッピングすることができる。
[0077] 一次元センサの他の例として、超音波方式のレーダ、光方式のレーダ、電波方式 のレーダ、三角測量式の距離計等を用いてもよい。
[0078] 二次元センサとしては、水平'垂直方向に走査可能なスキャン型レーダがある。この スキャン型レーダを用いることにより、対象物体の水平方向の形状、垂直方向の形状 に関する情報を得ることができる。
また、よく知られた二次元センサとしては CCD (Charge Coupled Device)や、 CIS ( CMOS Image Sensor)を利用したカメラ等の画像入力手段もある。このカメラより得ら れた画像データより、輪郭線情報、交点情報等の各種特徴量を抽出し、表面形状に 関する情報を得てもよい。
[0079] 三次元センサについても同様であり、例えばステレオ撮影した画像データ等を用い て、形状に関する情報を得てもよい。
[0080] 〔その他の利用形態〕
以上、本発明の実施形態を、駐車車両 20を物体として、この輪郭形状を認識する 方法及び装置とこれらの追加的特徴について説明した。この「物体」は、駐車車両や 、建造物等の障害物に限らず、道路の走行レーンや、停止線、駐車枠等、種々のも のが該当する。即ち、認識対象も立体物の輪郭形状に限定されるものではなぐ平面 模様の形状認識にも適用できるものである。
[0081] また、図 10、図 11に示したように車両 10が前進移動している場合だけでなぐ図 1 3に示すように後進して車両 20aと 20bとの間に駐車するような場合にも利用できる。 勿論、図 1のように前進移動した後、図 13に示すように後進移動する、いわゆるスイツ チバックの場合にも適用できる。この場合、駐車車両 20a、 20bの輪郭形状 Eを確実 に認識した後、両車両の間に進行することができる。
産業上の利用可能性
[0082] 本発明は、自動車の走行支援装置や駐車支援装置などに適用することができる。
また、ロボットの移動支援装置、停止支援装置などに適用することができる。
図面の簡単な説明
[0083] [図 1]本発明に係る物体認識装置を搭載した車両が他の車両を認識する場合の例を 示す説明図
[図 2]本発明の第一実施形態に係る物体認識装置の概略ブロック図
[図 3]図 1の駐車車両の表面形状情報を測定した結果を示す図
[図 4]図 3に示す測定結果を二次元直交座標上にマッピングした散布図
[図 5]図 4の散布図に示す標本群から任意に抽出した標本より定めた第一の形状モ デルと標本群との一致度を演算する説明図
[図 6]図 4の散布図に示す標本群から任意に抽出した標本より定めた第二の形状モ デルと標本群との一致度を演算する説明図
[図 7]図 4の散布図に示す標本群カゝら輪郭形状を認識する第一の方法 (第一実施形 態)を説明するフローチャート
[図 8]図 4の散布図に示す標本群カゝら輪郭形状を認識する第二の方法 (第二実施形 態)を説明するフローチャート
[図 9]本発明の第三実施形態に係る物体認識装置の概略ブロック図
[図 10]図 2及び図 9の相対配置演算部により算出された物体認識装置を搭載した車 両と他の車両の輪郭形状との相対配置関係の一例を示す図
[図 11]図 9の相対配置演算部により算出された物体認識装置を搭載した車両と他の 車両の輪郭形状との相対配置関係の一例 (第三実施形態)を示す図
[図 12]本発明に係る物体検出手段として一次元センサを用いる場合の例 (他の実施 形態)を示す図 [図 13]図 9の相対配置演算部により算出された物体認識装置を搭載した車両と他の 車両の輪郭形状との相対配置関係の他の例 (他の利用形態)を示す図
符号の説明
1 距離センサ (物体検出手段)
2 形状認識部 (形状認識手段)
2A マイクロコンピュータ
3 相対位置演算部 (相対位置演算手段)
5 報知手段
5a ディスプレイ、 5b ブザー
S 標本群
s 標本

Claims

請求の範囲
[1] 移動体周辺に存在する物体を認識する物体認識装置であって、
前記物体の表面形状情報を検出する物体検出手段と、
前記表面形状情報を構成する標本群力 任意に抽出した標本に基づいて定めた 形状モデルに対する前記標本群の一致度を演算して前記物体の輪郭形状を認識す る形状認識手段と、
前記物体検出手段及び前記形状認識手段の検出及び認識結果に基づ 、て、前 記移動体と前記物体との相対的な配置関係を演算する相対配置演算手段と、 この相対配置演算手段の演算結果に基づいて、前記配置関係についてディスプレ ィへの表示又は音声により報知する報知手段と、
を備える物体認識装置。
[2] 前記物体検出手段は、前記物体の表面と前記移動体との距離に基づいて前記表 面形状情報を検出する請求項 1に記載の物体認識装置。
[3] 前記表面形状情報は、前記物体の外形形状に沿って離散的に得られるものである 請求項 2に記載の物体認識装置。
[4] 前記表面形状情報を構成する前記標本群から、認識の対象形状に応じた数の前 記標本が任意に抽出される請求項 1に記載の物体認識装置。
[5] 前記対象形状は、二次曲線に近似された車両のバンパー形状であり、 5つの前記 標本が任意に抽出される請求項 4に記載の物体認識装置。
[6] 前記形状認識手段は、前記形状モデルの接線に対して直交する両方向に所定距 離離れた点を結んだ 2つの曲線に挟まれた部分を有効範囲と定め、前記有効範囲 の中に含まれる前記標本の数と前記標本群の総数との関係によって前記一致度を 算出する請求項 1に記載の物体認識装置。
[7] 前記形状認識手段は、所定回数に亘つて、前記標本群から任意の前記標本を抽 出し、定められた各前記形状モデルに対して前記一致度を演算すると共に、前記所 定回数の繰り返しの後、所定のしきい値を超えた前記形状モデルのうちで最大の前 記一致度を有する前記形状モデルを前記物体の輪郭形状として認識する請求項 1 に記載の物体認識装置。
[8] 前記形状認識手段は、前記所定回数に拘らず、最先に前記所定のしきい値を超え た前記一致度を有する前記形状モデルを前記物体の輪郭形状として認識する請求 項 7に記載の物体認識装置。
[9] 前記相対配置演算手段が、前記移動体の移動状態を検出する移動状態検出手段 の検出結果に基づいて前記配置関係を演算すると共に、
この配置関係に基づいて前記移動体と前記物体との接近度合いを判定する判定 手段を備える請求項 1に記載の物体認識装置。
[10] 前記判定手段により判定された前記接近度合いに基づ!、て、前記移動体の移動 速度及び旋回方向の一方又は双方を制御する移動制御手段を備える請求項 9に記 載の物体認識装置。
[11] 前記物体検出手段は、前記移動体の移動に伴って前記物体の前記表面形状情報 を検出する請求項 1に記載の物体認識装置。
[12] 前記物体検出手段は、前記移動体の移動に拘らず前記物体に対する広角エリア を走査する走査手段を備え、得られた走査情報に基づ!、て前記物体の前記表面形 状情報を検出する請求項 1に記載の物体認識装置。
PCT/JP2006/303166 2005-02-23 2006-02-22 物体認識装置 WO2006090736A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US11/884,484 US20090208109A1 (en) 2005-02-23 2006-02-22 Object Recognition Apparatus
EP06714306A EP1852713A4 (en) 2005-02-23 2006-02-22 OBJECT RECOGNITION DEVICE

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005047518A JP2006234494A (ja) 2005-02-23 2005-02-23 物体認識装置
JP2005-047518 2005-02-23

Publications (1)

Publication Number Publication Date
WO2006090736A1 true WO2006090736A1 (ja) 2006-08-31

Family

ID=36927374

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/303166 WO2006090736A1 (ja) 2005-02-23 2006-02-22 物体認識装置

Country Status (4)

Country Link
US (1) US20090208109A1 (ja)
EP (1) EP1852713A4 (ja)
JP (1) JP2006234494A (ja)
WO (1) WO2006090736A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2087369A1 (de) * 2006-12-08 2009-08-12 Valeo Schalter und Sensoren GmbH Verfahren zum betrieb eines parkhilfesystems
EP2100162A1 (de) * 2006-12-05 2009-09-16 Robert Bosch GmbH Verfahren zum betrieb eines radarsystems bei möglicher zielobjektverdeckung sowie radarsystem zur durchführung des verfahrens
JP2009234294A (ja) * 2008-03-25 2009-10-15 Panasonic Electric Works Co Ltd 駐車空間監視装置

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4618506B2 (ja) * 2005-10-20 2011-01-26 アイシン精機株式会社 物体認識装置
JP4662147B2 (ja) 2005-10-20 2011-03-30 アイシン精機株式会社 物体認識装置
US8135199B2 (en) * 2006-12-19 2012-03-13 Fujifilm Corporation Method and apparatus of using probabilistic atlas for feature removal/positioning
JP5093602B2 (ja) 2008-06-04 2012-12-12 アイシン精機株式会社 周辺認知支援装置
JP5123244B2 (ja) * 2009-04-22 2013-01-23 ヴィスコ・テクノロジーズ株式会社 形状欠損検査装置、形状モデリング装置および形状欠損検査プログラム
JP5257341B2 (ja) * 2009-12-02 2013-08-07 株式会社デンソー 物体認識装置、プログラム
US20150009330A1 (en) * 2012-02-06 2015-01-08 Toyota Jidosha Kabushiki Kaisha Object detection device
KR20170036077A (ko) 2014-07-24 2017-03-31 엠.브루베이커 커티스 모바일 광고, 미디어, 및 통신 플랫폼에 크리티컬 매스를 발생시키기 위한 시스템, 방법, 및 디바이스
JP6512004B2 (ja) * 2015-07-13 2019-05-15 日産自動車株式会社 駐車支援装置及び駐車支援方法
US9878664B2 (en) 2015-11-04 2018-01-30 Zoox, Inc. Method for robotic vehicle communication with an external environment via acoustic beam forming
US9494940B1 (en) 2015-11-04 2016-11-15 Zoox, Inc. Quadrant configuration of robotic vehicles
US9507346B1 (en) 2015-11-04 2016-11-29 Zoox, Inc. Teleoperation system and method for trajectory modification of autonomous vehicles
US9804599B2 (en) 2015-11-04 2017-10-31 Zoox, Inc. Active lighting control for communicating a state of an autonomous vehicle to entities in a surrounding environment
JP6204634B1 (ja) * 2015-12-25 2017-09-27 楽天株式会社 形状弁別装置、形状弁別方法及び形状弁別プログラム
US10635909B2 (en) * 2015-12-30 2020-04-28 Texas Instruments Incorporated Vehicle control with efficient iterative triangulation
CN109311433B (zh) 2016-04-14 2022-10-11 比凯特有限责任公司 用于在移动对象上制造、安装和使用外部安装的数字显示器的系统和装置
JP6239047B1 (ja) * 2016-06-17 2017-11-29 三菱電機株式会社 物体認識統合装置および物体認識統合方法
US10338594B2 (en) * 2017-03-13 2019-07-02 Nio Usa, Inc. Navigation of autonomous vehicles to enhance safety under one or more fault conditions
US10423162B2 (en) 2017-05-08 2019-09-24 Nio Usa, Inc. Autonomous vehicle logic to identify permissioned parking relative to multiple classes of restricted parking
US10710633B2 (en) 2017-07-14 2020-07-14 Nio Usa, Inc. Control of complex parking maneuvers and autonomous fuel replenishment of driverless vehicles
US10369974B2 (en) 2017-07-14 2019-08-06 Nio Usa, Inc. Control and coordination of driverless fuel replenishment for autonomous vehicles
US11022971B2 (en) 2018-01-16 2021-06-01 Nio Usa, Inc. Event data recordation to identify and resolve anomalies associated with control of driverless vehicles

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07248382A (ja) * 1994-03-11 1995-09-26 Nissan Motor Co Ltd 車両周囲モニタ装置
JP2002228734A (ja) * 2001-02-05 2002-08-14 Nissan Motor Co Ltd 周囲物体認識装置
JP2002243857A (ja) * 2001-02-14 2002-08-28 Nissan Motor Co Ltd 周囲物体認識装置
JP2003271975A (ja) * 2002-03-15 2003-09-26 Sony Corp 平面抽出方法、その装置、そのプログラム、その記録媒体及び平面抽出装置搭載型ロボット装置
JP2004118757A (ja) * 2002-09-30 2004-04-15 Jun Sato 路面走行レーン検出装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7049945B2 (en) * 2000-05-08 2006-05-23 Automotive Technologies International, Inc. Vehicular blind spot identification and monitoring system
US6664918B2 (en) * 2002-01-09 2003-12-16 Mia-Com, Inc. Method and apparatus for identifying complex objects based on range readings from multiple sensors
ES2391556T3 (es) * 2002-05-03 2012-11-27 Donnelly Corporation Sistema de detección de objetos para vehículo
CN1701242A (zh) * 2003-03-20 2005-11-23 松下电器产业株式会社 障碍检测设备
US7106421B2 (en) * 2003-04-04 2006-09-12 Omron Corporation Method of adjusting axial direction of monitoring apparatus
US7263209B2 (en) * 2003-06-13 2007-08-28 Sarnoff Corporation Vehicular vision system
JP4311577B2 (ja) * 2003-09-02 2009-08-12 株式会社小松製作所 施工目標指示装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07248382A (ja) * 1994-03-11 1995-09-26 Nissan Motor Co Ltd 車両周囲モニタ装置
JP2002228734A (ja) * 2001-02-05 2002-08-14 Nissan Motor Co Ltd 周囲物体認識装置
JP2002243857A (ja) * 2001-02-14 2002-08-28 Nissan Motor Co Ltd 周囲物体認識装置
JP2003271975A (ja) * 2002-03-15 2003-09-26 Sony Corp 平面抽出方法、その装置、そのプログラム、その記録媒体及び平面抽出装置搭載型ロボット装置
JP2004118757A (ja) * 2002-09-30 2004-04-15 Jun Sato 路面走行レーン検出装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1852713A4 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2100162A1 (de) * 2006-12-05 2009-09-16 Robert Bosch GmbH Verfahren zum betrieb eines radarsystems bei möglicher zielobjektverdeckung sowie radarsystem zur durchführung des verfahrens
EP2087369A1 (de) * 2006-12-08 2009-08-12 Valeo Schalter und Sensoren GmbH Verfahren zum betrieb eines parkhilfesystems
EP2087369B1 (de) * 2006-12-08 2016-10-26 Valeo Schalter und Sensoren GmbH Verfahren zum betrieb eines parkhilfesystems
JP2009234294A (ja) * 2008-03-25 2009-10-15 Panasonic Electric Works Co Ltd 駐車空間監視装置
US8742947B2 (en) 2008-03-25 2014-06-03 Panasonic Corporation Parking space monitoring device

Also Published As

Publication number Publication date
US20090208109A1 (en) 2009-08-20
EP1852713A4 (en) 2008-10-15
JP2006234494A (ja) 2006-09-07
EP1852713A1 (en) 2007-11-07

Similar Documents

Publication Publication Date Title
WO2006090736A1 (ja) 物体認識装置
US20090121899A1 (en) Parking assistance device
US10247825B2 (en) Object detection device
CN110867132B (zh) 环境感知的方法、装置、电子设备和计算机可读存储介质
US20180001952A1 (en) Collision detection
JP2001256600A (ja) 車両用道路形状認識方法及び装置、記録媒体
CN110850859B (zh) 一种机器人及其避障方法和避障系统
CN112130158B (zh) 对象距离测量装置和方法
JP2008195293A (ja) 衝突予測装置
CN112744217B (zh) 碰撞检测方法、行驶路径的推荐方法及其装置和存储介质
JP4662147B2 (ja) 物体認識装置
JP2006234493A (ja) 物体認識装置及び方法
JP2002243857A (ja) 周囲物体認識装置
CN106240454B (zh) 提供车辆碰撞预警的系统及车载设备
JP4618506B2 (ja) 物体認識装置
JP7165630B2 (ja) 認識システム、車両制御システム、認識方法、およびプログラム
KR101734726B1 (ko) 주차공간 탐지 방법 및 이를 실행하는 장치
JP3954053B2 (ja) 車両周辺監視装置
JP2006276985A (ja) 物体認識方法及び装置
JP2006276984A (ja) 物体認識方法及び装置
JP2002183719A (ja) 車両用周囲検出装置
JPH05113482A (ja) 車載用追突防止装置
JP2007333615A (ja) レーダ計測システム
KR101559248B1 (ko) 주차 공간 인식 방법 및 장치
JP7563330B2 (ja) 駐車支援装置及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2006714306

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 11884484

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

WWP Wipo information: published in national office

Ref document number: 2006714306

Country of ref document: EP