JP2006234493A - Object recognizing device, and object recognition method - Google Patents

Object recognizing device, and object recognition method Download PDF

Info

Publication number
JP2006234493A
JP2006234493A JP2005047517A JP2005047517A JP2006234493A JP 2006234493 A JP2006234493 A JP 2006234493A JP 2005047517 A JP2005047517 A JP 2005047517A JP 2005047517 A JP2005047517 A JP 2005047517A JP 2006234493 A JP2006234493 A JP 2006234493A
Authority
JP
Japan
Prior art keywords
shape
recognition
sample
recognizing
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005047517A
Other languages
Japanese (ja)
Inventor
Toshiaki Kakinami
俊明 柿並
Jun Sato
佐藤  淳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nagoya Institute of Technology NUC
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Nagoya Institute of Technology NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd, Nagoya Institute of Technology NUC filed Critical Aisin Seiki Co Ltd
Priority to JP2005047517A priority Critical patent/JP2006234493A/en
Publication of JP2006234493A publication Critical patent/JP2006234493A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Radar Systems Or Details Thereof (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an object recognition method, capable of recognizing stably a shape of an object with a reduced computation amount, even if the data of a detected object are mixed, and to provide an object recognizing device that uses the method. <P>SOLUTION: This object recognizing device, for recognizing the object existing in the periphery of a moving body, is provided with an object detecting means 1 for detecting surface shape information of the object, and a shape-recognizing means 2 for recognizing the outline shape of the object, and the shape recognizing means 2 computes the degree of consistency of a specimen group, with respect to a shape model defined based on a specimen extracted optionally from the specimen group, constituting the surface-shape information to recognize the outline shape. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、移動体周辺に存在する物体の輪郭形状を認識する物体認識装置、及び物体認識方法に関する。   The present invention relates to an object recognition apparatus and an object recognition method for recognizing a contour shape of an object existing around a moving body.

このような装置としては、下記に示す特許文献1に記載されたような障害物検知装置がある。この装置は、車両(移動体)の周辺に存在する障害物を検知して警報を発するものである。この発明は、従来の装置が、単に車両と障害物との距離だけを測定して所定距離よりも短い場合にのみ、警報を発するように構成されているのに対してなされたものである。即ち、距離に基づく警報だけでは、運転者にとって車両の周りのどの物体が障害物か判り難いという問題に鑑みてなされたものである。これによると、車両に複数の障害物検知センサを搭載し、障害物までの距離を演算する。これら得られた演算結果より障害物の形状が直線(平板形状)か円形(凸面形状)かを推定して表示する。このように構成することにより、障害物との距離と、障害物の形状とを利用して報知している。   As such an apparatus, there exists an obstacle detection apparatus as described in the patent document 1 shown below. This device detects an obstacle existing around a vehicle (moving body) and issues an alarm. The present invention is made in contrast to the conventional apparatus configured to issue an alarm only when the distance between the vehicle and the obstacle is simply measured and shorter than a predetermined distance. That is, the warning based on the distance alone is made in view of the problem that it is difficult for the driver to determine which object around the vehicle is an obstacle. According to this, a plurality of obstacle detection sensors are mounted on the vehicle, and the distance to the obstacle is calculated. Whether the shape of the obstacle is a straight line (flat plate shape) or a circular shape (convex surface shape) is estimated from the obtained calculation results and displayed. By comprising in this way, it alert | reports using the distance with an obstruction, and the shape of an obstruction.

特開2003−194938号公報(第2−3頁、第1−7図)JP 2003-194938 A (page 2-3, FIG. 1-7)

上記公知技術は、障害物の形状までも推定する点において、利用者にとって有益なものである。しかし、実際の計測においては、検出対象の物体(障害物)以外を検出した検出データが混在することが多い。そして、検出対象物以外の検出データは、ノイズ成分として作用するため、検出対象物の形状推定に際して誤認の原因となることが考えられる。即ち、障害物等の検出対象となる物体を検出する際の安定性が充分とはいえない。また、一般にこのようなノイズ除去の機能を具備すれば、演算量が増え、それに伴って処理時間の増大や装置の大規模化を招くことになる。   The above known technique is useful for the user in that it also estimates the shape of the obstacle. However, in actual measurement, detection data that detects objects other than the detection target object (obstacle) is often mixed. And since detection data other than a detection target object act as a noise component, it is thought that it becomes a cause of misrecognition at the time of shape estimation of a detection target object. That is, it cannot be said that the stability in detecting an object to be detected such as an obstacle is sufficient. In general, if such a noise removal function is provided, the amount of calculation increases, and accordingly, the processing time increases and the scale of the apparatus increases.

本願発明は上記課題に鑑みてなされたもので、少ない演算量で、被検出対象のデータが混在しても安定して物体の形状を認識することができる物体認識方法、及びこの方法を用いた物体認識装置を提供することを目的としている。   The present invention has been made in view of the above problems, and uses an object recognition method capable of stably recognizing the shape of an object with a small amount of calculation even when data to be detected is mixed, and this method. The object is to provide an object recognition device.

この目的を達成するための本発明に係る物体認識装置の特徴構成は、
移動体周辺に存在する物体を認識するものであって、前記物体の表面形状情報を検出する物体検出手段と、前記物体の輪郭形状を認識する形状認識手段と、を備え、
この形状認識手段は、前記表面形状情報を構成する標本群から任意に抽出した標本に基づいて定めた形状モデルに対する前記標本群の一致度を演算して前記輪郭形状を認識する点にある。
In order to achieve this object, the feature configuration of the object recognition apparatus according to the present invention is as follows:
Recognizing an object existing around a moving body, comprising: object detecting means for detecting surface shape information of the object; and shape recognizing means for recognizing the contour shape of the object,
The shape recognizing means is such that the contour shape is recognized by calculating the degree of coincidence of the sample group with respect to a shape model determined based on a sample arbitrarily extracted from the sample group constituting the surface shape information.

この特徴構成によれば、物体検出手段が物体の表面形状情報を検出し、この表面形状情報に基づいて、形状認識手段が物体の輪郭形状を認識する。ここで、表面形状情報とは、移動体から見た物体の表面の形状を示す情報である。電波や超音波等を用いた反射型のセンサを用いてもよいし、可視光や赤外光等を利用して画像データを得るイメージセンサ、カメラ(動画、静止画を問わず)を用いてもよい。   According to this feature configuration, the object detection unit detects the surface shape information of the object, and the shape recognition unit recognizes the contour shape of the object based on the surface shape information. Here, the surface shape information is information indicating the shape of the surface of the object viewed from the moving body. A reflective sensor using radio waves or ultrasonic waves may be used, or an image sensor or camera (regardless of moving images or still images) that obtains image data using visible light, infrared light, or the like. Also good.

形状認識手段は、上記種々の物体検出手段より得られた標本群より、輪郭形状を認識する。ここで、標本群とは、表面形状情報を構成する個々のデータの集合体のことをいう。個々のデータとは、例えば、反射型のセンサを用いた場合には、障害物の各場所で反射された信号を受信して得られた各場所に対応した情報である。画像データを利用した場合には、エッジ抽出、三次元変換等の種々の画像処理により得られたデータを用いることができる。このように、形状認識手段の種類に依らず、物体の表面形状を表すデータを標本として扱い、この標本の集合体を標本群と称する。   The shape recognition means recognizes the contour shape from the sample group obtained by the various object detection means. Here, the sample group refers to a collection of individual data constituting the surface shape information. The individual data is information corresponding to each location obtained by receiving a signal reflected at each location of the obstacle when, for example, a reflective sensor is used. When image data is used, data obtained by various image processing such as edge extraction and three-dimensional conversion can be used. In this way, data representing the surface shape of an object is treated as a sample regardless of the type of shape recognition means, and this collection of samples is referred to as a sample group.

形状認識手段は、この標本群より任意に(ランダムに)いくつかの標本を抽出して、抽出した標本に基づいて形状モデルを定める。この形状モデルを定めるに際しては、抽出した標本より幾何学的に算出してもよいし、予め複数のテンプレートを用意して最適なものに当てはめる方法を用いてもよい。そして、標本群全体がこの形状モデルに対して、どの程度一致するかの一致度を演算する。この演算結果に基づいて、具現化された形状モデルが標本群に適合するものか否かを判定する。   The shape recognition means arbitrarily (randomly) extracts some samples from the sample group, and determines a shape model based on the extracted samples. When determining this shape model, it may be calculated geometrically from the extracted sample, or a method in which a plurality of templates are prepared in advance and applied to the optimum one may be used. Then, the degree of coincidence of how much the entire sample group matches the shape model is calculated. Based on the calculation result, it is determined whether or not the embodied shape model is suitable for the sample group.

即ち、任意に抽出した標本にノイズ性の標本が含まれていた場合には、定めた形状モデルと標本群との一致度は低くなる。従って、この形状モデルは標本群に適合しないと判定できる。ノイズ性の標本を含まずに形状モデルを定めた場合には、一致度は高くなる。従って、形状モデルは標本群に適合すると判定できる。このように、少ない演算量で、ノイズ性の標本を除去して対象となる物体の輪郭形状を認識することができる。   That is, when a sample with noise characteristics is included in an arbitrarily extracted sample, the degree of coincidence between the determined shape model and the sample group is low. Therefore, it can be determined that this shape model does not match the sample group. When the shape model is determined without including a noise sample, the degree of coincidence increases. Therefore, it can be determined that the shape model matches the sample group. In this way, the contour shape of the target object can be recognized by removing a noisy sample with a small amount of calculation.

形状認識手段は、標本群よりも遥かに少ない標本数である、任意に抽出された標本より形状モデルを定めている。従って、標本の抽出や形状モデルを定める際に必要となる演算量は少ない。そのため、演算時間も短く、装置も大規模化しない。また、形状モデルに対する標本群の一致度は、各標本の空間上の座標を用いて、幾何学的に演算することができる。従って、この一致度の演算も少ない演算量で行うことができる。さらに、これらの演算量が少ないことより、繰り返し異なる形状モデルを定めて一致度を演算しても総演算量の増大を抑制することができる。その結果、高い精度で輪郭形状を認識することができる。   The shape recognition means defines a shape model from arbitrarily extracted samples, which is a much smaller number of samples than the sample group. Therefore, the amount of calculation required when extracting a sample or determining a shape model is small. Therefore, the calculation time is short and the apparatus is not scaled up. In addition, the degree of coincidence of the sample group with respect to the shape model can be calculated geometrically using the coordinates in the space of each sample. Therefore, the degree of coincidence can be calculated with a small amount of calculation. Furthermore, since these calculation amounts are small, an increase in the total calculation amount can be suppressed even if different shape models are repeatedly determined and the degree of coincidence is calculated. As a result, the contour shape can be recognized with high accuracy.

このように、本特徴構成によれば、少ない演算量で、非検出対象のデータ(ノイズ)が混在しても安定して物体の形状を認識することのできる物体認識が可能となる。   As described above, according to this feature configuration, it is possible to perform object recognition that can stably recognize the shape of an object with a small amount of calculation even when non-detection target data (noise) is mixed.

ここで、前記物体検出手段が、前記物体の表面と前記移動体との距離に基づいて前記表面形状情報を検出するものであると好適である。   Here, it is preferable that the object detection means detects the surface shape information based on a distance between the surface of the object and the moving body.

対象となる物体の輪郭形状が、移動体からの遠近に関する形状、例えばいわゆる奥行きであるような場合、表面形状情報を物体と移動体との距離に基づいて検出すると好適である。このような場合、ノイズ性の標本が含まれない場合には、距離に基づいて検出された表面形状情報は、ほぼ認識したい輪郭形状を表す標本群となる。これにノイズ性の標本が含まれた場合でも、ノイズ性の標本を除去できれば、残った標本群はほぼ認識したい輪郭形状を示すものとなる。上述したように本発明によれば、形状モデルと標本群との一致度の演算により良好にノイズ性の標本を除去できる。従って、物体検出手段が物体の表面と移動体との距離に基づいて表面形状状態を検出するものであると、安定且つ正確な物体認識が可能となる。   When the contour shape of the target object is a shape related to the perspective from the moving body, for example, a so-called depth, it is preferable to detect the surface shape information based on the distance between the object and the moving body. In such a case, when a noise-like sample is not included, the surface shape information detected based on the distance becomes a sample group representing a contour shape to be substantially recognized. Even if a noisy sample is included in this, if the noisy sample can be removed, the remaining sample group shows a contour shape to be substantially recognized. As described above, according to the present invention, a noisy sample can be satisfactorily removed by calculating the degree of coincidence between a shape model and a sample group. Therefore, when the object detection means detects the surface shape state based on the distance between the surface of the object and the moving object, stable and accurate object recognition can be performed.

また、前記表面形状情報は、前記物体の外形輪郭を表すものであると好適である。   Further, it is preferable that the surface shape information represents an outer contour of the object.

認識の対象となる物体は、壁等の平坦なものに限らず、段差を持つような場合もある。段差とは、車両のバンパー部とフロントやリヤのウィンドウ部、階段等である。外形輪郭は、物体の有するこのような段差を含め、その外側、即ち外形を示す表面形状である。物体と物体検出手段とが最も近い距離、即ち物体が物体検出手段側に突出した部分だけしか検出できなければ、バンパー部や階段の最下段のみが検出される。しかし、移動体が物体に対して突出した部分は、必ずしも物体が移動体側に突出した部分と一致しているとは限らない。移動体の利用者(監督者)は移動体の一部分と物体の一部分とが、過度に接近しないように操作又は監督することを望む。従って、場合によっては、認識したい輪郭形状は、物体が車両であれば、バンパー部に限らず、ウィンドウ部である場合もある。階段等の場合も同様である。従って、表面形状情報は単に対象となる物体が移動体側に最も突出した部分だけを対象とはせず、対象となる物体の種々の場所を対象とすることが好ましい。対象となる物体の外形輪郭を表す表面形状情報を得ることにより、用途に応じて、種々の場所に対する輪郭形状を認識するようにすると好ましい。   An object to be recognized is not limited to a flat object such as a wall, and may have a step. The steps are the bumper part of the vehicle, the front and rear window parts, the stairs and the like. The outer contour is a surface shape showing the outer side, that is, the outer shape, including such a step of the object. If only the closest distance between the object and the object detection means, that is, only the part where the object protrudes toward the object detection means can be detected, only the bumper part and the lowermost step of the stairs are detected. However, the portion where the moving body protrudes from the object does not necessarily coincide with the portion where the object protrudes toward the moving body. A user (supervisor) of a mobile object desires to operate or supervise a part of the mobile object and a part of the object so as not to approach too much. Therefore, depending on the case, if the object is a vehicle, the contour shape to be recognized is not limited to the bumper part but may be a window part. The same applies to stairs and the like. Therefore, it is preferable that the surface shape information is not intended only for the portion where the target object protrudes most toward the moving body, but for various places of the target object. It is preferable to recognize the contour shape for various places according to the application by obtaining the surface shape information representing the outer contour of the target object.

さらに、本発明に係る物体認識装置が、前記物体検出手段及び前記形状認識手段の検出及び認識結果に基づいて、前記移動体と前記物体との相対的な配置関係を演算する相対配置演算手段を備えると好ましい。   Furthermore, the object recognition apparatus according to the present invention includes a relative arrangement calculation unit that calculates a relative arrangement relationship between the moving body and the object based on the detection and recognition results of the object detection unit and the shape recognition unit. It is preferable to provide.

上述したように、本発明によれば対象となる物体の輪郭形状を安定して得ることができる。そして、表面形状情報を得るに際して、物体検出手段と物体との距離や位置関係も情報として取得できている。移動体における物体検出手段の配置場所は既知であり、移動体の外形形状も既知である。従って、認識した輪郭形状等を用いて、移動体の各場所と物体の各場所との相対的な配置関係を演算することができる。そして、相対的な配置関係より、移動体のどの部分と物体のどの部分とが接近しているか等を容易に知ることができる。   As described above, according to the present invention, the contour shape of the target object can be stably obtained. In obtaining the surface shape information, the distance and positional relationship between the object detection means and the object can be acquired as information. The location of the object detection means on the moving body is known, and the outer shape of the moving body is also known. Therefore, it is possible to calculate the relative arrangement relationship between each location of the moving object and each location of the object using the recognized contour shape or the like. From the relative arrangement relationship, it is possible to easily know which part of the moving body is close to which part of the object.

さらに、前記移動体の移動状態を検出する移動状態検出手段を備え、前記相対配置演算手段は、前記移動状態に基づいて、前記配置関係を演算すると好適である。   Furthermore, it is preferable that a moving state detecting unit that detects a moving state of the moving body is provided, and the relative arrangement calculating unit calculates the arrangement relation based on the moving state.

移動状態検出手段によって移動体の移動状態を検出すると、近未来の移動体の位置を推定することができる。従って、移動状態検出手段の検出結果に基づいて、現在に留まらず未来の、物体と移動体との配置関係を演算することができる。既に両者の配置関係により、物体と移動体との各部分の接近度合いが知られているので、移動体の移動によりこの接近度合いの変化を演算することができる。その結果、移動体と物体との各部分の接近度合いを事前に予測することが可能となる。   When the moving state detecting unit detects the moving state of the moving body, the position of the moving body in the near future can be estimated. Therefore, based on the detection result of the moving state detecting means, it is possible to calculate the future arrangement relationship between the object and the moving body, not just the present. Since the degree of approach of each part of the object and the moving body is already known from the arrangement relationship between them, the change in the degree of approach can be calculated by the movement of the moving body. As a result, it is possible to predict in advance the degree of approach of each part of the moving body and the object.

本発明に係る物体認識装置の前記物体検出手段が、前記移動体の移動に伴って前記物体の前記表面形状情報を検出するものであると好適である。   It is preferable that the object detection means of the object recognition apparatus according to the present invention detects the surface shape information of the object as the moving body moves.

移動体の移動に伴って物体の表面形状情報を検出するように構成すると、移動体の移動方向に合わせて物体を検出することとなり、効率的な検出が可能となる。また、例えば物体検出手段を一方向に向けた固定的なセンサ(例えば、シングルビームセンサ)で構成することもできる。即ち、固定的に一方向しか検出できない物体検出手段であっても、移動体が動くことによって広い範囲を走査することができる。   If the surface shape information of the object is detected along with the movement of the moving body, the object is detected according to the moving direction of the moving body, and efficient detection becomes possible. Further, for example, it may be configured by a fixed sensor (for example, a single beam sensor) in which the object detection means is directed in one direction. That is, even if the object detecting means can detect only one direction in a fixed manner, a wide range can be scanned by moving the moving body.

また、前記物体検出手段が、前記移動体の移動に拘らず前記物体に対する広角エリアを走査する走査手段を備え、得られた走査情報に基づいて前記物体の前記表面形状情報を検出するものであると好適である。   Further, the object detection means includes scanning means for scanning a wide-angle area with respect to the object regardless of movement of the moving body, and detects the surface shape information of the object based on the obtained scanning information. It is preferable.

この構成によれば、移動体が停止状態にあっても、広い範囲を走査して物体を検出することができる。その結果、例えば停止している移動体が移動を開始する際に物体の有無等の周囲の状況を考慮することができる。   According to this configuration, an object can be detected by scanning a wide range even when the moving body is in a stopped state. As a result, it is possible to consider surrounding conditions such as the presence or absence of an object when a stationary moving body starts moving, for example.

また、本発明に係る移動体周辺に存在する物体を認識する物体認識方法の特徴は、前記物体の表面形状情報を検出する物体検出工程と、前記物体の輪郭形状を認識する形状認識工程と、を備え、この形状認識工程は、
前記表面形状情報を構成する標本群から任意の標本を抽出する標本抽出工程と、
抽出した前記標本に基づいて形状モデルを定める形状モデル設定工程と、
前記形状モデルに対する前記標本群の一致度を演算する一致度演算工程と、
を実施することにより、前記輪郭形状を認識する点にある。
Further, the object recognition method for recognizing an object existing around a moving body according to the present invention includes an object detection step for detecting surface shape information of the object, a shape recognition step for recognizing the contour shape of the object, This shape recognition process comprises
A sample extraction step of extracting an arbitrary sample from a sample group constituting the surface shape information;
A shape model setting step for determining a shape model based on the extracted sample;
A degree of coincidence calculation step of calculating the degree of coincidence of the sample group with respect to the shape model;
The point is that the contour shape is recognized.

上記、本発明に係る物体認識装置と同様、少ない演算量で、非検出対象のデータが混在しても安定して物体の形状を認識することのできる物体認識方法を提供することができる。また、当然ながら、この物体認識方法は、上記物体認識装置に関して述べた作用効果、及び全ての追加的特徴とその作用効果を備えることができる。   As with the object recognition apparatus according to the present invention, it is possible to provide an object recognition method capable of stably recognizing the shape of an object with a small amount of calculation even if data to be detected is not mixed. Naturally, the object recognition method can include the functions and effects described for the object recognition apparatus, and all the additional features and effects.

〔第一実施形態〕
以下、本発明の好適な実施形態を、車両が他の車両を認識する場合を例として、図面に基づいて説明する。図1に示すように、移動体としての車両10には、側方に向けた距離センサ1(物体検出手段)が搭載されている。この距離センサ1は、例えばポイントセンサ、即ち、シングルービームセンサや超音波を利用したソナー等である。そして、車両10は、駐停車中の他の車両20(以下、駐車車両と称す。)のそばを図示X方向へ通過する際に、距離センサ1によって駐車車両20までの距離を計測する。駐車車両20は本発明の物体に相当するものである。尚、図1には、簡略のため、車両10の左側方にのみ距離センサ1を設けているが、当然両側方に設けていてもよい。
[First embodiment]
DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, a preferred embodiment of the invention will be described with reference to the drawings, taking as an example a case where a vehicle recognizes another vehicle. As shown in FIG. 1, a distance sensor 1 (object detection means) directed to the side is mounted on a vehicle 10 as a moving body. The distance sensor 1 is, for example, a point sensor, that is, a single beam sensor or a sonar using ultrasonic waves. The vehicle 10 measures the distance to the parked vehicle 20 with the distance sensor 1 when passing by another vehicle 20 parked and stopped (hereinafter referred to as a parked vehicle) in the X direction in the figure. The parked vehicle 20 corresponds to the object of the present invention. In FIG. 1, for the sake of simplicity, the distance sensor 1 is provided only on the left side of the vehicle 10, but it may be provided on both sides as a matter of course.

距離センサ1は、車両10の移動に応じて駐車車両20との距離を計測する。このようにして得られた駐車車両20の表面形状情報は、車両10の移動距離に応じた離散的なデータである。尚、車両10の「移動距離に応じて」には、「所定時間間隔に応じて」の意味も含むものである。例えば、車両10が等速で移動する場合には、所定時間間隔に応じて計測すれば、移動距離に応じて測定することになる。移動体10の移動速度、移動距離、移動時間は、線形的に定まる。従って、結果として概ね均等に表面形状情報を得ることができる方法であれば、どのような方法を用いてもよい。このようにして、車両10は物体の表面形状情報を取得する(物体検出工程)。   The distance sensor 1 measures the distance from the parked vehicle 20 according to the movement of the vehicle 10. The surface shape information of the parked vehicle 20 obtained in this way is discrete data corresponding to the moving distance of the vehicle 10. Note that “according to the moving distance” of the vehicle 10 also includes the meaning of “according to a predetermined time interval”. For example, when the vehicle 10 moves at a constant speed, if it is measured according to a predetermined time interval, it is measured according to the moving distance. The moving speed, moving distance, and moving time of the moving body 10 are determined linearly. Therefore, any method may be used as long as the surface shape information can be obtained almost uniformly as a result. Thus, the vehicle 10 acquires the surface shape information of the object (object detection step).

尚、距離センサ1は移動時間を計測するタイマ、移動距離を計測するエンコーダ、移動速度を計測する回転センサ等の付随するセンサを備えていてもよい。また、これらセンサを別に備え、情報を得るようにしていてもよい。   The distance sensor 1 may include an accompanying sensor such as a timer that measures the movement time, an encoder that measures the movement distance, and a rotation sensor that measures the movement speed. In addition, these sensors may be provided separately to obtain information.

図2は、本発明の第一実施形態に係る物体認識装置の概略ブロック図である。図2において、形状認識部2(形状認識手段)は、マイクロコンピュータ2A等の電子回路によって構成されている。形状認識部2内の各処理部は、必ずしも物理的に異なる電子回路を示すものではなく、機能としての処理部を示すものである。例えば、異なるプログラムを同一のCPUによって実行することにより、異なる機能を得るような場合も含むものである。   FIG. 2 is a schematic block diagram of the object recognition apparatus according to the first embodiment of the present invention. In FIG. 2, the shape recognition unit 2 (shape recognition means) is configured by an electronic circuit such as a microcomputer 2A. Each processing unit in the shape recognition unit 2 does not necessarily indicate a physically different electronic circuit, but indicates a processing unit as a function. For example, the case where different functions are obtained by executing different programs by the same CPU is also included.

図2に示すように距離センサ1によって測定された表面形状情報は、形状認識部2に入力される。入力された表面形状情報は、図1に示すX方向及びY方向を軸とする二次元平面にマッピングされて、標本記憶部2aに記憶される。この標本記憶部2aは、メモリで構成されている。本実施形態においては、マイクロコンピュータ2Aに内蔵する形態を示している。勿論、マイクロコンピュータ2Aとは別体のメモリを用いて、いわゆる外付けの形態としていてもよい。また、内蔵、外付けを問わず、レジスタ、ハードディスク等、他の記憶媒体を用いてもよい。   As shown in FIG. 2, the surface shape information measured by the distance sensor 1 is input to the shape recognition unit 2. The input surface shape information is mapped to a two-dimensional plane with the X and Y directions shown in FIG. 1 as axes, and is stored in the specimen storage unit 2a. The sample storage unit 2a is composed of a memory. In the present embodiment, a form incorporated in the microcomputer 2A is shown. Of course, a so-called external form may be used by using a memory separate from the microcomputer 2A. Also, other storage media such as a register and a hard disk may be used regardless of whether they are internal or external.

以下、物体検出工程と、それに続いて物体の輪郭形状を認識する形状認識工程と、の詳細について説明する。   Hereinafter, the details of the object detection step and the shape recognition step for recognizing the contour shape of the object will be described.

初めに、物体検出工程について説明する。図3に示すように、距離センサ1によって駐車車両20上の表面形状情報Sが計測される。表面形状情報は、本実施形態において駐車車両20のバンパー部の外形形状に沿った形で離散的に得られた計測データである。ここで、これら離散的に得られたデータの一群を標本群S(ラージエス)と称する。標本群Sは、輪郭形状の認識対象となるデータセットである。また、データセットを構成する一点一点のデータを標本s(スモールエス)と称する。   First, the object detection process will be described. As shown in FIG. 3, the surface shape information S on the parked vehicle 20 is measured by the distance sensor 1. The surface shape information is measurement data obtained discretely in a form along the outer shape of the bumper portion of the parked vehicle 20 in the present embodiment. Here, a group of these discretely obtained data is referred to as a sample group S (Large S). The sample group S is a data set that is a recognition target of the contour shape. Moreover, the data of each point which comprises a data set is called the sample s (small es).

標本群Sは、標本記憶部2aの中で、図4に示すようにXYの二次元直交座標上にマッピングされる。尚、説明を容易にするため、図中には全ての標本sを示していない。図4に示した標本中、黒点で示す標本sをインライア、白抜き点で示す標本sをアウトライアと称する。図中、標本s1、s13等はインライアであり、標本s2、s7、s10はアウトライアである。詳細は後述するが、インライアは駐車車両20の輪郭形状を構成する標本である。アウトライアは駐車車両20の輪郭形状から外れたいわゆるノイズ性の標本である。   The sample group S is mapped on XY two-dimensional orthogonal coordinates in the sample storage unit 2a as shown in FIG. For ease of explanation, not all samples s are shown in the figure. Among the samples shown in FIG. 4, a sample s indicated by a black dot is referred to as an inlier, and a sample s indicated by a white dot is referred to as an outlier. In the figure, samples s1, s13, etc. are inliers, and samples s2, s7, s10 are outliers. Although details will be described later, the inlier is a sample constituting the contour shape of the parked vehicle 20. The outlier is a so-called noise sample that deviates from the contour shape of the parked vehicle 20.

以下、図7に示すフローチャートも利用して、得られた標本群Sより、駐車車両20の輪郭形状を認識する手順(形状認識工程)について説明する。   Hereinafter, the procedure (shape recognition process) for recognizing the contour shape of the parked vehicle 20 from the obtained sample group S will be described using the flowchart shown in FIG.

標本抽出部2bは、標本群S(標本s1〜s13)より任意の標本si(iは標本番号)を数点抽出する(標本抽出工程、図7#1)。どの標本sを抽出するかについてはランダムに定まる。好適には乱数を用いる。例えば、マイクロコンピュータ2Aに乱数発生器(不図示)を設け、発生した乱数を標本番号とする標本siを抽出する。あるいは、マイクロコンピュータ2Aが実行する乱数発生プログラムによって標本番号を定めてもよい。   The sample extraction unit 2b extracts several arbitrary samples si (i is a sample number) from the sample group S (samples s1 to s13) (sample extraction process, FIG. 7 # 1). Which sample s is extracted is determined at random. Preferably random numbers are used. For example, a random number generator (not shown) is provided in the microcomputer 2A, and a sample si having the generated random number as a sample number is extracted. Alternatively, the sample number may be determined by a random number generation program executed by the microcomputer 2A.

また、抽出する標本数は、認識したい対象形状によって異なる。例えば直線の認識をする場合には2点であり、二次曲線であれば5点である。本実施形態においては、駐車車両20のバンパー形状を二次曲線に近似し、5点を抽出する。このようにして抽出された個々のデータ、標本sの集合は、データセットに対応する概念としてのサブセットである。   Further, the number of samples to be extracted varies depending on the target shape to be recognized. For example, it is 2 points when recognizing a straight line, and 5 points if it is a quadratic curve. In the present embodiment, the bumper shape of the parked vehicle 20 is approximated to a quadratic curve, and five points are extracted. The collection of individual data and the sample s extracted in this way is a subset as a concept corresponding to the data set.

続いて、このサブセット(ランダムに抽出した標本sの集合体)に基づいて形状モデル設定部2cが形状モデルを定める(形状モデル設定工程、図7#2)。   Subsequently, the shape model setting unit 2c determines a shape model based on this subset (a collection of randomly extracted samples s) (shape model setting step, FIG. 7 # 2).

図5は、図4の散布図に示す標本群Sから任意に抽出した標本siより定めた形状モデルL(第一の形状モデルL1)と標本群Sとの一致度を演算する説明図である。この第一の形状モデルL1は、標本s1、s5、s8、s11、s13の5つの標本sに基づいて定められたものである。この形状モデルLは、演算負荷の軽い線形計算により容易に求めることができる。または、予め数種類のテンプレート形状を用意しておき、これらテンプレート形状の中より最適なものを選択するようにして定めてもよい。   FIG. 5 is an explanatory diagram for calculating the degree of coincidence between the shape model L (first shape model L1) and the sample group S determined from the sample si arbitrarily extracted from the sample group S shown in the scatter diagram of FIG. . This first shape model L1 is determined based on the five samples s1, s1, s5, s8, s11, and s13. The shape model L can be easily obtained by linear calculation with a light calculation load. Alternatively, several types of template shapes may be prepared in advance, and an optimum one may be selected from these template shapes.

また、図5に示すように、形状モデルLの接線に対して直交する両方向に所定距離離れた点を形状モデルLに沿って結び、点線B1及びB2を定める。この点線B1及びB2に挟まれた部分が有効範囲Wとなる。   Further, as shown in FIG. 5, points separated by a predetermined distance in both directions orthogonal to the tangent line of the shape model L are connected along the shape model L to define dotted lines B1 and B2. A portion sandwiched between the dotted lines B1 and B2 is an effective range W.

次に、一致度演算部2dにおいて、定めた形状モデルLと、標本群Sとの一致度を演算する。具体的には、上記のように定めた有効範囲Wの中に、標本群Sを構成する各標本siが、どの程度含まれるかによって一致度を算出する(一致度演算工程、図7#3)。   Next, the coincidence calculation unit 2d calculates the coincidence between the determined shape model L and the sample group S. Specifically, the degree of coincidence is calculated depending on how much each sample si constituting the sample group S is included in the effective range W determined as described above (the degree of coincidence calculation step, FIG. 7 # 3). ).

図5に示した第一の曲線モデルL1に対する有効範囲Wの中には、標本s2、s7、s10のアウトライアを除く全ての標本sが含まれている。従って、第一の形状モデルL1の標本群Sに対する一致度は、77%(10/13)となる。つまり、第一の形状モデルL1は、標本群Sを構成する各標本sにより、高い支持率(77%)で合意(コンセンサス)を得たということができる。   The effective range W for the first curve model L1 shown in FIG. 5 includes all the samples s except for the outliers of the samples s2, s7, and s10. Therefore, the degree of coincidence of the first shape model L1 with the sample group S is 77% (10/13). That is, it can be said that the first shape model L1 obtained an agreement (consensus) with a high support rate (77%) by each sample s constituting the sample group S.

次に、主演算部2eにおいて、この一致度が所定のしきい値を超えているか否かを判定する(判定工程、図7#4)。そして、しきい値を超えている場合には抽出したサブセットより定めた形状モデル(第一の形状モデルL1)を認識結果として認定する(認定工程、図7#5)。即ち、第一の形状モデルL1を輪郭形状とする。例えば、しきい値が、75%と設定されているような場合には、第一の形状モデルL1を輪郭形状とする。しきい値を超えていない場合には、図7のフローチャートの処理#1に戻り、再度、別の標本sを抽出して新たなサブセットを構成し、同様の処理を行う。複数回処理#1〜#4を繰り返してもしきい値を超えないような場合には、対象となる物体(駐車車両20等)が無い、と判断する。この回数は、予め規定しておけばよい。   Next, the main arithmetic unit 2e determines whether or not the degree of coincidence exceeds a predetermined threshold (determination step, FIG. 7 # 4). When the threshold value is exceeded, the shape model (first shape model L1) determined from the extracted subset is recognized as a recognition result (authorization process, FIG. 7 # 5). That is, the first shape model L1 is the contour shape. For example, when the threshold is set to 75%, the first shape model L1 is set as the contour shape. When the threshold value is not exceeded, the process returns to the process # 1 in the flowchart of FIG. 7, and another sample s is extracted again to form a new subset, and the same process is performed. If the threshold value is not exceeded even if the processes # 1 to # 4 are repeated a plurality of times, it is determined that there is no target object (such as the parked vehicle 20). This number may be defined in advance.

尚、本実施形態においては、理解を容易にするために標本群Sを構成する標本sの総数を13ケとしている。しきい値の値(75%)も、本実施形態の説明を容易にするための値である。従って、標本数、一致度の判定しきい値共に、本発明を限定する値ではない。例えば、標本数が多ければ、アウトライアに対するインライアの数は相対的に多くなり、上記の例よりも高いしきい値を設定することもできる。   In the present embodiment, the total number of samples s constituting the sample group S is 13 in order to facilitate understanding. The threshold value (75%) is also a value for facilitating the description of the present embodiment. Accordingly, neither the number of samples nor the determination threshold value for the degree of coincidence is a value that limits the present invention. For example, if the number of samples is large, the number of inliers relative to the outlier is relatively large, and a threshold value higher than the above example can be set.

図6に示した形状モデルL(第二の形状モデルL2)では、サブセットとして標本s2、s4、s7、s10、s13が抽出されている。上述したように標本s2、s7、s10は、駐車車両20の輪郭形状から外れたいわゆるノイズ性の標本である。従って、駐車車両20の輪郭形状から見た場合には、アウトライアとなるべき、標本である。そのため、図6に示すように、これらの標本s2、s7、s10を含むサブセットに基づいて定められた第二の形状モデルL2に対する有効範囲Wから外れる標本sが多数存在する。第一の形状モデルL1と同様の方法により一致度を演算すると、その一致度は38%(5/13)となる。つまり、第二の形状モデルL2は、標本群Sを構成する各標本sにより、高い支持率で合意(コンセンサス)を得られていないということになる。   In the shape model L (second shape model L2) shown in FIG. 6, samples s2, s4, s7, s10, and s13 are extracted as subsets. As described above, the samples s2, s7, and s10 are so-called noise samples that deviate from the contour shape of the parked vehicle 20. Therefore, when viewed from the contour shape of the parked vehicle 20, it is a specimen that should be an outlier. Therefore, as shown in FIG. 6, there are many samples s that are out of the effective range W for the second shape model L2 determined based on the subset including these samples s2, s7, and s10. When the degree of coincidence is calculated by the same method as that for the first shape model L1, the degree of coincidence is 38% (5/13). That is, the second shape model L2 does not have an agreement (consensus) with a high support rate by the samples s constituting the sample group S.

上記2つの形状モデルL1及びL2が抽出されるような場合、認識結果となる輪郭形状は第一の形状モデルL1となる。第一の形状モデルL1を定めるに際しては、ノイズ性の標本sである標本s2、s7、s10は、未使用である。これらノイズ性の標本は、アウトライアとして扱われ、除去されたこととなる。即ち、上記説明したような少ない演算量で、非検出対象のデータ(アウトライア)が混在してもこれを除去し、安定して物体の形状を認識することができる。   When the two shape models L1 and L2 are extracted, the contour shape that is the recognition result is the first shape model L1. In determining the first shape model L1, the samples s2, s7, and s10, which are noise samples s, are unused. These noise samples are treated as outliers and removed. That is, with the small amount of calculation as described above, even if non-detection target data (outlier) is mixed, it can be removed and the shape of the object can be recognized stably.

このような方法を用いず、標本Sより輪郭形状を算出する方法は従来、種々提案されている。その一つは、最小自乗法である。最小自乗法では、データセットの全ての標本sを用いて、夫々の標本sが同一の重みとなって形状が計算される。その結果、上述したアウトライア(標本s2等)の影響を受けて、本来とは異なった輪郭形状を認識する。輪郭形状を認識した後に、データセット全体との一致度を再確認することも可能ではある。しかし、最小自乗法自体の演算負荷が比較的重い上、この再確認の結果により繰り返し最小自乗法による形状認識を行うとさらに演算負荷を重くすることになる。   Various methods for calculating the contour shape from the specimen S without using such a method have been conventionally proposed. One of them is the least square method. In the least square method, the shape is calculated by using all the samples s in the data set, with each sample s having the same weight. As a result, a contour shape different from the original shape is recognized under the influence of the above-described outlier (sample s2 and the like). It is also possible to reconfirm the degree of coincidence with the entire data set after recognizing the contour shape. However, the calculation load of the least square method itself is relatively heavy, and if the shape recognition by the repeated least square method is repeatedly performed based on the result of this reconfirmation, the calculation load is further increased.

また別の方法として、特に直線の認識に好適なハフ(Hough)変換を利用する方法もある。ハフ変換はよく知られているように、直交座標(例えばXY平面)上に存在する直線は、極座標(ρ−θ空間)上では1点で交差する、という性質を利用したものである。その変換式は、
ρ=X・cosθ + Y・sinθ
である。上記式より、理解できるように極座標空間でρやθの範囲を広げたり、細かい分解能を得たりしようとすると、それだけ演算量が増大する。つまり、一次記憶手段としての、メモリは大容量が要求され、計算回数も多くなる。
As another method, there is a method of using a Hough transform suitable for straight line recognition. As is well known, the Hough transform utilizes the property that a straight line existing on an orthogonal coordinate (for example, an XY plane) intersects at one point on a polar coordinate (ρ-θ space). The conversion formula is
ρ = X · cosθ + Y · sinθ
It is. As can be understood from the above formula, if the range of ρ and θ is expanded or a fine resolution is obtained in the polar coordinate space, the amount of calculation increases accordingly. That is, the memory as the primary storage means is required to have a large capacity and the number of calculations is increased.

これら従来の演算に比べ、本発明の「表面形状情報を構成する標本群Sから任意に抽出した標本sに基づいて定めた形状モデルLに対する標本群Sの一致度を演算する」方法は、演算量が少なく、必要となるメモリ容量も少ない。   Compared to these conventional calculations, the method of “calculating the degree of coincidence of the sample group S with the shape model L determined based on the sample s arbitrarily extracted from the sample group S constituting the surface shape information” of the present invention is The amount is small and the required memory capacity is also small.

〔第二実施形態〕
上記説明においては、形状モデルLと標本群Sとの一致度を調べ、この一致度が所定のしきい値を超えていれば、その形状モデルLを認識結果とする。つまり、最先にしきい値を超えた形状モデルLがそのまま認識結果となる。これに限らず、単にしきい値を超えただけで直ちにその形状モデルLを認識結果とはせず、複数個の形状モデルLを評価するようにしてもよい。具体的な手順については、以下に説明する。
[Second Embodiment]
In the above description, the degree of coincidence between the shape model L and the sample group S is examined. If the degree of coincidence exceeds a predetermined threshold value, the shape model L is used as a recognition result. That is, the shape model L that first exceeds the threshold value becomes the recognition result as it is. However, the shape model L may not be immediately recognized as a recognition result when the threshold value is simply exceeded, and a plurality of shape models L may be evaluated. A specific procedure will be described below.

図8は、図4の散布図に示す標本群から輪郭形状を認識する第二の方法を説明するフローチャートである。この第二の方法では、サブセットを複数回抽出して形状モデルLを定め、その中で最も一致度の高かった形状モデルLを認識結果とするようにしている。以下、図8に基づいて、第二の方法について説明する。但し、処理#1〜#4は第一の方法である図7に示したフローチャートと同様であるので、説明を省略する。   FIG. 8 is a flowchart for explaining a second method for recognizing the contour shape from the sample group shown in the scatter diagram of FIG. In this second method, the shape model L is determined by extracting a subset a plurality of times, and the shape model L having the highest degree of coincidence among them is used as the recognition result. Hereinafter, the second method will be described with reference to FIG. However, the processing # 1 to # 4 is the same as the flowchart shown in FIG.

本第二の方法では、サブセットを複数回繰り返して抽出するので、繰り返し回数を一時記憶する。形状認識工程の開始に当たって、まず初めにこの一時記憶する繰り返し回数をクリアする(初期化工程、図8#0)。以下、第一実施形態と同様に、標本抽出工程(#1)にて、標本群Sよりランダムに標本sを抽出してサブセットを作る。次に、形状モデル設定工程(#2)にて、このサブセットに基づいて形状モデルLを定める。そして、一致度演算工程(#3)にて、形状モデルLと標本群Sとの一致度を演算し、判定工程(#4)にて、一致度が所定のしきい値を超えているか否かを判定する。   In the second method, since the subset is extracted repeatedly a plurality of times, the number of repetitions is temporarily stored. At the start of the shape recognition process, first, the number of repetitions temporarily stored is cleared (initialization process, FIG. 8 # 0). Hereinafter, similarly to the first embodiment, a sample s is randomly extracted from the sample group S in the sample extraction step (# 1) to create a subset. Next, in the shape model setting step (# 2), the shape model L is determined based on this subset. Then, the coincidence degree between the shape model L and the sample group S is calculated in the coincidence degree calculating step (# 3), and whether or not the coincidence degree exceeds a predetermined threshold value in the determining step (# 4). Determine whether.

判定の結果、しきい値を超えていた場合には、先に定めた形状モデルLとこの形状モデルLに対する一致度を一時記憶部(不図示)に記憶する(記憶工程、#41)。そして、一つの形状モデルLに対する評価が完了したので、繰り返し回数をインクリメントする(計数工程、#42)。判定の結果、しきい値を超えていなかった場合には、記憶工程(#41)を飛ばして、繰り返し回数をインクリメントする(#42)。   As a result of the determination, if the threshold value is exceeded, the previously determined shape model L and the degree of coincidence with the shape model L are stored in a temporary storage unit (not shown) (storage step, # 41). Since the evaluation for one shape model L is completed, the number of repetitions is incremented (counting step, # 42). If the result of determination is that the threshold value has not been exceeded, the storage step (# 41) is skipped and the number of repetitions is incremented (# 42).

次に、繰り返し回数が所定の回数に達したか否か(超えたか否かでもよい)を判定する(離脱判定工程、#43)。所定の回数に達していなければ、標本抽出工程(#1)に戻り、以下判定工程(#4)までを行って、新たな形状モデルLの評価を行う。所定の回数に達していた場合には、記憶されている形状モデルLの内、最も一致度の高かった形状モデルLを選択し、これを認識結果としての輪郭形状とする(認定工程、#51)。ここで、判定工程(#4)において一致度のしきい値を超えたものが一つも無かったような場合には、認定工程(#51)において該当無しと判断する。   Next, it is determined whether or not the number of repetitions has reached a predetermined number (may be exceeded or not) (leave determination step, # 43). If the predetermined number of times has not been reached, the process returns to the sample extraction process (# 1), and the following determination process (# 4) is performed to evaluate a new shape model L. If the predetermined number of times has been reached, the shape model L having the highest degree of coincidence is selected from the stored shape models L, and this is used as the contour shape as the recognition result (certification process, # 51). ). Here, in the determination step (# 4), when there is no thing exceeding the coincidence threshold, it is determined that there is no corresponding in the certification step (# 51).

このように、図7に示す第一の方法、図8に示す第二の方法共に、サブセットに基づいて定めた形状モデルLを輪郭形状と認定している。一般に少ない標本数に基づいて定めた形状モデルLは、正確な輪郭形状を再現するものではない、とも考えられる。しかし、本発明においては、形状モデルLと標本群Sの全標本との一致度を評価している。従って、形状モデルLはほぼ正確に輪郭形状を再現(認識)できていると考えてよい。このように、サブセットを構成する少ない標本数から定めた形状モデルLが輪郭形状を再現できることは、演算量の削減に大きく貢献している。   As described above, in both the first method shown in FIG. 7 and the second method shown in FIG. 8, the shape model L determined based on the subset is recognized as the contour shape. In general, it is considered that the shape model L determined based on a small number of samples does not reproduce an accurate contour shape. However, in the present invention, the degree of coincidence between the shape model L and all samples in the sample group S is evaluated. Therefore, it can be considered that the shape model L can reproduce (recognize) the contour shape almost accurately. Thus, the ability of the shape model L determined from the small number of samples constituting the subset to reproduce the contour shape greatly contributes to a reduction in the amount of calculation.

上述したように、形状モデルLをそのまま認識結果として輪郭形状と認定することは、演算量の削減に大きく貢献する。しかし、本発明はこれに限定されるものではない。マイクロコンピュータ2A等、演算手段の能力に余裕のある場合などでは、輪郭形状を再計算してもよい。   As described above, acknowledging the shape model L as a contour shape as a recognition result as it is greatly contributes to a reduction in the amount of calculation. However, the present invention is not limited to this. In the case where the computing means has a sufficient capacity such as the microcomputer 2A, the contour shape may be recalculated.

例えば、一致度がしきい値を超えた形状モデルLを基準とすれば、標本群Sを構成する標本sの夫々をインライア、アウトライアとして定義することができる。認定工程では、このインライア、アウトライアを認定する。そして、インライアと認定された全ての標本sを対象として最小自乗法等を用いて形状を再計算する(再計算工程)。上述したように最小自乗法ではノイズ性の標本sの影響を受けて、形状を正しく再現できない場合がある。しかし、この再計算工程においては、ノイズ性の標本sはアウトライアとして除去されているため、正確な輪郭形状の再現が可能となる。   For example, if the shape model L whose coincidence exceeds a threshold value is used as a reference, the samples s constituting the sample group S can be defined as inliers and outliers. In the certification process, this inlier and outlier are certified. Then, the shape is recalculated using the least square method or the like for all samples s certified as inliers (recalculation step). As described above, the least square method may not be able to reproduce the shape correctly under the influence of the noisy sample s. However, in this recalculation process, since the noisy sample s is removed as an outlier, an accurate contour shape can be reproduced.

〔第三実施形態〕
図9は、本発明の第三実施形態に係る物体認識装置の概略ブロック図である。図9に示すように、マイクロコンピュータ2A内に、相対配置演算部3(相対配置演算手段)を備えている。上述したように、形状認識部2において、車両10から見た駐車車両20の輪郭形状、即ちバンパー形状が認識されている。この認識に際して、距離センサ1を用いて駐車車両20の表面形状情報を取得しているため、車両10と駐車車両20との距離情報も同時に得ることができている。相対配置演算部3は、この距離情報と、輪郭形状とを用いて、車両10と駐車車両20との相対配置を演算するものである。
[Third embodiment]
FIG. 9 is a schematic block diagram of an object recognition apparatus according to the third embodiment of the present invention. As shown in FIG. 9, the microcomputer 2A includes a relative arrangement calculation unit 3 (relative arrangement calculation means). As described above, the shape recognition unit 2 recognizes the contour shape of the parked vehicle 20 as viewed from the vehicle 10, that is, the bumper shape. In this recognition, since the surface shape information of the parked vehicle 20 is acquired using the distance sensor 1, distance information between the vehicle 10 and the parked vehicle 20 can also be obtained at the same time. The relative arrangement calculation unit 3 calculates the relative arrangement of the vehicle 10 and the parked vehicle 20 using the distance information and the contour shape.

ここで、相対配置とは、車両10の各部と駐車車両20の各部との相対位置である。車両10の外形形状は、自己の形状であるため、既知である。そして、車両10から見た駐車車両20の輪郭形状は、上述したように認識できている。これらにより、相対配置演算部3において図10に示すように車両10と駐車車両20との相対配置を演算する。尚、図10では理解を容易にするために、駐車車両20全体を点線で示しているが、実際には認識された輪郭形状Eと、車両10との相対配置を演算する。勿論、他の場所も含めて輪郭形状Eを認識している場合には、全ての相対配置を演算することができる。   Here, the relative arrangement is a relative position between each part of the vehicle 10 and each part of the parked vehicle 20. The external shape of the vehicle 10 is known because it is its own shape. The contour shape of the parked vehicle 20 viewed from the vehicle 10 can be recognized as described above. As a result, the relative arrangement calculation unit 3 calculates the relative arrangement of the vehicle 10 and the parked vehicle 20 as shown in FIG. In FIG. 10, for easy understanding, the entire parked vehicle 20 is indicated by a dotted line. However, in actuality, the relative arrangement between the recognized contour shape E and the vehicle 10 is calculated. Of course, when the contour shape E is recognized including other places, all relative arrangements can be calculated.

また、この相対配置を、ディスプレイ等の報知手段に表示してもよい。車両10にナビゲーションシステム等を搭載している場合には、そのモニタを兼用してもよい。表示(報知)に際しては、車両10の外形と、認識した輪郭形状Eとを表示する。あるいは、輪郭形状Eに基づいて駐車車両20の全体をイラストとして表現し、車両10と駐車車両20との相対配置関係を表示してもよい。   Moreover, you may display this relative arrangement | positioning on alerting means, such as a display. When a navigation system or the like is mounted on the vehicle 10, the monitor may also be used. In displaying (notifying), the outer shape of the vehicle 10 and the recognized contour shape E are displayed. Alternatively, the entire parked vehicle 20 may be represented as an illustration based on the contour shape E, and the relative arrangement relationship between the vehicle 10 and the parked vehicle 20 may be displayed.

また、上記のように視覚的に表示することによる報知に限らず、ブザーやチャイム等を用いて、音声(音響を含む)により報知してもよい。ナビゲーションシステムには音声ガイドの機能を備えているものもあり、モニタの利用と同様、この音声ガイドの機能を兼用するようにしてもよい。   Further, the notification is not limited to visual display as described above, but may be notified by sound (including sound) using a buzzer, a chime, or the like. Some navigation systems have a voice guide function, and this voice guide function may also be used in the same manner as the use of a monitor.

図9には、さらに車輪速センサ4aや舵角センサ4b等、車両10の移動状態を検出する移動状態検出手段4を具備する形態を示している。移動状態検出手段4からの入力情報を加味すれば、近未来の相対配置を演算することもできる。つまり、輪郭形状Eが認識されている現在の相対配置を知るに留まらず、将来の相対配置関係を推定(予測)することができる。   FIG. 9 shows a mode in which a moving state detecting means 4 for detecting the moving state of the vehicle 10 such as a wheel speed sensor 4a and a steering angle sensor 4b is further provided. If the input information from the movement state detection means 4 is taken into account, the near future layout can be calculated. That is, it is possible to estimate (predict) the future relative arrangement relationship as well as know the current relative arrangement in which the contour shape E is recognized.

車輪速センサ4aは、車両10の各車輪部(前方右FR、前方左FL、後方右RR、後方左RL)に備えられたセンサである。これは例えば、ホールICを利用した回転センサである。舵角センサ4bは、車両10のステアリングの回転角度やタイヤの回動角度を検出するセンサである。あるいは、前述の車輪速センサ4aの各車輪部での計測結果(左右の車輪の回転数や回転速度の違い)に基づいて舵角を演算する演算装置であってもよい。   The wheel speed sensor 4a is a sensor provided in each wheel portion of the vehicle 10 (front right FR, front left FL, rear right RR, rear left RL). This is, for example, a rotation sensor using a Hall IC. The steering angle sensor 4b is a sensor that detects the rotation angle of the steering of the vehicle 10 and the rotation angle of the tire. Alternatively, it may be an arithmetic device that calculates the steering angle based on the measurement results (the difference between the rotation speeds and rotation speeds of the left and right wheels) at each wheel portion of the wheel speed sensor 4a described above.

これらのセンサにより検出した移動状態を加味して、車両10と駐車車両20の輪郭形状Eとの相対位置関係を演算する。舵角センサ4bによって進行方向を推定し、車輪速センサ4aによって進行速度を推定する。そして、車両10の予想軌跡や、駐車車両20の輪郭形状Eと車両10との数秒後の相対配置関係を演算する。図11は、このようにして算出された車両10と駐車車両20の輪郭形状Eとの相対配置関係の一例を示している。符号10Aは車両10の近未来の位置、即ち推定(予測)位置である。   Taking into account the movement state detected by these sensors, the relative positional relationship between the vehicle 10 and the contour E of the parked vehicle 20 is calculated. The traveling direction is estimated by the steering angle sensor 4b, and the traveling speed is estimated by the wheel speed sensor 4a. Then, the relative trajectory of the predicted trajectory of the vehicle 10 and the contour shape E of the parked vehicle 20 and the vehicle 10 after several seconds is calculated. FIG. 11 shows an example of the relative arrangement relationship between the vehicle 10 and the contour shape E of the parked vehicle 20 calculated in this way. Reference numeral 10A denotes a near future position of the vehicle 10, that is, an estimated (predicted) position.

〔その他の実施形態〕
上記説明においては、物体検出手段として、図1に示したような車両10の移動に伴って駐車車両20の表面形状情報を検出する距離センサ1を例として説明した。しかし、本発明に係る物体検出手段は、これに限定されることはない。距離センサ1は、車両10の移動に拘らず表面形状情報を出力し、後段の情報処理において、移動距離毎、経過時間毎に選別することも可能である。また、車両10の移動に拘らず駐車車両20に対する広角エリアを走査する走査手段を備え、得られた走査情報に基づいて表面形状情報を検出するものであってもよい。即ち、距離センサ1のようなポイントセンサに限らず、一次元センサ、二次元センサ、三次元センサ等、物体の形状を反映した信号(表面形状情報)を得られるセンサが使用できる。
[Other Embodiments]
In the above description, the distance sensor 1 that detects the surface shape information of the parked vehicle 20 as the vehicle 10 moves as shown in FIG. However, the object detection means according to the present invention is not limited to this. The distance sensor 1 outputs surface shape information regardless of the movement of the vehicle 10, and can be selected for each movement distance and every elapsed time in the subsequent information processing. Further, a scanning unit that scans a wide-angle area with respect to the parked vehicle 20 regardless of the movement of the vehicle 10 may be provided, and surface shape information may be detected based on the obtained scanning information. That is, not only a point sensor such as the distance sensor 1, but also a sensor that can obtain a signal (surface shape information) reflecting the shape of an object, such as a one-dimensional sensor, a two-dimensional sensor, or a three-dimensional sensor.

図12には、本発明に係る物体検出手段として一次元センサを用いる場合の例が示されている。ここでは、一次元センサの一例として、スキャン型レーザーセンサを用いている。図12に示すように、センサ位置(走査手段1aの位置)より放射状に物体(駐車車両20)が走査される。物体の各位置からのレーザー波の反射により、距離の分布を計測することができる。レーザー波を発射したときの方位角θをエンコーダ等により検出しておけば、図3に示したものと同様に表面形状情報を得ることができる。そして、XY直交座標にマッピングすることができる。   FIG. 12 shows an example in which a one-dimensional sensor is used as the object detection means according to the present invention. Here, a scanning laser sensor is used as an example of a one-dimensional sensor. As shown in FIG. 12, the object (parked vehicle 20) is scanned radially from the sensor position (position of the scanning means 1a). The distance distribution can be measured by the reflection of the laser wave from each position of the object. If the azimuth angle θ when the laser wave is emitted is detected by an encoder or the like, surface shape information can be obtained in the same manner as shown in FIG. And it can map to XY orthogonal coordinate.

一次元センサの他の例として、超音波方式のレーダ、光方式のレーダ、電波方式のレーダ、三角測量式の距離計等を用いてもよい。   As another example of the one-dimensional sensor, an ultrasonic radar, an optical radar, a radio radar, a triangulation distance meter, or the like may be used.

二次元センサとしては、水平・垂直方向に走査可能なスキャン型レーダがある。このスキャン型レーダを用いることにより、対象物体の水平方向の形状、垂直方向の形状に関する情報を得ることができる。
また、よく知られた二次元センサとしてはCCD(Charge Coupled Device)や、CIS(CMOS Image Sensor)を利用したカメラ等の画像入力手段もある。このカメラより得られた画像データより、輪郭線情報、交点情報等の各種特徴量を抽出し、表面形状に関する情報を得てもよい。
As the two-dimensional sensor, there is a scanning radar that can scan in the horizontal and vertical directions. By using this scan type radar, it is possible to obtain information related to the shape in the horizontal direction and the shape in the vertical direction of the target object.
As well-known two-dimensional sensors, there are image input means such as a CCD (Charge Coupled Device) and a camera using a CIS (CMOS Image Sensor). Various feature quantities such as contour information and intersection information may be extracted from image data obtained from this camera to obtain information on the surface shape.

三次元センサについても同様であり、例えばステレオ撮影した画像データ等を用いて、形状に関する情報を得てもよい。   The same applies to the three-dimensional sensor, and for example, information regarding the shape may be obtained using image data taken in stereo.

〔その他の利用形態〕
以上、本発明の実施形態を、駐車車両20を物体として、この輪郭形状を認識する方法及び装置とこれらの追加的特徴について説明した。この「物体」は、駐車車両や、建造物等の障害物に限らず、道路の走行レーンや、停止線、駐車枠等、種々のものが該当する。即ち、認識対象も立体物の輪郭形状に限定されるものではなく、平面模様の形状認識にも適用できるものである。
[Other forms of use]
As described above, the embodiment of the present invention has been described with respect to the method and apparatus for recognizing the contour shape using the parked vehicle 20 as an object, and these additional features. The “object” is not limited to an obstacle such as a parked vehicle or a building, but includes various objects such as a road lane, a stop line, and a parking frame. That is, the recognition target is not limited to the contour shape of a three-dimensional object, and can be applied to shape recognition of a planar pattern.

また、図10、図11に示したように車両10が前進移動している場合だけでなく、図13に示すように後進して車両20aと20bとの間に駐車するような場合にも利用できる。勿論、図1のように前進移動した後、図13に示すように後進移動する、いわゆるスイッチバックの場合にも適用できる。この場合、駐車車両20a、20bの輪郭形状Eを確実に認識した後、両車両の間に進行することができる。   Further, it is used not only when the vehicle 10 is moving forward as shown in FIGS. 10 and 11, but also when the vehicle is moved backward and parked between the vehicles 20a and 20b as shown in FIG. it can. Of course, the present invention can also be applied to a so-called switchback in which the vehicle moves forward as shown in FIG. 1 and then moves backward as shown in FIG. In this case, after the contour shape E of the parked vehicles 20a and 20b is reliably recognized, the vehicle can proceed between the two vehicles.

本発明に係る物体認識装置を搭載した車両が他の車両を認識する場合の例を示す説明図Explanatory drawing which shows the example in case the vehicle carrying the object recognition apparatus which concerns on this invention recognizes another vehicle 本発明の第一実施形態に係る物体認識装置の概略ブロック図1 is a schematic block diagram of an object recognition apparatus according to a first embodiment of the present invention. 図1の駐車車両の表面形状情報を測定した結果を示す図The figure which shows the result of having measured the surface shape information of the parked vehicle of FIG. 図3に示す測定結果を二次元直交座標上にマッピングした散布図Scatter chart in which the measurement results shown in FIG. 3 are mapped onto two-dimensional orthogonal coordinates 図4の散布図に示す標本群から任意に抽出した標本より定めた第一の形状モデルと標本群との一致度を演算する説明図FIG. 4 is an explanatory diagram for calculating the degree of coincidence between a first shape model and a sample group determined from samples arbitrarily extracted from the sample group shown in the scatter diagram of FIG. 図4の散布図に示す標本群から任意に抽出した標本より定めた第二の形状モデルと標本群との一致度を演算する説明図Explanatory drawing which calculates the coincidence of the second shape model and the sample group determined from the sample arbitrarily extracted from the sample group shown in the scatter diagram of FIG. 図4の散布図に示す標本群から輪郭形状を認識する第一の方法(第一実施形態)を説明するフローチャートThe flowchart explaining the 1st method (1st embodiment) which recognizes an outline shape from the sample group shown in the scatter diagram of FIG. 図4の散布図に示す標本群から輪郭形状を認識する第二の方法(第二実施形態)を説明するフローチャートThe flowchart explaining the 2nd method (2nd embodiment) which recognizes an outline shape from the sample group shown in the scatter diagram of FIG. 本発明の第三実施形態に係る物体認識装置の概略ブロック図Schematic block diagram of an object recognition device according to a third embodiment of the present invention 図9の相対配置演算部により算出された物体認識装置を搭載した車両と他の車両の輪郭形状との相対配置関係の一例(第三実施形態)を示す図The figure which shows an example (3rd embodiment) of the relative arrangement | positioning relationship between the vehicle carrying the object recognition apparatus computed by the relative arrangement | positioning calculating part of FIG. 9, and the outline shape of another vehicle. 図9の相対配置演算部により算出された物体認識装置を搭載した車両と他の車両の輪郭形状との相対配置関係の他の例(第三実施形態)を示す図The figure which shows the other example (3rd embodiment) of the relative arrangement | positioning relationship between the vehicle carrying the object recognition apparatus computed by the relative arrangement | positioning calculating part of FIG. 9, and the outline shape of another vehicle. 本発明に係る物体検出手段として一次元センサを用いる場合の例(他の実施形態)を示す図The figure which shows the example (other embodiment) in the case of using a one-dimensional sensor as an object detection means based on this invention. 図9の相対配置演算部により算出された物体認識装置を搭載した車両と他の車両の輪郭形状との相対配置関係の他の例(他の利用形態)を示す図The figure which shows the other example (other usage pattern) of the relative arrangement | positioning relationship between the vehicle carrying the object recognition apparatus computed by the relative arrangement calculating part of FIG. 9, and the outline shape of another vehicle.

符号の説明Explanation of symbols

1 距離センサ(物体検出手段)
2 形状認識部(形状認識手段)
2A マイクロコンピュータ
S 標本群
s 標本

1 Distance sensor (object detection means)
2 Shape recognition unit (shape recognition means)
2A microcomputer S specimen group s specimen

Claims (8)

移動体周辺に存在する物体を認識する物体認識装置であって、
前記物体の表面形状情報を検出する物体検出手段と、前記物体の輪郭形状を認識する形状認識手段と、を備え、
この形状認識手段は、前記表面形状情報を構成する標本群から任意に抽出した標本に基づいて定めた形状モデルに対する前記標本群の一致度を演算して前記輪郭形状を認識する物体認識装置。
An object recognition device for recognizing an object existing around a moving body,
Object detection means for detecting surface shape information of the object, and shape recognition means for recognizing the contour shape of the object,
The shape recognition means is an object recognition device for recognizing the contour shape by calculating a degree of coincidence of the sample group with a shape model determined based on a sample arbitrarily extracted from a sample group constituting the surface shape information.
前記物体検出手段は、前記物体の表面と前記移動体との距離に基づいて前記表面形状情報を検出する請求項1に記載の物体認識装置。   The object recognition apparatus according to claim 1, wherein the object detection unit detects the surface shape information based on a distance between a surface of the object and the moving body. 前記表面形状情報は、前記物体の外形輪郭を表すものである請求項1又は2に記載の物体認識装置。   The object recognition apparatus according to claim 1, wherein the surface shape information represents an outer contour of the object. 前記物体検出手段及び前記形状認識手段の検出及び認識結果に基づいて、前記移動体と前記物体との相対的な配置関係を演算する相対配置演算手段を備える請求項1〜3の何れか一項に記載の物体認識装置。   4. The apparatus according to claim 1, further comprising: a relative arrangement calculation unit that calculates a relative arrangement relationship between the moving body and the object based on detection and recognition results of the object detection unit and the shape recognition unit. The object recognition apparatus described in 1. 前記移動体の移動状態を検出する移動状態検出手段を備え、前記相対配置演算手段は、前記移動状態に基づいて、前記配置関係を演算する請求項4に記載の物体認識装置。   The object recognition apparatus according to claim 4, further comprising a movement state detection unit that detects a movement state of the moving body, wherein the relative arrangement calculation unit calculates the arrangement relation based on the movement state. 前記物体検出手段は、前記移動体の移動に伴って前記物体の前記表面形状情報を検出する請求項1〜5の何れか一項に記載の物体認識装置。   The object recognition device according to claim 1, wherein the object detection unit detects the surface shape information of the object as the moving body moves. 前記物体検出手段は、前記移動体の移動に拘らず前記物体に対する広角エリアを走査する走査手段を備え、得られた走査情報に基づいて前記物体の前記表面形状情報を検出する請求項1〜5の何れか一項に記載の物体認識装置。   The said object detection means is provided with the scanning means which scans the wide angle area with respect to the said object irrespective of the movement of the said mobile body, The said surface shape information of the said object is detected based on the obtained scanning information. The object recognition apparatus as described in any one of. 移動体周辺に存在する物体を認識する物体認識方法であって、
前記物体の表面形状情報を検出する物体検出工程と、前記物体の輪郭形状を認識する形状認識工程と、を備え、この形状認識工程は、
前記表面形状情報を構成する標本群から任意の標本を抽出する標本抽出工程と、
抽出した前記標本に基づいて形状モデルを定める形状モデル設定工程と、
前記形状モデルに対する前記標本群の一致度を演算する一致度演算工程と、
を実施することにより、前記輪郭形状を認識する物体認識方法。
An object recognition method for recognizing an object existing around a moving object,
An object detection step for detecting surface shape information of the object, and a shape recognition step for recognizing the contour shape of the object, the shape recognition step,
A sample extraction step of extracting an arbitrary sample from a sample group constituting the surface shape information;
A shape model setting step for determining a shape model based on the extracted sample;
A degree of coincidence calculation step of calculating the degree of coincidence of the sample group with respect to the shape model;
An object recognition method for recognizing the contour shape by performing
JP2005047517A 2005-02-23 2005-02-23 Object recognizing device, and object recognition method Pending JP2006234493A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005047517A JP2006234493A (en) 2005-02-23 2005-02-23 Object recognizing device, and object recognition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005047517A JP2006234493A (en) 2005-02-23 2005-02-23 Object recognizing device, and object recognition method

Publications (1)

Publication Number Publication Date
JP2006234493A true JP2006234493A (en) 2006-09-07

Family

ID=37042322

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005047517A Pending JP2006234493A (en) 2005-02-23 2005-02-23 Object recognizing device, and object recognition method

Country Status (1)

Country Link
JP (1) JP2006234493A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007114056A (en) * 2005-10-20 2007-05-10 Aisin Seiki Co Ltd Object recognition device
JP2007114057A (en) * 2005-10-20 2007-05-10 Aisin Seiki Co Ltd Object recognition device
JP2009192430A (en) * 2008-02-15 2009-08-27 Honda Motor Co Ltd Object type determining apparatus, object type determining method, and object type determining program
JP2010038841A (en) * 2008-08-07 2010-02-18 Fujitsu Ten Ltd Radar device and target detecting method
KR101696089B1 (en) * 2015-08-11 2017-01-24 포항공과대학교 산학협력단 Method and apparatus of finding object with imaging sonar
KR101696088B1 (en) * 2015-08-11 2017-01-24 포항공과대학교 산학협력단 Method for recognizing object by ultrasound and apparatus therefor
KR20170130560A (en) * 2015-03-24 2017-11-28 케이엘에이-텐코 코포레이션 How to classify an object's shape

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8031908B2 (en) 2005-10-20 2011-10-04 Aisin Seiki Kabushiki Kaisha Object recognizing apparatus including profile shape determining section
JP2007114057A (en) * 2005-10-20 2007-05-10 Aisin Seiki Co Ltd Object recognition device
JP2007114056A (en) * 2005-10-20 2007-05-10 Aisin Seiki Co Ltd Object recognition device
JP4618506B2 (en) * 2005-10-20 2011-01-26 アイシン精機株式会社 Object recognition device
JP4662147B2 (en) * 2005-10-20 2011-03-30 アイシン精機株式会社 Object recognition device
JP2009192430A (en) * 2008-02-15 2009-08-27 Honda Motor Co Ltd Object type determining apparatus, object type determining method, and object type determining program
JP4753053B2 (en) * 2008-02-15 2011-08-17 本田技研工業株式会社 Object type determination apparatus, object type determination method, and object type determination program
JP2010038841A (en) * 2008-08-07 2010-02-18 Fujitsu Ten Ltd Radar device and target detecting method
KR20170130560A (en) * 2015-03-24 2017-11-28 케이엘에이-텐코 코포레이션 How to classify an object's shape
JP2018518729A (en) * 2015-03-24 2018-07-12 ケーエルエー−テンカー コーポレイション Object shape classification method
KR102289800B1 (en) * 2015-03-24 2021-08-13 케이엘에이 코포레이션 How to classify the shape of an object
KR101696089B1 (en) * 2015-08-11 2017-01-24 포항공과대학교 산학협력단 Method and apparatus of finding object with imaging sonar
KR101696088B1 (en) * 2015-08-11 2017-01-24 포항공과대학교 산학협력단 Method for recognizing object by ultrasound and apparatus therefor

Similar Documents

Publication Publication Date Title
JP2006234494A (en) Object recognizing
JP2007030700A (en) Parking support device
US6631324B2 (en) Vehicle surroundings monitoring apparatus
JP4337929B2 (en) Moving state estimation device
CN110867132B (en) Environment sensing method, device, electronic equipment and computer readable storage medium
CN109635816B (en) Lane line generation method, apparatus, device, and storage medium
JP4662147B2 (en) Object recognition device
JP2006234493A (en) Object recognizing device, and object recognition method
JP2011150633A (en) Object detection device and program
JP2001256600A (en) Method and device for recognizing road condition for vehicle and recording medium
CN112130158B (en) Object distance measuring device and method
CN112313539B (en) Guardrail detection method and equipment, storage medium and movable platform
JP2017068700A (en) Object detection apparatus, object detection method, and program
KR102464581B1 (en) Apparatus for processing stereo points of cloud and method thereof
CN111812657A (en) Parking space determining method and device based on vehicle
JP2002243857A (en) Surrounding body recognizer
CN106240454B (en) System for providing vehicle collision early warning and vehicle-mounted equipment
CN112744217B (en) Collision detection method, travel path recommendation device, and storage medium
JP4618506B2 (en) Object recognition device
CN108725319B (en) Image type car backing guidance method
KR101734726B1 (en) Method of tracking parking space and apparatus performing the same
JP2006276985A (en) Method and device for recognizing object
JP2006276984A (en) Method and device for recognizing object
JP7165630B2 (en) Recognition system, vehicle control system, recognition method, and program
JP2005043375A (en) Vehicle periphery monitoring device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091119

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100311