JP2007255978A - Object detection method and object detector - Google Patents
Object detection method and object detector Download PDFInfo
- Publication number
- JP2007255978A JP2007255978A JP2006078485A JP2006078485A JP2007255978A JP 2007255978 A JP2007255978 A JP 2007255978A JP 2006078485 A JP2006078485 A JP 2006078485A JP 2006078485 A JP2006078485 A JP 2006078485A JP 2007255978 A JP2007255978 A JP 2007255978A
- Authority
- JP
- Japan
- Prior art keywords
- information
- detection
- change
- image
- object detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 214
- 238000000034 method Methods 0.000 claims abstract description 76
- 238000005259 measurement Methods 0.000 claims abstract description 71
- 238000012545 processing Methods 0.000 claims description 56
- 238000006243 chemical reaction Methods 0.000 claims description 25
- 239000013598 vector Substances 0.000 claims description 18
- 239000006185 dispersion Substances 0.000 claims description 12
- 230000002596 correlated effect Effects 0.000 claims description 4
- 230000002708 enhancing effect Effects 0.000 abstract 1
- 230000003287 optical effect Effects 0.000 description 15
- 238000010586 diagram Methods 0.000 description 8
- 230000003252 repetitive effect Effects 0.000 description 6
- 230000000875 corresponding effect Effects 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 5
- 230000004069 differentiation Effects 0.000 description 4
- 238000003708 edge detection Methods 0.000 description 3
- 230000010354 integration Effects 0.000 description 3
- 101100269328 Caenorhabditis elegans aff-1 gene Proteins 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000002411 adverse Effects 0.000 description 1
- 230000001174 ascending effect Effects 0.000 description 1
- 230000003935 attention Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 239000005357 flat glass Substances 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Images
Landscapes
- Traffic Control Systems (AREA)
- Radar Systems Or Details Thereof (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Measurement Of Optical Distance (AREA)
Abstract
Description
本発明は、カメラなどの画像情報取得手段から得られる画像情報と、レーダなどの検波情報取得手段から得られる距離情報と、に基づいて物体を検出する物体検出方法および物体検出装置に関する。 The present invention relates to an object detection method and an object detection apparatus for detecting an object based on image information obtained from image information acquisition means such as a camera and distance information obtained from detection information acquisition means such as a radar.
従来、車両において衝突防止装置、車間距離制御装置、追従走行装置などの運転支援装置が提案されている。これらの運転支援装置では、自車両の前方を走行する車両などの物体(障害物)を検出する物体検出装置が用いられている。 2. Description of the Related Art Conventionally, driving support devices such as a collision prevention device, an inter-vehicle distance control device, and a following traveling device have been proposed for vehicles. In these driving support devices, an object detection device that detects an object (obstacle) such as a vehicle traveling in front of the host vehicle is used.
このような物体検出装置では、高い精度で物体を検出することが求められる。 Such an object detection device is required to detect an object with high accuracy.
このような検出精度の向上を図る従来技術として、例えば、検出センサとしてカメラとレーダとを備え、カメラ画像で抽出した物体のエッジと、レーザレーダによる物体の検出情報とに基づいて車両であることを正確に検出および判定する技術が提案されている(例えば、特許文献1参照)。
しかしながら、上記従来技術は、車両と想定される画像上の領域を、エッジのヒストグラムやレーダの検出方位から判定しているが、この車両と想定した領域に、車両の周囲に存在する背景や他の物体が含まれるおそれがある。この場合、車両と相対した領域に含まれた他の物体が、例えば、直線エッジを有する建物などの人工物である場合には、レーダからの反射情報の検出を行っていても、この他の物体を車両と誤検出するおそれがある。 However, the above conventional technology determines the region on the image that is assumed to be a vehicle from the edge histogram and the detection direction of the radar. May be included. In this case, when the other object included in the region facing the vehicle is an artificial object such as a building having a straight edge, for example, even if the reflection information from the radar is detected, There is a risk of erroneously detecting an object as a vehicle.
本発明は、上述の問題点に着目してなされたもので、物体の検出精度の向上を図ることができる物体検出方法および物体検出装置を提供することを目的とする。 The present invention has been made paying attention to the above-described problems, and an object thereof is to provide an object detection method and an object detection apparatus capable of improving the detection accuracy of an object.
上述の目的を達成するため、本発明は、画像情報取得手段から、物体検出対象領域の物体に関する画像情報を取得するとともに、検波情報取得手段から、物体検出対象領域を検出波で走査して得られた物体に関する検波情報を取得し、前記画像情報に基づいて、画像上の物体を示す領域の大きさの変化を求めるとともに、前記検波情報に基づいて、前記検波情報取得手段と物体との距離変化を求め、求めた大きさ変化と距離変化とを照合し、両者の相関性が得られた場合に物体検出と判定し、相関性が得られた領域の画像情報と検波情報との少なくとも一方に基づいて物体の種類を判定することを最も主要な特徴とする物体検出方法である。 In order to achieve the above-described object, the present invention obtains image information related to an object in the object detection target area from the image information acquisition means and scans the object detection target area with a detection wave from the detection information acquisition means. Obtaining detection information relating to the detected object, obtaining a change in the size of the region indicating the object on the image based on the image information, and determining the distance between the detection information obtaining means and the object based on the detection information. The change is obtained, the obtained magnitude change and the distance change are collated, and when the correlation between the two is obtained, it is determined that the object is detected, and at least one of the image information and the detection information in the area where the correlation is obtained. This is an object detection method whose main feature is to determine the type of an object based on the above.
本発明の物体検出方法にあっては、画像上の物体を示す領域内の大きさ変化と、検波情報により計測された物体との距離変化と、に基づいて物体検出を行うようにしたため、背景や隣り合う物体などの判定対象とは異なる物体の情報に基づいて物体検出が行われるのを抑制でき、物体の検出精度を向上させることができる。 In the object detection method of the present invention, the object detection is performed based on the change in size in the region indicating the object on the image and the change in the distance from the object measured by the detection information. It is possible to suppress the detection of an object based on information on an object that is different from a determination target such as an adjacent object, and improve the object detection accuracy.
さらに、本発明の物体検出方法にあっては、物体の種類の判定は、上記のように大きさ変化と距離変化の照合により同一物体と判定された領域の画像情報と検波情報の少なくとも一方に基づいて物体の判定を行うようにした。 Furthermore, in the object detection method of the present invention, the determination of the type of the object is performed on at least one of the image information and the detection information of the region determined as the same object by collating the size change and the distance change as described above. Based on the determination of the object.
このため、背景や隣り合う物体など、判定対象とは異なる物体の情報に基づいて物体の種類の判定を行うことを防止でき、物体の検出精度の向上を図ることができるとともに、物体の種類も判定することができる。 For this reason, it is possible to prevent the determination of the type of the object based on the information of the object that is different from the determination target, such as the background and the adjacent object, and to improve the detection accuracy of the object. Can be determined.
以下、本発明の実施の形態を図面に基づいて説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
この実施の形態の物体検出装置は、物体検出対象領域の物体に関する画像情報を取得する画像情報取得手段(1)および物体検出対象領域を検出波で走査して得られた検出波の反射に基づく物体に関する検波情報を取得する検波情報取得手段(2)と、前記画像情報および検波情報に基づいて物体を検出する物体検出手段(CU)と、を備えた物体検出装置であって、前記物体検出手段(CU)が、前記画像情報および検波情報を取得する取得処理と、前記画像上の物体を示す領域である注目領域内の大きさ変化を求めるとともに、前記検波情報から得られた計測点上の物体と検波情報取得手段との距離変化を求める変化算出処理と、前記大きさ変化と距離変化とに基づいて物体検出を行う物体検出処理と、物体が検出された場合、前記注目領域内の画像情報と、前記計測点の検波情報との少なくとも一方に基づいて物体の種類を判定する種類判定処理と、を実行することを特徴とする。 The object detection apparatus according to this embodiment is based on image information acquisition means (1) for acquiring image information related to an object in the object detection target region and reflection of the detection wave obtained by scanning the object detection target region with the detection wave. An object detection apparatus comprising: detection information acquisition means (2) for acquiring detection information related to an object; and object detection means (CU) for detecting an object based on the image information and detection information. Means (CU) obtains the image information and detection information, obtains a change in size within a region of interest, which is an area indicating an object on the image, and on the measurement point obtained from the detection information Change calculation processing for obtaining a change in distance between the object and detection information acquisition means, object detection processing for detecting an object based on the magnitude change and the distance change, and when an object is detected, And the region of the image information, and executes the and determining the type determination processing type of the object based on at least one of the detection information of the measuring point.
図1〜図14に基づいて本発明の最良の実施の形態の実施例1の物体検出装置について説明する。 An object detection apparatus according to Example 1 of the best mode of the present invention will be described with reference to FIGS.
実施例1の物体検出装置は、図1に示すように、車両MB(以下、後述する他車両ABと区別するために物体検出装置が設けられた車両MBを自車両と称する)に搭載されており、画像取得手段としてのカメラ1と検波情報取得手段としてのレーダ2とを備えている。なお、この物体検出装置で検出された物体の情報は、運転支援装置などに出力される。
As shown in FIG. 1, the object detection device according to the first embodiment is mounted on a vehicle MB (hereinafter, the vehicle MB provided with the object detection device is referred to as a host vehicle in order to be distinguished from another vehicle AB described later). And a
カメラ1は、例えば、車室内の図示を省略したルームミラーの近傍位置に搭載されている。このカメラ1としては、CCD(Charge Coupled Devices)やCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を用いた輝度画像を撮像する可視光用カメラと赤外線画像を撮像する赤外カメラとの少なくとも一方を用いることができるが、本実施例1では、可視光用カメラを用いている。
For example, the
レーダ2は、自車両MBの前部に取り付けられ、車両前方(矢印FR方向)を水平方向にスキャニングし、レーダ2から車両前方に存在する物体(検知点)までの距離と反射強度を検出する。なお、検知点は、物体を検出した位置であって、図1に示すXZ軸の座標上の位置として検出する。
The
このレーダ2としては、ミリ波レーダやレーザレーダや超音波レーダを用いることができるが、本実施例1では、レーザレーダを使用している。なお、レーザレーダの場合、検出物体の情報として、距離とレーザ光の反射強度とを得ることができる。また、ミリ波レーダの場合、検出物体の情報として、距離・電波の反射強度・自車両と検出物体との相対速度を得ることができる。
As the
カメラ1およびレーダ2で得られた情報は、物体検出手段としてのコントロールユニットCUに入力される。コントロールユニットCUは、カメラ1やレーダ2を含む車載のセンサから信号を入力して、物体を検出し、かつその種類を判別する物体検出制御を行うもので、RAM(Random Access Memory),ROM(Read Only Memory),CPU(Central Processing Unit)などを備えた周知のものである。
Information obtained by the
このコントロールユニットCUにおける物体検出制御における処理の流れを、図2により、簡単に説明すると、まず、ステップS1では、カメラ1とレーダ2を含むセンサから情報を入力し、メモリ11(図3参照)に保存する取得処理を実行する。
The flow of processing in the object detection control in the control unit CU will be briefly described with reference to FIG. 2. First, in step S1, information is input from sensors including the
次のステップS2では、保存した入力情報に対し、これ以降の処理において使用する情報に変換する(この変換した情報を変換情報と称する)情報変換処理を実行する。 In the next step S2, information conversion processing for converting the stored input information into information used in the subsequent processing (this converted information is referred to as conversion information) is executed.
次のステップS3では、画像情報およびその変換情報に基づく物体の存在の判定と、検波情報およびその変換情報に基づく物体の存在の判定と、を行う物体存在判定処理を実行する。 In the next step S3, an object presence determination process is performed for determining the presence of an object based on image information and its conversion information, and determining the presence of an object based on detection information and its conversion information.
次のステップS4では、ステップS3で存在すると判定された物体について、その物体との距離変化および画像上の大きさ変化を算出する変化算出処理を実行する。 In the next step S4, a change calculation process for calculating a change in distance from the object determined in step S3 and a change in size on the image is executed.
次に、ステップS5では、ステップS4で得られた距離変化および大きさ変化との照合に基づいて、物体検出を行う物体検出処理を実行する。 Next, in step S5, an object detection process for performing object detection is executed based on the collation with the distance change and the magnitude change obtained in step S4.
次のステップS6では、検出された物体の種類を判定する種類判定処理を実行する。 In the next step S6, a type determination process for determining the type of the detected object is executed.
図3は、コントロールユニットCUにおいて行われる上記各処理を行う部分を概念的に示すブロック図である。 FIG. 3 is a block diagram conceptually showing a portion for performing each of the processes performed in the control unit CU.
メモリ11は、ステップS1の取得処理により得られた各情報を保存する。
変換処理部12は、ステップS2の情報変換処理を実行する部分である。
物体存在判定処理部13は、ステップS3の物体存在判定処理を実行する部分である。
距離変化算出処理部14および大きさ変化算出処理部15は、ステップS4の変化算出処理を実行する部分である。
物体検出処理部16は、ステップS5の物体検出処理を実行する部分である。
種類判定処理部17は、ステップS6の種類判定処理を実行する部分である。
The
The
The object presence
The distance change
The object
The type
次に、上記ステップS1〜S6の各処理について詳細に説明する。
まず、ステップS1の取得処理では、図4に示すように、メモリ11に、カメラ1が撮像した輝度画像情報を保存し、また、レーダ2が検知した検波情報として、レーダ2の水平方向のスキャン分解能(角度)ごとに、各角度におけるレーダ2から物体までの距離とレーザ光の反射強度とを保存する。
Next, each process of said step S1-S6 is demonstrated in detail.
First, in the acquisition process of step S1, as shown in FIG. 4, the luminance image information captured by the
ここで、カメラ1による画像情報の一例を図5および図6に示す。
図5および図6は、自車両MBの前方に他車両(先行車両)ABと人物(歩行者)PEと道路構造物としての壁WOとが存在する場合の画像の一例を示しており、これらがカメラ1の撮像面1aにおいて同図(b)に示すように投影される。
Here, an example of the image information by the
FIG. 5 and FIG. 6 show an example of an image when another vehicle (preceding vehicle) AB, a person (pedestrian) PE, and a wall WO as a road structure exist in front of the host vehicle MB. Is projected on the
なお、図5(a)は、横から見た状態を示し、図6(a)は上から見た状態を示している。また、両図において、(c)はカメラ1として赤外線カメラを用いた場合の赤外画像を示しており、自車両MB図中MPは高温として捉えられている部分(マフラ部分)を示している。
5A shows a state seen from the side, and FIG. 6A shows a state seen from above. Moreover, in both figures, (c) shows an infrared image when an infrared camera is used as the
これら図5,6では、カメラ1の路面への垂直投影点PAから人物(歩行者)PEの路面への垂直投影像における自車両MB側の端点PFまでの距離をz、点PAと点PFとのx軸方向の間隔をxsとしている。
5 and 6, the distance from the vertical projection point PA on the road surface of the
そこで、基準座標をカメラ1のレンズ1bの中心を原点とすると、基準座標系における点PFの位置は、(xs,−H,z)と表され、撮像面1aの画像上において点PFが位置する座標(xc,yc)は、焦点距離fを用いて、下記の式(1)および式(2)の関係で表される。
xc=xs・f/z ・・・(1)
yc=−H・f/z ・・・(2)
Therefore, when the reference coordinate is the origin of the center of the
xc = xs · f / z (1)
yc = −H · f / z (2)
次に、レーダ2による検波情報の一例を図7に示す。
図7では(a)に示す図5および図6に示した画像情報と同様の物体の検知例を上から見た状態として(b)に示している。この図に示すように、自車両(自車両MB)の前方に存在する他車両ABと人物(歩行者)PEと壁WOとにおいて反射したレーザ光を検出することで、物体が存在することを検出できる。なお、図において円形で示すqP,qA,qWが、それぞれ各物体の検知点を示している。
Next, an example of detection information by the
FIG. 7 shows an object detection example similar to the image information shown in FIGS. 5 and 6 shown in FIG. As shown in this figure, the presence of an object is detected by detecting laser light reflected by another vehicle AB, a person (pedestrian) PE, and a wall WO existing in front of the host vehicle (host vehicle MB). It can be detected. In the figure, qP, qA, and qW indicated by circles indicate detection points of the respective objects.
そこで、レーダ用メモリでは、反射波が観測された方位ごとに、計測点までの距離とその反射強度とを保存する。また、図7の方位θの計測点では、距離z1、z3(人物PEおよび壁WO)で反射波が観測されているが、それぞれの距離の計測点で反射強度が保存される。 Therefore, the radar memory stores the distance to the measurement point and the reflection intensity for each direction in which the reflected wave is observed. In addition, although reflected waves are observed at distances z1 and z3 (person PE and wall WO) at the measurement point of azimuth θ in FIG. 7, the reflection intensity is stored at the measurement points of the respective distances.
次に、変換処理部12で実行されるステップS2の情報変換処理を説明する。
この情報変換処理では、画像情報を変換する処理と、検波情報を変換する処理とが行われる。
Next, the information conversion process of step S2 executed by the
In this information conversion process, a process for converting image information and a process for converting detection information are performed.
この画像情報を変換する処理としては、図4に示すように、カメラ1から得られる輝度画像情報に対して、縦エッジ、横エッジ、エッジ強度を抽出するエッジ検出処理と、方向ベクトルを抽出する方向ベクトル算出処理と、オプティカルフローを算出するオプティカルフロー処理と、が成される。
As processing for converting this image information, as shown in FIG. 4, edge detection processing for extracting vertical edges, horizontal edges, and edge strengths for luminance image information obtained from the
また、検波情報を変換する処理としては、レーダ2からの検波情報から得られる計測点に基づいて相対速度を求める処理が成される。
Further, as processing for converting detection information, processing for obtaining a relative velocity based on measurement points obtained from detection information from the
上述のエッジ検出処理におけるエッジの検出は、ソーベルフィルタなどとのコンボリューション(たたみこみ(掛け合わせ))演算により算出できる。 Edge detection in the above-described edge detection processing can be calculated by a convolution (convolution (multiplication)) operation with a Sobel filter or the like.
図8は、単純なソーベルフィルタの例であり、(a)(b)が縦エッジ用のフィルタ、(c)(d)が横エッジ用のフィルタである。このようなフィルタと画像情報とを掛け合わせることで、縦エッジと横エッジとを求めることができる。なお、これらのエッジ強度は、例えば、これらの値の絶対値として求めることができる。 FIG. 8 shows an example of a simple Sobel filter, in which (a) and (b) are filters for vertical edges, and (c) and (d) are filters for horizontal edges. By multiplying such a filter and image information, a vertical edge and a horizontal edge can be obtained. Note that these edge strengths can be obtained as absolute values of these values, for example.
また、方向ベクトルは、縦エッジの強度をDx、横エッジの強度をDyとしたときに下記の式(3)の演算により求めることができる。
方向ベクトル=Dx/Dy ・・・(3)
Further, the direction vector can be obtained by the following equation (3) when the vertical edge strength is Dx and the horizontal edge strength is Dy.
Direction vector = Dx / Dy (3)
なお、この方向ベクトルの角度とエッジ強度との関係を図9に示す。 FIG. 9 shows the relationship between the direction vector angle and the edge strength.
次に、オプティカルフローについて説明する。
オプティカルフローとは、ある時刻の画像上において、画像上のある点(xc、yc)に表示された映像と、その映像がΔt秒後に位置する画像上の点を結んだ矢印のことであり、一般的に画像上に撮像されたある物体上のある点の動きを示すこととなる。このようなオプティカルフローは、ブロックマッチングや勾配法など、従来提案されているいずれかの手法を適用して求めることができる。
Next, the optical flow will be described.
The optical flow is an arrow connecting a video displayed at a certain point (xc, yc) on the image at a certain time and a point on the image where the video is located after Δt seconds, In general, the movement of a certain point on a certain object captured on the image is shown. Such an optical flow can be obtained by applying any conventionally proposed method such as block matching or gradient method.
このオプティカルフローについて、図7および図10を用いて具体的に説明する。
これらの図7および図10では、人物PEが止まっていて、他車両ABが自車両MBと同方向に前進している場合を示しており、図10は図7に示す時点からΔt秒後の状態を示している。また、両図において、(a)は図5,図6で示したのと同様のカメラ1の画像であり、(b)はレーダ2による検出範囲を上方から見た状態を示している。
This optical flow will be specifically described with reference to FIGS.
7 and 10 show a case where the person PE is stopped and the other vehicle AB is moving forward in the same direction as the host vehicle MB. FIG. 10 shows Δt seconds after the time shown in FIG. Indicates the state. In both figures, (a) is an image of the
ここで図7において人物PEを示す値xc1,yc1,hc1は、図10に示すΔt秒後には、前述した式(1)(2)において、分母となるzの値だけが小さくなるため、自車両MBの前進に伴って大きくなる。そこで、オプティカルフローの矢印は消失点VP(画像上の前方の無限遠点が撮像される点のことであり、図5,6の設定のように、カメラ1の光軸LZを路面RSと平行にした場合は、画像中心が消失点VPとなる)から遠ざかる方向に長くなる。
Here, the values xc1, yc1, and hc1 indicating the person PE in FIG. 7 are smaller than the value of z as the denominator in the above-described equations (1) and (2) after Δt seconds shown in FIG. It becomes larger as the vehicle MB moves forward. Therefore, the arrow of the optical flow is the vanishing point VP (the point at which the forward infinity point on the image is imaged, and the optical axis LZ of the
同様に、壁WOの上にある点なども、止まっているため、オプティカルフローは長くなる。また、これらのオプティカルフローは、消失点VPを中心としてそこから画像の外側に向く矢印となる。 Similarly, since the points on the wall WO are also stopped, the optical flow becomes long. Also, these optical flows become arrows with the vanishing point VP as the center and from there toward the outside of the image.
そこで、図10の(a)に示す人物PEのオプティカルフローは、足元では右下向きとなり、画像の中心近くの頭部付近では右向きとなる。 Therefore, the optical flow of the person PE shown in FIG. 10A is directed downward to the right at the feet, and directed to the right near the head near the center of the image.
一方、他車両ABは、自車両MBと等速運動をしていると仮定すると、距離関係が略一定で前述の式(1)(2)においてzの値が変化しないため、オプティカルフローの長さは短くなる. On the other hand, assuming that the other vehicle AB is moving at a constant speed with the host vehicle MB, the distance relationship is substantially constant and the value of z does not change in the above formulas (1) and (2). The length will be shorter.
次に、図4に戻り、レーダ2からの検波情報の変換処理について説明する。
上記のようにレーダ2の検波情報の変換処理は、計測点が有する距離データに基づいて相対速度を求める処理である。この相対速度は、時系列的に(例えば、0.1秒ごとに)レーダ2からの距離情報を取得する場合、ある一定時間の同一の計測点に対する距離変化、すなわち、距離変化/一定時間の長さで求めることができる。
Next, returning to FIG. 4, the detection information conversion processing from the
As described above, the conversion process of the detection information of the
あるいは、同一計測点間の最小二乗誤差直線を求め、その傾きを相対速度として求めてもよい。距離精度にはバラツキもあるため、例えば、0.1秒ごとの距離結果に対して求めた最小二乗誤差直線を求める方法を採ることで、計測点の1点程度の誤差や非計測点を補完して相対速度を安定して求めることができる。 Alternatively, a least square error line between the same measurement points may be obtained, and the inclination thereof may be obtained as a relative speed. Because there is variation in distance accuracy, for example, by taking the least square error straight line obtained for distance results every 0.1 seconds, the error of about one measurement point or non-measurement point is complemented. Thus, the relative speed can be obtained stably.
次に、物体存在判定処理部13で実行されるステップS3の物体存在判定処理について説明する。
Next, the object presence determination process in step S3 executed by the object presence
この物体の存在判定は、画像情報に基づく判定と、検波情報に基づく判定と、がそれぞれ並列に行われる。 This object presence determination is performed in parallel with determination based on image information and determination based on detection information.
画像情報に基づく判定は、本実施例1では、オプティカルフローにより同じ動きが集中している部分に物体が存在すると判定することで行われる。 In the first embodiment, the determination based on the image information is performed by determining that an object exists in a portion where the same movement is concentrated by the optical flow.
そして、画像上で物体が存在すると判定された領域にあっては、オプティカルフローが観測された位置を囲う矩形の領域が設定される。例えば、図7(a)に示す他車両ABの場合、座標(xc0,yc0)を基準として幅wc0、高さhc0の矩形が設定され、人物PEの場合、座標(xc1,yc1)を基準として幅wc1、高さhc1の矩形の領域SG1,SG2が設定される。なお、この物体が存在すると判定された領域SG1,SG2を、以後、物体判定領域と称する。 And in the area | region where it determined with the object existing on the image, the rectangular area | region surrounding the position where the optical flow was observed is set. For example, in the case of the other vehicle AB shown in FIG. 7A, a rectangle having a width wc0 and a height hc0 is set based on the coordinates (xc0, yc0), and in the case of the person PE, the coordinates (xc1, yc1) are used as a reference. Rectangular areas SG1 and SG2 having a width wc1 and a height hc1 are set. Note that the areas SG1 and SG2 determined to include the object are hereinafter referred to as object determination areas.
一方、検波情報に基づく判定は、基本的には、何らかの計測点が同じ距離に時間的に連続して観測された場合に、その位置に物体が存在すると判定することで行われる。例えば、本実施例1では、レーダ2のスキャニング周期が0.1msecとし、0.3msec連続して、同じ方位、同じ距離に計測点が観測された場合に、その方位に物体が存在すると判定される。
On the other hand, the determination based on the detection information is basically performed by determining that an object exists at that position when some measurement points are observed continuously in time at the same distance. For example, in the first embodiment, when the scanning period of the
また、本実施例1では、図7における他車両ABおよび人物PEのように、その計測点qA,qPが、方位的に連続している(図では左右方向に連続している)場合には、上述の時系列的な観測無しに物体が存在すると判定する。 In the first embodiment, when the measurement points qA and qP are azimuthally continuous (continuous in the left-right direction in the figure), like the other vehicle AB and the person PE in FIG. It is determined that the object exists without the above-described time-series observation.
さらに、本実施例1では、計測点qA,qP,qWのうち、反射強度があらかじめ設定されたしきい値よりも高い場合には、時系列的な連続性や方位の連続性が小さい場合であっても、その計測点に物体が存在すると判定する。 Furthermore, in the first embodiment, when the reflection intensity is higher than a preset threshold value among the measurement points qA, qP, and qW, the time series continuity and the azimuth continuity are small. Even if it exists, it determines with an object existing in the measurement point.
すなわち、一般的にノイズは反射強度が弱く、かつ、計測点が単独で存在することが多い。このことから、他車両ABや二輪車MSのように、反射強度の強い計測点が観測された場合には、即時に、物体が存在すると判定する。 That is, in general, noise has a low reflection intensity and often has a single measurement point. From this, when a measurement point with high reflection intensity is observed as in the other vehicle AB or the two-wheeled vehicle MS, it is immediately determined that an object exists.
なお、反射強度はレーダ2が発光するレーザ光の強さに依存するため、しきい値は、実験的に検出対象物体を計測した場合の一般的な反射強度を求め、その実験値に基づいて設定される。また、反射強度は、レーダ2からの距離が遠ざかると弱くなる。このため、しきい値は、物体との距離が遠くなるほど小さな値に設定されている。このようにしきい値に距離との相関を持たせるにあたり、あらかじめ実験値に基づき、距離に相関させたしきい値を記憶させてもよいし、あるいは、しきい値に距離に応じた係数を乗じることで距離との相関性を持たせるようにしてもよい。
Since the reflection intensity depends on the intensity of the laser beam emitted by the
次に、ステップS4の変化算出処理のうち、距離変化算出処理部14で算出される距離変化について説明する。
図11は、(a)にレーダ2による計測状態、(b)にカメラ1で撮像した画像を示している。
Next, the distance change calculated by the distance change
FIG. 11 shows a measurement state by the
レーダ2では、画像上の人物PE、他車両AB、壁WO、二輪車MSのそれぞれについて、それぞれ計測点群P0,P1,P2,P3が得られ、かつ、それらとの距離z0,z1,z2,z3(ここでは、各計測点群に含まれる計測点の距離の各計測点群ごとの平均値)が計測されている。
In the
距離変化算出処理部14では、レーダ2により計測されている物体、すなわち計測点群P0,P1,P2,P3について、時間的に連続して観測される距離の変化が求められる。
The distance change
さらに、距離変化算出処理部14では、距離変化と共に反射強度(ここでは、各計測点群に含まれる計測点における反射強度の各計測点ごとの平均値)の変化も求められる。そして、この距離変化および反射強度変化に、あらかじめしきい値が設定されており、距離変化および反射強度変化が、しきい値を超えない範囲で時間的に連続して観測されている場合に、同じ物体を継続して計測していると判定され、この物体にフラグなどが与えられる。
Further, the distance change
一方、距離変化と反射強度変化との少なくとも一方が、あらかじめ設定されたしきい値を越えた場合には、観測中の物体が代わったと判断される。 On the other hand, when at least one of the change in distance and the change in reflection intensity exceeds a preset threshold value, it is determined that the object being observed has changed.
すなわち、距離変化は、同じ物体を連続して観測し続ける必要がある。そこで、同じ物体を連続して観測しているかどうかを確認するために、上述のように距離変化および反射強度のしきい値を設定し、観測の途中で他の物体に代わっていないかどうかの確認を行うようにしている。ここで、距離変化のしきい値は、検出対象である物体としてあり得ない速度で距離変化したことを示す値に設定されているもので、物体の種類毎に異なるしきい値を用いることもできる。同様に、反射強度も、検出対象の物体上において、あり得ない反射強度変化が生じたことを示す値に設定されている。 That is, the distance change needs to continuously observe the same object. Therefore, in order to check whether the same object is being observed continuously, the threshold of the distance change and the reflection intensity is set as described above, and whether or not the other object is replaced during the observation. Confirmation is made. Here, the distance change threshold is set to a value indicating that the distance has changed at a speed that is not possible as an object to be detected, and a different threshold may be used for each type of object. it can. Similarly, the reflection intensity is also set to a value indicating that an impossible reflection intensity change has occurred on the object to be detected.
次に、大きさ変化算出処理部15で算出される大きさ変化について説明する。なお、この大きさ変化とは、本実施例1では、検出対象の物体そのものの画像上の大きさではなく、その物体の一部の画像上における大きさの変化が求められる。
Next, the magnitude change calculated by the magnitude change
カメラ1により撮像された物体の画像上の大きさは、距離に反比例している。また、その画像上の大きさの変化は、物体の上の或る部位と、物体全体と、のいずれでも、上記の距離との反比例との関係にある。
The size of the object imaged by the
例えば、他車両ABを検出している場合に、他車両ABまでの距離z1が半分になると、画像上の他車両ABの大きさは2倍になる。また、他車両ABのナンバプレートの部分のみでも、そのナンバプレートの画像上の大きさは、上記のように距離が半分になったときには、大きさは2倍になる。 For example, when the other vehicle AB is detected and the distance z1 to the other vehicle AB is halved, the size of the other vehicle AB on the image is doubled. Further, even in the number plate portion of the other vehicle AB, the size of the number plate on the image is doubled when the distance is halved as described above.
このように、観測している或る物体において、その画像上の大きさの変化は、物体全体でも、物体の任意の部位でも、同様である。 In this way, the change in the size of an image of a certain object being observed is the same for the entire object or any part of the object.
そこで、本実施例1では、大きさ変化の算出対象は、図7(a)に示したような物体(他車両AB,人物PE)の全体を囲む矩形の物体判定領域SG1,SG2ではなく、これら物体判定領域SG1,SG2の中の一部の領域について行う。この大きさ変化の算出対象となる領域を、本明細書では注目領域と称する。 Therefore, in the first embodiment, the calculation target of the size change is not the rectangular object determination areas SG1 and SG2 surrounding the entire object (other vehicle AB, person PE) as shown in FIG. This is performed for a part of the object determination areas SG1 and SG2. An area that is a target of calculation of the change in size is referred to as an attention area in this specification.
図11(b)に示す例では、画像上の人物PE、他車両AB、壁WO、二輪車MSの一部に、図において点線で囲まれた矩形の注目領域R0,R1,R2,R3が示されている。これら注目領域R0,R1,R2,R3は、画像情報に基づいて設定された物体判定領域(図7のSG1,SG2参照)の中で、エッジ強度などに基づき、或る物体を確実に撮像していると判定される一部の領域である。 In the example shown in FIG. 11 (b), rectangular attention areas R0, R1, R2, and R3 surrounded by dotted lines in the figure are shown in part of the person PE, other vehicle AB, wall WO, and motorcycle MS on the image. Has been. These attention areas R0, R1, R2, and R3 reliably capture an image of an object based on edge strength and the like in an object determination area (see SG1 and SG2 in FIG. 7) set based on image information. It is a part of the area determined to be.
すなわち、注目領域R0は、人物PEの中央部のみの領域、注目領域R1は、他車両ABのリヤバンパ11cおよびナンバプレート11dを含む部分のみの領域、注目領域R2は、壁WOの他車両ABから確実に離れた一部のみの領域、注目領域R3は、二輪車MSの中央部のみの領域である。
That is, the attention area R0 is an area only in the center of the person PE, the attention area R1 is an area only including the
次に、大きさ変化の求め方について、他車両ABにおける注目領域R1を例にとり説明する。 Next, how to obtain the change in size will be described by taking the attention area R1 in the other vehicle AB as an example.
この大きさ変化は、注目領域R1内のエッジ間の距離により求める。すなわち、この注目領域R1には、他車両ABにおいて水平エッジが強く検出されるリヤウインドウ11a、トランクリッド11b、リヤバンパ11c、ナンバプレート11dが含まれている。
This change in size is obtained from the distance between the edges in the attention area R1. That is, the attention area R1 includes a
図12は、注目領域R1を示しており、(a)がt0の時点であって自車両MBとの距離がz1の状態を示し、(b)がt0から時間が経過して自車両MBとの距離がz1よりも小さくなった状態(この距離をafz1とする)を示している。 FIG. 12 shows a region of interest R1, where (a) shows a state where the distance from the host vehicle MB is z1 at the time t0, and (b) shows that the host vehicle MB The distance is smaller than z1 (this distance is afz1).
この図12に示されるように、トランクリッド11bとリヤバンパ11cの各下側水平エッジ間の距離ww1およびリヤウインドウ11aとリヤバンパ11cの各下側水平エッジ間の距離ww2は、相対距離の変化に応じて変化する。
As shown in FIG. 12, the distance ww1 between the
すなわち、(a)に示す、距離=z1のときの水平エッジ間距離ww1,ww2よりも、距離が近付いた(b)に示す、距離=afz1のときの水平エッジ間距離afww1,afww2の方が大きくなる。 That is, the distance between horizontal edges afww1 and afww2 when distance = afz1 shown in (b) is closer to the distance between horizontal edges ww1 and ww2 when distance = z1 shown in (a). growing.
この場合、距離z1,afz1と、水平エッジ間距離ww1,ww2,afww1,afww2は、下記の式(3)の関係が成り立つ。
z1/afz1= afww1/ ww1=afww2 /ww2 ・・・(3)
In this case, the distances z1 and afz1 and the horizontal edge distances ww1, ww2, afww1, and afww2 satisfy the following relationship (3).
z1 / afz1 = afww1 / ww1 = afww2 / ww2 (3)
また、壁WOなども明確なエッジを有する場合、上記と同じようにエッジ間距離の変化により大きさ変化を求めることができるが、繰り返し模様やテクスチャなどが観測される場合には、上述のようなエッジ間距離ではなく、観測される繰り返し模様やテクスチャの周波数成分により大きさ変化が求められる。 In addition, when the wall WO has a clear edge, the size change can be obtained by the change in the distance between the edges in the same manner as described above. However, when a repetitive pattern or texture is observed, as described above. The change in size is determined not by the distance between edges but by the frequency components of the observed repeated patterns and textures.
図11(b)に示すように、壁WOに斜めのエッジの繰り返しが観測される場合において注目領域R2の距離変化に応じた画像変化を図13に示している。図13の(a)に示す距離=z1では、注目領域R2における繰り返しパターンの間隔が狭いのに対し、それよりも距離が近付いた(b)に示す距離=afz1では、注目領域R2における繰り返しパターンの間隔が拡がる。 As shown in FIG. 11B, FIG. 13 shows an image change corresponding to a change in the distance of the attention area R2 in the case where repeated oblique edges are observed on the wall WO. At the distance = z1 shown in FIG. 13 (a), the interval between the repetitive patterns in the attention area R2 is narrow. On the other hand, when the distance = afz1 shown in FIG. The interval of increases.
このような繰り返しパターンの間隔の変化は、注目領域R2におけるエッジの周波数変化として得られる。そこで、エッジの繰り返しパターンの周波数成分を、ウエーブレット変換や画像のFFT変換(高速フーリエ変換)などにより求める。 Such a change in the interval between the repeated patterns is obtained as a change in the frequency of the edge in the attention area R2. Therefore, the frequency component of the repetitive edge pattern is obtained by wavelet transform, image FFT transform (fast Fourier transform), or the like.
一般に繰り返しパターンのようにエッジが多く存在する場合、何本も同じ種類のエッジがあると、エッジの組み合わせを間違える可能性が有り、前述したエッジ間隔の変化に基づく物体の大きさ変化を信頼性高く算出することが難しい。そこで、本実施例1では、エッジ間距離の短い繰り返しパターンについては、周波数fの変化を求め、これを大きさ変化とする。 In general, when there are many edges like a repetitive pattern, there is a possibility that the combination of edges may be mistaken if there are many edges of the same type, and the object size change based on the change in the edge interval described above is reliable. It is difficult to calculate high. Therefore, in the first embodiment, for a repetitive pattern with a short distance between edges, a change in the frequency f is obtained and this is set as a magnitude change.
この場合、距離z1,afz1と、周波数f1,aff1は、下記の式(4)の関係が成り立つ。
z1/afz1=f1/aff1 ・・・(4)
In this case, the relationship of the following formula (4) is established between the distances z1 and afz1 and the frequencies f1 and aff1.
z1 / afz1 = f1 / aff1 (4)
ここで、周波数は、周波数分解したときに強い繰り返しパターンが観測されるような種類の画像にだけ適用すればよいので、FFT変換などで強いピークが観測された周波数f1に適用すればよい。 Here, since the frequency only needs to be applied to a type of image in which a strong repetitive pattern is observed when the frequency is decomposed, it may be applied to the frequency f1 at which a strong peak is observed by FFT transformation or the like.
次に、物体検出処理部16におけるステップS5の物体検出処理について説明する。すなわち、ステップS3の物体存在判定処理では、画像上と検波情報とのそれぞれで物体が存在すると判定される。しかし、ステップS5の物体検出処理は、画像上で物体が検出されている或る領域の「大きさ変化」と、レーダで物体が検出されている或る方位の計測点における「距離変化」とを照合し、両変換に反比例という相関性が得られる物体が存在する場合に、「物体検出」とする。
Next, the object detection process in step S5 in the object
なお、この照合には、図11に示した画像上の注目領域R0,R1,R2,R3と、検波情報により物体が検出されている計測点群P0,P1,P2,P3とが用いられる。 Note that the regions of interest R0, R1, R2, and R3 on the image shown in FIG. 11 and the measurement point groups P0, P1, P2, and P3 where an object is detected based on detection information are used for this collation.
次に、種類判定処理部17で実行するステップS6の物体種類判定処理について説明する。
Next, the object type determination process in step S6 executed by the type
この物体種類判定は、前述のステップS5の物体検出処理に用いた、注目領域R0,R1,R2,R3および計測点群P0,P1,P2,P3の情報に基づいて行う。 This object type determination is performed based on the information on the attention areas R0, R1, R2, and R3 and the measurement point groups P0, P1, P2, and P3 used in the object detection process in step S5 described above.
本実施例1では、物体の種類の判定に用いられる情報として、縦・横エッジ、エッジ強度、方向ベクトル分散、反射強度、相対速度が用いられ、これら判定用の情報と物体の種類との関係を示す判定特性情報があらかじめデータベースに保管されている。 In the first embodiment, vertical / horizontal edges, edge intensity, direction vector dispersion, reflection intensity, and relative velocity are used as information used for determining the type of object, and the relationship between the information for determination and the type of object Is stored in advance in the database.
図14は、その判定特性情報の一例を示す。図において、「少」「多」「弱」「強」「高」「低」は、検出する物体における各情報の特徴を示し、「0」は、その種類の物体判定に用いないことを示している。 FIG. 14 shows an example of the determination characteristic information. In the figure, “small”, “many”, “weak”, “strong”, “high”, and “low” indicate the characteristics of each information in the detected object, and “0” indicates that it is not used for the type of object determination. ing.
したがって、各注目領域R0,R1,R2,R3および計測点群P0,P1,P2,P3の情報の特徴が、図14の判定特性情報の各物体の種類と一致するか否かに基づいて、物体の種類が判定される。 Therefore, based on whether or not the characteristics of the information of each region of interest R0, R1, R2, R3 and the measurement point group P0, P1, P2, P3 match the type of each object in the determination characteristic information of FIG. The type of object is determined.
すなわち、注目領域が持つ情報である縦・横エッジが多く、エッジ強度が強いとともに、方向ベクトル分散が小さく、かつ、計測点群が持つ情報である反射強度が、リフレクタからの反射に相当する強い値を示すとともに、相対速度が、先行車両に相当する遅い速度である場合は、走行中の他車両ABと判定される。 That is, there are many vertical and horizontal edges that are information of the attention area, the edge intensity is strong, the direction vector dispersion is small, and the reflection intensity that is the information of the measurement point group is strong corresponding to the reflection from the reflector. When the value indicates a value and the relative speed is a slow speed corresponding to the preceding vehicle, it is determined that the vehicle is traveling other vehicle AB.
また、注目領域が持つ情報である縦・横エッジが少なく、エッジ強度が弱いとともに、方向ベクトル分散が小さく、かつ、計測点群が持つ情報である反射強度が弱いとともに、相対速度が速い場合には、人物(歩行者)PEと判定される。 Also, when the attention area has few vertical and horizontal edges, the edge strength is weak, the direction vector variance is small, the reflection intensity, which is the information held by the measurement point group, is weak, and the relative velocity is high Is determined to be a person (pedestrian) PE.
また、注目領域が持つ情報である縦・横エッジが少なく、エッジ強度が弱いとともに、方向ベクトル分散が大きく、かつ、計測点群が持つ情報である反射強度が強いとともに、相対速度が遅い場合には、走行中の二輪車MSと判定される。 Also, when there are few vertical and horizontal edges, which are the information of the attention area, the edge strength is weak, the direction vector variance is large, the reflection intensity, which is the information of the measurement point group, is strong, and the relative speed is slow Is determined to be a traveling motorcycle MS.
また、注目領域が持つ情報である縦エッジが多く、横エッジが少なく、エッジ強度が強く、方向ベクトル分散が小さく、かつ、計測点群が持つ情報である相対速度が速いとともに反射強度が低い場合には、道路構造物と判定される。 In addition, when the attention area has many vertical edges, few horizontal edges, strong edge strength, small directional vector variance, and high relative speed, which is information held by the measurement point cloud, and low reflection intensity Is determined to be a road structure.
さらに、物体として検出されているが、これらの基準のいずれにも属さない場合には、種類は、「その他の物体」と判定される。 Furthermore, when it is detected as an object but does not belong to any of these criteria, the type is determined as “other object”.
以上説明したように、本実施例1の物体検出装置では、カメラ1で撮像された画像上の領域の大きさ変化と、レーダ2で捉えられた計測点の距離変化と、の照合に基づいて物体を検出し、さらに、照合がとれた領域の画像情報および検波情報の少なくとも一方に基づいて、物体の種類の判定を行うようにした。
As described above, the object detection apparatus according to the first embodiment is based on the comparison between the change in the size of the area on the image captured by the
このように、実施例1の物体検出装置では、「車両」のみに限定されることなく様々な種類の物体を検出でき、しかも、このような様々な種類の物体を検出するにあたり、背景などの情報が入ることのない、信頼度の高い物体の種類判定が可能となる。 As described above, the object detection apparatus according to the first embodiment can detect various types of objects without being limited only to the “vehicle”. In addition, in detecting such various types of objects, It is possible to determine the type of object with high reliability and no information.
すなわち、画像情報の中から物体を抽出するにあたり、従来のように、物体の輪郭を抽出したり、図7に示すような物体を含む矩形を抽出したりする手段では、抽出部分に、背景部分や隣り合う他の物体を含むおそれがある。 That is, when extracting an object from image information, the means for extracting the outline of the object or extracting a rectangle including the object as shown in FIG. Or other adjacent objects.
このように、抽出部分に、検出対象である物体の他に、背景や隣り合う他の物体の情報が含まれてしまった場合、レーダ2による検波情報と不一致の部分が含まれ、物体との距離などの精度が低下するおそれがある。加えて、このように抽出した情報に基づいて物体の種類を判別する際に、その物体以外の物に関する情報が含まれていることから、種類の判別精度も低下するおそれがある。
As described above, when the extracted portion includes information on the background and other adjacent objects in addition to the object to be detected, a portion inconsistent with the detection information by the
さらに、本実施例1では、物体の検出の際に、「大きさ変化」を算出するが、このように背景などの情報が含まれると、背景のエッジなどが悪影響し、「大きさ変化」を誤って算出するおそれもある。 Furthermore, in the first embodiment, “size change” is calculated at the time of detecting an object. If information such as the background is included in this way, the edge of the background has an adverse effect, and “size change” is detected. May be erroneously calculated.
それに対し、本実施例1では、上述のように、画像上の物体のなかで、画像上の物体の中の一部の小領域を注目領域として抽出しているため、上述のような背景や隣り合う他の物体の情報が含まれるおそれが低くなり、従来のように、物体の輪郭や物体を含む矩形に基づいて物体検出を行うのに比べて物体検出精度が向上する。 On the other hand, in the first embodiment, as described above, a part of the small area in the object on the image is extracted as the attention area among the objects on the image. There is a low possibility that information on other objects adjacent to each other is included, and the object detection accuracy is improved as compared to the case where the object detection is performed based on the outline of the object or the rectangle including the object as in the conventional case.
しかも、物体の検出において、画像上の特定の小領域の情報に基づいて得られた「大きさ変化」と、検波情報で得られた同じ方位に存在する物体の「距離変化」と、を照合して、カメラ1とレーダ2とで同一の物体を検出していることの照合を行うようにしたため、カメラ1とレーダ2とで検出される物体の一致を精度の高いものとでき、いっそう物体検出精度の向上を図ることができる。
Moreover, in the detection of an object, the “size change” obtained based on the information of a specific small area on the image is collated with the “distance change” of the object existing in the same direction obtained from the detection information. Since the same object is detected by the
さらに、本実施例1では、レーダ2による計測点と一致した注目領域および計測点群との情報に基づいて、物体の種類を判定するようにしているため、車両以外の物体も検出できる。しかも、この判定に、検出対象となる物体以外の背景や隣り合う物体などの情報が含まれる可能性が低く、従来のように、物体の輪郭や物体を含む矩形の情報に基づいて物体の種類の判定を行うものに比べて、物体の種類の判定精度を向上させることができる。
Further, in the first embodiment, since the type of the object is determined based on the information of the attention area and the measurement point group that coincides with the measurement point by the
また、本実施例1では、物体の種類の判定として、データベースに保管された判定特性情報に基づいて判定を行うようにしているため、判定の処理の簡略化を図ることができる。しかも、この判定に、縦・横エッジ、エッジ強度、方向ベクトル分散、反射強度、相対速度を用いるようにしているため、人物PE、他車両AB、二輪車MS、道路構造物(壁WO)を識別して判定することができる。 In the first embodiment, the determination of the object type is performed based on the determination characteristic information stored in the database, so that the determination process can be simplified. In addition, since vertical / horizontal edges, edge strength, direction vector dispersion, reflection strength, and relative speed are used for this determination, the person PE, the other vehicle AB, the two-wheeled vehicle MS, and the road structure (wall WO) are identified. Can be determined.
次に、図15に基づいて本発明の実施の形態の実施例2の物体検出装置について説明する。なお、この実施例2を説明するにあたり、前記実施例1と同一ないし均等な部分については、同一符号を付して、相違する部分を中心として説明する。 Next, an object detection apparatus according to Example 2 of the embodiment of the present invention will be described with reference to FIG. In the description of the second embodiment, the same or equivalent parts as those in the first embodiment will be denoted by the same reference numerals and different parts will be mainly described.
この実施例2の物体検出装置では、ステップS4の大きさ変化算出処理において画像上の物体から注目領域を抽出する手法が実施例1と異なる。 In the object detection apparatus according to the second embodiment, a technique for extracting a region of interest from an object on an image in the size change calculation process in step S4 is different from that in the first embodiment.
すなわち、実施例1では、画像上の物体の中の一部の領域を抽出していたが、本実施例2では、まず、図7(a)に示すような物体を含む矩形の物体判定領域SG1,SG2を形成した後、これを細分化して注目領域を設定する。 In other words, in the first embodiment, a partial area in the object on the image is extracted. In the second embodiment, first, a rectangular object determination area including an object as shown in FIG. After forming SG1 and SG2, they are subdivided to set a region of interest.
図15は、その一例を示しており、他車両ABが含まれる物体判定領域SG3を、さらに、縦方向および横方向のそれぞれで等間隔の分割線BLにより細分化し、この細分化された各細分化領域を注目領域TRとする。 FIG. 15 shows an example, and the object determination area SG3 including the other vehicle AB is further subdivided into equally divided dividing lines BL in each of the vertical direction and the horizontal direction, and each of the subdivided subdivisions. The activated region is defined as a region of interest TR.
そして、ステップS5の物体検出処理において、「大きさ変化」と「距離変化」とによる照合を行って、反比例という相関性がとれた注目領域TRのみを、種類判定用領域RSGとする。 Then, in the object detection process in step S5, collation based on “size change” and “distance change” is performed, and only the attention region TR having an inversely proportional correlation is set as the type determination region RSG.
したがって、その後の種類判定処理では、種類判定用領域RSGの画像情報が他車両ABの判定に用いられる。 Therefore, in the subsequent type determination process, the image information of the type determination region RSG is used for determination of the other vehicle AB.
なお、実施例2では、他の構成は実施例1と同様であるので説明を省略する。 In the second embodiment, the other configuration is the same as that of the first embodiment, and thus the description thereof is omitted.
本実施例2では、注目領域TRの設定が、物体を含む矩形の物体判定領域SGを単純に分割するだけであるので、処理が単純で、処理速度の向上あるいは処理に要する構成の簡略化を図ることができる。 In the second embodiment, the setting of the attention area TR simply divides the rectangular object determination area SG including the object, so that the processing is simple and the processing speed is improved or the configuration required for the processing is simplified. Can be planned.
また、物体の種類の判定には、このように大まかに設定した複数の注目領域TRのうちで、「大きさ変化」と「距離変化」とが相関する種類判定用領域RSGのみの情報に基づいて物体の種類の判定を行うため、実施例1と同様に、物体の種類の判定に検出対象となる物体以外の情報が含まれにくくなり、物体の検出精度の向上を図ることができ、かつ、物体の種類の判定精度を向上させることができる。 The object type is determined based on only information of the type determination region RSG in which “size change” and “distance change” correlate among the plurality of attention regions TR roughly set as described above. Since the object type is determined, the object type determination is less likely to include information other than the object to be detected, and the object detection accuracy can be improved, as in the first embodiment, and The accuracy of determining the type of object can be improved.
次に、本発明の実施の形態の実施例3の物体検出装置について説明する。なお、この実施例3を説明するにあたり、前記実施例1と同一ないし均等な部分については、同一符号を付して、相違する部分を中心として説明する。 Next, an object detection apparatus according to Example 3 of the embodiment of the present invention will be described. In the description of the third embodiment, the same or equivalent parts as those in the first embodiment will be denoted by the same reference numerals and different parts will be mainly described.
この実施例3の物体検出装置では、物体検出処理の内容が実施例1と相違している。すなわち、実施例3では、実施例1の物体検出処理と並列に以下の処理を実行し、「大きさ変化」と「距離変化」とに基づく照合を行う前に物体検出と判断する処理を追加した。 In the object detection apparatus of the third embodiment, the contents of the object detection process are different from those of the first embodiment. That is, in the third embodiment, the following processing is executed in parallel with the object detection processing of the first embodiment, and processing for determining object detection before performing collation based on “size change” and “distance change” is added. did.
詳細には、ステップS3の物体存在判定処理において、画像情報から得られたエッジ強度および検波情報から得られた反射強度が、あらかじめ設定されたしきい値よりも高く、何れか単独の検出結果であっても信頼度が高い場合には、即時に物体の検出と判定する。 Specifically, in the object presence determination process in step S3, the edge intensity obtained from the image information and the reflection intensity obtained from the detection information are higher than a preset threshold value, and any one of the detection results Even if the reliability is high, it is immediately determined that the object is detected.
これにより、霧や雨・雪や逆光などにより、カメラ1とレーダ2とのうちで、いずれか一方の検出信頼性が低い状況でも、物体の検出が可能となる。
Thereby, it is possible to detect an object even in a situation where detection reliability of either one of the
しかも、本実施例3では、カメラ1とレーダ2との一方のみで物体の検出を行う際は、信頼度を確保できるしきい値を設定しているため、両者1,2の一方のみの検出であっても、高い信頼度を確保することができる。
Moreover, in the third embodiment, when an object is detected by only one of the
次に、本発明の実施の形態の実施例4の物体検出装置について説明する。なお、この実施例4を説明するにあたり、前記実施例1と同一ないし均等な部分については、同一符号を付して、相違する部分を中心として説明する。 Next, an object detection apparatus according to Example 4 of the embodiment of the present invention will be described. In the description of the fourth embodiment, the same or equivalent parts as those in the first embodiment will be denoted by the same reference numerals and different parts will be mainly described.
この実施例4では、図3の変換処理部12の情報変換処理の内容の一部が実施例1と異なる。すなわち、実施例4では、変換処理部12において、画像情報と検波情報に対して、方向微分、時系列微分および時系列積分をかける処理を行う。
In the fourth embodiment, a part of the contents of the information conversion process of the
なお、画像の微分は、図8に示したフィルタとのコンボリューションを求める。また、レーダ2の計測値を微分する場合は、例えば、隣り合う計測点の反射強度の差を求めるなどの単純処理を適用すればよい。また、時系列的な微分および積分は、或る注目画素や計測点に注目し、連続して入力されるその注目点の画素または計測点の差分あるいは加算値を微分値および積分値として算出する。
In addition, the differentiation of an image calculates | requires convolution with the filter shown in FIG. Further, when differentiating the measurement value of the
以上のように、本実施例4では、エッジに、たまたま欠損が生じるような状況であっても、積分値が用いられることで、このような欠損を防いで安定した物体の検出が可能となる。 As described above, according to the fourth embodiment, even if a defect occurs in the edge by chance, the integral value is used, so that it is possible to detect such a stable object while preventing such a defect. .
また、あらかじめ微分値が算出されていることで、図7(a)に示す物体判定領域SG1,SG2の情報として、輝度値に替えて微分画像を用いるか、あるいは、輝度値と微分画像との両方を用いることで、直線成分の検出を、より正確に行うことができる。 Further, since the differential value is calculated in advance, a differential image is used instead of the luminance value as information of the object determination areas SG1 and SG2 shown in FIG. 7A, or the luminance value and the differential image are changed. By using both, the detection of the linear component can be performed more accurately.
次に、図16,17に基づいて本発明の実施の形態の実施例5の物体検出装置について説明する。なお、この実施例5を説明するにあたり、前記実施例1と同一ないし均等な部分については、同一符号を付して、相違する部分を中心として説明する。 Next, an object detection apparatus according to Example 5 of the embodiment of the present invention will be described with reference to FIGS. In the description of the fifth embodiment, the same or equivalent parts as those in the first embodiment will be denoted by the same reference numerals and different parts will be mainly described.
この実施例5は、図3に示される種類判定処理部17における種類判定処理が実施例1とは異なる。
The fifth embodiment is different from the first embodiment in the type determination processing in the type
すなわち、実施例5では、物体の種類判定には、カメラ1からの画像情報として、エッジの方位分散、水平エッジ強度、輝度分散、輝度平均、垂直エッジ強度が用いられ、また、レーダ2からの検波情報として、反射強度分散、反射強度平均、輝度分散が用いられるもので、これらを総称して特徴量と呼ぶ。
That is, in the fifth embodiment, for the object type determination, edge orientation dispersion, horizontal edge strength, luminance dispersion, luminance average, and vertical edge strength are used as image information from the
そして、本実施例5では、物体の種類の判定に、これら特徴量の割合を用いる。すなわち、本実施例5では、物体の種類別に、実験結果に基づく平均的な特徴量の割合を示す判定特性情報が図外のデータベースに保管されている。 In the fifth embodiment, the ratio of these feature amounts is used for determining the type of object. That is, in the fifth embodiment, determination characteristic information indicating the average feature amount ratio based on the experiment result is stored in a database (not shown) for each object type.
図16は、データベースに保管された判定特性情報の一例を示しており、(a)が他車両ABの判定特性情報、(b)が人物PEの判定特性情報を示している。 FIG. 16 shows an example of the determination characteristic information stored in the database. (A) shows the determination characteristic information of the other vehicle AB, and (b) shows the determination characteristic information of the person PE.
そして、実際に検出された注目領域R0〜R3および計測点群P0〜P3などの特徴量の割合を算出し、それらの結果と保管された判定特性情報とを比較することで、物体の種類の判定を行う。 Then, by calculating the ratio of the characteristic amounts of the attention areas R0 to R3 and the measurement point groups P0 to P3 that are actually detected, and comparing the results with the stored determination characteristic information, Make a decision.
また、図17は、特徴量の割合の検出例を示している。図17において、(a)は図11の他車両ABを検出した計測点P1および注目領域R1における特徴量の種類別の割合を示している。また、同図(b)は、図11の人物PEの計測点群P0と注目領域R0において求めた縦横エッジや反射強度などの特徴量の種類別の割合を示している。 FIG. 17 shows a detection example of the feature amount ratio. In FIG. 17, (a) shows the ratios by type of feature amounts at the measurement point P1 where the other vehicle AB in FIG. 11 is detected and the attention area R1. FIG. 7B shows the ratios of the feature points such as vertical and horizontal edges and reflection intensity obtained in the measurement point group P0 and the attention area R0 of the person PE in FIG.
これら図16、図17を参照すると分かるように、他車両ABは、水平線などの直線エッジが多く、反射強度が強く、エッジの方向ベクトル分散が小さい。また、人物PEは、エッジは少ないが、方向ベクトル分散が大きく、反射強度が強い。このように、物体の種類により、特徴量の割合が異なる。 As can be seen with reference to FIGS. 16 and 17, the other vehicle AB has many straight edges such as a horizontal line, strong reflection intensity, and small edge direction vector dispersion. Further, the person PE has few edges, but has a large direction vector dispersion and a high reflection intensity. Thus, the ratio of the feature amount varies depending on the type of object.
そこで、本実施例5のように、保管データと、検出した物体との特徴量の割合を比較することで、高い精度で物体の種類を判定することができる。 Therefore, as in the fifth embodiment, the type of the object can be determined with high accuracy by comparing the ratio of the feature amount between the stored data and the detected object.
なお、上述の特徴量の割合をバーグラフ上の値として、処理するにあたっては、以下に述べる処理を行う。 The processing described below is performed when processing the above-described feature amount ratio as a value on the bar graph.
まず、縦横エッジ数ECT、反射強度LCT、エッジの方向ベクトル分散値EVを算出する。なお、これらの縦横エッジ数、反射強度、エッジの方向ベクトル分散値には、それぞれに、あらかじめ基準値ECT0、LCT0、EV0を設定しておく。 First, the number of vertical and horizontal edges ECT, the reflection intensity LCT, and the edge direction vector dispersion value EV are calculated. The reference values ECT0, LCT0, and EV0 are set in advance for the number of vertical and horizontal edges, reflection intensity, and edge direction vector dispersion value, respectively.
次に、各値について、算出値と基準値との比、ECT/ECT0(=RE)、LCT/LCT0(=RL)、EV/EV0(=RV)を算出する。
次に、算出比の総和W=RE+RL+RVを算出する。
Next, for each value, the ratio between the calculated value and the reference value, ECT / ECT0 (= RE), LCT / LCT0 (= RL), EV / EV0 (= RV) is calculated.
Next, the sum of the calculation ratios W = RE + RL + RV is calculated.
さらに、総和Wに対する各比の割合、すなわち、RE/W、RL/W、RV/Wを算出する。
最後に、これらの値RE/W、RL/W、RV/Wを、図17に示すように、バーグラフとして処理する。
Further, the ratio of each ratio to the total sum W, that is, RE / W, RL / W, and RV / W are calculated.
Finally, these values RE / W, RL / W, and RV / W are processed as a bar graph as shown in FIG.
以上のように、実施例5では、物体の種類の判別を特徴量の割合により行うことで、精度の高い判別が可能となる。 As described above, in the fifth embodiment, it is possible to determine with high accuracy by determining the type of the object based on the ratio of the feature amount.
また、判別する物体の種類を増加あるいは変更する場合などでも、データベースに保管した特徴量を示すデータを変更あるいは増加するだけで対応可能であり、判別する物体の種類の変更が容易である。 Further, even when the type of the object to be discriminated is increased or changed, it can be dealt with by simply changing or increasing the data indicating the feature quantity stored in the database, and the type of the object to be discriminated can be easily changed.
次に、図18に基づいて本発明の実施の形態の実施例6の物体検出装置について説明する。なお、この実施例6を説明するにあたり、前記実施例1と同一ないし均等な部分については、同一符号を付して、相違する部分を中心として説明する。 Next, an object detection apparatus according to Example 6 of the embodiment of the present invention will be described with reference to FIG. In the description of the sixth embodiment, the same or equivalent parts as those in the first embodiment will be denoted by the same reference numerals and different parts will be mainly described.
この実施例6は、図3の種類判定処理部17における物体の種類を判定する領域の設定が実施例1と異なる。すなわち、実施例6では、他車両ABのように横長の物体や壁WOのように物体を示す領域が画像内で大きく区切られた物体について、物体の端縁部と内部との2箇所に種類判定用領域を設定するように構成されている。
The sixth embodiment is different from the first embodiment in setting the region for determining the type of object in the type
この一例を図18に示しており、他車両ABと壁WOについて、それぞれ、物体の端縁部に配置された端部種類判定用領域TR1,TR2と、物体の内部に配置された内部種類判定用領域NR1,NR2とが設定されている。 An example of this is shown in FIG. 18, for the other vehicle AB and the wall WO, respectively, end type determination regions TR1 and TR2 arranged at the edge of the object, and internal type determination arranged inside the object. The use areas NR1 and NR2 are set.
これら各領域TR1,TR2,NR1,NR2の設定は、実施例2で説明した処理を用いて設定される。すなわち、まず、実施例2で説明したように、物体(この例の場合、他車両ABおよび壁WO)を含む広範囲の物体判定領域を設定し、これを細分化して注目領域が設定され。そして、各注目領域について、「大きさ変化」と「距離変化」との照合を行い、相関性が得られた領域が、種類判定用領域として設定される。ここまでは、実施例2と同様の処理である。 These areas TR1, TR2, NR1, and NR2 are set using the processing described in the second embodiment. That is, first, as described in the second embodiment, a wide range of object determination areas including objects (in this example, the other vehicle AB and the wall WO) are set, and this is subdivided to set the attention area. Then, for each region of interest, “size change” and “distance change” are collated, and the region where the correlation is obtained is set as the type determination region. Up to this point, the processing is the same as in the second embodiment.
さらに、本実施例6では、得られた種類判定用領域から、物体の端縁の示す強いエッジを有する部分を含む領域と、この端縁を示すエッジよりも内側に配置された領域と、が抽出される。このように抽出された前者の領域が端部種類判定用領域TR1,TR2であり、後者の領域が内部種類判定用領域NR1,NR2である。 Further, in the sixth embodiment, from the obtained type determination area, an area including a portion having a strong edge indicated by the edge of the object, and an area arranged inside the edge indicating the edge are Extracted. The former areas extracted in this way are the end type determination areas TR1 and TR2, and the latter areas are the internal type determination areas NR1 and NR2.
なお、人物PEや二輪車MSのように細長い物体や、もともと小さな物体などは、物体端を含む領域を設けると、背景を多く含んでしまうおそれが強い。そこで、上述の横長および画像内で大きく区切られた物体以外の、細長い物体や小さな物体などは、物体端に特徴量無しとし、実施例2と同様に、物体内部に設定された種類判定用領域の情報のみを用いて物体の検出およびその種類判定が行われるようになっている。 It should be noted that an elongated object such as the person PE or the two-wheeled vehicle MS or an originally small object is likely to include a lot of background if an area including the object end is provided. Therefore, in the case of long objects and small objects other than the above-mentioned horizontally long and largely separated objects in the image, the feature amount is not present at the object end, and the type determination area set inside the object as in the second embodiment. An object is detected and its type is determined using only this information.
また、物体の種類判定は、実施例5で説明した、特徴量の割合を示す判定特性情報に基づいて行われる。この場合、物体の種類により端縁部と内部とで、特徴量の割合が異なって設定されている。 The object type determination is performed based on the determination characteristic information indicating the ratio of the feature amount described in the fifth embodiment. In this case, the ratio of the feature amount is set differently between the edge portion and the inside depending on the type of the object.
すなわち、画像情報において、他車両ABでは、物体端が、強いエッジを持つのに対し、内部は、バンパなどエッジを有する部分と、窓ガラス面やボディ面などのエッジを持たない部分とが存在する。 That is, in the other vehicle AB, in the image information, the object end has a strong edge, while the inside has a portion having an edge such as a bumper and a portion having no edge such as a window glass surface or a body surface. To do.
また、壁WOや図外の建物などの人工物も、他車両ABと同様に、物体端に直線性を有するのに対し、内部は、エッジやテクスチャを有していなかったり、エッジやテクスチャがあっても、それが弱かったりする場合がある。 In addition, as with other vehicles AB, the artifacts such as the wall WO and the building outside the figure have linearity at the object end, but the interior does not have an edge or texture, or the edge or texture is not. Even if it is, it may be weak.
そこで、同じ種類の物体であっても、判定特性情報が、端縁部と内部とで、異なって設定されている。 Therefore, even for the same type of object, the determination characteristic information is set differently between the edge portion and the inside.
以上説明したとおり、実施例6の物体検出装置にあっては、物体の端縁部と内部とに設定された端部種類判定用領域TR1,TR2と、内部種類判定用領域NR1,NR2とで得られる画像情報に基づいて、物体の種類の判定を行うようにした。このため、物体の特徴をより明確に把握することができ、物体の検出精度および種類の判定精度を向上させることができる。 As described above, in the object detection apparatus according to the sixth embodiment, the edge type determination regions TR1 and TR2 set in the edge and inside of the object and the internal type determination regions NR1 and NR2 are used. The type of the object is determined based on the obtained image information. For this reason, the feature of the object can be grasped more clearly, and the object detection accuracy and the type determination accuracy can be improved.
次に、図19,20に基づいて本発明の実施の形態の実施例7の物体検出装置について説明する。なお、この実施例7を説明するにあたり、前記実施例1と同一ないし均等な部分については、同一符号を付して、相違する部分を中心として説明する。 Next, an object detection apparatus according to Example 7 of the embodiment of the present invention will be described with reference to FIGS. In the description of the seventh embodiment, the same or equivalent parts as those of the first embodiment will be denoted by the same reference numerals and different parts will be mainly described.
この実施例7は、図3に示す物体検出処理部16では、同じ方位で距離が異なる位置に複数の物体を示す計測点が存在した場合には、同方位処理が実行される。すなわち、同じ方位に複数の物体が存在する場合、後方の物体の全体が手前の物体に隠れていない場合には、これら後方に存在する物体も、レーダ2により計測される。
In the seventh embodiment, the object
図19(a)は、このようなレーダ2の計測例を示しており、方位αの方向に、手前側から順に、人物PEの計測点群P00、他車両ABの計測点群P01、壁WOの計測点群P02が、方位αの距離z0、z1、z2に存在している。なお、これは図11に示したのと同様の計測例を示している。
FIG. 19A shows a measurement example of such a
また、図19(b)は、カメラ1で撮像した画像を示しており、図中Hαは、レーダ2の方位αに相当する画像上の領域を示している。この図19(b)に示すように、画像上の領域Hαでは、手前の人物PEの陰に、他車両ABと壁WOの一部が隠れている。なお、同図において、画像上の縦の点線は、レーダ2のスキャニング分解能の単位を画像上に対応させた範囲を示している。
FIG. 19B shows an image captured by the
本実施例7では、図示のように同じ方位αの異なる距離に複数の物体が存在する場合には、これら同じ方位αに存在する物体を区別する同方位処理を実行する。 In the seventh embodiment, when there are a plurality of objects at different distances in the same azimuth α as shown in the figure, the same azimuth processing for distinguishing these objects in the same azimuth α is executed.
図20のフローチャートは、実施例7の物体検出処理の流れを示すもので、ステップS71では、同じ方位で異なる距離に複数の計測点が存在するか否か判定し、複数存在すると判定された場合には、ステップS72の同方位処理を実行する。一方、同じ方位で異なる距離に計測点が複数存在しない場合には、ステップS73の通常処理に進む。なお、この通常処理は、実施例1で説明した物体検出処理である。 The flowchart of FIG. 20 shows the flow of the object detection process of the seventh embodiment. In step S71, it is determined whether or not there are a plurality of measurement points at different distances in the same direction. In step S72, the same direction process is executed. On the other hand, if there are not a plurality of measurement points at different distances in the same direction, the process proceeds to the normal process of step S73. This normal process is the object detection process described in the first embodiment.
次に、ステップS72の同方位処理について説明する。この同方位処理は、距離の異なる計測点ごと(図19の計測点群P00,P01,P02ごと)に、「距離変化」と「大きさ変化」と照合して、距離の近い順に、画像上の物体を示す物体領域を設定する処理である。 Next, the same direction processing in step S72 will be described. This azimuth processing is performed by checking “distance change” and “size change” for each measurement point having different distances (for each measurement point group P00, P01, P02 in FIG. 19) on the image in ascending order of distance. This is a process of setting an object region indicating the object.
すなわち、まず、最も手前の物体(人物PE)の計測点群P00の「距離変化」と各注目領域の大きさ変化とを照合し、相関性(反比例の関係)を有する注目領域であって、方位αが含まれる領域を、手前の物体(人物PE)を示す物体領域R00とする。なお、本実施例7では、物体領域の設定にあたり、矩形の領域として設定するようにしている。 That is, first, the “distance change” of the measurement point group P00 of the closest object (person PE) is collated with the size change of each region of interest, and the region of interest has a correlation (inverse proportional relationship). A region including the direction α is defined as an object region R00 indicating a front object (person PE). In the seventh embodiment, the object area is set as a rectangular area.
次に、方位αにおいて、2番目に近い物体の計測点群P01の「距離変化」と、残りの注目領域の「大きさ変化」との照合を行うが、この場合、上記物体領域R00に含まれる注目領域は除外して行われる。 Next, in the azimuth α, the “distance change” of the measurement point group P01 of the second closest object is collated with the “size change” of the remaining attention area. In this case, the object area R00 includes the object area R00. The attention area is excluded.
さらに、この2番目に近い物体(この例では、他車両AB)の計測点群P01における「距離変化」に相関する注目領域が決定されたら、この注目領域を含む物体領域R01を設定する。この物体領域R01は、先に設定された人物PEの物体領域R00とは重ることのないように設定される。 Furthermore, when a region of interest correlating with the “distance change” in the measurement point group P01 of this second closest object (in this example, the other vehicle AB) is determined, an object region R01 including this region of interest is set. This object region R01 is set so as not to overlap with the object region R00 of the person PE set previously.
次に、3番目に近い計測点群P02についても、1番目および2番目に設定された物体領域R00,R01の外の注目領域について、上記と同様の距離変化と大きさ変化との照合を行い、その物体の物体領域R02が設定される。 Next, for the third closest measurement point group P02, the same distance change and size change as above are collated for the attention area outside the first and second object areas R00 and R01. , The object region R02 of the object is set.
以上のように、各物体について物体領域R00,R01,R02が設定されたら、この物体領域R00,R01,R02および計測点群P00,P01,P02が有する情報に基づいて、物体の検出を行い、また、物体の種類の判定が行われる。この物体検出および種類の判定は、実施例1と同様の処理であるので、説明を省略する。 As described above, when the object areas R00, R01, R02 are set for each object, the object is detected based on the information contained in the object areas R00, R01, R02 and the measurement point groups P00, P01, P02. Also, the type of object is determined. Since this object detection and type determination are the same processing as in the first embodiment, the description thereof is omitted.
以上のように、本実施例7では、同方位で異なる距離に複数の物体が計測される場合には、画像上に設定される物体領域R00,R01,R02は、確実に手前の物体の画像とは区別される。したがって、その後の、物体検出処理および種類判定処理において、誤って手前の物体が有する情報が抽出されて、物体検出や物体の種類判定が成されることがない。よって、物体の検出精度がさらに向上する。 As described above, in the seventh embodiment, when a plurality of objects are measured in the same direction and at different distances, the object regions R00, R01, and R02 set on the image are reliably images of the object in the foreground. It is distinguished from Therefore, in the subsequent object detection process and type determination process, information held by the object in front is erroneously extracted, and object detection and object type determination are not performed. Therefore, the object detection accuracy is further improved.
以上、図面を参照して、本発明の実施の形態および実施例1ないし実施例7を詳述してきたが、具体的な構成は、この実施の形態および実施例1ないし実施例7に限らず、本発明の要旨を逸脱しない程度の設計的変更は、本発明に含まれる。 The embodiment of the present invention and Examples 1 to 7 have been described in detail above with reference to the drawings, but the specific configuration is not limited to this embodiment and Examples 1 to 7. Design changes that do not depart from the gist of the present invention are included in the present invention.
例えば、実施例1〜7では、本発明の物体検出方法および物体検出装置として、車両に搭載して実行するものを示したが、これに限定されず、産業ロボットなど車両以外にも適用することができる。 For example, in the first to seventh embodiments, the object detection method and the object detection device of the present invention are implemented by being mounted on a vehicle. However, the present invention is not limited to this, and the present invention is applicable to other than industrial vehicles such as industrial robots. Can do.
また、物体存在判定処理において、画像情報に基づく判定は、実施例1では、オプティカルフローにより同じ動きが集中している部分を物体とする例を示したが、これに限定されない。例えば、
a.ある物体のモデルを定義し、物体検出用のテンプレートを用意した上で、そのテンプレートとの類似性より検出する。
b.Hough変換などの直線を検出する手段を利用し、直線が多く存在する領域を物体とする。
c.色領域により検出する。
あるいは、特開2004−235711号公報、特開平11−345336号公報に記載された技術を用いることができる。
Further, in the object presence determination process, the determination based on the image information has shown an example in which the portion where the same movement is concentrated by the optical flow is an object in the first embodiment, but is not limited thereto. For example,
a. A model of an object is defined, a template for object detection is prepared, and detection is performed based on similarity to the template.
b. Using a means for detecting a straight line such as Hough transform, an area where there are many straight lines is defined as an object.
c. Detect by color area.
Or the technique described in Unexamined-Japanese-Patent No. 2004-235711 and Unexamined-Japanese-Patent No. 11-345336 can be used.
また、実施例2では、矩形の物体判定領域SG3を細分化するにあたり、図では略等分割した例を示したが、これに限定されない。例えば、矩形の物体判定領域SG3内において観測されるエッジなどに基づいて、ランダムに細分化してもよい。 Further, in the second embodiment, the example in which the rectangular object determination region SG3 is subdivided in the figure is shown in the drawing, but the present invention is not limited to this. For example, you may subdivide at random based on the edge etc. which are observed in the rectangular object determination area | region SG3.
1 カメラ(画像取得手段)
1b レンズ
1a 撮像面
2 レーダ(検波情報取得手段)
11 メモリ
11a リヤウインドウ
11c リヤバンパ
11b トランクリッド
11d ナンバプレート
12 変換処理部
13 物体存在判定処理部
14 距離変化算出処理部
15 大きさ変化算出処理部
16 物体検出処理部
17 種類判定処理部
CU コントロールユニット(物体検出手段)
1 Camera (image acquisition means)
11
Claims (13)
前記画像情報に基づいて、画像上の物体を示す領域の大きさの変化を求めるとともに、前記検波情報に基づいて、前記検波情報取得手段と物体との距離変化を求め、
求めた大きさ変化と距離変化とを照合し、両者の相関性が得られた場合に物体検出と判定し、
相関性が得られた領域の画像情報と検波情報との少なくとも一方に基づいて物体の種類を判定することを特徴とする物体検出方法。 Acquiring image information related to the object in the object detection target area from the image information acquisition means, and acquiring detection information related to the object obtained by scanning the object detection target area with the detection wave from the detection information acquisition means,
Based on the image information, a change in the size of an area indicating the object on the image is obtained, and on the basis of the detection information, a change in the distance between the detection information acquisition unit and the object is obtained,
Check the change in size and the change in distance, and if the correlation between the two is obtained, it is determined that the object is detected,
An object detection method comprising: determining a type of an object based on at least one of image information and detection information of a region where a correlation is obtained.
物体検出対象領域を検出波で走査して得られた検出波の反射に基づく物体に関する検波情報を取得する検波情報取得手段と、
前記画像情報および検波情報に基づいて物体を検出する物体検出手段と、
を備えた物体検出装置であって、
前記物体検出手段が、
前記画像情報および検波情報を取得する取得処理と、
前記画像上の物体を示す領域である注目領域の大きさの変化を求めるとともに、前記検波情報から得られた計測点上の物体と前記検波情報取得手段との距離変化を算出する変化算出処理と、
前記大きさ変化と距離変化とに基づいて物体検出を行う物体検出処理と、
物体が検出された場合、前記注目領域内の画像情報と、前記計測点の検波情報との少なくとも一方に基づいて物体の種類を判定する種類判定処理と、
を実行することを特徴とする物体検出装置。 Image information acquisition means for acquiring image information relating to an object in the object detection target area;
Detection information acquisition means for acquiring detection information about an object based on reflection of a detection wave obtained by scanning an object detection target region with a detection wave;
Object detection means for detecting an object based on the image information and detection information;
An object detection device comprising:
The object detection means is
An acquisition process for acquiring the image information and the detection information;
A change calculation process for calculating a change in the size of a region of interest that is an area indicating an object on the image, and calculating a change in a distance between the object on the measurement point obtained from the detection information and the detection information acquisition unit; ,
An object detection process for performing object detection based on the size change and the distance change;
When an object is detected, a type determination process for determining the type of the object based on at least one of the image information in the attention area and the detection information of the measurement point;
The object detection apparatus characterized by performing.
この同方位処理は、まず、一番手前の計測点の距離変化と、同方位およびその近傍の物体の注目領域の大きさ変化との照合を行い、距離変化と相関のある大きさ変化を示す注目領域が含まれる画像上の物体の領域を一番手前の物体領域として設定し、以後、次に近い計測点における距離変化と、設定された物体領域を除いた同方位およびその近傍の物体の注目領域の大きさ変化との照合を行い、相関性がとれた注目領域が含まれる画像上の物体の領域を次に近い物体領域として設定するという処理を、残りの計測点の数だけ順次繰り返す処理であることを特徴とする請求項2〜7のいずれか1項に記載の物体検出装置。 In the object detection process, when there are a plurality of measurement points indicating the object at different positions in the same direction, the same direction process is executed.
This azimuth processing first collates the distance change of the nearest measurement point with the size change of the attention area of the object in the same direction and its vicinity, and shows a magnitude change correlated with the distance change. The region of the object on the image that includes the region of interest is set as the foremost object region. After that, the distance change at the next closest measurement point, the same direction excluding the set object region, and the object in the vicinity The process of collating with the size change of the region of interest and setting the object region on the image containing the correlated region of interest as the next closest object region is repeated sequentially for the number of remaining measurement points. The object detection apparatus according to claim 2, wherein the object detection apparatus is a process.
前記種類判定処理において、前記変換手段で得られた微分情報と積分情報との少なくとも一方を用いることを特徴とする請求項2〜8のいずれか1項に記載の物体検出装置。 The object detection means includes a conversion means for performing differential conversion or integral conversion of at least one of the image information and detection information in a time-series direction or detection information in an arbitrary direction on a scan plane,
9. The object detection apparatus according to claim 2, wherein at least one of differential information and integral information obtained by the conversion unit is used in the type determination process.
前記物体検出手段は、前記種類判定処理において、前記画像情報および前記検波情報とあらかじめ保管された前記判定特性情報との比較に基づいて物体の種類の判定を行うことを特徴とする請求項2〜10のいずれか1項に記載の物体検出装置。 In the object detection means, determination characteristic information regarding the correlation between the object and the information is stored for each type of object to be determined,
3. The object detection unit according to claim 2, wherein in the type determination process, the type of the object is determined based on a comparison between the image information and the detection information and the determination characteristic information stored in advance. The object detection device according to any one of 10.
前記物体検出手段は、前記種類判定処理において、基準値に対する取得された情報の割合を算出し、この算出された割合と、保管された情報の割合と、の比較に基づいて物体の種類の判定を行うことを特徴とする請求項12に記載の物体検出装置。 The determination characteristic information is information indicating a ratio of the image information and the detection information with respect to a predetermined reference value set for each type of object,
In the type determination process, the object detection unit calculates a ratio of acquired information with respect to a reference value, and determines the type of object based on a comparison between the calculated ratio and a stored ratio of information. The object detection apparatus according to claim 12, wherein:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006078485A JP4857839B2 (en) | 2006-03-22 | 2006-03-22 | Object detection device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006078485A JP4857839B2 (en) | 2006-03-22 | 2006-03-22 | Object detection device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007255978A true JP2007255978A (en) | 2007-10-04 |
JP4857839B2 JP4857839B2 (en) | 2012-01-18 |
Family
ID=38630383
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006078485A Expired - Fee Related JP4857839B2 (en) | 2006-03-22 | 2006-03-22 | Object detection device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4857839B2 (en) |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007255979A (en) * | 2006-03-22 | 2007-10-04 | Nissan Motor Co Ltd | Object detection method and object detector |
JP2007315814A (en) * | 2006-05-23 | 2007-12-06 | Nissan Motor Co Ltd | Object detection method and object detecting device |
JP2009186260A (en) * | 2008-02-05 | 2009-08-20 | Nissan Motor Co Ltd | Object detecting device and distance measuring method |
JP2010062768A (en) * | 2008-09-02 | 2010-03-18 | Toyota Motor Corp | Night view system |
JP2010244474A (en) * | 2009-04-09 | 2010-10-28 | Hitachi Automotive Systems Ltd | External world recognition device of automobile |
JP2010250644A (en) * | 2009-04-17 | 2010-11-04 | Sumitomo Electric Ind Ltd | Road-vehicle communication system |
JP2011099683A (en) * | 2009-11-04 | 2011-05-19 | Hitachi Automotive Systems Ltd | Body detector |
WO2011093160A1 (en) * | 2010-01-28 | 2011-08-04 | 株式会社日立製作所 | Environment recognizing device for vehicle |
JP2013020295A (en) * | 2011-07-07 | 2013-01-31 | Honda Motor Co Ltd | Vehicle periphery monitoring device |
JP2016223872A (en) * | 2015-05-29 | 2016-12-28 | 三菱電機株式会社 | Object Identification Device |
WO2018151211A1 (en) * | 2017-02-15 | 2018-08-23 | 株式会社Preferred Networks | Point group data processing device, point group data processing method, point group data processing program, vehicle control device, and vehicle |
JP2019207161A (en) * | 2018-05-29 | 2019-12-05 | 株式会社Soken | Object detection device |
CN110795984A (en) * | 2018-08-01 | 2020-02-14 | 松下电器(美国)知识产权公司 | Information processing method, information processing apparatus, and program recording medium |
JP2021047157A (en) * | 2019-09-20 | 2021-03-25 | 沖電気工業株式会社 | Object detector, object detection method and program |
WO2021254233A1 (en) * | 2020-06-15 | 2021-12-23 | 杭州海康微影传感科技有限公司 | Object detection method and camera device |
CN116400371A (en) * | 2023-06-06 | 2023-07-07 | 山东大学 | Indoor reflective transparent object position identification method and system based on three-dimensional point cloud |
US11776143B2 (en) | 2019-03-28 | 2023-10-03 | Nec Corporation | Foreign matter detection device, foreign matter detection method, and program |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09119982A (en) * | 1995-10-26 | 1997-05-06 | Mitsubishi Heavy Ind Ltd | Missile guiding system |
JPH10267618A (en) * | 1997-03-24 | 1998-10-09 | Nissan Motor Co Ltd | Distance measuring instrument |
JP2000266539A (en) * | 1999-03-15 | 2000-09-29 | Nissan Motor Co Ltd | Inter-vehicle distance measuring apparatus |
JP2004053278A (en) * | 2002-07-16 | 2004-02-19 | Nissan Motor Co Ltd | Front vehicle tracking system and front vehicle tracking method |
JP2004112144A (en) * | 2002-09-17 | 2004-04-08 | Nissan Motor Co Ltd | Front car tracking system and method for tracking front car |
JP2005121601A (en) * | 2003-10-20 | 2005-05-12 | Nissan Motor Co Ltd | Device for detecting object, and method therefor |
JP2006048435A (en) * | 2004-08-05 | 2006-02-16 | Nissan Motor Co Ltd | Image processor for vehicles |
JP2007255979A (en) * | 2006-03-22 | 2007-10-04 | Nissan Motor Co Ltd | Object detection method and object detector |
JP2007255977A (en) * | 2006-03-22 | 2007-10-04 | Nissan Motor Co Ltd | Object detection method and object detector |
-
2006
- 2006-03-22 JP JP2006078485A patent/JP4857839B2/en not_active Expired - Fee Related
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09119982A (en) * | 1995-10-26 | 1997-05-06 | Mitsubishi Heavy Ind Ltd | Missile guiding system |
JPH10267618A (en) * | 1997-03-24 | 1998-10-09 | Nissan Motor Co Ltd | Distance measuring instrument |
JP2000266539A (en) * | 1999-03-15 | 2000-09-29 | Nissan Motor Co Ltd | Inter-vehicle distance measuring apparatus |
JP2004053278A (en) * | 2002-07-16 | 2004-02-19 | Nissan Motor Co Ltd | Front vehicle tracking system and front vehicle tracking method |
JP2004112144A (en) * | 2002-09-17 | 2004-04-08 | Nissan Motor Co Ltd | Front car tracking system and method for tracking front car |
JP2005121601A (en) * | 2003-10-20 | 2005-05-12 | Nissan Motor Co Ltd | Device for detecting object, and method therefor |
JP2006048435A (en) * | 2004-08-05 | 2006-02-16 | Nissan Motor Co Ltd | Image processor for vehicles |
JP2007255979A (en) * | 2006-03-22 | 2007-10-04 | Nissan Motor Co Ltd | Object detection method and object detector |
JP2007255977A (en) * | 2006-03-22 | 2007-10-04 | Nissan Motor Co Ltd | Object detection method and object detector |
Cited By (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007255979A (en) * | 2006-03-22 | 2007-10-04 | Nissan Motor Co Ltd | Object detection method and object detector |
JP2007315814A (en) * | 2006-05-23 | 2007-12-06 | Nissan Motor Co Ltd | Object detection method and object detecting device |
JP2009186260A (en) * | 2008-02-05 | 2009-08-20 | Nissan Motor Co Ltd | Object detecting device and distance measuring method |
JP2010062768A (en) * | 2008-09-02 | 2010-03-18 | Toyota Motor Corp | Night view system |
JP2010244474A (en) * | 2009-04-09 | 2010-10-28 | Hitachi Automotive Systems Ltd | External world recognition device of automobile |
JP2010250644A (en) * | 2009-04-17 | 2010-11-04 | Sumitomo Electric Ind Ltd | Road-vehicle communication system |
JP2011099683A (en) * | 2009-11-04 | 2011-05-19 | Hitachi Automotive Systems Ltd | Body detector |
WO2011093160A1 (en) * | 2010-01-28 | 2011-08-04 | 株式会社日立製作所 | Environment recognizing device for vehicle |
JP2011154580A (en) * | 2010-01-28 | 2011-08-11 | Hitachi Automotive Systems Ltd | Vehicle surrounding recognition apparatus |
CN102741901A (en) * | 2010-01-28 | 2012-10-17 | 株式会社日立制作所 | Environment recognizing device for vehicle |
JP2013020295A (en) * | 2011-07-07 | 2013-01-31 | Honda Motor Co Ltd | Vehicle periphery monitoring device |
JP2016223872A (en) * | 2015-05-29 | 2016-12-28 | 三菱電機株式会社 | Object Identification Device |
WO2018151211A1 (en) * | 2017-02-15 | 2018-08-23 | 株式会社Preferred Networks | Point group data processing device, point group data processing method, point group data processing program, vehicle control device, and vehicle |
JPWO2018151211A1 (en) * | 2017-02-15 | 2019-12-12 | トヨタ自動車株式会社 | Point cloud data processing device, point cloud data processing method, point cloud data processing program, vehicle control device, and vehicle |
CN110573908A (en) * | 2017-02-15 | 2019-12-13 | 丰田自动车株式会社 | Point group data processing device, point group data processing method, point group data processing program, vehicle control device, and vehicle |
US11415698B2 (en) | 2017-02-15 | 2022-08-16 | Toyota Jidosha Kabushiki Kaisha | Point group data processing device, point group data processing method, point group data processing program, vehicle control device, and vehicle |
CN110573908B (en) * | 2017-02-15 | 2022-10-28 | 丰田自动车株式会社 | Point group data processing device, point group data processing method, point group data processing program, vehicle control device, and vehicle |
JP2019207161A (en) * | 2018-05-29 | 2019-12-05 | 株式会社Soken | Object detection device |
CN110795984A (en) * | 2018-08-01 | 2020-02-14 | 松下电器(美国)知识产权公司 | Information processing method, information processing apparatus, and program recording medium |
US11776143B2 (en) | 2019-03-28 | 2023-10-03 | Nec Corporation | Foreign matter detection device, foreign matter detection method, and program |
JP2021047157A (en) * | 2019-09-20 | 2021-03-25 | 沖電気工業株式会社 | Object detector, object detection method and program |
JP7259674B2 (en) | 2019-09-20 | 2023-04-18 | 沖電気工業株式会社 | OBJECT DETECTION DEVICE, OBJECT DETECTION METHOD AND PROGRAM |
WO2021254233A1 (en) * | 2020-06-15 | 2021-12-23 | 杭州海康微影传感科技有限公司 | Object detection method and camera device |
CN116400371A (en) * | 2023-06-06 | 2023-07-07 | 山东大学 | Indoor reflective transparent object position identification method and system based on three-dimensional point cloud |
CN116400371B (en) * | 2023-06-06 | 2023-09-26 | 山东大学 | Indoor reflective transparent object position identification method and system based on three-dimensional point cloud |
Also Published As
Publication number | Publication date |
---|---|
JP4857839B2 (en) | 2012-01-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4857839B2 (en) | Object detection device | |
JP3596314B2 (en) | Object edge position measuring device and moving object traffic judging device | |
JP6773540B2 (en) | In-vehicle image processing device | |
US7103213B2 (en) | Method and apparatus for classifying an object | |
JP4830604B2 (en) | Object detection method and object detection apparatus | |
JP5867273B2 (en) | Approaching object detection device, approaching object detection method, and computer program for approaching object detection | |
JP4857840B2 (en) | Object detection method and object detection apparatus | |
JP6151150B2 (en) | Object detection device and vehicle using the same | |
JP2007255977A (en) | Object detection method and object detector | |
JP3861781B2 (en) | Forward vehicle tracking system and forward vehicle tracking method | |
US10719699B2 (en) | Pedestrian detection method and system in vehicle | |
US20050232463A1 (en) | Method and apparatus for detecting a presence prior to collision | |
US20190276030A1 (en) | Object detection apparatus | |
JP6458651B2 (en) | Road marking detection device and road marking detection method | |
JP7413935B2 (en) | In-vehicle sensor system | |
JP2008123462A (en) | Object detector | |
JP2007156626A (en) | Object type determination device and object type determination method | |
US10672141B2 (en) | Device, method, system and computer-readable medium for determining collision target object rejection | |
JP2000266539A (en) | Inter-vehicle distance measuring apparatus | |
JP2009245042A (en) | Traffic flow measurement device and program | |
JP4857909B2 (en) | Object detection method and object detection apparatus | |
CN109711423A (en) | Method and motor vehicle for the shape recognition of object in the perimeter of motor vehicle | |
JP3586938B2 (en) | In-vehicle distance measuring device | |
JP5790627B2 (en) | Target detection device | |
JP4106163B2 (en) | Obstacle detection apparatus and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090204 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110408 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110419 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110614 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110719 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110908 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20111004 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20111017 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20141111 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |