JP4308405B2 - Object detection device - Google Patents

Object detection device Download PDF

Info

Publication number
JP4308405B2
JP4308405B2 JP2000118549A JP2000118549A JP4308405B2 JP 4308405 B2 JP4308405 B2 JP 4308405B2 JP 2000118549 A JP2000118549 A JP 2000118549A JP 2000118549 A JP2000118549 A JP 2000118549A JP 4308405 B2 JP4308405 B2 JP 4308405B2
Authority
JP
Japan
Prior art keywords
power
object detection
search area
wave radar
millimeter wave
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000118549A
Other languages
Japanese (ja)
Other versions
JP2001296357A (en
Inventor
明宏 太田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2000118549A priority Critical patent/JP4308405B2/en
Priority to US09/834,403 priority patent/US20010031068A1/en
Publication of JP2001296357A publication Critical patent/JP2001296357A/en
Priority to US11/188,160 priority patent/US7376247B2/en
Application granted granted Critical
Publication of JP4308405B2 publication Critical patent/JP4308405B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Geophysics And Detection Of Objects (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、物体検出装置に関する。本発明の物体検出装置は、例えば、自動車に搭載され、先行車両、障害物等を検出することにより、ドライバによる自動車の走行を支援する装置として使用される。
【0002】
【従来の技術】
従来の物体検出装置は、ミリ波レーダでのターゲット検出結果と、画像処理でのターゲット検出結果との双方の結果を用いてデータの信頼性を検討し、最適な結果を導き出すような融合アルゴリズムを構築していた。
図1に、従来の物体検出装置の構成を示す。
【0003】
物体検出装置は、ミリ波レーダ1と、左カメラ2と、右カメラ3と、画像処理用のECU4から構成される。ECU4は、画像処理用マイコン11と融合処理用マイコン12から構成される。
画像処理用マイコン11は、各カメラ2,3からの画像を画像処理して物体の検出を行う。具体的には、左右カメラ2,3から取得した画像からエッジを抽出し、その結果得られた左右のエッジ抽出位置から視差を計算して、距離値を算出する。画像処理用マイコン11の処理について図を用いて説明する。
【0004】
図2は画像の1例を示す。当該車両の前方には、先行車両6が1台あり、路面にライン7が描かれ、路肩にガードレール8が存在している。図3は、図2の画像を処理して、縦エッジを計算した結果を示し、図4は、図3の結果を処理して、ピークの強い順にエッジを抽出した結果を示し、短い線分が抽出されたエッジである。画像処理用マイコン11は、左右のカメラ2,3からそれぞれ図4のエッジを抽出し、視差によりターゲットまでの距離を計算する。
【0005】
ミリ波レーダ1における処理方法は、特定エリア内をミリ波によりスキャンし、出力パワーの強い部分をターゲットとして認識する。図5は、ミリ波レーダ1から出力されたパワー強度と横位置(角度)の関係を示したもので、ターゲットが存在する部分のパワー強度は高くなり、ターゲットが存在しない部分は低くなる。
【0006】
融合処理用マイコン12は、ミリ波レーダ1の検出結果と、画像処理用マイコン11の検出結果とを相互的に判断してターゲットの有無を判定し先行車両などの物体の存在確認、距離等の計算を行う。
【0007】
【発明が解決しようとする課題】
上記従来の物体検出装置では、ミリ波レーダ及び、画像処理の双方の弱点を克服することは難しく、ミリ波レーダ及び画像処理のそれぞれから得られた結果以上の最適な結果を導き出すことができない。また、従来のミリ波レーダ1及び画像処理マイコン11に必要な処理時間に単純に融合処理用マイコン12における融合アルゴリズム分を加える形になるため、処理時間がかかり、最適な形態とは言えなかった。
【0008】
本発明は、ミリ波レーダと画像処理を使用した物体検出装置において、ミリ波レーダと画像処理の欠点を相互に補いながら、処理時間を短縮することを目的とするものである。
【0009】
【課題を解決するための手段】
本発明は、上記目的を達成するためになされたものである。本発明の物体検出装置は、ミリ波レーダと、画像取得手段と、ミリ波レーダから出力されるパワーに基づいて画像認識エリアを特定し、画像取得手段から取得した画像について、前記特定された画像認識エリアに限定して、画像処理を実行する処理手段とから構成される。
【0010】
ミリ波レーダは、障害物、車両などの対象物を検知すると、所定のパワーを出力する。このパワーを検出したエリアに限定して画像処理を行うことで、ミリ波レーダと画像処理の双方の弱点を克服した物体検出が可能となる。また、画像処理の処理時間が短縮される。さらに、画像処理の場合は路面文字などを対象物として誤認識することがあるが、ミリ波レーダではこれを検出しないので、ミリ波レーダが物体を検出したエリアに限定して画像処理を行うことにより、路面文字などの実態のないものを誤検出することが防止できる。
【0011】
本発明の物体検出装置の別の態様は、ミリ波レーダと、画像取得手段と、前記画像取得手段よりの画像からエッジを抽出し、抽出したエッジの位置が、前記ミリ波レーダの検出結果より抽出したパワーに基づいて、所定のエリア内に存在するかどうかを判断し、存在したエッジのみを有効なエッジとする処理手段とから構成される。
【0012】
この構成によれば、画像から抽出したエッジであっても、ミリ波レーダが物体として検知したターゲットでなければ無視をするので、路面文字などを誤検出することを防止でき、ミリ波レーダと画像処理の双方の弱点を克服した物体検出が可能となる。
【0013】
【発明の実施の形態】
以下本発明の物体検出装置を車両の走行支援装置に適用した実施形態について図を用いて説明する。
図6は、走行支援装置の回路構成を示す。
走行支援装置は、ミリ波レーダ1と、左カメラ2と右カメラ3と、画像処理用のECU4から構成される。ECU4は、画像処理用及び融合処理用を兼用したマイコン5から構成される。なお、画像処理において視差による測距を行うために左右2台のカメラ2,3を設けているが、視差による測距を行わない場合は、カメラは1台のみとすることができる。
【0014】
次に、マイコン5の処理について説明をする。
(実施形態1−1)
図7は、マイコン5の処理を示すフローチャートである。なお、車両の前方の状況が前述の図2に示すとおりであるとする。
図7において、ステップS1で、ミリ波レーダ1により、特定エリア内をスキャンする。図8は、スキャンの結果、ミリ波レーダ1から得られた結果を示す。図8の横軸は、スキャンしたエリアの横位置(角度)を示し、縦軸は、パワー強度〔dB〕を示す。前方に先行車両6があると、図示のように、先行車両6に対応する横位置におけるパワー強度は大きいものとなる。
【0015】
ステップS2で、パワーが強い(P〔dB〕以上)ものをターゲットとして認識し、そのターゲットが存在する角度範囲(X0〜X1)を検索エリアとして保存する。ここでターゲットとして検出されるのは、図2では先行車両6だけであり、ライン7のような路面上に平面的に描かれたものではパワーは検出されない。
【0016】
ステップS3で、左右カメラ2,3から取得した画像について、ステップS2で得た角度範囲(X0〜X1)内を検索エリアとして限定する。
ステップS4で、限定された検索エリア内で、縦エッジを抽出する。なお、この縦エッジの抽出処理は、当該技術分野において良く知られていることであるので、処理の内容の説明は省略する。
【0017】
ステップS5で、パワーの強いもののみを抽出する。
ここで、前述の図3は、カメラ2,3から得た画像全体に渡って縦エッジを抽出した場合の結果を示す図である。これに対し、本例では、画像全体ではなく、検索エリアのみについて縦エッジを抽出し、パワーの強いもののみを抽出する。その結果は図9に示すとおりとなり、短い線分が抽出されたエッジである。
【0018】
このように、限定した検索エリア内のみで縦エッジの抽出を行うことにより、画像全体について縦エッジを抽出する場合に比べて、処理時間を短縮することができる。また、図8の検索エリアから外れたライン7などについては、エッジ抽出が行われないので、路面文字などをターゲットとして誤検出することがない。ステップS6で、左右画像におけるピークを対応付けし、ステップS7で、対応付けしたピークの視差を計算し、先行車両6までの距離を得る。なお、ステップS6、S7の処理は、当該技術分野において良く知られていることであるので、処理の内容の説明は省略する。
【0019】
以上説明した例によれば、画像処理によりエッジ抽出を行う上で、検索エリアを限定することにより、処理時間の短縮が可能となる。また、路面文字などの障害物はミリ波レーダではパワーに反映されないため、障害物、先行車両などの対象物のみを検知できる。
(実施形態1−2)
図7のステップS2における検索エリアの検出は、種々の変形が可能である。
【0020】
図10は、ステップS2の異なる検索エリアの抽出方法を示す。図11は、そのエッジ抽出の結果を示す。
図10において、ミリ波レーダ1から得たパワー強度のP0〜P1〔dB〕の範囲をパワー強度の所定レベル範囲とし、そのレベル範囲の横位置X0〜X1,X2〜X3を検索エリアとして抽出する。図10のパワー強度の強い部分は、ターゲットを検出しているものであるから、パワー強度が急激に変化するP0〜P1〔dB〕の範囲は、ターゲットのエッジ位置となる。したがって、本例によれば、エッジが抽出される可能性が高い位置を更に限定することができるので、図11に示すように、ターゲットのエッジのみを抽出することができ、処理時間を更に短縮できる。
【0021】
(実施形態1−3)
図12は、図7のステップS2の更に異なる検索エリアの抽出方法を示す。図13は、本例における前方の状況を示す。
ミリ波レーダ1から得たパワー強度の分布は、図12のように複数の山に分かれる場合がある。これは、図13に示すように、前方に2つの先行車両6,9が存在した場合等に見られる。このようにパワーの分布が2山に分かれた場合、谷の部分(パワー強度P1〔dB〕以下の部分)の横位置X0〜X1を検索エリアとして抽出する。
【0022】
(実施形態1−4)
実際に高速道路などを走行した場合、前方に車両が単一で存在する可能性は極めて低く、複数台存在する場合がほとんどである。
したがって、ミリ波レーダからの出力結果としては、様々なパターンが存在し、一意的には決定できない。そこで、図7のステップS2として、上述の実施形態1−1から1−3で説明した全ての検索エリアの合計を検索エリアとすることで、実際の走行に対応できるようにすることができる。
【0023】
(実施形態2−1)
図14は、マイコン5の第2の処理を示すフローチャートである。
ステップS11で、ミリ波レーダ1により、特定エリア内をスキャンする。図15は、スキャンの結果、ミリ波レーダ1から得た結果を示す。ここでは、車両の前方の状況が前述の図2に示すとおりであるとする。
【0024】
ステップS12で、パワーの強いものをターゲットとして認識して、図15のパワー強度のピークに対応して角度(X0)を抽出し保存する。
ステップS13,14で、画像の濃度変化から検索エリアを抽出する。図16は、カメラ2,3から得た画像の濃度変化を示す。この濃度変化は、カメラ2,3から得た画像について、ある水平方向のライン(X座標)上の濃度を示す。
【0025】
ステップS13で、この濃度変化について、ピークに対応するX0座標を中心に、左右対称となるエリアを検索し、対称とならなくなった位置X1,X2を保存する。物体が車両などである場合、その画像濃度は中心から左右対称となり、車両より外側になると、路面などが画像として検出されるので、左右対称とはならなくなる。したがって、左右対称とならなくなった位置X1,X2の近辺に物体のエリアがある可能性が高い。なお、左右対称を判断する際には、同一物体であっても実際には100%対称とはならないので、ある程度の許容範囲を持たせて判断をする。
【0026】
ステップS14で、位置X1,X2を中心として、前後数座標のエリア(X3〜X4,X5〜X6)を検索エリアとして保存する。このように、位置X1,X2の近辺のエリアを特定することにより、物体のエッジがこの検索エリア内に存在することとなる。
以後のステップ、即ち、この検索エリアを使用するステップS4〜7の処理は、前述の図7のフローチャートと同様である。本例においても、画像処理に要する時間を短縮し、路面文字などを物体と誤検出することが防止できる。
【0027】
(実施形態2−2)
上記ステップS13,14における画像処理による検索エリアの抽出は、画像の濃度変化の代わりに、濃度投影値を用いても抽出することができる。
図17は、画像の濃度投影値を利用した検索エリアの抽出方法を示す。この濃度投影値は、カメラ2,3から得た画像について、垂直方向(縦位置)に画素濃度を合計して得るものである。本例でも、上述の実施形態2−1と同様にして検索エリアX3〜X4,X5〜X6を得る。
【0028】
(実施形態3−1)
図18は、図6のマイコン5の第3の処理を示すフローチャートである。
ステップS21で、カメラ2,3から画像を取得する。
ステップS22で、画像処理により縦エッジを抽出する。この画像処理では、画像の全範囲に渡って縦エッジを抽出するので、得られた結果は、前述の図3に示すようになる。
【0029】
ステップS23で、得られた縦エッジについてパワーの強いものから順にピーク抽出を行う。得られた結果は、前述の図4に示すようになる。そして、各エッジの抽出位置を角度位置Xn として保存する。
ステップS24で、ミリ波レーダ1により、特定エリア内をスキャンする。
ステップS25で、スキャンの結果得られた結果から角度位置Yn を抽出して保存する。この角度位置Yn は、前述の実施形態1及び実施形態2で検索エリアとして抽出したものと同様であり、図8、図10、図12に示す方法のいずれか、又は、その組み合わせを使用することができる。
【0030】
ステップS26で、角度位置Xn とYnの共通部分を抽出する。
ステップS27で、抽出した共通の角度位置にあるターゲットについて視差を求め、距離値に換算して物体を検出する。
本例においては、画像処理に要する時間は短縮されないが、路面文字などの障害物に対する誤測距を除去することが可能である。
【0031】
【発明の効果】
本発明によれば、ミリ波レーダと画像処理を使用した物体検出装置において、ミリ波レーダと画像処理の欠点を相互に補いながら、処理時間を短縮することができる。
【図面の簡単な説明】
【図1】従来の物体検出装置の構成を示す図。
【図2】物体検出装置の前方の状況を示す画像を示す図。
【図3】図1の装置の画像処理により計算されたエッジを示す図。
【図4】図3の結果から抽出されたエッジを示す図。
【図5】図1のミリ波レーダから出力された結果を示す図。
【図6】本発明を適用した走行支援装置の構成を示す図。
【図7】図6のマイコンの処理を示すフローチャート。
【図8】図6のミリ波レーダにより得られたパワー強度から検索エリアを決定する方法を示す図。
【図9】図7の処理により抽出されたエッジを示す図。
【図10】図6のミリ波レーダにより得られたパワー強度から検索エリアを決定する第2の方法を示す図。
【図11】図10に示す方法で抽出されたエッジを示す図。
【図12】図6のミリ波レーダにより得られたパワー強度から検索エリアを決定する第3の方法を示す図。
【図13】前方に先行車両が複数ある状況の画像を示す図。
【図14】図6のマイコンの第2の処理を示すフローチャート。
【図15】図14の処理におけるパワー強度を示す図。
【図16】図14の処理における検索エリアを決定する方法を示す図(その1)。
【図17】図12の処理における検索エリアを決定する方法を示す図(その2)。
【図18】図6のマイコンの第3の処理を示すフローチャート(実施形態3)。
【符号の説明】
1…ミリ波レーダ
2…左カメラ
3…右カメラ
4…ECU
5…マイコン
6…先行車両
7…ライン
8…ガードレール
9…第2の先行車両
11…画像処理用マイコン
12…融合処理用マイコン
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an object detection device. The object detection device of the present invention is mounted on a vehicle, for example, and is used as a device that assists the driver in driving the vehicle by detecting a preceding vehicle, an obstacle, or the like.
[0002]
[Prior art]
Conventional object detection devices use a fusion algorithm that examines the reliability of data using the results of both target detection results in millimeter-wave radar and target detection results in image processing, and derives optimal results. Was building.
FIG. 1 shows a configuration of a conventional object detection apparatus.
[0003]
The object detection device includes a millimeter wave radar 1, a left camera 2, a right camera 3, and an ECU 4 for image processing. The ECU 4 includes an image processing microcomputer 11 and a fusion processing microcomputer 12.
The image processing microcomputer 11 detects an object by performing image processing on images from the cameras 2 and 3. Specifically, an edge is extracted from images acquired from the left and right cameras 2 and 3, and parallax is calculated from the left and right edge extraction positions obtained as a result, thereby calculating a distance value. The processing of the image processing microcomputer 11 will be described with reference to the drawings.
[0004]
FIG. 2 shows an example of an image. There is one preceding vehicle 6 in front of the vehicle, a line 7 is drawn on the road surface, and a guard rail 8 is present on the road shoulder. 3 shows the result of calculating the vertical edge by processing the image of FIG. 2, and FIG. 4 shows the result of extracting the edges in order of strong peaks by processing the result of FIG. Are extracted edges. The image processing microcomputer 11 extracts the edges shown in FIG. 4 from the left and right cameras 2 and 3, respectively, and calculates the distance to the target based on the parallax.
[0005]
The processing method in the millimeter wave radar 1 scans a specific area with millimeter waves and recognizes a portion having a high output power as a target. FIG. 5 shows the relationship between the power intensity output from the millimeter wave radar 1 and the lateral position (angle). The power intensity in the portion where the target is present is high, and the portion where the target is not present is low.
[0006]
The fusion processing microcomputer 12 judges the presence / absence of a target by mutually judging the detection result of the millimeter wave radar 1 and the detection result of the image processing microcomputer 11 to confirm the presence of an object such as a preceding vehicle, distance, etc. Perform the calculation.
[0007]
[Problems to be solved by the invention]
In the conventional object detection apparatus described above, it is difficult to overcome the weaknesses of both the millimeter wave radar and the image processing, and it is impossible to derive an optimum result that exceeds the results obtained from the millimeter wave radar and the image processing. Further, the processing time required for the conventional millimeter wave radar 1 and the image processing microcomputer 11 is simply added to the fusion algorithm in the fusion processing microcomputer 12, so that the processing time is required and it cannot be said that it is an optimum form. .
[0008]
An object of the present invention is to reduce processing time in an object detection apparatus using millimeter wave radar and image processing while mutually compensating for the drawbacks of millimeter wave radar and image processing.
[0009]
[Means for Solving the Problems]
The present invention has been made to achieve the above object. The object detection device of the present invention specifies an image recognition area based on power output from a millimeter wave radar, an image acquisition unit, and a millimeter wave radar, and the specified image for the image acquired from the image acquisition unit. It is comprised from the processing means which performs an image process only in a recognition area.
[0010]
When the millimeter wave radar detects an object such as an obstacle or a vehicle, the millimeter wave radar outputs a predetermined power. By performing image processing only in the area where this power is detected, it is possible to detect an object that overcomes the weaknesses of both millimeter wave radar and image processing. In addition, the processing time for image processing is shortened. Furthermore, in the case of image processing, road surface characters may be misrecognized as an object, but millimeter wave radar does not detect this, so image processing is limited to the area where millimeter wave radar detects the object. Therefore, it is possible to prevent erroneous detection of an actual character such as a road surface character.
[0011]
Another aspect of the object detection apparatus of the present invention is to extract an edge from the image from the millimeter wave radar, the image acquisition means, and the image acquisition means, and the position of the extracted edge is based on the detection result of the millimeter wave radar. Based on the extracted power, it is determined whether or not it exists within a predetermined area, and processing means for setting only the existing edge as an effective edge.
[0012]
According to this configuration, even if the edge is extracted from the image, it is ignored unless the target detected by the millimeter wave radar as an object. Therefore, it is possible to prevent erroneous detection of road characters and the like. Object detection that overcomes both weaknesses of processing is possible.
[0013]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an embodiment in which an object detection device of the present invention is applied to a vehicle travel support device will be described with reference to the drawings.
FIG. 6 shows a circuit configuration of the driving support device.
The travel support apparatus includes a millimeter wave radar 1, a left camera 2, a right camera 3, and an ECU 4 for image processing. The ECU 4 includes a microcomputer 5 that is used for both image processing and fusion processing. Note that the two cameras 2 and 3 are provided on the left and right sides to perform distance measurement using parallax in image processing. However, if distance measurement using parallax is not performed, only one camera can be used.
[0014]
Next, processing of the microcomputer 5 will be described.
(Embodiment 1-1)
FIG. 7 is a flowchart showing the processing of the microcomputer 5. It is assumed that the situation in front of the vehicle is as shown in FIG.
In FIG. 7, a specific area is scanned by the millimeter wave radar 1 in step S1. FIG. 8 shows the result obtained from the millimeter wave radar 1 as a result of scanning. The horizontal axis in FIG. 8 indicates the horizontal position (angle) of the scanned area, and the vertical axis indicates the power intensity [dB]. When there is a preceding vehicle 6 ahead, the power intensity at the lateral position corresponding to the preceding vehicle 6 is large as shown in the figure.
[0015]
In step S2, an object having a strong power (P [dB] or more) is recognized as a target, and the angle range (X0 to X1) where the target exists is stored as a search area. Here, only the preceding vehicle 6 is detected as the target in FIG. 2, and power is not detected when the vehicle is drawn on the road surface like the line 7.
[0016]
In step S3, for the images acquired from the left and right cameras 2 and 3, the angle range (X0 to X1) obtained in step S2 is limited as a search area.
In step S4, vertical edges are extracted within the limited search area. Note that this vertical edge extraction processing is well known in the technical field, so description of the processing content will be omitted.
[0017]
In step S5, only those with strong power are extracted.
Here, FIG. 3 described above is a diagram illustrating a result when vertical edges are extracted over the entire image obtained from the cameras 2 and 3. In contrast, in this example, vertical edges are extracted only for the search area, not the entire image, and only those with strong power are extracted. The result is as shown in FIG. 9, which is an edge from which a short line segment is extracted.
[0018]
Thus, by extracting the vertical edge only within the limited search area, the processing time can be shortened as compared with the case of extracting the vertical edge for the entire image. Further, since the edge extraction is not performed for the line 7 and the like that are out of the search area in FIG. In step S6, the peaks in the left and right images are associated with each other. In step S7, the parallax of the associated peaks is calculated, and the distance to the preceding vehicle 6 is obtained. In addition, since the process of step S6, S7 is well known in the said technical field, description of the content of a process is abbreviate | omitted.
[0019]
According to the example described above, the processing time can be shortened by limiting the search area when performing edge extraction by image processing. Moreover, since obstacles such as road surface characters are not reflected in the power by the millimeter wave radar, only objects such as obstacles and preceding vehicles can be detected.
(Embodiment 1-2)
The detection of the search area in step S2 in FIG. 7 can be variously modified.
[0020]
FIG. 10 shows a method for extracting different search areas in step S2. FIG. 11 shows the result of the edge extraction.
In FIG. 10, a range of power intensity P0 to P1 [dB] obtained from the millimeter wave radar 1 is set as a predetermined level range of power intensity, and lateral positions X0 to X1, X2 to X3 of the level range are extracted as search areas. . Since the portion where the power intensity is strong in FIG. 10 detects the target, the range of P0 to P1 [dB] where the power intensity changes abruptly becomes the edge position of the target. Therefore, according to this example, it is possible to further limit the positions where the edge is highly likely to be extracted. Therefore, as shown in FIG. 11, only the target edge can be extracted, and the processing time is further reduced. it can.
[0021]
(Embodiment 1-3)
FIG. 12 shows a further different search area extraction method in step S2 of FIG. FIG. 13 shows the front situation in this example.
The power intensity distribution obtained from the millimeter wave radar 1 may be divided into a plurality of mountains as shown in FIG. This is seen when there are two preceding vehicles 6 and 9 ahead as shown in FIG. In this way, when the power distribution is divided into two peaks, the lateral positions X0 to X1 of the valley portions (portions below the power intensity P1 [dB]) are extracted as search areas.
[0022]
(Embodiment 1-4)
When actually traveling on an expressway or the like, the possibility of a single vehicle in front of the vehicle is extremely low, and in many cases there are a plurality of vehicles.
Therefore, various patterns exist as output results from the millimeter wave radar and cannot be uniquely determined. Therefore, as step S2 in FIG. 7, the total of all the search areas described in the above-described embodiments 1-1 to 1-3 is set as the search area, so that it is possible to deal with actual traveling.
[0023]
(Embodiment 2-1)
FIG. 14 is a flowchart showing the second process of the microcomputer 5.
In step S11, the millimeter wave radar 1 scans the specific area. FIG. 15 shows the results obtained from the millimeter wave radar 1 as a result of scanning. Here, it is assumed that the situation ahead of the vehicle is as shown in FIG.
[0024]
In step S12, a strong power is recognized as a target, and an angle (X0) is extracted and stored corresponding to the power intensity peak in FIG.
In steps S13 and S14, a search area is extracted from the density change of the image. FIG. 16 shows the density change of the images obtained from the cameras 2 and 3. This density change indicates the density on a certain horizontal line (X coordinate) for the images obtained from the cameras 2 and 3.
[0025]
In step S13, an area that is symmetric about the X0 coordinate corresponding to the peak is searched for this density change, and the positions X1 and X2 that are no longer symmetric are stored. When the object is a vehicle or the like, the image density is symmetrical from the center, and when the object is outside the vehicle, the road surface or the like is detected as an image. Therefore, there is a high possibility that there is an object area in the vicinity of the positions X1 and X2 that are no longer symmetrical. When determining left / right symmetry, even if the object is the same, it is not actually 100% symmetric, so the determination is made with a certain tolerance.
[0026]
In step S14, an area with several coordinates around the positions X1 and X2 (X3 to X4, X5 to X6) is stored as a search area. Thus, by specifying the area in the vicinity of the positions X1 and X2, the edge of the object is present in this search area.
The subsequent steps, that is, the processes of steps S4 to S7 using this search area are the same as those in the flowchart of FIG. Also in this example, it is possible to reduce the time required for image processing and to prevent erroneous detection of road characters and the like as objects.
[0027]
(Embodiment 2-2)
The search area can be extracted by the image processing in steps S13 and S14 using a density projection value instead of the density change of the image.
FIG. 17 shows a search area extraction method using the density projection value of an image. This density projection value is obtained by summing the pixel densities in the vertical direction (vertical position) for the images obtained from the cameras 2 and 3. Also in this example, the search areas X3 to X4 and X5 to X6 are obtained in the same manner as in Embodiment 2-1.
[0028]
(Embodiment 3-1)
FIG. 18 is a flowchart showing a third process of the microcomputer 5 of FIG.
In step S21, images are acquired from the cameras 2 and 3.
In step S22, vertical edges are extracted by image processing. In this image processing, vertical edges are extracted over the entire range of the image, and the obtained result is as shown in FIG.
[0029]
In step S23, the obtained vertical edges are extracted in descending order of power. The obtained result is as shown in FIG. And the extraction position of each edge is preserve | saved as angle position Xn .
In step S24, the millimeter wave radar 1 scans the specific area.
In step S25, the angular position Y n is extracted from the result obtained by scanning and stored. This angular position Y n is the same as that extracted as the search area in the first and second embodiments described above, and uses one of the methods shown in FIGS. 8, 10, and 12, or a combination thereof. be able to.
[0030]
In step S26, the common part of the angular positions Xn and Yn is extracted.
In step S27, the parallax is obtained for the extracted target at the common angular position, and the object is detected by converting it to a distance value.
In this example, the time required for image processing is not shortened, but it is possible to eliminate erroneous distance measurement for obstacles such as road surface characters.
[0031]
【The invention's effect】
According to the present invention, in an object detection device using millimeter wave radar and image processing, it is possible to shorten the processing time while mutually compensating for the drawbacks of millimeter wave radar and image processing.
[Brief description of the drawings]
FIG. 1 is a diagram showing a configuration of a conventional object detection apparatus.
FIG. 2 is a diagram showing an image showing a situation in front of the object detection device.
FIG. 3 is a diagram showing edges calculated by image processing of the apparatus of FIG. 1;
FIG. 4 is a diagram showing edges extracted from the result of FIG. 3;
FIG. 5 is a view showing a result output from the millimeter wave radar of FIG. 1;
FIG. 6 is a diagram showing a configuration of a driving support device to which the present invention is applied.
7 is a flowchart showing processing of the microcomputer in FIG. 6;
8 is a diagram showing a method for determining a search area from the power intensity obtained by the millimeter wave radar shown in FIG. 6;
9 is a diagram showing edges extracted by the process of FIG. 7;
10 is a diagram showing a second method for determining a search area from the power intensity obtained by the millimeter wave radar of FIG. 6; FIG.
FIG. 11 is a diagram showing edges extracted by the method shown in FIG. 10;
12 is a diagram showing a third method for determining a search area from the power intensity obtained by the millimeter wave radar of FIG. 6; FIG.
FIG. 13 is a diagram showing an image in a situation where there are a plurality of preceding vehicles ahead.
FIG. 14 is a flowchart showing second processing of the microcomputer of FIG. 6;
15 is a diagram showing power intensity in the processing of FIG. 14;
FIG. 16 is a diagram (No. 1) illustrating a method for determining a search area in the process of FIG. 14;
17 is a diagram showing a method for determining a search area in the process of FIG. 12 (part 2);
FIG. 18 is a flowchart showing a third process of the microcomputer of FIG. 6 (third embodiment).
[Explanation of symbols]
1 ... millimeter wave radar 2 ... left camera 3 ... right camera 4 ... ECU
5 ... microcomputer 6 ... preceding vehicle 7 ... line 8 ... guard rail 9 ... second preceding vehicle 11 ... image processing microcomputer 12 ... fusion processing microcomputer

Claims (5)

2つのカメラを有する画像取得手段と、
ミリ波レーダと、
前記画像取得手段の前記2つのカメラから取得した画像の全範囲にわたってエッジを抽出し、抽出された前記エッジについてパワーの強いものから順にピークを抽出し、当該エッジの各々の抽出位置を第1の角度位置として保存し、また一方で、前記ミリ波レーダにより特定エリア内のスキャンを行って得られた結果から、前記特定エリア内でパワーの強いものをターゲットとして認識し、前記ターゲットとして認識された位置を第2の角度位置として保存し、前記第1の角度位置と前記第2の角度位置との共通部分を抽出し、前記共通部分にある複数のピークの視差を求め、前記視差に基づいて前記ターゲットまでの距離値を算出し、物体検出のための画像処理を実行する処理手段とを具備することを特徴とする物体検出装置。
Image acquisition means having two cameras ;
Millimeter wave radar,
Said extracting vertical edges over the entire range of the image obtained from the two cameras, the extracted said longitudinal edges to extract a peak in the order of strong power, the extraction position of each of the longitudinal edges of the image acquisition unit The first angular position is stored, and on the other hand, from the result obtained by scanning the specific area with the millimeter wave radar, a target having a strong power in the specific area is recognized as the target, The recognized position is stored as a second angular position, a common part between the first angular position and the second angular position is extracted, and parallaxes of a plurality of peaks in the common part are obtained , and the parallax An object detection apparatus comprising: processing means for calculating a distance value to the target based on the above and executing image processing for object detection.
前記処理手段は、前記特定エリア内のスキャンを行って得られた結果から、前記パワーが所定レベル以上であるとして検出された検索エリアに対応する角度範囲を前記第2の角度位置として保存する請求項1に記載の物体検出装置。  The processing means stores, as the second angular position, an angular range corresponding to a search area that is detected as the power being equal to or higher than a predetermined level from a result obtained by scanning the specific area. Item 4. The object detection apparatus according to Item 1. 前記処理手段は、前記特定エリア内のスキャンを行って得られた結果から、前記パワーが所定レベル範囲であるとして検出された検索エリアに対応する角度範囲を前記第2の角度位置として保存する請求項1に記載の物体検出装置。  The processing means stores, as the second angular position, an angular range corresponding to a search area that is detected as the power being within a predetermined level range from a result obtained by scanning the specific area. Item 4. The object detection apparatus according to Item 1. 前記処理手段は、前記特定エリア内のスキャンを行って得られた結果から、前記パワーのレベルが複数個のピークにおける谷として検出された検索エリアに対応する角度範囲を前記第2の角度位置として保存する請求項1に記載の物体検出装置。  The processing means uses, as a second angular position, an angle range corresponding to a search area in which the power level is detected as a valley in a plurality of peaks, based on a result obtained by scanning in the specific area. The object detection apparatus according to claim 1 to be stored. 前記処理手段は、前記特定エリア内のスキャンを行って得られた結果から、前記パワーが所定レベル以上であるとして検出された検索エリアと、前記パワーが所定レベル範囲であるとして検出された検索エリアと、前記パワーのレベルが複数個のピークにおける谷として検出された検索エリアとに対応する角度範囲を前記第2の角度位置として保存する請求項1に記載の物体検出装置。  The processing means includes a search area where the power is detected as being equal to or higher than a predetermined level, and a search area where the power is detected as being within a predetermined level from a result obtained by scanning the specific area. The object detection device according to claim 1, wherein an angle range corresponding to a search area in which the power level is detected as a valley in a plurality of peaks is stored as the second angle position.
JP2000118549A 2000-04-14 2000-04-14 Object detection device Expired - Fee Related JP4308405B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2000118549A JP4308405B2 (en) 2000-04-14 2000-04-14 Object detection device
US09/834,403 US20010031068A1 (en) 2000-04-14 2001-04-13 Target detection system using radar and image processing
US11/188,160 US7376247B2 (en) 2000-04-14 2005-07-21 Target detection system using radar and image processing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000118549A JP4308405B2 (en) 2000-04-14 2000-04-14 Object detection device

Publications (2)

Publication Number Publication Date
JP2001296357A JP2001296357A (en) 2001-10-26
JP4308405B2 true JP4308405B2 (en) 2009-08-05

Family

ID=18629663

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000118549A Expired - Fee Related JP4308405B2 (en) 2000-04-14 2000-04-14 Object detection device

Country Status (1)

Country Link
JP (1) JP4308405B2 (en)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4311861B2 (en) * 2000-05-18 2009-08-12 富士通テン株式会社 Vehicle object detection device
JP2004069328A (en) * 2002-08-01 2004-03-04 Nissan Motor Co Ltd Forward environment recognizing device and forward environment recognizing method
EP1648746B1 (en) 2003-07-11 2008-09-10 Toyota Jidosha Kabushiki Kaisha Crash-safe vehicle control system
JP4396400B2 (en) * 2004-06-02 2010-01-13 トヨタ自動車株式会社 Obstacle recognition device
US6972714B1 (en) * 2004-06-08 2005-12-06 Agilent Technologies, Inc. Optically-augmented microwave imaging system and method
JP2006151125A (en) * 2004-11-26 2006-06-15 Omron Corp On-vehicle image processing device
JP2006258507A (en) * 2005-03-15 2006-09-28 Omron Corp Apparatus for recognizing object in front
JP2007240276A (en) * 2006-03-07 2007-09-20 Olympus Corp Distance measuring device/imaging device, distance measuring method/imaging method, distance measuring program/imaging program, and storage medium
JP2009086787A (en) * 2007-09-28 2009-04-23 Hitachi Ltd Vehicle detection device
JP5029436B2 (en) * 2008-03-12 2012-09-19 オムロン株式会社 Crossing object detection apparatus, crossing object detection method, and program
JP5363094B2 (en) * 2008-12-25 2013-12-11 富士通テン株式会社 Signal processing apparatus and radar apparatus
JP5907546B2 (en) * 2009-01-16 2016-04-26 日本電気株式会社 POSITION INFORMATION ANALYSIS DEVICE, POSITION INFORMATION ANALYSIS METHOD, POSITION INFORMATION ANALYSIS SYSTEM, AND PROGRAM
JP5471195B2 (en) * 2009-09-03 2014-04-16 トヨタ自動車株式会社 Object detection device
JP5632762B2 (en) 2011-01-25 2014-11-26 パナソニック株式会社 POSITIONING INFORMATION FORMING DEVICE, DETECTING DEVICE, AND POSITIONING INFORMATION FORMING METHOD
JP2023046417A (en) 2020-02-27 2023-04-05 ソニーセミコンダクタソリューションズ株式会社 Object recognition system and object recognition method

Also Published As

Publication number Publication date
JP2001296357A (en) 2001-10-26

Similar Documents

Publication Publication Date Title
US7376247B2 (en) Target detection system using radar and image processing
US10755116B2 (en) Image processing apparatus, imaging apparatus, and device control system
JP4308405B2 (en) Object detection device
US9476976B2 (en) Object recognition apparatus and vehicle
EP2422320B1 (en) Object detection device
EP2993654B1 (en) Method and system for forward collision warning
US6670912B2 (en) Method for detecting stationary object located above road
JP5690688B2 (en) Outside world recognition method, apparatus, and vehicle system
KR101176693B1 (en) Method and System for Detecting Lane by Using Distance Sensor
US10853963B2 (en) Object detection device, device control system, and medium
JP6468136B2 (en) Driving support device and driving support method
JP2003296736A (en) Device for detecting obstacle and method thereof
JP6837262B2 (en) Travelable area detection device and travel support system
EP1687755A2 (en) Method and apparatus for refining target position and size estimates using image and depth data
JP2003099762A (en) Precedent vehicle recognition device and recognition method
JP3656056B2 (en) Interrupting vehicle detection device and method
KR20140024681A (en) Apparatus and method for detecting lane
JP2006048435A (en) Image processor for vehicles
JP4311861B2 (en) Vehicle object detection device
JP2001082954A (en) Image processing device and image processing distance- measuring method
JP2006004188A (en) Obstacle recognition method and obstacle recognition device
US20230115845A1 (en) Vehicle control device, vehicle control method, and storage medium
US20230112878A1 (en) Vehicle control device, vehicle control method, and storage medium
US20230114781A1 (en) Vehicle control device, vehicle control method, and storage medium
JP2002008019A (en) Railway track recognition device and rolling stock using railway track recognition device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070413

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080701

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080901

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081111

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090407

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090501

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120515

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120515

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130515

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130515

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140515

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees