JP4308405B2 - Object detection device - Google Patents
Object detection device Download PDFInfo
- Publication number
- JP4308405B2 JP4308405B2 JP2000118549A JP2000118549A JP4308405B2 JP 4308405 B2 JP4308405 B2 JP 4308405B2 JP 2000118549 A JP2000118549 A JP 2000118549A JP 2000118549 A JP2000118549 A JP 2000118549A JP 4308405 B2 JP4308405 B2 JP 4308405B2
- Authority
- JP
- Japan
- Prior art keywords
- power
- object detection
- search area
- wave radar
- millimeter wave
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Measurement Of Optical Distance (AREA)
- Geophysics And Detection Of Objects (AREA)
- Traffic Control Systems (AREA)
- Radar Systems Or Details Thereof (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、物体検出装置に関する。本発明の物体検出装置は、例えば、自動車に搭載され、先行車両、障害物等を検出することにより、ドライバによる自動車の走行を支援する装置として使用される。
【0002】
【従来の技術】
従来の物体検出装置は、ミリ波レーダでのターゲット検出結果と、画像処理でのターゲット検出結果との双方の結果を用いてデータの信頼性を検討し、最適な結果を導き出すような融合アルゴリズムを構築していた。
図1に、従来の物体検出装置の構成を示す。
【0003】
物体検出装置は、ミリ波レーダ1と、左カメラ2と、右カメラ3と、画像処理用のECU4から構成される。ECU4は、画像処理用マイコン11と融合処理用マイコン12から構成される。
画像処理用マイコン11は、各カメラ2,3からの画像を画像処理して物体の検出を行う。具体的には、左右カメラ2,3から取得した画像からエッジを抽出し、その結果得られた左右のエッジ抽出位置から視差を計算して、距離値を算出する。画像処理用マイコン11の処理について図を用いて説明する。
【0004】
図2は画像の1例を示す。当該車両の前方には、先行車両6が1台あり、路面にライン7が描かれ、路肩にガードレール8が存在している。図3は、図2の画像を処理して、縦エッジを計算した結果を示し、図4は、図3の結果を処理して、ピークの強い順にエッジを抽出した結果を示し、短い線分が抽出されたエッジである。画像処理用マイコン11は、左右のカメラ2,3からそれぞれ図4のエッジを抽出し、視差によりターゲットまでの距離を計算する。
【0005】
ミリ波レーダ1における処理方法は、特定エリア内をミリ波によりスキャンし、出力パワーの強い部分をターゲットとして認識する。図5は、ミリ波レーダ1から出力されたパワー強度と横位置(角度)の関係を示したもので、ターゲットが存在する部分のパワー強度は高くなり、ターゲットが存在しない部分は低くなる。
【0006】
融合処理用マイコン12は、ミリ波レーダ1の検出結果と、画像処理用マイコン11の検出結果とを相互的に判断してターゲットの有無を判定し先行車両などの物体の存在確認、距離等の計算を行う。
【0007】
【発明が解決しようとする課題】
上記従来の物体検出装置では、ミリ波レーダ及び、画像処理の双方の弱点を克服することは難しく、ミリ波レーダ及び画像処理のそれぞれから得られた結果以上の最適な結果を導き出すことができない。また、従来のミリ波レーダ1及び画像処理マイコン11に必要な処理時間に単純に融合処理用マイコン12における融合アルゴリズム分を加える形になるため、処理時間がかかり、最適な形態とは言えなかった。
【0008】
本発明は、ミリ波レーダと画像処理を使用した物体検出装置において、ミリ波レーダと画像処理の欠点を相互に補いながら、処理時間を短縮することを目的とするものである。
【0009】
【課題を解決するための手段】
本発明は、上記目的を達成するためになされたものである。本発明の物体検出装置は、ミリ波レーダと、画像取得手段と、ミリ波レーダから出力されるパワーに基づいて画像認識エリアを特定し、画像取得手段から取得した画像について、前記特定された画像認識エリアに限定して、画像処理を実行する処理手段とから構成される。
【0010】
ミリ波レーダは、障害物、車両などの対象物を検知すると、所定のパワーを出力する。このパワーを検出したエリアに限定して画像処理を行うことで、ミリ波レーダと画像処理の双方の弱点を克服した物体検出が可能となる。また、画像処理の処理時間が短縮される。さらに、画像処理の場合は路面文字などを対象物として誤認識することがあるが、ミリ波レーダではこれを検出しないので、ミリ波レーダが物体を検出したエリアに限定して画像処理を行うことにより、路面文字などの実態のないものを誤検出することが防止できる。
【0011】
本発明の物体検出装置の別の態様は、ミリ波レーダと、画像取得手段と、前記画像取得手段よりの画像からエッジを抽出し、抽出したエッジの位置が、前記ミリ波レーダの検出結果より抽出したパワーに基づいて、所定のエリア内に存在するかどうかを判断し、存在したエッジのみを有効なエッジとする処理手段とから構成される。
【0012】
この構成によれば、画像から抽出したエッジであっても、ミリ波レーダが物体として検知したターゲットでなければ無視をするので、路面文字などを誤検出することを防止でき、ミリ波レーダと画像処理の双方の弱点を克服した物体検出が可能となる。
【0013】
【発明の実施の形態】
以下本発明の物体検出装置を車両の走行支援装置に適用した実施形態について図を用いて説明する。
図6は、走行支援装置の回路構成を示す。
走行支援装置は、ミリ波レーダ1と、左カメラ2と右カメラ3と、画像処理用のECU4から構成される。ECU4は、画像処理用及び融合処理用を兼用したマイコン5から構成される。なお、画像処理において視差による測距を行うために左右2台のカメラ2,3を設けているが、視差による測距を行わない場合は、カメラは1台のみとすることができる。
【0014】
次に、マイコン5の処理について説明をする。
(実施形態1−1)
図7は、マイコン5の処理を示すフローチャートである。なお、車両の前方の状況が前述の図2に示すとおりであるとする。
図7において、ステップS1で、ミリ波レーダ1により、特定エリア内をスキャンする。図8は、スキャンの結果、ミリ波レーダ1から得られた結果を示す。図8の横軸は、スキャンしたエリアの横位置(角度)を示し、縦軸は、パワー強度〔dB〕を示す。前方に先行車両6があると、図示のように、先行車両6に対応する横位置におけるパワー強度は大きいものとなる。
【0015】
ステップS2で、パワーが強い(P〔dB〕以上)ものをターゲットとして認識し、そのターゲットが存在する角度範囲(X0〜X1)を検索エリアとして保存する。ここでターゲットとして検出されるのは、図2では先行車両6だけであり、ライン7のような路面上に平面的に描かれたものではパワーは検出されない。
【0016】
ステップS3で、左右カメラ2,3から取得した画像について、ステップS2で得た角度範囲(X0〜X1)内を検索エリアとして限定する。
ステップS4で、限定された検索エリア内で、縦エッジを抽出する。なお、この縦エッジの抽出処理は、当該技術分野において良く知られていることであるので、処理の内容の説明は省略する。
【0017】
ステップS5で、パワーの強いもののみを抽出する。
ここで、前述の図3は、カメラ2,3から得た画像全体に渡って縦エッジを抽出した場合の結果を示す図である。これに対し、本例では、画像全体ではなく、検索エリアのみについて縦エッジを抽出し、パワーの強いもののみを抽出する。その結果は図9に示すとおりとなり、短い線分が抽出されたエッジである。
【0018】
このように、限定した検索エリア内のみで縦エッジの抽出を行うことにより、画像全体について縦エッジを抽出する場合に比べて、処理時間を短縮することができる。また、図8の検索エリアから外れたライン7などについては、エッジ抽出が行われないので、路面文字などをターゲットとして誤検出することがない。ステップS6で、左右画像におけるピークを対応付けし、ステップS7で、対応付けしたピークの視差を計算し、先行車両6までの距離を得る。なお、ステップS6、S7の処理は、当該技術分野において良く知られていることであるので、処理の内容の説明は省略する。
【0019】
以上説明した例によれば、画像処理によりエッジ抽出を行う上で、検索エリアを限定することにより、処理時間の短縮が可能となる。また、路面文字などの障害物はミリ波レーダではパワーに反映されないため、障害物、先行車両などの対象物のみを検知できる。
(実施形態1−2)
図7のステップS2における検索エリアの検出は、種々の変形が可能である。
【0020】
図10は、ステップS2の異なる検索エリアの抽出方法を示す。図11は、そのエッジ抽出の結果を示す。
図10において、ミリ波レーダ1から得たパワー強度のP0〜P1〔dB〕の範囲をパワー強度の所定レベル範囲とし、そのレベル範囲の横位置X0〜X1,X2〜X3を検索エリアとして抽出する。図10のパワー強度の強い部分は、ターゲットを検出しているものであるから、パワー強度が急激に変化するP0〜P1〔dB〕の範囲は、ターゲットのエッジ位置となる。したがって、本例によれば、エッジが抽出される可能性が高い位置を更に限定することができるので、図11に示すように、ターゲットのエッジのみを抽出することができ、処理時間を更に短縮できる。
【0021】
(実施形態1−3)
図12は、図7のステップS2の更に異なる検索エリアの抽出方法を示す。図13は、本例における前方の状況を示す。
ミリ波レーダ1から得たパワー強度の分布は、図12のように複数の山に分かれる場合がある。これは、図13に示すように、前方に2つの先行車両6,9が存在した場合等に見られる。このようにパワーの分布が2山に分かれた場合、谷の部分(パワー強度P1〔dB〕以下の部分)の横位置X0〜X1を検索エリアとして抽出する。
【0022】
(実施形態1−4)
実際に高速道路などを走行した場合、前方に車両が単一で存在する可能性は極めて低く、複数台存在する場合がほとんどである。
したがって、ミリ波レーダからの出力結果としては、様々なパターンが存在し、一意的には決定できない。そこで、図7のステップS2として、上述の実施形態1−1から1−3で説明した全ての検索エリアの合計を検索エリアとすることで、実際の走行に対応できるようにすることができる。
【0023】
(実施形態2−1)
図14は、マイコン5の第2の処理を示すフローチャートである。
ステップS11で、ミリ波レーダ1により、特定エリア内をスキャンする。図15は、スキャンの結果、ミリ波レーダ1から得た結果を示す。ここでは、車両の前方の状況が前述の図2に示すとおりであるとする。
【0024】
ステップS12で、パワーの強いものをターゲットとして認識して、図15のパワー強度のピークに対応して角度(X0)を抽出し保存する。
ステップS13,14で、画像の濃度変化から検索エリアを抽出する。図16は、カメラ2,3から得た画像の濃度変化を示す。この濃度変化は、カメラ2,3から得た画像について、ある水平方向のライン(X座標)上の濃度を示す。
【0025】
ステップS13で、この濃度変化について、ピークに対応するX0座標を中心に、左右対称となるエリアを検索し、対称とならなくなった位置X1,X2を保存する。物体が車両などである場合、その画像濃度は中心から左右対称となり、車両より外側になると、路面などが画像として検出されるので、左右対称とはならなくなる。したがって、左右対称とならなくなった位置X1,X2の近辺に物体のエリアがある可能性が高い。なお、左右対称を判断する際には、同一物体であっても実際には100%対称とはならないので、ある程度の許容範囲を持たせて判断をする。
【0026】
ステップS14で、位置X1,X2を中心として、前後数座標のエリア(X3〜X4,X5〜X6)を検索エリアとして保存する。このように、位置X1,X2の近辺のエリアを特定することにより、物体のエッジがこの検索エリア内に存在することとなる。
以後のステップ、即ち、この検索エリアを使用するステップS4〜7の処理は、前述の図7のフローチャートと同様である。本例においても、画像処理に要する時間を短縮し、路面文字などを物体と誤検出することが防止できる。
【0027】
(実施形態2−2)
上記ステップS13,14における画像処理による検索エリアの抽出は、画像の濃度変化の代わりに、濃度投影値を用いても抽出することができる。
図17は、画像の濃度投影値を利用した検索エリアの抽出方法を示す。この濃度投影値は、カメラ2,3から得た画像について、垂直方向(縦位置)に画素濃度を合計して得るものである。本例でも、上述の実施形態2−1と同様にして検索エリアX3〜X4,X5〜X6を得る。
【0028】
(実施形態3−1)
図18は、図6のマイコン5の第3の処理を示すフローチャートである。
ステップS21で、カメラ2,3から画像を取得する。
ステップS22で、画像処理により縦エッジを抽出する。この画像処理では、画像の全範囲に渡って縦エッジを抽出するので、得られた結果は、前述の図3に示すようになる。
【0029】
ステップS23で、得られた縦エッジについてパワーの強いものから順にピーク抽出を行う。得られた結果は、前述の図4に示すようになる。そして、各エッジの抽出位置を角度位置Xn として保存する。
ステップS24で、ミリ波レーダ1により、特定エリア内をスキャンする。
ステップS25で、スキャンの結果得られた結果から角度位置Yn を抽出して保存する。この角度位置Yn は、前述の実施形態1及び実施形態2で検索エリアとして抽出したものと同様であり、図8、図10、図12に示す方法のいずれか、又は、その組み合わせを使用することができる。
【0030】
ステップS26で、角度位置Xn とYnの共通部分を抽出する。
ステップS27で、抽出した共通の角度位置にあるターゲットについて視差を求め、距離値に換算して物体を検出する。
本例においては、画像処理に要する時間は短縮されないが、路面文字などの障害物に対する誤測距を除去することが可能である。
【0031】
【発明の効果】
本発明によれば、ミリ波レーダと画像処理を使用した物体検出装置において、ミリ波レーダと画像処理の欠点を相互に補いながら、処理時間を短縮することができる。
【図面の簡単な説明】
【図1】従来の物体検出装置の構成を示す図。
【図2】物体検出装置の前方の状況を示す画像を示す図。
【図3】図1の装置の画像処理により計算されたエッジを示す図。
【図4】図3の結果から抽出されたエッジを示す図。
【図5】図1のミリ波レーダから出力された結果を示す図。
【図6】本発明を適用した走行支援装置の構成を示す図。
【図7】図6のマイコンの処理を示すフローチャート。
【図8】図6のミリ波レーダにより得られたパワー強度から検索エリアを決定する方法を示す図。
【図9】図7の処理により抽出されたエッジを示す図。
【図10】図6のミリ波レーダにより得られたパワー強度から検索エリアを決定する第2の方法を示す図。
【図11】図10に示す方法で抽出されたエッジを示す図。
【図12】図6のミリ波レーダにより得られたパワー強度から検索エリアを決定する第3の方法を示す図。
【図13】前方に先行車両が複数ある状況の画像を示す図。
【図14】図6のマイコンの第2の処理を示すフローチャート。
【図15】図14の処理におけるパワー強度を示す図。
【図16】図14の処理における検索エリアを決定する方法を示す図(その1)。
【図17】図12の処理における検索エリアを決定する方法を示す図(その2)。
【図18】図6のマイコンの第3の処理を示すフローチャート(実施形態3)。
【符号の説明】
1…ミリ波レーダ
2…左カメラ
3…右カメラ
4…ECU
5…マイコン
6…先行車両
7…ライン
8…ガードレール
9…第2の先行車両
11…画像処理用マイコン
12…融合処理用マイコン[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an object detection device. The object detection device of the present invention is mounted on a vehicle, for example, and is used as a device that assists the driver in driving the vehicle by detecting a preceding vehicle, an obstacle, or the like.
[0002]
[Prior art]
Conventional object detection devices use a fusion algorithm that examines the reliability of data using the results of both target detection results in millimeter-wave radar and target detection results in image processing, and derives optimal results. Was building.
FIG. 1 shows a configuration of a conventional object detection apparatus.
[0003]
The object detection device includes a
The
[0004]
FIG. 2 shows an example of an image. There is one preceding
[0005]
The processing method in the
[0006]
The
[0007]
[Problems to be solved by the invention]
In the conventional object detection apparatus described above, it is difficult to overcome the weaknesses of both the millimeter wave radar and the image processing, and it is impossible to derive an optimum result that exceeds the results obtained from the millimeter wave radar and the image processing. Further, the processing time required for the conventional
[0008]
An object of the present invention is to reduce processing time in an object detection apparatus using millimeter wave radar and image processing while mutually compensating for the drawbacks of millimeter wave radar and image processing.
[0009]
[Means for Solving the Problems]
The present invention has been made to achieve the above object. The object detection device of the present invention specifies an image recognition area based on power output from a millimeter wave radar, an image acquisition unit, and a millimeter wave radar, and the specified image for the image acquired from the image acquisition unit. It is comprised from the processing means which performs an image process only in a recognition area.
[0010]
When the millimeter wave radar detects an object such as an obstacle or a vehicle, the millimeter wave radar outputs a predetermined power. By performing image processing only in the area where this power is detected, it is possible to detect an object that overcomes the weaknesses of both millimeter wave radar and image processing. In addition, the processing time for image processing is shortened. Furthermore, in the case of image processing, road surface characters may be misrecognized as an object, but millimeter wave radar does not detect this, so image processing is limited to the area where millimeter wave radar detects the object. Therefore, it is possible to prevent erroneous detection of an actual character such as a road surface character.
[0011]
Another aspect of the object detection apparatus of the present invention is to extract an edge from the image from the millimeter wave radar, the image acquisition means, and the image acquisition means, and the position of the extracted edge is based on the detection result of the millimeter wave radar. Based on the extracted power, it is determined whether or not it exists within a predetermined area, and processing means for setting only the existing edge as an effective edge.
[0012]
According to this configuration, even if the edge is extracted from the image, it is ignored unless the target detected by the millimeter wave radar as an object. Therefore, it is possible to prevent erroneous detection of road characters and the like. Object detection that overcomes both weaknesses of processing is possible.
[0013]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an embodiment in which an object detection device of the present invention is applied to a vehicle travel support device will be described with reference to the drawings.
FIG. 6 shows a circuit configuration of the driving support device.
The travel support apparatus includes a
[0014]
Next, processing of the
(Embodiment 1-1)
FIG. 7 is a flowchart showing the processing of the
In FIG. 7, a specific area is scanned by the
[0015]
In step S2, an object having a strong power (P [dB] or more) is recognized as a target, and the angle range (X0 to X1) where the target exists is stored as a search area. Here, only the preceding
[0016]
In step S3, for the images acquired from the left and
In step S4, vertical edges are extracted within the limited search area. Note that this vertical edge extraction processing is well known in the technical field, so description of the processing content will be omitted.
[0017]
In step S5, only those with strong power are extracted.
Here, FIG. 3 described above is a diagram illustrating a result when vertical edges are extracted over the entire image obtained from the
[0018]
Thus, by extracting the vertical edge only within the limited search area, the processing time can be shortened as compared with the case of extracting the vertical edge for the entire image. Further, since the edge extraction is not performed for the
[0019]
According to the example described above, the processing time can be shortened by limiting the search area when performing edge extraction by image processing. Moreover, since obstacles such as road surface characters are not reflected in the power by the millimeter wave radar, only objects such as obstacles and preceding vehicles can be detected.
(Embodiment 1-2)
The detection of the search area in step S2 in FIG. 7 can be variously modified.
[0020]
FIG. 10 shows a method for extracting different search areas in step S2. FIG. 11 shows the result of the edge extraction.
In FIG. 10, a range of power intensity P0 to P1 [dB] obtained from the
[0021]
(Embodiment 1-3)
FIG. 12 shows a further different search area extraction method in step S2 of FIG. FIG. 13 shows the front situation in this example.
The power intensity distribution obtained from the
[0022]
(Embodiment 1-4)
When actually traveling on an expressway or the like, the possibility of a single vehicle in front of the vehicle is extremely low, and in many cases there are a plurality of vehicles.
Therefore, various patterns exist as output results from the millimeter wave radar and cannot be uniquely determined. Therefore, as step S2 in FIG. 7, the total of all the search areas described in the above-described embodiments 1-1 to 1-3 is set as the search area, so that it is possible to deal with actual traveling.
[0023]
(Embodiment 2-1)
FIG. 14 is a flowchart showing the second process of the
In step S11, the
[0024]
In step S12, a strong power is recognized as a target, and an angle (X0) is extracted and stored corresponding to the power intensity peak in FIG.
In steps S13 and S14, a search area is extracted from the density change of the image. FIG. 16 shows the density change of the images obtained from the
[0025]
In step S13, an area that is symmetric about the X0 coordinate corresponding to the peak is searched for this density change, and the positions X1 and X2 that are no longer symmetric are stored. When the object is a vehicle or the like, the image density is symmetrical from the center, and when the object is outside the vehicle, the road surface or the like is detected as an image. Therefore, there is a high possibility that there is an object area in the vicinity of the positions X1 and X2 that are no longer symmetrical. When determining left / right symmetry, even if the object is the same, it is not actually 100% symmetric, so the determination is made with a certain tolerance.
[0026]
In step S14, an area with several coordinates around the positions X1 and X2 (X3 to X4, X5 to X6) is stored as a search area. Thus, by specifying the area in the vicinity of the positions X1 and X2, the edge of the object is present in this search area.
The subsequent steps, that is, the processes of steps S4 to S7 using this search area are the same as those in the flowchart of FIG. Also in this example, it is possible to reduce the time required for image processing and to prevent erroneous detection of road characters and the like as objects.
[0027]
(Embodiment 2-2)
The search area can be extracted by the image processing in steps S13 and S14 using a density projection value instead of the density change of the image.
FIG. 17 shows a search area extraction method using the density projection value of an image. This density projection value is obtained by summing the pixel densities in the vertical direction (vertical position) for the images obtained from the
[0028]
(Embodiment 3-1)
FIG. 18 is a flowchart showing a third process of the
In step S21, images are acquired from the
In step S22, vertical edges are extracted by image processing. In this image processing, vertical edges are extracted over the entire range of the image, and the obtained result is as shown in FIG.
[0029]
In step S23, the obtained vertical edges are extracted in descending order of power. The obtained result is as shown in FIG. And the extraction position of each edge is preserve | saved as angle position Xn .
In step S24, the
In step S25, the angular position Y n is extracted from the result obtained by scanning and stored. This angular position Y n is the same as that extracted as the search area in the first and second embodiments described above, and uses one of the methods shown in FIGS. 8, 10, and 12, or a combination thereof. be able to.
[0030]
In step S26, the common part of the angular positions Xn and Yn is extracted.
In step S27, the parallax is obtained for the extracted target at the common angular position, and the object is detected by converting it to a distance value.
In this example, the time required for image processing is not shortened, but it is possible to eliminate erroneous distance measurement for obstacles such as road surface characters.
[0031]
【The invention's effect】
According to the present invention, in an object detection device using millimeter wave radar and image processing, it is possible to shorten the processing time while mutually compensating for the drawbacks of millimeter wave radar and image processing.
[Brief description of the drawings]
FIG. 1 is a diagram showing a configuration of a conventional object detection apparatus.
FIG. 2 is a diagram showing an image showing a situation in front of the object detection device.
FIG. 3 is a diagram showing edges calculated by image processing of the apparatus of FIG. 1;
FIG. 4 is a diagram showing edges extracted from the result of FIG. 3;
FIG. 5 is a view showing a result output from the millimeter wave radar of FIG. 1;
FIG. 6 is a diagram showing a configuration of a driving support device to which the present invention is applied.
7 is a flowchart showing processing of the microcomputer in FIG. 6;
8 is a diagram showing a method for determining a search area from the power intensity obtained by the millimeter wave radar shown in FIG. 6;
9 is a diagram showing edges extracted by the process of FIG. 7;
10 is a diagram showing a second method for determining a search area from the power intensity obtained by the millimeter wave radar of FIG. 6; FIG.
FIG. 11 is a diagram showing edges extracted by the method shown in FIG. 10;
12 is a diagram showing a third method for determining a search area from the power intensity obtained by the millimeter wave radar of FIG. 6; FIG.
FIG. 13 is a diagram showing an image in a situation where there are a plurality of preceding vehicles ahead.
FIG. 14 is a flowchart showing second processing of the microcomputer of FIG. 6;
15 is a diagram showing power intensity in the processing of FIG. 14;
FIG. 16 is a diagram (No. 1) illustrating a method for determining a search area in the process of FIG. 14;
17 is a diagram showing a method for determining a search area in the process of FIG. 12 (part 2);
FIG. 18 is a flowchart showing a third process of the microcomputer of FIG. 6 (third embodiment).
[Explanation of symbols]
1 ...
5 ...
Claims (5)
ミリ波レーダと、
前記画像取得手段の前記2つのカメラから取得した画像の全範囲にわたって縦エッジを抽出し、抽出された前記縦エッジについてパワーの強いものから順にピークを抽出し、当該縦エッジの各々の抽出位置を第1の角度位置として保存し、また一方で、前記ミリ波レーダにより特定エリア内のスキャンを行って得られた結果から、前記特定エリア内でパワーの強いものをターゲットとして認識し、前記ターゲットとして認識された位置を第2の角度位置として保存し、前記第1の角度位置と前記第2の角度位置との共通部分を抽出し、前記共通部分にある複数のピークの視差を求め、前記視差に基づいて前記ターゲットまでの距離値を算出し、物体検出のための画像処理を実行する処理手段とを具備することを特徴とする物体検出装置。Image acquisition means having two cameras ;
Millimeter wave radar,
Said extracting vertical edges over the entire range of the image obtained from the two cameras, the extracted said longitudinal edges to extract a peak in the order of strong power, the extraction position of each of the longitudinal edges of the image acquisition unit The first angular position is stored, and on the other hand, from the result obtained by scanning the specific area with the millimeter wave radar, a target having a strong power in the specific area is recognized as the target, The recognized position is stored as a second angular position, a common part between the first angular position and the second angular position is extracted, and parallaxes of a plurality of peaks in the common part are obtained , and the parallax An object detection apparatus comprising: processing means for calculating a distance value to the target based on the above and executing image processing for object detection.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000118549A JP4308405B2 (en) | 2000-04-14 | 2000-04-14 | Object detection device |
US09/834,403 US20010031068A1 (en) | 2000-04-14 | 2001-04-13 | Target detection system using radar and image processing |
US11/188,160 US7376247B2 (en) | 2000-04-14 | 2005-07-21 | Target detection system using radar and image processing |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000118549A JP4308405B2 (en) | 2000-04-14 | 2000-04-14 | Object detection device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2001296357A JP2001296357A (en) | 2001-10-26 |
JP4308405B2 true JP4308405B2 (en) | 2009-08-05 |
Family
ID=18629663
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000118549A Expired - Fee Related JP4308405B2 (en) | 2000-04-14 | 2000-04-14 | Object detection device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4308405B2 (en) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4311861B2 (en) * | 2000-05-18 | 2009-08-12 | 富士通テン株式会社 | Vehicle object detection device |
JP2004069328A (en) * | 2002-08-01 | 2004-03-04 | Nissan Motor Co Ltd | Forward environment recognizing device and forward environment recognizing method |
EP1648746B1 (en) | 2003-07-11 | 2008-09-10 | Toyota Jidosha Kabushiki Kaisha | Crash-safe vehicle control system |
JP4396400B2 (en) * | 2004-06-02 | 2010-01-13 | トヨタ自動車株式会社 | Obstacle recognition device |
US6972714B1 (en) * | 2004-06-08 | 2005-12-06 | Agilent Technologies, Inc. | Optically-augmented microwave imaging system and method |
JP2006151125A (en) * | 2004-11-26 | 2006-06-15 | Omron Corp | On-vehicle image processing device |
JP2006258507A (en) * | 2005-03-15 | 2006-09-28 | Omron Corp | Apparatus for recognizing object in front |
JP2007240276A (en) * | 2006-03-07 | 2007-09-20 | Olympus Corp | Distance measuring device/imaging device, distance measuring method/imaging method, distance measuring program/imaging program, and storage medium |
JP2009086787A (en) * | 2007-09-28 | 2009-04-23 | Hitachi Ltd | Vehicle detection device |
JP5029436B2 (en) * | 2008-03-12 | 2012-09-19 | オムロン株式会社 | Crossing object detection apparatus, crossing object detection method, and program |
JP5363094B2 (en) * | 2008-12-25 | 2013-12-11 | 富士通テン株式会社 | Signal processing apparatus and radar apparatus |
JP5907546B2 (en) * | 2009-01-16 | 2016-04-26 | 日本電気株式会社 | POSITION INFORMATION ANALYSIS DEVICE, POSITION INFORMATION ANALYSIS METHOD, POSITION INFORMATION ANALYSIS SYSTEM, AND PROGRAM |
JP5471195B2 (en) * | 2009-09-03 | 2014-04-16 | トヨタ自動車株式会社 | Object detection device |
JP5632762B2 (en) | 2011-01-25 | 2014-11-26 | パナソニック株式会社 | POSITIONING INFORMATION FORMING DEVICE, DETECTING DEVICE, AND POSITIONING INFORMATION FORMING METHOD |
JP2023046417A (en) | 2020-02-27 | 2023-04-05 | ソニーセミコンダクタソリューションズ株式会社 | Object recognition system and object recognition method |
-
2000
- 2000-04-14 JP JP2000118549A patent/JP4308405B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2001296357A (en) | 2001-10-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7376247B2 (en) | Target detection system using radar and image processing | |
US10755116B2 (en) | Image processing apparatus, imaging apparatus, and device control system | |
JP4308405B2 (en) | Object detection device | |
US9476976B2 (en) | Object recognition apparatus and vehicle | |
EP2422320B1 (en) | Object detection device | |
EP2993654B1 (en) | Method and system for forward collision warning | |
US6670912B2 (en) | Method for detecting stationary object located above road | |
JP5690688B2 (en) | Outside world recognition method, apparatus, and vehicle system | |
KR101176693B1 (en) | Method and System for Detecting Lane by Using Distance Sensor | |
US10853963B2 (en) | Object detection device, device control system, and medium | |
JP6468136B2 (en) | Driving support device and driving support method | |
JP2003296736A (en) | Device for detecting obstacle and method thereof | |
JP6837262B2 (en) | Travelable area detection device and travel support system | |
EP1687755A2 (en) | Method and apparatus for refining target position and size estimates using image and depth data | |
JP2003099762A (en) | Precedent vehicle recognition device and recognition method | |
JP3656056B2 (en) | Interrupting vehicle detection device and method | |
KR20140024681A (en) | Apparatus and method for detecting lane | |
JP2006048435A (en) | Image processor for vehicles | |
JP4311861B2 (en) | Vehicle object detection device | |
JP2001082954A (en) | Image processing device and image processing distance- measuring method | |
JP2006004188A (en) | Obstacle recognition method and obstacle recognition device | |
US20230115845A1 (en) | Vehicle control device, vehicle control method, and storage medium | |
US20230112878A1 (en) | Vehicle control device, vehicle control method, and storage medium | |
US20230114781A1 (en) | Vehicle control device, vehicle control method, and storage medium | |
JP2002008019A (en) | Railway track recognition device and rolling stock using railway track recognition device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070413 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080701 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080901 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20081111 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090113 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090407 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090501 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120515 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120515 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130515 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130515 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140515 Year of fee payment: 5 |
|
LAPS | Cancellation because of no payment of annual fees |