JP2001330665A - On-vehicle object detector using radar and image processing - Google Patents

On-vehicle object detector using radar and image processing

Info

Publication number
JP2001330665A
JP2001330665A JP2000152695A JP2000152695A JP2001330665A JP 2001330665 A JP2001330665 A JP 2001330665A JP 2000152695 A JP2000152695 A JP 2000152695A JP 2000152695 A JP2000152695 A JP 2000152695A JP 2001330665 A JP2001330665 A JP 2001330665A
Authority
JP
Japan
Prior art keywords
distance
flag
image recognition
edge
road surface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000152695A
Other languages
Japanese (ja)
Other versions
JP4311861B2 (en
JP2001330665A5 (en
Inventor
Kenji Oka
謙治 岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2000152695A priority Critical patent/JP4311861B2/en
Priority to US09/834,403 priority patent/US20010031068A1/en
Publication of JP2001330665A publication Critical patent/JP2001330665A/en
Priority to US11/188,160 priority patent/US7376247B2/en
Publication of JP2001330665A5 publication Critical patent/JP2001330665A5/ja
Application granted granted Critical
Publication of JP4311861B2 publication Critical patent/JP4311861B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To enhance the reliability of an on-vehicle object detector which detects an object by a processing part on the basis of output data from a radar and on the basis of output data from an image recognition part. SOLUTION: On the basis of a short-range flag from the radar 1, effective edge data are selected from edge data which is outputted by the image recognition part 15. A fusion processing operation is performed by a fusion processing part 19. Thereby, it is possible to prevent the erroneous recognition and the erroneous distance measurement of the image recognition part at a stage before the fusion processing operation. When the image recognition part detects the density difference between characters or the like on a road surface, a road surface flag or a character flag is added, and its edge data is not used for the fusion processing operation.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、車両に搭載され、
レーダと画像処理を用いて車両の前方にある物体の検出
を行う車載用物体検出装置に関するものである。
The present invention relates to a vehicle mounted on a vehicle,
The present invention relates to an in-vehicle object detection device that detects an object in front of a vehicle using radar and image processing.

【0002】[0002]

【従来の技術】従来より、レーダと画像処理を用いた渋
滞走行支援システムを車両に搭載して、車両の前方にあ
る物体を検出することが行われている。画像処理では、
複眼カメラを用いて物体の測距を行う。まず、一方のカ
メラから取得した画像からエッジ抽出をし、その抽出し
たエッジに対応するエッジをもう一方のカメラから取得
した画像から検出し、両エッジの視差を算出することに
より測距を行う。画像処理は、広い幅で測距が可能であ
るが、遠距離の物体検出は精度が低くなるという特徴が
ある。
2. Description of the Related Art Conventionally, a traffic jam support system using radar and image processing is mounted on a vehicle to detect an object in front of the vehicle. In image processing,
The distance of the object is measured using a compound-eye camera. First, an edge is extracted from an image acquired from one camera, an edge corresponding to the extracted edge is detected from an image acquired from the other camera, and distance measurement is performed by calculating a parallax of both edges. In image processing, distance measurement can be performed in a wide range, but detection of a long-distance object has a characteristic that accuracy is low.

【0003】レーダは、電波を用いて前方の物体の測距
を行い、遠距離まで精度の高い測距ができるが、近距離
の物体の測距精度は低いという特徴がある。レーダは、
近距離で物体を検出したときは、近距離に何か物体があ
るということを示す近距離フラグを出力する。図1は、
車載用物体検出装置1における検知エリア区分を示す。
[0003] The radar measures the distance of a forward object by using radio waves, and can measure the distance with high accuracy up to a long distance, but has the characteristic that the accuracy of distance measurement of an object at a short distance is low. Radar is
When an object is detected at a short distance, a short distance flag indicating that there is an object at a short distance is output. FIG.
2 shows a detection area division in the on-vehicle object detection device 1.

【0004】画像処理により物体検出が可能なエリア2
は幅が広く、ミリ波レーダにより物体検出が可能なエリ
ア3は、遠距離まで達する。また、画像処理とミリ波レ
ーダの両方で物体検出が可能なエリアでは、レーダの出
力データと画像処理の出力データとの融合(フュージョ
ン)処理により物体の認識を行い、このエリアをフュー
ジョンエリア4という。
Area 2 where an object can be detected by image processing
Is wide, and the area 3 where the object can be detected by the millimeter wave radar reaches a long distance. Further, in an area where object detection can be performed by both image processing and millimeter wave radar, object recognition is performed by fusion (fusion) processing of the output data of the radar and the output data of the image processing, and this area is called a fusion area 4. .

【0005】[0005]

【発明が解決しようとする課題】画像処理による物体の
測距には以下の問題がある。 1.(誤認識)エッジ抽出処理は、単純に縦方向のエッ
ジを抽出する処理であるため、ターゲット以外の路面文
字や影等の立体物ではない物についても濃淡差によりエ
ッジを抽出する場合がある。この場合、物体が存在して
いないのにエッジを出力することとなる。
There are the following problems in object distance measurement by image processing. 1. (Misrecognition) Since the edge extraction process is a process of simply extracting a vertical edge, edges other than a target, such as road surface characters and shadows, which are not three-dimensional objects, may be extracted based on differences in shading. In this case, an edge is output even though no object exists.

【0006】2.(誤測距)エッジを見つけたときは、
2つのカメラから取得した画像についてパターンマッチ
ング処理により測距を行う。この処理では、偶然でも似
たパターンが存在すると対応を間違えることがある。 本発明は、レーダからの出力データと画像認識部からの
出力データとに基づいて、処理部にて物体の検出を行う
車載用物体検出装置において、画像認識における誤認
識、誤測距を防止することで、信頼性を向上させること
を目的とする。
[0006] 2. (Incorrect distance measurement) When you find an edge,
Distance measurement is performed on the images acquired from the two cameras by pattern matching processing. In this processing, if a similar pattern exists by chance, the correspondence may be mistaken. The present invention prevents erroneous recognition and ranging in image recognition in an in-vehicle object detection device that detects an object in a processing unit based on output data from a radar and output data from an image recognition unit. Thus, the object is to improve reliability.

【0007】[0007]

【課題を解決するための手段】本発明は、上記目的を達
成するためになされたものである。本発明は、レーダか
らの出力データと、画像認識部からの出力データとに基
づいて、処理部にて物体の検出を行う車載用物体検出装
置において、レーダの近距離フラグ、画像認識部の文字
フラグ、路面フラグを用いることにより、上記の画像認
識部の誤認識、誤測距を融合処理の前段階で防止する。
SUMMARY OF THE INVENTION The present invention has been made to achieve the above object. The present invention relates to an in-vehicle object detection device that detects an object in a processing unit based on output data from a radar and output data from an image recognition unit. By using the flag and the road surface flag, the above-described erroneous recognition and erroneous distance measurement by the image recognition unit are prevented before the fusion processing.

【0008】本発明においては、画像認識部が近距離で
物体を検知しても、レーダの近距離フラグの状態によっ
ては、画像認識部が検知したエッジデータを融合処理に
使用しない。また、画像認識部が路面上の文字などの濃
度差を検知した場合は、路面フラグ又は文字フラグを付
して、そのエッジデータを融合処理に使用しないように
する。
In the present invention, even if the image recognition unit detects an object at a short distance, the edge data detected by the image recognition unit is not used for the fusion processing depending on the state of the short distance flag of the radar. When the image recognition unit detects a density difference of a character or the like on a road surface, a road surface flag or a character flag is added to prevent the edge data from being used in the fusion processing.

【0009】[0009]

【発明の実施の形態】図2は、本発明を適用した車載用
物体検出装置の基本的なシステム構成を示す。車載用物
体検出装置1は、ミリ波レーダ11と、左カメラ12と
右カメラ13と、画像処理用ECU14とから構成され
る。ECU14は、2つのカメラ12,13から入力さ
れる画像を処理してエッジデータを出力する画像認識部
15と、ミリ波レーダ11と画像認識部15から入力さ
れるエッジデータを融合処理して物体の存在検知と測距
を行う処理部16を含む。
FIG. 2 shows a basic system configuration of an on-vehicle object detecting apparatus to which the present invention is applied. The on-vehicle object detection device 1 includes a millimeter wave radar 11, a left camera 12, a right camera 13, and an image processing ECU 14. The ECU 14 processes an image input from the two cameras 12 and 13 and outputs edge data. The ECU 14 integrates the edge data input from the millimeter wave radar 11 and the image recognition unit 15 to perform an object processing. And a processing unit 16 for detecting the presence of the object and measuring the distance.

【0010】以上説明した構成は、従来の物体検出装置
と同様である。ただし、従来の物体検出装置では、画像
認識部15から処理部16へ結果を出力するだけの単方
向通信であったが、図2に示す物体検出装置では、処理
部16と画像認識部15とが双方向通信となる場合があ
る点が従来と異なる。ミリ波レーダ11は、ミリ波の電
波を車両の前方に向けて放射し、物体により反射された
電波から物体の存在の検知と測距を行う。ミリ波レーダ
11は、近距離での測距の精度は低く、近距離で物体を
検出した場合は、近距離フラグを出力する。近距離フラ
グは、ターゲットが至近距離(例えば5m以下)に存在
する場合、時系列的に安定した状態で出力され、近距離
(例えば5〜10m程度)に存在する場合は不安定な状
態で間欠的に出力される。また、遠距離(例えば10m
以上)に存在する場合は出力されないという特性を持
つ。
The configuration described above is the same as that of a conventional object detection device. However, in the conventional object detection device, one-way communication was performed only to output a result from the image recognition unit 15 to the processing unit 16. However, in the object detection device illustrated in FIG. Is different from the conventional one in that there is a case where two-way communication is performed. The millimeter wave radar 11 radiates a millimeter wave radio wave toward the front of the vehicle, and detects the presence of the object and measures the distance from the radio wave reflected by the object. The millimeter wave radar 11 has a low distance measurement accuracy at a short distance, and outputs a short distance flag when detecting an object at a short distance. The short distance flag is output in a time-series stable state when the target is at a close distance (for example, 5 m or less), and is in an unstable state when the target is at a short distance (for example, about 5 to 10 m). Is output. In addition, a long distance (for example, 10 m
Above) does not output.

【0011】図3を用いて画像認識部15の処理につい
て説明する。画像認識部15では、まず、一方のカメラ
12の入力画像(図3(A))についてエッジ抽出を行
う。その結果、図3(B)に示すエッジが得られる。次
にそのエッジ抽出の結果から、縦に連続しているエッジ
を強い順にN個(例、16個)抽出する(ピーク抽出、
図3(C))。
The processing of the image recognition unit 15 will be described with reference to FIG. The image recognition unit 15 first performs edge extraction on the input image (FIG. 3A) of one camera 12. As a result, an edge shown in FIG. 3B is obtained. Next, from the result of the edge extraction, N (eg, 16) vertically consecutive edges are extracted in order of strength (peak extraction,
(FIG. 3 (C)).

【0012】N個のエッジのそれぞれから、図3(E)
に示すように、M×M(例、9×9)の画素から構成さ
れるマッチングパターン17を取り出し、もう一方のカ
メラ13からの入力画像(図3(D))に対し、パター
ンマッチングを行い、対応するエッジを検出する。そし
て、両方のエッジの視差から、各エッジまでの距離を算
出し、その結果をエッジデータとして処理部16に出力
する。
From each of the N edges, FIG.
As shown in (1), a matching pattern 17 composed of M × M (eg, 9 × 9) pixels is extracted, and pattern matching is performed on an input image (FIG. 3D) from the other camera 13. , Detect the corresponding edge. Then, the distance to each edge is calculated from the parallax of both edges, and the result is output to the processing unit 16 as edge data.

【0013】図3(B)にも示したように、画像認識部
15では、ターゲット以外の白線等の路面上の立体物で
はない濃度差に対してもエッジを抽出し、距離を出力し
てしまうことがある。また、パターンマッチングに用い
るパターンは図3(E)に示したように、M×M画素の
大きさのパターン17を用いるのであるが、偶然にマッ
チングエリアにそのパターンに似たパターンが存在する
と、対応を間違い、誤測距してしまうことがある。
As shown in FIG. 3B, the image recognizing unit 15 also extracts edges for a density difference that is not a three-dimensional object on the road surface such as a white line other than the target, and outputs a distance. Sometimes. As shown in FIG. 3 (E), a pattern 17 having a size of M × M pixels is used as a pattern used for pattern matching. However, if a pattern similar to the pattern exists in the matching area by accident, There is a case where the correspondence is wrong and the distance is erroneously measured.

【0014】そこで、本発明では、ミリ波レーダ11が
出力する近距離フラグ、画像認識部15が出力する文字
フラグ、路面フラグを用いることにより、フュージョン
エリアに関して上記の画像認識システムの誤認識、誤測
距を処理部16による融合処理の前段階で防止する。 (実施例1)以下に、各実施例ごとに、具体的な処理に
ついて示す。なお、以下の各図においては、同一機能の
部分については同一の参照符号を付して、重複する説明
は省略する。
Therefore, in the present invention, by using the short-range flag output by the millimeter-wave radar 11, the character flag output by the image recognition unit 15, and the road surface flag, the above-described image recognition system of the above-described image recognition system Distance measurement is prevented before the fusion process by the processing unit 16. (Embodiment 1) Specific processing will be described below for each embodiment. In the following drawings, parts having the same function are denoted by the same reference numerals, and redundant description will be omitted.

【0015】図4は、本発明の第1の実施例の構成を示
す。なお、前述の図2を用いて説明済みの部分について
は説明を省略する。画像認識部15からエッジデータが
出力されると、処理部16では、前段階処理部18で、
ミリ波レーダ11から出力される近距離フラグにより、
エッジデータを選択処理する。そして、有効であると判
定したエッジデータを採用して融合処理部19へ出力す
る。
FIG. 4 shows the configuration of the first embodiment of the present invention. The description of the parts already described with reference to FIG. 2 will be omitted. When the edge data is output from the image recognition unit 15, the processing unit 16 performs
By the short distance flag output from the millimeter wave radar 11,
Selects edge data. Then, the edge data determined to be valid is adopted and output to the fusion processing unit 19.

【0016】図5のフローチャートを用いて、上記処理
の詳細を説明する。画像認識部15では、カメラ12,
13から画像を入力し(ステップS1)、一方の画像か
らエッジを抽出する(ステップS2)。抽出したエッジ
の中から、強いピークのエッジを所定数抽出(ステップ
S3)する。各エッジごとに他方の画像についてパター
ンマッチングを行い(ステップS4)、測距を行う(ス
テップS5)。
The above processing will be described in detail with reference to the flowchart of FIG. In the image recognition unit 15, the camera 12,
13 (step S1), and an edge is extracted from one of the images (step S2). A predetermined number of strong peak edges are extracted from the extracted edges (step S3). Pattern matching is performed for the other image for each edge (step S4), and distance measurement is performed (step S5).

【0017】処理部16の前段階処理部18では、ミリ
波レーダ11から近距離フラグが出力されているか否か
を判定し(ステップS6)、出力されていれば近距離フ
ラグが安定して出力されているか否かを判定する(ステ
ップS7)。その結果、近距離フラグが安定して(時系
列的に連続して)出力されていると判断した場合は、物
体が至近距離(例、0〜5m)に存在すると判断し、至
近距離(例、5m以下)の距離情報を持つエッジデータ
を採用する(ステップS8)。また、近距離フラグが不
安定に(間欠的に)出力されていると判断した場合、物
体が近距離(例、5〜10m)に存在すると判定し、近
距離(例、5〜10m)の距離情報を持つエッジを採用
する(ステップS9)。さらに、近距離フラグが出力さ
れていない場合は、遠距離(例、10m以上)にあると
判定し、フュージョンエリア4にある遠距離(例、10
m以上)の距離情報を持つエッジを採用する(ステップ
S10)。
The pre-processing unit 18 of the processing unit 16 determines whether or not the short-range flag is output from the millimeter wave radar 11 (step S6). If the short-range flag is output, the short-range flag is output stably. It is determined whether or not it has been performed (step S7). As a result, when it is determined that the short distance flag is output stably (continuously in time series), it is determined that the object exists at a close distance (for example, 0 to 5 m), and the close distance flag (for example, 0 to 5 m) is determined. (5 m or less) is adopted (step S8). When it is determined that the short distance flag is output unstable (intermittently), it is determined that the object exists at a short distance (e.g., 5 to 10 m). An edge having distance information is adopted (step S9). Further, if the short distance flag is not output, it is determined that the vehicle is at a long distance (eg, 10 m or more), and a long distance (eg, 10 m) in the fusion area 4 is determined.
An edge having distance information of m or more is adopted (step S10).

【0018】融合処理部19では、採用されたエッジデ
ータとミリ波レーダ11からの出力データに基づいて、
融合処理を実行して、物体の存在の認識と測距を行い
(ステップS11)、結果を出力する(ステップS1
2)。本例によれば、エッジデータを画像認識部15が
誤認識又は誤測距した場合であっても、誤測距したエリ
アでミリ波レーダ11が物体を検出しなければ、そのエ
ッジデータは除去される。したがって、物体の誤認識又
は誤測距を防止できる。また、融合処理を行う前に無効
なエッジデータが除去されるので、処理時間を短縮する
ことができる。
In the fusion processing unit 19, based on the adopted edge data and the output data from the millimeter wave radar 11,
The fusion process is executed to recognize the presence of the object and measure the distance (step S11), and output the result (step S1).
2). According to this example, even if the image recognition unit 15 misrecognizes or incorrectly measures the distance of the edge data, if the millimeter wave radar 11 does not detect an object in the incorrectly measured area, the edge data is removed. Is done. Therefore, erroneous recognition or erroneous distance measurement of the object can be prevented. Further, since invalid edge data is removed before performing the fusion process, the processing time can be reduced.

【0019】(実施例2)図6は、本発明の第2の実施
例の構成を示す。処理部16の連続性判定部20で、ミ
リ波レーダ11から出力される近距離フラグの状態を判
定し、その結果のデータを画像認識部15の無効エッジ
除去部21に送る。無効エッジ除去部21では、近距離
フラグの状態に応じて無効なエッジデータを除去した上
で、エッジデータを融合処理部19に出力する。
(Embodiment 2) FIG. 6 shows the configuration of a second embodiment of the present invention. The continuity determination unit 20 of the processing unit 16 determines the state of the short distance flag output from the millimeter wave radar 11 and sends the data to the invalid edge removal unit 21 of the image recognition unit 15. The invalid edge removing unit 21 removes invalid edge data according to the state of the short distance flag, and outputs the edge data to the fusion processing unit 19.

【0020】図7のフローチャートを用いて、上記処理
の詳細を説明する。画像認識部15において、上記実施
例1のステップS1〜3と同様に、画像入力(ステップ
S21)と、エッジ抽出(ステップS22)と、ピーク
抽出(23)が行われる。画像認識部15は、除去され
なかったエッジデータを用いて、上記実施例のステップ
S4、5と同様に、パターンマッチングを行い(ステッ
プS24)、測距を行う(ステップS25)。
The above processing will be described in detail with reference to the flowchart of FIG. In the image recognizing unit 15, image input (step S21), edge extraction (step S22), and peak extraction (23) are performed as in steps S1 to S3 of the first embodiment. The image recognition unit 15 performs pattern matching (step S24) and performs distance measurement (step S25) using the edge data that has not been removed in the same manner as in steps S4 and S5 in the above embodiment.

【0021】続いて、連続性判定部20で、上記実施例
1のステップS6,7と同様に、ミリ波レーダ11から
の近距離フラグの出力の有無が判定(ステップS26)
され、近距離フラグが安定しているか否かが判定され
(ステップS27)、その結果が無効エッジ除去部21
に出力される。無効エッジ除去部21では、近距離フラ
グが安定して出力されていれば、至近距離以外の距離情
報を持つエッジデータを除去する(ステップS28)。
また、不安定に出力されているというデータを受ける
と、近距離以外の距離情報を持つエッジを除去する(ス
テップS29)。さらに、近距離フラグが出力されてい
ない場合は、遠距離以外の距離情報を持つエッジデータ
を除去する(ステップS30)。
Subsequently, the continuity determination unit 20 determines whether or not the short-range flag is output from the millimeter wave radar 11 as in steps S6 and S7 of the first embodiment (step S26).
It is determined whether or not the short distance flag is stable (step S27), and the result is determined by the invalid edge removing unit 21.
Is output to If the short distance flag is stably output, the invalid edge removing unit 21 removes edge data having distance information other than the close distance (step S28).
When receiving data indicating that the data is output unstable, edges having distance information other than short distances are removed (step S29). Further, when the short distance flag is not output, edge data having distance information other than long distance is removed (step S30).

【0022】そして、その結果のエッジデータを融合処
理部19に出力する。融合処理部19では、上記実施例
1のステップS11、12と同様に、融合処理を実行し
て(ステップS31)、結果を出力する(ステップS3
2)。本例においても、前述の実施例1と同様の効果が
得られる。 (実施例3)図8は、本発明の第3の実施例の構成を示
す。
Then, the resulting edge data is output to the fusion processing unit 19. The fusion processing unit 19 executes the fusion processing as in steps S11 and S12 of the first embodiment (step S31), and outputs the result (step S3).
2). In this embodiment, the same effects as those of the first embodiment can be obtained. (Embodiment 3) FIG. 8 shows the configuration of a third embodiment of the present invention.

【0023】処理部16の連続性判定部20でミリ波レ
ーダ11から出力される近距離フラグの状態を判定し、
その結果のデータを画像認識部15に送る。画像認識部
15では、エリア優先付け部22により、入力された結
果のデータに対応するパターンマッチングエリアを優先
付けし、そのエリアを優先してパターンマッチング処理
を行う。
The continuity determining unit 20 of the processing unit 16 determines the state of the short distance flag output from the millimeter wave radar 11,
The resulting data is sent to the image recognition unit 15. In the image recognizing unit 15, the area matching unit 22 prioritizes the pattern matching area corresponding to the input result data, and performs the pattern matching process with priority given to the area.

【0024】図9は、パターンマッチングを行うエリア
を示す。一方の画像でエッジが抽出されると、前述の図
3(A)に示したように、エッジ部に対応してマッチン
グパターンを取り出して、図3(D)に示すように、他
方の画像についてパターンマッチングを行う。このと
き、連続性判定部20から入力されたデータに基づい
て、エッジ抽出位置を基準として、エリアの優先付けを
行う。
FIG. 9 shows an area for performing pattern matching. When an edge is extracted from one image, a matching pattern corresponding to the edge portion is extracted as shown in FIG. 3A, and the matching pattern is extracted from the other image as shown in FIG. Perform pattern matching. At this time, based on the data input from the continuity determination unit 20, the area is prioritized based on the edge extraction position.

【0025】画像認識部15では、近距離フラグが安定
して出力されているというデータを受けると、例えば、
エッジ抽出位置から第26〜第80画素のエリアを至近
距離エリアとして、他のエリアに優先してパターンマッ
チングを行う。近距離フラグが不安定に出力されている
というデータを受けると、例えば、第10〜第25画素
のエリアを近距離エリアとして優先してパターンマッチ
ングを行う。さらに、近距離フラグが出力されないとい
うデータを受けると、例えば、第0〜第9画素のエリア
を遠距離エリアとして優先してパターンマッチングを行
う。
When the image recognizing unit 15 receives data indicating that the short distance flag is stably output, for example,
The area of the 26th to 80th pixels from the edge extraction position is set as a close distance area, and pattern matching is performed prior to other areas. When receiving data indicating that the short distance flag is output in an unstable manner, for example, pattern matching is performed with priority given to the area of the 10th to 25th pixels as the short distance area. Further, upon receiving data indicating that the short distance flag is not output, for example, pattern matching is performed with priority given to the area of the 0th to ninth pixels as the long distance area.

【0026】図10のフローチャートを用いて、上記処
理の詳細を説明する。画像認識部15で、画像入力(ス
テップS41)と、エッジ抽出(ステップS42)と、
ピーク抽出(43)が行われ、連続性判定部20で、近
距離フラグの出力の有無の判定(ステップS44)と近
距離フラグが安定しているか否かが判定される(ステッ
プS45)。その結果がエッジ優先付け部22に出力さ
れる。
The above processing will be described in detail with reference to the flowchart of FIG. The image recognition unit 15 performs image input (step S41), edge extraction (step S42),
Peak extraction (43) is performed, and the continuity determination unit 20 determines whether or not the short distance flag is output (step S44) and determines whether or not the short distance flag is stable (step S45). The result is output to the edge prioritizing section 22.

【0027】エッジ優先付け部22では、近距離フラグ
が安定して出力されていれば、パターンマッチングエリ
アを至近距離に優先付けする(ステップS46)。ま
た、不安定に出力されているというデータを受けると、
近距離に優先付けする(ステップS47)。さらに、近
距離フラグが出力されていない場合は、遠距離に優先付
けをする(ステップS48)。
If the short distance flag is stably output, the edge priority assigning section 22 prioritizes the pattern matching area to the closest distance (step S46). Also, if you receive data that the output is unstable,
Priority is given to a short distance (step S47). If the short distance flag is not output, priority is given to the long distance (step S48).

【0028】画像認識部15は、優先付けされたエリア
についてパターンマッチングを行い(ステップS4
9)、測距を行う(ステップS50)。そして、その結
果のエッジデータを融合処理部19に出力する。融合処
理部19では、上記実施例1のステップS11、12と
同様に、融合処理を実行して(ステップS51)、結果
を出力する(ステップS52)。
The image recognition unit 15 performs pattern matching on the prioritized area (step S4).
9) Distance measurement is performed (step S50). Then, the resulting edge data is output to the fusion processing unit 19. The fusion processing unit 19 executes the fusion processing as in steps S11 and S12 of the first embodiment (step S51), and outputs the result (step S52).

【0029】本例によれば、パターンマッチングを行う
際、最もマッチングする可能性の高いエリアから開始を
するので、マッチングが得られるまでの時間を短縮する
ことができる。また、偶然に似たマッチングパターンに
対応する可能性を低下させて、誤測距を防止できる。 (実施例4)図11は、本発明の第4の実施例の構成を
示す。
According to this example, when performing pattern matching, the pattern matching is started from the area having the highest possibility of matching, so that the time until matching is obtained can be shortened. In addition, it is possible to reduce the possibility of corresponding to a matching pattern that happens to be similar, thereby preventing erroneous distance measurement. (Embodiment 4) FIG. 11 shows the configuration of a fourth embodiment of the present invention.

【0030】画像認識部15の路面、文字エッジ判定部
23で、抽出したエッジが路面上のものか、又は路面上
の文字であるか否かを判定して、その結果を、処理部1
6の無効エッジ除去部24に出力する。無効エッジ除去
部24は、画像認識部15から入力されたエッジデータ
から、無効エッジを除去して、残りのエッジデータを融
合処理部19に出力する。
The road surface and character edge determination unit 23 of the image recognition unit 15 determines whether the extracted edge is on the road surface or a character on the road surface, and the result is processed by the processing unit 1.
6 to the invalid edge removing unit 24. The invalid edge removing unit 24 removes invalid edges from the edge data input from the image recognizing unit 15 and outputs the remaining edge data to the fusion processing unit 19.

【0031】画像認識部15では、画像上の濃度差によ
りエッジを抽出する。したがって、路面上の文字、影な
どは、物体ではないが、濃度差によりエッジが抽出され
てしまう。路面、文字エッジ判定部23は、抽出した濃
度差の距離情報と高さ情報から、路面上の濃度差か物体
かを判定する。そして、路面上の濃度差であると判定す
ると、その濃度差に対応するエッジデータに、路面フラ
グを付与して無効エッジ除去部24に出力する。
The image recognizing unit 15 extracts an edge based on a density difference on the image. Therefore, characters, shadows, and the like on the road surface are not objects, but edges are extracted due to density differences. The road surface / character edge determination unit 23 determines whether the object is a density difference or an object on the road surface from the extracted distance information and height information of the density difference. When it is determined that the density difference is on the road surface, a road surface flag is added to the edge data corresponding to the density difference and the edge data is output to the invalid edge removing unit 24.

【0032】また、路面上に描かれた路面文字は、エッ
ジの近辺で、路面の色から白又は黄色に、若しくは、白
又は黄色から路面の色に変化する。路面、文字エッジ判
定部23は、抽出したエッジの近辺の濃度情報を用い
て、上述の変化があれば路面文字が検出されたと判定す
る。そして、路面文字であると判定すると、そのエッジ
データに文字フラグを付与して無効エッジ除去部24に
出力する。
The road surface character drawn on the road surface changes from the road surface color to white or yellow or from white or yellow to the road surface color near the edge. The road surface / character edge determination unit 23 determines that a road surface character has been detected if there is the above change using the density information around the extracted edge. If it is determined that the character is a road surface character, a character flag is added to the edge data and output to the invalid edge removing unit 24.

【0033】無効エッジ除去部24では、エッジデータ
に路面フラグ又は文字フラグが付与されており、距離情
報が近距離(例、10m以下)を示していれば、ミリ波
レーダ11からの近距離フラグの有無を判定する。そし
て、近距離フラグが出力されていなければそのエッジは
路面上の濃度差又は文字として除去して、残りのエッジ
データを融合処理部16に出力する。
In the invalid edge removing unit 24, a road surface flag or a character flag is added to the edge data. If the distance information indicates a short distance (for example, 10 m or less), a short distance flag from the millimeter wave radar 11 is output. Is determined. If the short distance flag is not output, the edge is removed as a density difference or a character on the road surface, and the remaining edge data is output to the fusion processing unit 16.

【0034】図12のフローチャートを用いて、上記処
理の詳細を説明する。画像認識部15は、上記実施例1
のステップS1〜5と同様に、画像を入力し(ステップ
S61)、エッジを抽出し(ステップS62)、ピーク
を抽出し(ステップS63)、パターンマッチングを行
い(ステップS64)、測距を行う(ステップS6
5)。そして、上述の手法にて、所定のエッジデータに
路面フラグ又は文字フラグを付与する(ステップS6
6)。
The above processing will be described in detail with reference to the flowchart of FIG. The image recognizing unit 15 is configured as described in the first embodiment.
As in steps S1 to S5, an image is input (step S61), edges are extracted (step S62), peaks are extracted (step S63), pattern matching is performed (step S64), and distance measurement is performed (step S64). Step S6
5). Then, a road surface flag or a character flag is added to the predetermined edge data by the above-described method (step S6).
6).

【0035】無効エッジ除去部24では、路面フラグ又
は文字フラグの有無を判定し(ステップS67)、エッ
ジの距離情報が近距離を示すか否かを判定し(ステップ
S68)、ミリ波レーダ11からの近距離フラグが出力
されているか否かを判定する(ステップS69)。そし
て、路面フラグ又は文字フラグが付与され、エッジの距
離情報が近距離を示し、近距離フラグが出力されていな
い場合は、路面フラグ又は文字フラグありのエッジデー
タを除去し(ステップS70)、残りのエッジデータを
融合処理部19に渡す。
The invalid edge removing unit 24 determines the presence or absence of a road surface flag or a character flag (step S67), determines whether or not the edge distance information indicates a short distance (step S68). It is determined whether or not the short distance flag has been output (step S69). If the road surface flag or the character flag is added, the edge distance information indicates the short distance, and if the short distance flag is not output, the edge data with the road surface flag or the character flag is removed (step S70), and the remaining Is passed to the fusion processing unit 19.

【0036】融合処理部19では、上記実施例4のステ
ップS51、52と同様に、融合処理を実行して(ステ
ップS71)、結果を出力する(ステップS72)。本
実施例4は、以下の変形が可能である。路面、文字エッ
ジ判定部23は、路面の濃度差の距離及び高さから路面
フラグのみを出力するようにしても良いし、逆に、路面
の濃度差の変化から文字フラグのみを出力するようにし
ても良い。
The fusion processing section 19 executes the fusion processing (step S71) and outputs the result (step S72), similarly to steps S51 and S52 in the fourth embodiment. The fourth embodiment can be modified as follows. The road surface and character edge determination unit 23 may output only the road surface flag based on the distance and height of the density difference of the road surface, or may output only the character flag based on the change in the density difference of the road surface. May be.

【0037】また、図13のフローチャートに示すよう
に変更することができる。すなわち、無効エッジ除去部
24は、エッジデータに路面フラグ又は文字フラグが付
与されており、かつ、ステップS68で、距離情報が遠
距離(例、10m以上)を示しているか否かを判定し、
示していれば、ステップS69で、ミリ波レーダ11か
ら出力される距離データが、エッジデータの距離情報の
許容誤差範囲内にあるか否かを判定する。そして、許容
誤差範囲内になければ、ステップS70で、その路面フ
ラグ又は文字フラグが付与されたエッジデータを除去す
る。
Further, it can be changed as shown in the flowchart of FIG. That is, the invalid edge removing unit 24 determines whether a road surface flag or a character flag is added to the edge data, and in step S68, the distance information indicates a long distance (eg, 10 m or more).
If so, in step S69, it is determined whether or not the distance data output from the millimeter wave radar 11 is within the allowable error range of the distance information of the edge data. If it is not within the allowable error range, the edge data to which the road surface flag or the character flag is added is removed in step S70.

【0038】本実施例では、画像認識システムの文字フ
ラグ、路面フラグを用いることにより、画像認識システ
ムの誤認識、誤測距を、融合処理の前段階で防止するこ
とができる。
In this embodiment, erroneous recognition and erroneous distance measurement of the image recognition system can be prevented before the fusion processing by using the character flag and the road surface flag of the image recognition system.

【0039】[0039]

【発明の効果】本発明によれば、レーダからの出力デー
タと画像認識部からの出力データとに基づいて、処理部
にて物体の検出を行う車載用物体検出装置において、レ
ーダからの近距離フラグ又は、画像認識部からの路面フ
ラグ若しくは文字フラグを用いることにより、画像認識
における誤認識、誤測距を防止することで、信頼性を向
上させることができる。
According to the present invention, in a vehicle-mounted object detection apparatus for detecting an object in a processing unit based on output data from a radar and output data from an image recognition unit, a short distance from the radar By using a flag or a road surface flag or a character flag from the image recognition unit, it is possible to prevent erroneous recognition and erroneous distance measurement in image recognition, thereby improving reliability.

【図面の簡単な説明】[Brief description of the drawings]

【図1】車載用物体検出装置における検知エリア区分を
示す図。
FIG. 1 is a diagram showing detection area divisions in a vehicle-mounted object detection device.

【図2】本発明を適用した車載用物体検出装置の基本シ
ステム構成を示す図。
FIG. 2 is a diagram showing a basic system configuration of an on-vehicle object detection device to which the present invention is applied.

【図3】図2における画像認識部の処理を説明する図。FIG. 3 is a view for explaining processing of an image recognition unit in FIG. 2;

【図4】本発明の第1の実施例の構成を示す図。FIG. 4 is a diagram showing a configuration of a first exemplary embodiment of the present invention.

【図5】図4の装置の動作を示すフローチャート。FIG. 5 is a flowchart showing the operation of the apparatus of FIG.

【図6】本発明の第2の実施例の構成を示す図。FIG. 6 is a diagram showing a configuration of a second exemplary embodiment of the present invention.

【図7】図6の装置の動作を示すフローチャート。FIG. 7 is a flowchart showing the operation of the apparatus shown in FIG. 6;

【図8】本発明の第3の実施例の構成を示す図。FIG. 8 is a diagram showing a configuration of a third exemplary embodiment of the present invention.

【図9】図8におけるパターンマッチングエリアを示す
図。
FIG. 9 is a view showing a pattern matching area in FIG. 8;

【図10】図8の装置の動作を示すフローチャート。FIG. 10 is a flowchart showing the operation of the device of FIG. 8;

【図11】本発明の第4の実施例の構成を示す図。FIG. 11 is a diagram showing a configuration of a fourth embodiment of the present invention.

【図12】図11の装置の動作を示すフローチャート
(その1)。
FIG. 12 is a flowchart showing the operation of the apparatus shown in FIG. 11 (part 1);

【図13】図11の装置の動作を示すフローチャート
(その2)。
FIG. 13 is a flowchart (part 2) illustrating the operation of the apparatus in FIG. 11;

【符号の説明】[Explanation of symbols]

1…車載用物体検出装置 2…画像処理で検出可能なエリア 3…レーダで検出可能なエリア 4…フュージョンエリア 11…ミリ波レーダ 12,13…カメラ 14…画像処理用ECU 15…画像認識部 16…処理部 17…パターン 18…前段階処理部 19…融合処理部 20…連続性判定部 21…無効エッジ除去部 22…エリア優先付け部 23…路面、文字エッジ判定部 24…無効エッジ除去部 DESCRIPTION OF SYMBOLS 1 ... In-vehicle object detection apparatus 2 ... Area detectable by image processing 3 ... Area detectable by radar 4 ... Fusion area 11 ... Millimeter wave radar 12, 13 ... Camera 14 ... ECU for image processing 15 ... Image recognition unit 16 ... Processing unit 17 ... Pattern 18 ... Pre-stage processing unit 19 ... Fusion processing unit 20 ... Continuity determining unit 21 ... Invalid edge removing unit 22 ... Area prioritizing unit 23 ... Road surface / character edge determining unit 24 ... Invalid edge removing unit

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G06T 1/00 330 G06T 1/00 330A 5L096 7/60 180 7/60 180B 300 300A G08G 1/16 G08G 1/16 C Fターム(参考) 2F065 AA02 AA06 AA12 BB15 FF05 JJ03 JJ05 JJ26 QQ23 QQ32 QQ38 RR05 2F112 AC06 BA01 CA05 CA12 FA03 FA21 FA31 FA38 FA45 5B057 AA16 BA02 DC02 DC16 DC22 DC32 5H180 AA01 CC04 CC12 CC14 LL01 LL08 5J070 AB24 AC02 AE01 AF03 AK22 BD08 5L096 AA06 BA04 CA05 FA06 FA66 GA08 GA17 HA08 JA16 JA25──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) G06T 1/00 330 G06T 1/00 330A 5L096 7/60 180 7/60 180B 300 300A G08G 1/16 G08G 1 / 16 CF term (reference) 2F065 AA02 AA06 AA12 BB15 FF05 JJ03 JJ05 JJ26 QQ23 QQ32 QQ38 RR05 2F112 AC06 BA01 CA05 CA12 FA03 FA21 FA31 FA38 FA45 5B057 AA16 BA02 DC02 DC16 DC22 DC32 5H180 AA01 CC01 AF01 CC02 AF01 AK22 BD08 5L096 AA06 BA04 CA05 FA06 FA66 GA08 GA17 HA08 JA16 JA25

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】 レーダからの出力データと、画像認識部
からの出力データとに基づいて、処理部にて物体の検出
を行う車載用物体検出装置において、 前記レーダは、既定された近距離領域においてターゲッ
トが存在すると判断すると近距離フラグを出力し、 前記処理部は、前記近距離フラグの状態を判定し、前記
画像認識部から出力されるエッジデータの中から、前記
状態に応じた距離範囲にあるエッジデータを採用して前
記物体検出処理を行うことを特徴とする車載用物体検出
装置。
1. An on-vehicle object detection device that detects an object in a processing unit based on output data from a radar and output data from an image recognition unit, wherein the radar is provided in a predetermined short-range area. When it is determined that the target is present, a short distance flag is output. The processing unit determines the state of the short distance flag, and from the edge data output from the image recognition unit, a distance range corresponding to the state. An object detection apparatus for a vehicle, wherein the object detection processing is performed by using the edge data according to the above.
【請求項2】 レーダからの出力データと、画像認識部
からの出力データとに基づいて、処理部にて物体の検出
を行う車載用物体検出装置において、 前記レーダは、既定された近距離領域においてターゲッ
トが存在すると判断すると近距離フラグを出力し、 前記処理部は、前記近距離フラグの状態を判定し、その
結果を前記画像認識部に出力し、 前記画像認識部は、画像処理により取得したエッジデー
タの中から、前記状態に応じた距離範囲にあるエッジデ
ータを除去して前記物体検出処理を行うことを特徴とす
る車載用物体検出装置。
2. An in-vehicle object detection device that detects an object in a processing unit based on output data from a radar and output data from an image recognition unit, wherein the radar includes a predetermined short-range area. When the target is determined to exist, a short distance flag is output, the processing unit determines the state of the short distance flag, and outputs the result to the image recognition unit. An object detection apparatus for a vehicle, wherein the object detection processing is performed by removing edge data within a distance range corresponding to the state from the obtained edge data.
【請求項3】 レーダからの出力データと、画像認識部
からの出力データとに基づいて、処理部にて物体の検出
を行う車載用物体検出装置において、 前記レーダは、既定された近距離領域においてターゲッ
トが存在すると判断すると近距離フラグを出力し、 前記処理部は、前記近距離フラグの状態を判定し、その
結果を前記画像認識部に出力し、 前記画像認識部は、前記状態に応じた距離範囲を優先し
てパターンマッチング処理を行うことを特徴とする車載
用物体検出装置。
3. An on-vehicle object detection device that detects an object in a processing unit based on output data from a radar and output data from an image recognition unit, wherein the radar is a predetermined short-distance region When it is determined that the target is present, the processing unit outputs a short distance flag, the processing unit determines the state of the short distance flag, and outputs the result to the image recognition unit. A vehicle-mounted object detection device for performing a pattern matching process with priority given to a distance range.
【請求項4】 レーダからの出力データと、画像認識部
からの出力データとに基づいて、処理部にて物体の検出
を行う車載用物体検出装置において、 前記レーダは、既定された近距離領域においてターゲッ
トが存在すると判断すると近距離フラグを出力し、 前記画像認識部は、画像から得られる高さ情報及び距離
情報から路面上のエッジを識別し、路面上のエッジであ
ると識別するエッジデータに路面フラグを付与し、 前記処理部は、前記近距離フラグの状態に応じて距離範
囲を判定し、前記画像認識部からのエッジデータに前記
路面フラグが付与され、かつ、そのエッジデータの距離
情報が近距離を示し、かつ、前記判定した距離範囲が遠
距離を示しているときは、そのエッジデータを無効とし
て前記物体検出処理を行うことを特徴とする車載用物体
検出装置。
4. An on-vehicle object detection device that detects an object in a processing unit based on output data from a radar and output data from an image recognition unit, wherein the radar is a predetermined short-distance region In the case where it is determined that the target exists, a short distance flag is output, and the image recognition unit identifies an edge on a road surface from height information and distance information obtained from an image, and edge data for identifying an edge on the road surface. The processing unit determines the distance range according to the state of the short distance flag, the road surface flag is added to the edge data from the image recognition unit, and the distance of the edge data When the information indicates a short distance and the determined distance range indicates a long distance, the edge data is invalidated and the object detection process is performed. In-vehicle object detection device.
【請求項5】 レーダからの出力データと、画像認識部
からの出力データとに基づいて、処理部にて物体の検出
を行う車載用物体検出装置において、 前記画像認識部は、画像から得られる高さ情報及び距離
情報から路面上のエッジを識別し、路面上のエッジであ
ると識別するエッジデータに路面フラグを付与し、 前記処理部は、前記画像認識部からのエッジデータに前
記路面フラグが付与され、かつ、そのエッジデータの距
離情報が遠距離を示すときは、その距離情報が、前記レ
ーダから取得した距離情報の許容誤差範囲内にあるか否
かを判定し、範囲内にないときは、そのエッジデータを
無効として前記物体検出処理を行うことを特徴とする車
載用物体検出装置。
5. An in-vehicle object detection device that detects an object in a processing unit based on output data from a radar and output data from an image recognition unit, wherein the image recognition unit is obtained from an image. An edge on a road surface is identified from the height information and the distance information, and a road surface flag is added to edge data for identifying the edge on the road surface, wherein the processing unit includes the road surface flag to the edge data from the image recognition unit. Is given, and when the distance information of the edge data indicates a long distance, it is determined whether or not the distance information is within an allowable error range of the distance information acquired from the radar. In some cases, the edge data is invalidated to perform the object detection processing.
【請求項6】 レーダからの出力データと、画像認識部
からの出力データとに基づいて、処理部にて物体の検出
を行う車載用物体検出装置において、 前記レーダは、既定された近距離領域においてターゲッ
トが存在すると判断すると近距離フラグを出力し、 前記画像認識部は、画像から得られる濃度情報から路面
上の文字を識別し、路面文字であると識別するエッジデ
ータに文字フラグを付与し、 前記処理部は、前記近距離フラグの状態に応じて距離範
囲を判定し、前記画像認識部からのエッジデータに前記
文字フラグが付与され、かつ、そのエッジデータが近距
離を示し、かつ、前記判定した距離範囲が遠距離を示し
ているときは、そのエッジデータを無効として前記物体
検出処理を行うことを特徴とする車載用物体検出装置。
6. An on-vehicle object detection device that detects an object in a processing unit based on output data from a radar and output data from an image recognition unit, wherein the radar is provided in a predetermined short-range area. When it is determined that the target exists, a short distance flag is output.The image recognition unit identifies a character on the road surface from density information obtained from the image, and adds a character flag to edge data for identifying the character as a road surface character. The processing unit determines a distance range according to the state of the short distance flag, the character flag is added to the edge data from the image recognition unit, and the edge data indicates a short distance, and When the determined distance range indicates a long distance, the object detection processing is performed by invalidating the edge data.
【請求項7】 レーダからの出力データと、画像認識部
からの出力データとに基づいて、処理部にて物体の検出
を行う車載用物体検出装置において、 前記画像認識部は、画像から得られる濃度情報から路面
上の文字を識別し、路面文字であると識別するエッジデ
ータに文字フラグを付与し、 前記処理部は、前記画像認識部からのエッジデータに前
記文字フラグが付与され、かつ、そのエッジデータの距
離情報が遠距離を示すときは、その距離情報が、前記レ
ーダから取得した距離データの許容誤差範囲内にあるか
否かを判定し、範囲内にないときは、そのエッジデータ
を無効として前記物体検出処理を行うことを特徴とする
車載用物体検出装置。
7. An in-vehicle object detection device that detects an object in a processing unit based on output data from a radar and output data from an image recognition unit, wherein the image recognition unit is obtained from an image. Characters on the road surface are identified from the density information, and a character flag is assigned to edge data that identifies the character as a road surface character.The processing unit is provided with the character flag to edge data from the image recognition unit, and When the distance information of the edge data indicates a long distance, it is determined whether or not the distance information is within an allowable error range of the distance data acquired from the radar, and when the distance information is not within the range, the edge data is determined. A vehicle-mounted object detection apparatus, wherein the object detection processing is performed while the object detection processing is disabled.
【請求項8】 レーダからの出力データと、画像認識部
からの出力データとに基づいて、処理部にて物体の検出
を行う車載用物体検出装置において、 前記レーダは、既定された近距離領域においてターゲッ
トが存在すると判断すると近距離フラグを出力し、 前記画像認識部は、画像から得られる高さ情報及び距離
情報から路面上のエッジを判定したエッジデータに路面
フラグを付与し、また、濃度情報から路面上の文字を識
別したエッジデータに文字フラグを付与し、 前記処理部は、前記近距離フラグの状態に応じて距離範
囲を判定し、前記画像認識部からのエッジデータに前記
路面フラグと文字フラグの少なくとも一方が付与され、
かつ、そのエッジデータの距離情報が近距離を示しか
つ、前記判定した距離範囲が遠距離を示しているとき
は、そのエッジデータを無効として前記物体検出処理を
行うことを特徴とする車載用物体検出装置。
8. An on-vehicle object detection device that detects an object in a processing unit based on output data from a radar and output data from an image recognition unit, wherein the radar is provided in a predetermined short-range area. When it is determined that a target exists, a short distance flag is output, and the image recognition unit assigns a road surface flag to edge data that has determined an edge on the road surface from height information and distance information obtained from the image, A character flag is assigned to edge data that identifies a character on the road surface from the information, the processing unit determines a distance range according to the state of the short distance flag, and the road surface flag is added to the edge data from the image recognition unit. And at least one of character flags,
When the distance information of the edge data indicates a short distance and the determined distance range indicates a long distance, the edge data is invalidated to perform the object detection processing, Detection device.
【請求項9】 レーダからの出力データと、画像認識部
からの出力データとに基づいて、処理部にて物体の検出
を行う車載用物体検出装置において、 前記画像認識部は、画像から得られる高さ情報及び距離
情報から路面上のエッジを判定したエッジデータに路面
フラグを付与し、また、濃度情報から路面上の文字を識
別したエッジデータに文字フラグを付与し、 前記処理部は、前記画像認識部からのエッジデータに前
記路面フラグと文字フラグの少なくとも一方が付与さ
れ、かつ、そのエッジデータの距離情報が遠距離を示す
ときは、その距離情報が、前記レーダから取得した距離
データの許容誤差範囲内にあるか否かを判定し、範囲内
にないときは、そのエッジデータを無効として前記物体
検出処理を行うことを特徴とする車載用物体検出装置。
9. An in-vehicle object detection device that detects an object in a processing unit based on output data from a radar and output data from an image recognition unit, wherein the image recognition unit is obtained from an image. A road surface flag is added to edge data that determines an edge on a road surface from height information and distance information, and a character flag is added to edge data that identifies characters on the road surface from density information. At least one of the road surface flag and the character flag is added to the edge data from the image recognition unit, and when the distance information of the edge data indicates a long distance, the distance information is the distance data obtained from the radar. It is determined whether or not the object is within an allowable error range, and if not, the edge data is invalidated and the object detection process is performed, wherein the object detection processing is carried out. Location.
JP2000152695A 2000-04-14 2000-05-18 Vehicle object detection device Expired - Fee Related JP4311861B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2000152695A JP4311861B2 (en) 2000-05-18 2000-05-18 Vehicle object detection device
US09/834,403 US20010031068A1 (en) 2000-04-14 2001-04-13 Target detection system using radar and image processing
US11/188,160 US7376247B2 (en) 2000-04-14 2005-07-21 Target detection system using radar and image processing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000152695A JP4311861B2 (en) 2000-05-18 2000-05-18 Vehicle object detection device

Publications (3)

Publication Number Publication Date
JP2001330665A true JP2001330665A (en) 2001-11-30
JP2001330665A5 JP2001330665A5 (en) 2007-06-21
JP4311861B2 JP4311861B2 (en) 2009-08-12

Family

ID=18658084

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000152695A Expired - Fee Related JP4311861B2 (en) 2000-04-14 2000-05-18 Vehicle object detection device

Country Status (1)

Country Link
JP (1) JP4311861B2 (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004117071A (en) * 2002-09-24 2004-04-15 Fuji Heavy Ind Ltd Vehicle surroundings monitoring apparatus and traveling control system incorporating the same
JP2006258507A (en) * 2005-03-15 2006-09-28 Omron Corp Apparatus for recognizing object in front
WO2006123615A1 (en) * 2005-05-19 2006-11-23 Olympus Corporation Distance measuring apparatus, distance measuring method and distance measuring program
US7463184B2 (en) 2003-05-13 2008-12-09 Fujitsu Limited Object detection apparatus, object detection method, object detection program, and distance sensor
JP2009019914A (en) * 2007-07-10 2009-01-29 Toyota Motor Corp Object detecting device
JP2011027457A (en) * 2009-07-22 2011-02-10 Fujitsu Ten Ltd Object detecting device, information processing method and information processing system
JP2014059734A (en) * 2012-09-18 2014-04-03 Denso Corp Vehicle detector and warning device
JP2015510586A (en) * 2012-01-23 2015-04-09 マイクロソフト コーポレーション 3D zoom imaging device
JP2015143979A (en) * 2013-12-27 2015-08-06 株式会社リコー Image processor, image processing method, program, and image processing system
JP2015175644A (en) * 2014-03-13 2015-10-05 株式会社リコー Ranging system, information processing device, information processing method, and program
KR101907875B1 (en) * 2017-03-16 2018-10-15 주식회사 만도 Fusion detection system, detection processor, radar device, and object detection method
WO2021193103A1 (en) * 2020-03-26 2021-09-30 ソニーセミコンダクタソリューションズ株式会社 Information processing device, information processing method, and program

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05205199A (en) * 1992-01-29 1993-08-13 Mazda Motor Corp Obstacle detection device for vehicle
JPH06508946A (en) * 1991-03-22 1994-10-06 トムソン−セーエスエフ Road image sequence analysis method and device for detecting obstacles
JPH07182484A (en) * 1993-12-24 1995-07-21 Nissan Motor Co Ltd Recognition device for front of moving vehicle and vehicle travel controller
JPH07192117A (en) * 1993-12-24 1995-07-28 Nissan Motor Co Ltd Obstacle detector for vehicle
JPH09264954A (en) * 1996-03-29 1997-10-07 Fujitsu Ten Ltd Image processing system using radar
JP2000501835A (en) * 1995-12-13 2000-02-15 ダイムラー―ベンツ アクチエンゲゼルシャフト Signal processing method for vehicle navigation system
JP2000266539A (en) * 1999-03-15 2000-09-29 Nissan Motor Co Ltd Inter-vehicle distance measuring apparatus
JP2001296357A (en) * 2000-04-14 2001-10-26 Fujitsu Ten Ltd Object detecting apparatus

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06508946A (en) * 1991-03-22 1994-10-06 トムソン−セーエスエフ Road image sequence analysis method and device for detecting obstacles
JPH05205199A (en) * 1992-01-29 1993-08-13 Mazda Motor Corp Obstacle detection device for vehicle
JPH07182484A (en) * 1993-12-24 1995-07-21 Nissan Motor Co Ltd Recognition device for front of moving vehicle and vehicle travel controller
JPH07192117A (en) * 1993-12-24 1995-07-28 Nissan Motor Co Ltd Obstacle detector for vehicle
JP2000501835A (en) * 1995-12-13 2000-02-15 ダイムラー―ベンツ アクチエンゲゼルシャフト Signal processing method for vehicle navigation system
JPH09264954A (en) * 1996-03-29 1997-10-07 Fujitsu Ten Ltd Image processing system using radar
JP2000266539A (en) * 1999-03-15 2000-09-29 Nissan Motor Co Ltd Inter-vehicle distance measuring apparatus
JP2001296357A (en) * 2000-04-14 2001-10-26 Fujitsu Ten Ltd Object detecting apparatus

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004117071A (en) * 2002-09-24 2004-04-15 Fuji Heavy Ind Ltd Vehicle surroundings monitoring apparatus and traveling control system incorporating the same
US7463184B2 (en) 2003-05-13 2008-12-09 Fujitsu Limited Object detection apparatus, object detection method, object detection program, and distance sensor
JP2006258507A (en) * 2005-03-15 2006-09-28 Omron Corp Apparatus for recognizing object in front
WO2006123615A1 (en) * 2005-05-19 2006-11-23 Olympus Corporation Distance measuring apparatus, distance measuring method and distance measuring program
JP2009019914A (en) * 2007-07-10 2009-01-29 Toyota Motor Corp Object detecting device
JP2011027457A (en) * 2009-07-22 2011-02-10 Fujitsu Ten Ltd Object detecting device, information processing method and information processing system
US9720089B2 (en) 2012-01-23 2017-08-01 Microsoft Technology Licensing, Llc 3D zoom imager
JP2015510586A (en) * 2012-01-23 2015-04-09 マイクロソフト コーポレーション 3D zoom imaging device
JP2014059734A (en) * 2012-09-18 2014-04-03 Denso Corp Vehicle detector and warning device
JP2015143979A (en) * 2013-12-27 2015-08-06 株式会社リコー Image processor, image processing method, program, and image processing system
JP2015175644A (en) * 2014-03-13 2015-10-05 株式会社リコー Ranging system, information processing device, information processing method, and program
KR101907875B1 (en) * 2017-03-16 2018-10-15 주식회사 만도 Fusion detection system, detection processor, radar device, and object detection method
WO2021193103A1 (en) * 2020-03-26 2021-09-30 ソニーセミコンダクタソリューションズ株式会社 Information processing device, information processing method, and program

Also Published As

Publication number Publication date
JP4311861B2 (en) 2009-08-12

Similar Documents

Publication Publication Date Title
US7376247B2 (en) Target detection system using radar and image processing
US6670912B2 (en) Method for detecting stationary object located above road
JP2000357233A (en) Body recognition device
JP3230642B2 (en) Vehicle ahead detection device
JP2001351200A (en) Onboard object detecting device
JP2001004368A (en) Object recognizing apparatus
JP2003098424A (en) Range finder based on image processing
JP2003099762A (en) Precedent vehicle recognition device and recognition method
JP2001330665A (en) On-vehicle object detector using radar and image processing
JP2007179386A (en) Method and apparatus for recognizing white line
JP4052291B2 (en) Image processing apparatus for vehicle
JPH08156723A (en) Vehicle obstruction detecting device
JP4308405B2 (en) Object detection device
JP2003281700A (en) Cutting-in vehicle detecting device and method
JP2000331148A (en) Obstacle detector
JP2002296350A (en) Object detector
JP2003308599A (en) Traveling route environment detector
JP3319401B2 (en) Roadway recognition device
JPH07244717A (en) Travel environment recognition device for vehicle
JP2001082954A (en) Image processing device and image processing distance- measuring method
JP3757500B2 (en) Leading vehicle following device
JP2000259997A (en) Height of preceding vehicle and inter-vehicle distance measuring device
JPH07162846A (en) Follow-up recognizing device for object
JPH0979821A (en) Obstacle recognizing device
JP3120648B2 (en) Environment recognition device for vehicles

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070509

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070509

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080701

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080901

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081111

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090414

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090512

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120522

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120522

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130522

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130522

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140522

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees