JP4311861B2 - 車両用物体検出装置 - Google Patents
車両用物体検出装置 Download PDFInfo
- Publication number
- JP4311861B2 JP4311861B2 JP2000152695A JP2000152695A JP4311861B2 JP 4311861 B2 JP4311861 B2 JP 4311861B2 JP 2000152695 A JP2000152695 A JP 2000152695A JP 2000152695 A JP2000152695 A JP 2000152695A JP 4311861 B2 JP4311861 B2 JP 4311861B2
- Authority
- JP
- Japan
- Prior art keywords
- edge
- flag
- output
- distance
- short distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Radar Systems Or Details Thereof (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Measurement Of Optical Distance (AREA)
- Image Processing (AREA)
- Traffic Control Systems (AREA)
Description
【発明の属する技術分野】
本発明は、車両に搭載され、レーダと画像処理を用いて車両の前方にある物体の検出を行う車載用物体検出装置に関するものである。
【0002】
【従来の技術】
従来より、レーダと画像処理を用いた渋滞走行支援システムを車両に搭載して、車両の前方にある物体を検出することが行われている。
画像処理では、複眼カメラを用いて物体の測距を行う。まず、一方のカメラから取得した画像からエッジ抽出をし、その抽出したエッジに対応するエッジをもう一方のカメラから取得した画像から検出し、両エッジの視差を算出することにより測距を行う。画像処理は、広い幅で測距が可能であるが、遠距離の物体検出は精度が低くなるという特徴がある。
【0003】
レーダは、電波を用いて前方の物体の測距を行い、遠距離まで精度の高い測距ができるが、近距離の物体の測距精度は低いという特徴がある。レーダは、近距離で物体を検出したときは、近距離に何か物体があるということを示す近距離フラグを出力する。
図1は、車載用物体検出装置1における検知エリア区分を示す。
【0004】
画像処理により物体検出が可能なエリア2は幅が広く、ミリ波レーダにより物体検出が可能なエリア3は、遠距離まで達する。また、画像処理とミリ波レーダの両方で物体検出が可能なエリアでは、レーダの出力データと画像処理の出力データとの融合(フュージョン)処理により物体の認識を行い、このエリアをフュージョンエリア4という。
【0005】
【発明が解決しようとする課題】
画像処理による物体の測距には以下の問題がある。
1.(誤認識)エッジ抽出処理は、単純に縦方向のエッジを抽出する処理であるため、ターゲット以外の路面文字や影等の立体物ではない物についても濃淡差によりエッジを抽出する場合がある。この場合、物体が存在していないのにエッジを出力することとなる。
【0006】
2.(誤測距)エッジを見つけたときは、2つのカメラから取得した画像についてパターンマッチング処理により測距を行う。この処理では、偶然でも似たパターンが存在すると対応を間違えることがある。
本発明は、レーダからの出力データと画像認識部からの出力データとに基づいて、処理部にて物体の検出を行う車載用物体検出装置において、画像認識における誤認識、誤測距を防止することで、信頼性を向上させることを目的とする。
【0007】
【課題を解決するための手段】
本発明は、上記目的を達成するためになされたものである。本発明は、レーダからの出力データと、画像認識部からの出力データとに基づいて、処理部にて物体の検出を行う車載用物体検出装置において、レーダの近距離フラグ、画像認識部の文字フラグ、路面フラグを用いることにより、上記の画像認識部の誤認識、誤測距を融合処理の前段階で防止する。
【0008】
本発明においては、画像認識部が近距離で物体を検知しても、レーダの近距離フラグの状態によっては、画像認識部が検知したエッジデータを融合処理に使用しない。また、画像認識部が路面上の文字などの濃度差を検知した場合は、路面フラグ又は文字フラグを付して、そのエッジデータを融合処理に使用しないようにする。
【0009】
【発明の実施の形態】
図2は、本発明を適用した車載用物体検出装置の基本的なシステム構成を示す。
車載用物体検出装置1は、ミリ波レーダ11と、左カメラ12と右カメラ13と、画像処理用ECU14とから構成される。ECU14は、2つのカメラ12,13から入力される画像を処理してエッジデータを出力する画像認識部15と、ミリ波レーダ11と画像認識部15から入力されるエッジデータを融合処理して物体の存在検知と測距を行う処理部16を含む。
【0010】
以上説明した構成は、従来の物体検出装置と同様である。ただし、従来の物体検出装置では、画像認識部15から処理部16へ結果を出力するだけの単方向通信であったが、図2に示す物体検出装置では、処理部16と画像認識部15とが双方向通信となる場合がある点が従来と異なる。
ミリ波レーダ11は、ミリ波の電波を車両の前方に向けて放射し、物体により反射された電波から物体の存在の検知と測距を行う。ミリ波レーダ11は、近距離での測距の精度は低く、近距離で物体を検出した場合は、近距離フラグを出力する。近距離フラグは、ターゲットが至近距離(例えば5m以下)に存在する場合、時系列的に安定した状態で出力され、近距離(例えば5〜10m程度)に存在する場合は不安定な状態で間欠的に出力される。また、遠距離(例えば10m以上)に存在する場合は出力されないという特性を持つ。
【0011】
図3を用いて画像認識部15の処理について説明する。画像認識部15では、まず、一方のカメラ12の入力画像(図3(A))についてエッジ抽出を行う。その結果、図3(B)に示すエッジが得られる。次にそのエッジ抽出の結果から、縦に連続しているエッジを強い順にN個(例、16個)抽出する(ピーク抽出、図3(C))。
【0012】
N個のエッジのそれぞれから、図3(E)に示すように、M×M(例、9×9)の画素から構成されるマッチングパターン17を取り出し、もう一方のカメラ13からの入力画像(図3(D))に対し、パターンマッチングを行い、対応するエッジを検出する。そして、両方のエッジの視差から、各エッジまでの距離を算出し、その結果をエッジデータとして処理部16に出力する。
【0013】
図3(B)にも示したように、画像認識部15では、ターゲット以外の白線等の路面上の立体物ではない濃度差に対してもエッジを抽出し、距離を出力してしまうことがある。また、パターンマッチングに用いるパターンは図3(E)に示したように、M×M画素の大きさのパターン17を用いるのであるが、偶然にマッチングエリアにそのパターンに似たパターンが存在すると、対応を間違い、誤測距してしまうことがある。
【0014】
そこで、本発明では、ミリ波レーダ11が出力する近距離フラグ、画像認識部15が出力する文字フラグ、路面フラグを用いることにより、フュージョンエリアに関して上記の画像認識システムの誤認識、誤測距を処理部16による融合処理の前段階で防止する。
(実施例1)
以下に、各実施例ごとに、具体的な処理について示す。なお、以下の各図においては、同一機能の部分については同一の参照符号を付して、重複する説明は省略する。
【0015】
図4は、本発明の第1の実施例の構成を示す。なお、前述の図2を用いて説明済みの部分については説明を省略する。
画像認識部15からエッジデータが出力されると、処理部16では、前段階処理部18で、ミリ波レーダ11から出力される近距離フラグにより、エッジデータを選択処理する。そして、有効であると判定したエッジデータを採用して融合処理部19へ出力する。
【0016】
図5のフローチャートを用いて、上記処理の詳細を説明する。
画像認識部15では、カメラ12,13から画像を入力し(ステップS1)、一方の画像からエッジを抽出する(ステップS2)。抽出したエッジの中から、強いピークのエッジを所定数抽出(ステップS3)する。各エッジごとに他方の画像についてパターンマッチングを行い(ステップS4)、測距を行う(ステップS5)。
【0017】
処理部16の前段階処理部18では、ミリ波レーダ11から近距離フラグが出力されているか否かを判定し(ステップS6)、出力されていれば近距離フラグが安定して出力されているか否かを判定する(ステップS7)。
その結果、近距離フラグが安定して(時系列的に連続して)出力されていると判断した場合は、物体が至近距離(例、0〜5m)に存在すると判断し、至近距離(例、5m以下)の距離情報を持つエッジデータを採用する(ステップS8)。また、近距離フラグが不安定に(間欠的に)出力されていると判断した場合、物体が近距離(例、5〜10m)に存在すると判定し、近距離(例、5〜10m)の距離情報を持つエッジを採用する(ステップS9)。さらに、近距離フラグが出力されていない場合は、遠距離(例、10m以上)にあると判定し、フュージョンエリア4にある遠距離(例、10m以上)の距離情報を持つエッジを採用する(ステップS10)。
【0018】
融合処理部19では、採用されたエッジデータとミリ波レーダ11からの出力データに基づいて、融合処理を実行して、物体の存在の認識と測距を行い(ステップS11)、結果を出力する(ステップS12)。
本例によれば、エッジデータを画像認識部15が誤認識又は誤測距した場合であっても、誤測距したエリアでミリ波レーダ11が物体を検出しなければ、そのエッジデータは除去される。したがって、物体の誤認識又は誤測距を防止できる。また、融合処理を行う前に無効なエッジデータが除去されるので、処理時間を短縮することができる。
【0019】
(実施例2)
図6は、本発明の第2の実施例の構成を示す。
処理部16の連続性判定部20で、ミリ波レーダ11から出力される近距離フラグの状態を判定し、その結果のデータを画像認識部15の無効エッジ除去部21に送る。無効エッジ除去部21では、近距離フラグの状態に応じて無効なエッジデータを除去した上で、エッジデータを融合処理部19に出力する。
【0020】
図7のフローチャートを用いて、上記処理の詳細を説明する。
画像認識部15において、上記実施例1のステップS1〜3と同様に、画像入力(ステップS21)と、エッジ抽出(ステップS22)と、ピーク抽出(23)が行われる。
画像認識部15は、除去されなかったエッジデータを用いて、上記実施例のステップS4、5と同様に、パターンマッチングを行い(ステップS24)、測距を行う(ステップS25)。
【0021】
続いて、連続性判定部20で、上記実施例1のステップS6,7と同様に、ミリ波レーダ11からの近距離フラグの出力の有無が判定(ステップS26)され、近距離フラグが安定しているか否かが判定され(ステップS27)、その結果が無効エッジ除去部21に出力される。
無効エッジ除去部21では、近距離フラグが安定して出力されていれば、至近距離以外の距離情報を持つエッジデータを除去する(ステップS28)。また、不安定に出力されているというデータを受けると、近距離以外の距離情報を持つエッジを除去する(ステップS29)。さらに、近距離フラグが出力されていない場合は、遠距離以外の距離情報を持つエッジデータを除去する(ステップS30)。
【0022】
そして、その結果のエッジデータを融合処理部19に出力する。
融合処理部19では、上記実施例1のステップS11、12と同様に、融合処理を実行して(ステップS31)、結果を出力する(ステップS32)。
本例においても、前述の実施例1と同様の効果が得られる。
(実施例3)
図8は、本発明の第3の実施例の構成を示す。
【0023】
処理部16の連続性判定部20でミリ波レーダ11から出力される近距離フラグの状態を判定し、その結果のデータを画像認識部15に送る。画像認識部15では、エリア優先付け部22により、入力された結果のデータに対応するパターンマッチングエリアを優先付けし、そのエリアを優先してパターンマッチング処理を行う。
【0024】
図9は、パターンマッチングを行うエリアを示す。
一方の画像でエッジが抽出されると、前述の図3(A)に示したように、エッジ部に対応してマッチングパターンを取り出して、図3(D)に示すように、他方の画像についてパターンマッチングを行う。このとき、連続性判定部20から入力されたデータに基づいて、エッジ抽出位置を基準として、エリアの優先付けを行う。
【0025】
画像認識部15では、近距離フラグが安定して出力されているというデータを受けると、例えば、エッジ抽出位置から第26〜第80画素のエリアを至近距離エリアとして、他のエリアに優先してパターンマッチングを行う。近距離フラグが不安定に出力されているというデータを受けると、例えば、第10〜第25画素のエリアを近距離エリアとして優先してパターンマッチングを行う。さらに、近距離フラグが出力されないというデータを受けると、例えば、第0〜第9画素のエリアを遠距離エリアとして優先してパターンマッチングを行う。
【0026】
図10のフローチャートを用いて、上記処理の詳細を説明する。
画像認識部15で、画像入力(ステップS41)と、エッジ抽出(ステップS42)と、ピーク抽出(43)が行われ、連続性判定部20で、近距離フラグの出力の有無の判定(ステップS44)と近距離フラグが安定しているか否かが判定される(ステップS45)。その結果がエッジ優先付け部22に出力される。
【0027】
エッジ優先付け部22では、近距離フラグが安定して出力されていれば、パターンマッチングエリアを至近距離に優先付けする(ステップS46)。また、不安定に出力されているというデータを受けると、近距離に優先付けする(ステップS47)。さらに、近距離フラグが出力されていない場合は、遠距離に優先付けをする(ステップS48)。
【0028】
画像認識部15は、優先付けされたエリアについてパターンマッチングを行い(ステップS49)、測距を行う(ステップS50)。そして、その結果のエッジデータを融合処理部19に出力する。
融合処理部19では、上記実施例1のステップS11、12と同様に、融合処理を実行して(ステップS51)、結果を出力する(ステップS52)。
【0029】
本例によれば、パターンマッチングを行う際、最もマッチングする可能性の高いエリアから開始をするので、マッチングが得られるまでの時間を短縮することができる。また、偶然に似たマッチングパターンに対応する可能性を低下させて、誤測距を防止できる。
(実施例4)
図11は、本発明の第4の実施例の構成を示す。
【0030】
画像認識部15の路面、文字エッジ判定部23で、抽出したエッジが路面上のものか、又は路面上の文字であるか否かを判定して、その結果を、処理部16の無効エッジ除去部24に出力する。無効エッジ除去部24は、画像認識部15から入力されたエッジデータから、無効エッジを除去して、残りのエッジデータを融合処理部19に出力する。
【0031】
画像認識部15では、画像上の濃度差によりエッジを抽出する。したがって、路面上の文字、影などは、物体ではないが、濃度差によりエッジが抽出されてしまう。
路面、文字エッジ判定部23は、抽出した濃度差の距離情報と高さ情報から、路面上の濃度差か物体かを判定する。そして、路面上の濃度差であると判定すると、その濃度差に対応するエッジデータに、路面フラグを付与して無効エッジ除去部24に出力する。
【0032】
また、路面上に描かれた路面文字は、エッジの近辺で、路面の色から白又は黄色に、若しくは、白又は黄色から路面の色に変化する。路面、文字エッジ判定部23は、抽出したエッジの近辺の濃度情報を用いて、上述の変化があれば路面文字が検出されたと判定する。そして、路面文字であると判定すると、そのエッジデータに文字フラグを付与して無効エッジ除去部24に出力する。
【0033】
無効エッジ除去部24では、エッジデータに路面フラグ又は文字フラグが付与されており、距離情報が近距離(例、10m以下)を示していれば、ミリ波レーダ11からの近距離フラグの有無を判定する。そして、近距離フラグが出力されていなければそのエッジは路面上の濃度差又は文字として除去して、残りのエッジデータを融合処理部16に出力する。
【0034】
図12のフローチャートを用いて、上記処理の詳細を説明する。
画像認識部15は、上記実施例1のステップS1〜5と同様に、画像を入力し(ステップS61)、エッジを抽出し(ステップS62)、ピークを抽出し(ステップS63)、パターンマッチングを行い(ステップS64)、測距を行う(ステップS65)。そして、上述の手法にて、所定のエッジデータに路面フラグ又は文字フラグを付与する(ステップS66)。
【0035】
無効エッジ除去部24では、路面フラグ又は文字フラグの有無を判定し(ステップS67)、エッジの距離情報が近距離を示すか否かを判定し(ステップS68)、ミリ波レーダ11からの近距離フラグが出力されているか否かを判定する(ステップS69)。そして、路面フラグ又は文字フラグが付与され、エッジの距離情報が近距離を示し、近距離フラグが出力されていない場合は、路面フラグ又は文字フラグありのエッジデータを除去し(ステップS70)、残りのエッジデータを融合処理部19に渡す。
【0036】
融合処理部19では、上記実施例4のステップS51、52と同様に、融合処理を実行して(ステップS71)、結果を出力する(ステップS72)。
本実施例4は、以下の変形が可能である。
路面、文字エッジ判定部23は、路面の濃度差の距離及び高さから路面フラグのみを出力するようにしても良いし、逆に、路面の濃度差の変化から文字フラグのみを出力するようにしても良い。
【0037】
また、図13のフローチャートに示すように変更することができる。すなわち、無効エッジ除去部24は、エッジデータに路面フラグ又は文字フラグが付与されており、かつ、ステップS68で、距離情報が遠距離(例、10m以上)を示しているか否かを判定し、示していれば、ステップS69で、ミリ波レーダ11から出力される距離データが、エッジデータの距離情報の許容誤差範囲内にあるか否かを判定する。そして、許容誤差範囲内になければ、ステップS70で、その路面フラグ又は文字フラグが付与されたエッジデータを除去する。
【0038】
本実施例では、画像認識システムの文字フラグ、路面フラグを用いることにより、画像認識システムの誤認識、誤測距を、融合処理の前段階で防止することができる。
【0039】
【発明の効果】
本発明によれば、レーダからの出力データと画像認識部からの出力データとに基づいて、処理部にて物体の検出を行う車載用物体検出装置において、レーダからの近距離フラグ又は、画像認識部からの路面フラグ若しくは文字フラグを用いることにより、画像認識における誤認識、誤測距を防止することで、信頼性を向上させることができる。
【図面の簡単な説明】
【図1】車載用物体検出装置における検知エリア区分を示す図。
【図2】本発明を適用した車載用物体検出装置の基本システム構成を示す図。
【図3】図2における画像認識部の処理を説明する図。
【図4】本発明の第1の実施例の構成を示す図。
【図5】図4の装置の動作を示すフローチャート。
【図6】本発明の第2の実施例の構成を示す図。
【図7】図6の装置の動作を示すフローチャート。
【図8】本発明の第3の実施例の構成を示す図。
【図9】図8におけるパターンマッチングエリアを示す図。
【図10】図8の装置の動作を示すフローチャート。
【図11】本発明の第4の実施例の構成を示す図。
【図12】図11の装置の動作を示すフローチャート(その1)。
【図13】図11の装置の動作を示すフローチャート(その2)。
【符号の説明】
1…車載用物体検出装置
2…画像処理で検出可能なエリア
3…レーダで検出可能なエリア
4…フュージョンエリア
11…ミリ波レーダ
12,13…カメラ
14…画像処理用ECU
15…画像認識部
16…処理部
17…パターン
18…前段階処理部
19…融合処理部
20…連続性判定部
21…無効エッジ除去部
22…エリア優先付け部
23…路面、文字エッジ判定部
24…無効エッジ除去部
Claims (1)
- レーダからの出力データと、画像認識部からの出力データとに基づいて、処理部にて物体の検出を行う車載用物体検出装置において、
前記レーダは、既定された近距離領域においてターゲットが存在すると判断すると近距離フラグを出力し、
前記画像認識部は、各エッジまでの距離情報を有するエッジデータを出力し、
前記処理部は、前記近距離フラグの状態を判定し、前記画像認識部から出力されるエッジデータの中から、前記近距離フラグの状態に応じた距離情報を有するエッジデータを採用して前記物体検出処理を行うこと、
を特徴とする車載用物体検出装置。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000152695A JP4311861B2 (ja) | 2000-05-18 | 2000-05-18 | 車両用物体検出装置 |
US09/834,403 US20010031068A1 (en) | 2000-04-14 | 2001-04-13 | Target detection system using radar and image processing |
US11/188,160 US7376247B2 (en) | 2000-04-14 | 2005-07-21 | Target detection system using radar and image processing |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000152695A JP4311861B2 (ja) | 2000-05-18 | 2000-05-18 | 車両用物体検出装置 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2001330665A JP2001330665A (ja) | 2001-11-30 |
JP2001330665A5 JP2001330665A5 (ja) | 2007-06-21 |
JP4311861B2 true JP4311861B2 (ja) | 2009-08-12 |
Family
ID=18658084
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000152695A Expired - Fee Related JP4311861B2 (ja) | 2000-04-14 | 2000-05-18 | 車両用物体検出装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4311861B2 (ja) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004117071A (ja) * | 2002-09-24 | 2004-04-15 | Fuji Heavy Ind Ltd | 車外監視装置、及び、この車外監視装置を備えた走行制御装置 |
WO2004102222A1 (ja) | 2003-05-13 | 2004-11-25 | Fujitsu Limited | 物体検出装置、物体検出方法、物体検出プログラム、距離センサ |
JP2006258507A (ja) * | 2005-03-15 | 2006-09-28 | Omron Corp | 前方物体認識装置 |
EP1887382A1 (en) * | 2005-05-19 | 2008-02-13 | Olympus Corporation | Distance measuring apparatus, distance measuring method and distance measuring program |
JP5012270B2 (ja) * | 2007-07-10 | 2012-08-29 | トヨタ自動車株式会社 | 物体検出装置 |
JP2011027457A (ja) * | 2009-07-22 | 2011-02-10 | Fujitsu Ten Ltd | 物体検出装置、情報処理方法、および、情報処理システム |
US9720089B2 (en) * | 2012-01-23 | 2017-08-01 | Microsoft Technology Licensing, Llc | 3D zoom imager |
JP5686123B2 (ja) * | 2012-09-18 | 2015-03-18 | 株式会社デンソー | 車両検出装置および警報装置 |
JP6540009B2 (ja) * | 2013-12-27 | 2019-07-10 | 株式会社リコー | 画像処理装置、画像処理方法、プログラム、画像処理システム |
JP6467776B2 (ja) * | 2014-03-13 | 2019-02-13 | 株式会社リコー | 測距システム、情報処理装置、情報処理方法及びプログラム |
KR101907875B1 (ko) * | 2017-03-16 | 2018-10-15 | 주식회사 만도 | 퓨전 탐지 시스템, 탐지 프로세서, 레이더 장치 및 물체 탐지 방법 |
US20230121905A1 (en) * | 2020-03-26 | 2023-04-20 | Sony Semiconductor Solutions Corporation | Information processing apparatus, information processing method, and program |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0588815B1 (fr) * | 1991-03-22 | 2000-06-07 | THOMSON multimedia | Procede et dispositif d'analyse de sequences d'images routieres pour la detection d'obstacles |
JP3330624B2 (ja) * | 1992-01-29 | 2002-09-30 | マツダ株式会社 | 車両の障害物検出装置 |
JP3125550B2 (ja) * | 1993-12-24 | 2001-01-22 | 日産自動車株式会社 | 移動車の前方認識装置ならびに車輌用走行制御装置 |
JP3218834B2 (ja) * | 1993-12-24 | 2001-10-15 | 日産自動車株式会社 | 車両用障害物検出装置 |
DE19546506A1 (de) * | 1995-12-13 | 1997-06-19 | Daimler Benz Ag | Fahrzeug-Navigationssystem und Signalverarbeitungsverfahren für ein solches Navigationssystem |
JPH09264954A (ja) * | 1996-03-29 | 1997-10-07 | Fujitsu Ten Ltd | レーダを用いた画像処理システム |
JP3596339B2 (ja) * | 1999-03-15 | 2004-12-02 | 日産自動車株式会社 | 車間距離計測装置 |
JP4308405B2 (ja) * | 2000-04-14 | 2009-08-05 | 富士通テン株式会社 | 物体検出装置 |
-
2000
- 2000-05-18 JP JP2000152695A patent/JP4311861B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2001330665A (ja) | 2001-11-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7376247B2 (en) | Target detection system using radar and image processing | |
US6670912B2 (en) | Method for detecting stationary object located above road | |
US6370261B1 (en) | Vehicle surroundings monitoring apparatus | |
JP2000357233A (ja) | 物体認識装置 | |
JP4311861B2 (ja) | 車両用物体検出装置 | |
US10803605B2 (en) | Vehicle exterior environment recognition apparatus | |
EP3690802A1 (en) | Vehicle exterior recognition device | |
CN110341621B (zh) | 一种障碍物检测方法及装置 | |
US20180060679A1 (en) | Vanishing point correction apparatus and method | |
JP2003099762A (ja) | 前方車両認識装置及び認識方法 | |
JP4052291B2 (ja) | 車両用画像処理装置 | |
JPH08156723A (ja) | 車両用障害物検出装置 | |
JP4308405B2 (ja) | 物体検出装置 | |
JP2007066003A (ja) | 停止線検出装置 | |
WO2022009537A1 (ja) | 画像処理装置 | |
JPH07244717A (ja) | 車両用走行環境認識装置 | |
JP2003308599A (ja) | 走行路環境検出装置 | |
JP2001082954A (ja) | 画像処理装置及び画像処理測距方法 | |
EP3428876A1 (en) | Image processing device, apparatus control system, imaging device, image processing method, and program | |
JPH07333339A (ja) | 自動車用障害物検知装置 | |
JP3287166B2 (ja) | 距離測定装置 | |
JP2004153627A (ja) | 車両用外界認識装置 | |
JP2000259997A (ja) | 先行車の高さおよび車間距離計測装置 | |
JPH10111939A (ja) | 車載用画像処理装置 | |
JPH0979821A (ja) | 障害物認識装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070509 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070509 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080701 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080901 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20081111 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090113 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090414 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090512 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120522 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120522 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130522 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130522 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140522 Year of fee payment: 5 |
|
LAPS | Cancellation because of no payment of annual fees |