JP2004106682A - Obstacle detection device - Google Patents

Obstacle detection device Download PDF

Info

Publication number
JP2004106682A
JP2004106682A JP2002271634A JP2002271634A JP2004106682A JP 2004106682 A JP2004106682 A JP 2004106682A JP 2002271634 A JP2002271634 A JP 2002271634A JP 2002271634 A JP2002271634 A JP 2002271634A JP 2004106682 A JP2004106682 A JP 2004106682A
Authority
JP
Japan
Prior art keywords
image
obstacle
processing unit
vehicle
driver
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002271634A
Other languages
Japanese (ja)
Other versions
JP3999088B2 (en
Inventor
Takayuki Tsuji
辻 孝之
Shinji Nagaoka
長岡 伸治
Masato Watanabe
渡辺 正人
Masakazu Saka
坂 雅和
Hiroshi Hattori
服部 弘
Izumi Takatsudo
高津戸 泉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2002271634A priority Critical patent/JP3999088B2/en
Publication of JP2004106682A publication Critical patent/JP2004106682A/en
Application granted granted Critical
Publication of JP3999088B2 publication Critical patent/JP3999088B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an obstacle detection device allowing the driver to accurately recognize the obstacle to be alerted. <P>SOLUTION: An image processing unit, if it determines that there is a possibility of collision against an obstacle (YES in S21), and that the obstacle exists within a proximity determination area (YES in S22), determines if the location information of the obstacle is a registered location stored in the navigation system or not (S24). If the location information is a registered location, it determines if the shape of the obstacle is a registered shape stored in the image processing unit or not (S25). If the shape of the obstacle is not a registered shape, it determines there is a high possibility of a contact against the obstacle, and generates an alert to the driver and displays a highlighted image using an image display device (S26). If the alert is generated to an artificial structure, the shape and location information of the artificial structure are stored in the image processing unit and the navigation system respectively (S28), according to the driver's operation. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
この発明は、撮像手段により撮影された画像から自車両の走行に影響を与えそうな対象物を検出して警報する障害物検出装置に関する。
【0002】
【従来の技術】
従来の障害物検出装置は、例えば赤外線カメラ等の撮像手段により捉えられた自車両周辺の画像から、自車両との衝突の可能性がある歩行者等の対象物を抽出し、その情報を自車両の運転者に提供する。この装置では、左右一組のステレオカメラが撮影した自車両周辺の画像において温度が高い部分を対象物とすると共に、対象物の視差を求めることにより該対象物までの距離を算出し、これらの対象物の移動方向や対象物の位置から、自車両の走行に影響を与えそうな対象物を検出して警報を出力する(例えば、特許文献1参照。)。
また、赤外線カメラ等の撮像手段により捉えられた自車両周辺の画像において、歩行者等の対象物ではあり得ない高温を示す領域を除外することにより、対象物の誤検出を防止するものもある(例えば、特許文献2参照。)。
【0003】
【特許文献1】
特開2001−6096号公報
【特許文献2】
特開2001−108758号公報
【0004】
【発明が解決しようとする課題】
しかし、従来の技術では、歩行者等の対象物ではあり得ない高温を示す領域を除外することにより、極端な温度を示す人工構造物を対象物として検出するような誤検出は防止することができるものの、歩行者と同等な温度を示す道路脇の電柱や街灯のポール、あるいは自販機等の人工構造物を非警報対象物として認識し、対象物から除外することは難しいという問題があった。そのため、歩行者ではないこれらの人工構造物に対する警報が、運転者にとっては逆に煩わしいものになってしまうという問題があった。
【0005】
本発明は、上記課題に鑑みてなされたもので、歩行者等、自車両の走行に影響を与えそうな対象物を、正確に運転者に認識させることができる障害物検出装置を提供することを目的とする。
【0006】
【課題を解決するための手段】
上記課題を解決するために、請求項1の発明に係る障害物検出装置は、赤外線カメラ(例えば実施の形態の赤外線カメラ2R、2L)で捉えた画像から、自車両(例えば実施の形態の自車両10)に影響を与える対象物を検出し、前記自車両の運転者へ該対象物に対する警報を発する障害物検出装置において、前記運転者の操作に基づいて、検出された対象物の特徴と位置情報とを記憶手段へ記憶する対象物記憶制御手段(例えば実施の形態のステップS27〜ステップS28)と、前記記憶手段に記憶された対象物が再度検出された場合は、該対象物に対する警報出力を中止する警報出力制御手段(例えば実施の形態のステップS24〜ステップS25)とを備えたことを特徴とする。
【0007】
以上の構成を備えた障害物検出装置は、運転者の操作で、対象物記憶制御手段が検出された対象物の形状等の特徴と位置情報とを記憶手段へ記憶することにより、運転者は、意識的に警報対象から除外したい任意の対象物の情報を記憶させることができる。そして、警報出力制御手段は、記憶手段に情報が記憶されている対象物が再度検出された場合、この対象物を運転者が意識的に警報対象から除外したい対象物と判断し、該対象物に対する警報出力を中止することができる。
【0008】
【発明の実施の形態】
以下、図面を参照して本発明の実施の形態について説明する。
図1は、本発明の一実施の形態の障害物検出装置の構成を示すブロック図である。
図1において、符号1は、本実施の形態の障害物検出装置を制御するCPU(中央演算装置)を備えた車載の画像処理ユニットであって、遠赤外線を検出可能な2つの赤外線カメラ2R、2Lが接続されると共に、本実施の形態の障害物検出装置が搭載された車両の車速情報や回頭角情報等の車両の走行状態を示す信号が入力されている。これにより、画像処理ユニット1は、車両の周辺の赤外線画像と車両の走行状態を示す信号とから、車両前方の歩行者や動物等を検出し、衝突の可能性が高いと判断したときに警報を発する。
【0009】
また、画像処理ユニット1には、音声で警報を発するためのスピーカ4と、赤外線カメラ2R、2Lにより撮影された画像を表示し、衝突の危険性が高い対象物を車両の運転者に認識させるための、例えば自車両の走行状態を数字で表すメータと一体化されたメータ一体Displayや自車両のコンソールに設置されるNAVIDisplay、更にフロントウィンドウの運転者の前方視界を妨げない位置に情報を表示するHUD(Head Up Display )等を含む画像表示装置5が接続されている。
更に、画像処理ユニット1には、ナビゲーション装置6が接続されており、画像処理ユニット1は、ナビゲーション装置6に、ナビゲーション装置6から取得した位置情報に、画像処理ユニット1により検出した対象物の距離・方位情報を加味した新たな位置情報を記憶させることができる。
【0010】
また、画像処理ユニット1は、入力アナログ信号をディジタル信号に変換するA/D変換回路、ディジタル化した画像信号を記憶する画像メモリ、各種演算処理を行うCPU(中央演算装置)、CPUが演算途中のデータを記憶するために使用するRAM(Random Access Memory)、CPUが実行するプログラムやテーブル、マップなどを記憶するROM(Read Only Memory)、スピーカ4の駆動信号、画像表示装置5の表示信号などを出力する出力回路を備えており、赤外線カメラ2R、2Lで撮影された画像や、車両の車速情報や回頭角情報等の車両の走行状態を示す信号は、ディジタル信号に変換されてCPUに入力されるように構成されている。
【0011】
更に、画像処理ユニット1及びナビゲーション装置6は、フラッシュメモリ等の不揮発性のメモリを備えており、画像処理ユニット1に接続された対象物の情報を記憶するためのスイッチ(図示せず)からの信号を受けて、車両前方に検出された対象物(物体)の形状に関する情報は画像処理ユニット1に、位置に関する情報はナビゲーション装置6にそれぞれ設けられたフラッシュメモリ等の不揮発性のメモリへ記憶することができる。
【0012】
また、図2に示すように、赤外線カメラ2R、2Lは、自車両10の前部に、自車両10の車幅方向中心部に対してほぼ対称な位置に配置されており、2つの赤外線カメラ2R、2Lの光軸が互いに平行であって、かつ両者の路面からの高さが等しくなるように固定されている。なお、赤外線カメラ2R、2Lは、対象物の温度が高いほど、その出力信号レベルが高くなる(輝度が増加する)特性を有している。
また、HUD7aは、自車両10のフロントウインドウの運転者の前方視界を妨げない位置に表示画面が表示されるように設けられている。
更に、自車両10には、回頭角情報を得るためのヨーレートを測定するヨーレートセンサ3も搭載される。
【0013】
次に、本実施の形態の動作について図面を参照して説明する。
図3は、本実施の形態の障害物検出装置の画像処理ユニット1における歩行者等の対象物検出・警報動作を示すフローチャートである。
まず、画像処理ユニット1は、赤外線カメラ2R、2Lの出力信号である赤外線画像を取得して(ステップS1)、A/D変換し(ステップS2)、グレースケール画像を画像メモリに格納する(ステップS3)。なお、ここでは赤外線カメラ2Rにより右画像が得られ、赤外線カメラ2Lにより左画像が得られる。また、右画像と左画像では、同一の対象物の表示画面上の水平位置がずれて表示されるので、このずれ(視差)によりその対象物までの距離を算出することができる。
【0014】
ステップS3においてグレースケール画像が得られたら、次に、赤外線カメラ2Rにより得られた右画像を基準画像とし、その画像信号の2値化処理、すなわち、輝度閾値ITHより明るい領域を「1」(白)とし、暗い領域を「0」(黒)とする処理を行う(ステップS4)。
図4(a)は、赤外線カメラ2Rにより得られたグレースケール画像を示し、これに2値化処理を行うことにより、図4(b)に示すような画像を得る。なお、図4(b)において、例えばP1からP4の枠で囲った物体を、表示画面上に白色として表示される対象物(以下「高輝度領域」という)とする。
赤外線画像から2値化された画像データを取得したら、2値化した画像データをランレングスデータに変換する処理を行う(ステップS5)。ランレングスデータにより表されるラインは、2値化により白となった領域を画素レベルで示したもので、いずれもy方向には1画素の幅を有しており、またx方向にはそれぞれランレングスデータを構成する画素の長さを有している。
【0015】
次に、ランレングスデータに変換された画像データから、対象物のラベリングをする(ステップS6)ことにより、対象物を抽出する処理を行う(ステップS7)。すなわち、ランレングスデータ化したラインのうち、y方向に重なる部分のあるラインを1つの対象物とみなすことにより、例えば図4(b)に示す高輝度領域P1からP4が、それぞれ対象物(2値化対象物)として把握されることになる。
対象物の抽出が完了したら、次に、抽出した対象物の重心G、面積S及び外接四角形の縦横比ASPECTを算出する(ステップS8)。
【0016】
ここで、面積Sは、ラベルAの対象物のランレングスデータを(x[i]、y[i]、run[i]、A)(i=0,1,2,・・・N−1)とすると、ランレングスデータの長さ(run[i]−1)を同一対象物(N個のランレングスデータ)について積算することにより算出する。また、対象物Aの重心Gの座標(xc、yc)は、各ランレングスデータの長さ(run[i]−1)と各ランレングスデータの座標x[i]、またはy[i]とをそれぞれ掛け合わせ、更にこれを同一対象物について積算したものを、面積Sで割ることにより算出する。更に、縦横比ASPECTは、対象物の外接四角形の縦方向の長さDyと横方向の長さDxとの比Dy/Dxとして算出する。
なお、ランレングスデータは画素数(座標数)(=run[i])で示されているので、実際の長さは「−1」する(1を減算する)必要がある(=run[i]−1)。また、重心Gの位置は、外接四角形の重心位置で代用してもよい。
【0017】
対象物の重心、面積、外接四角形の縦横比が算出できたら、次に、対象物の時刻間追跡、すなわちサンプリング周期毎の同一対象物の認識を行う(ステップS9)。時刻間追跡は、アナログ量としての時刻tをサンプリング周期で離散化した時刻をkとし、例えば時刻kで対象物A、Bを抽出したら、時刻(k+1)で抽出した対象物C、Dと対象物A、Bとの同一性判定を行う。そして、対象物A、Bと対象物C、Dとが同一であると判定されたら、対象物C、Dをそれぞれ対象物A、Bというラベルに変更することにより、時刻間追跡が行われる。
また、このようにして認識された各対象物の(重心の)位置座標は、時系列位置データとしてメモリに格納され、後の演算処理に使用される。
【0018】
なお、以上説明したステップS4〜S9の処理は、2値化した基準画像(本実施の形態では、右画像)について実行する。
次に、車速センサ(図示せず)により検出される車速情報及びヨーレートセンサ3で検出されたヨーレートを時間積分して得られる回頭角情報を読み込み、自車両10の回頭角θrを算出する(ステップS10)。
【0019】
一方、ステップS9とステップS10の処理に平行して、ステップS11〜S13では、対象物と自車両10との距離zを算出する処理を行う。この演算はステップS9、及びステップS10より長い時間を要するため、ステップS9、S10より長い周期(例えばステップS1〜S10の実行周期の3倍程度の周期)で実行される。
まず、基準画像(右画像)の2値化画像によって追跡される対象物の中の1つを選択することにより、右画像から探索画像R1(ここでは、外接四角形で囲まれる領域全体を探索画像とし、この探索画像の外接四角形を対象枠という)を抽出する(ステップS11)。
【0020】
次に、左画像中から探索画像R1に対応する画像(以下「対応画像」という)を探索する探索領域R2を設定し(ステップS12)、探索領域R2内で探索画像R1との相関演算を実行して、探索画像R1と相関の高い領域を求め対応画像とする。そして、探索画像R1と対応画像との視差・距離算出演算を行い、自車両10と対象物との距離zを算出する(ステップS13)。
【0021】
また、ステップS10における回頭角θrの算出と、ステップS13における対象物との距離算出が完了したら、次に、自車両10が回頭することによる画像上の位置ずれを補正するための回頭角補正を行う(ステップS14)。回頭角補正は、時刻kから(k+1)までの期間中に自車両10が例えば左方向に回頭角θrだけ回頭すると、カメラによって得られる画像上では、画像の範囲がΔxだけx方向にずれるので、これを補正する処理である。
【0022】
また、回頭角補正を終了したら、画像内の座標(x,y)及び距離zを実空間座標(X,Y,Z)に変換する(ステップS15)。
ここで、実空間座標(X,Y,Z)は、図2に示すように、赤外線カメラ2R、2Lの取り付け位置の中点の位置(自車両10に固定された位置)を原点Oとして、図示のように定め、画像内の座標は、画像の中心を原点として水平方向をx、垂直方向をyと定めている。
なお、以下の説明では、回頭角補正後の座標を(X,Y,Z)と表示する。
次に、実空間座標に対する回頭角補正が完了したら、同一対象物について、ΔTのモニタ期間内に得られた、回頭角補正後のN個(例えばN=10程度)の実空間位置データ、すなわち時系列データから、対象物と自車両10との相対移動ベクトルに対応する近似直線LMVを求める。
【0023】
次いで、最新の位置座標P(0)=(X(0),Y(0),Z(0))と、(N−1)サンプル前(時間ΔT前)の位置座標P(Nー1)=(X(N−1),Y(N−1),Z(N−1))を近似直線LMV上の位置に補正し、補正後の位置座標Pv(0)=(Xv(0),Yv(0),Zv(0))及びPv(N−1)=(Xv(N−1),Yv(N−1),Zv(N−1))を求める。
これにより、位置座標Pv(N−1)からPv(0)に向かうベクトルとして、相対移動ベクトルが得られる(ステップS16)。
このようにモニタ期間ΔT内の複数(N個)のデータから対象物の自車両10に対する相対移動軌跡を近似する近似直線を算出して相対移動ベクトルを求めることにより、位置検出誤差の影響を軽減して対象物との衝突の可能性をより正確に予測することが可能となる。
【0024】
また、ステップS16において、相対移動ベクトルが求められたら、次に、自車両10が検出した対象物と衝突する可能性があるか否かを判定して警報を出力する警報判定処理を行う(ステップS17)。なお、警報判定処理については、詳細を後述する。
また、警報判定処理の終了後は、ステップS1へ戻り、上述の処理を繰り返す。
【0025】
以上が、本実施の形態の障害物検出装置の画像処理ユニット1における対象物検出・警報動作であるが、次に、図5に示すフローチャートを参照して、図3に示したフローチャートのステップS17における、対象物との衝突の可能性を判定して警報を出力する警報判定処理について更に詳しく説明する。
図5は、本実施の形態の警報判定処理動作を示すフローチャートである。
まず、画像処理ユニット1は、自車両10に対する対象物の相対速度を算出する。そして、自車両10と対象物との距離を相対速度で除算することにより、自車両10と対象物との接触までの時間を計算し、これが衝突を回避するための余裕時間以上あるか否かを判定する。なお、衝突するか否かの判定には、高さ方向の範囲についても規定する。
【0026】
ステップS21において、自車両10と対象物との衝突の可能性がないと判定した場合(ステップS21のNO)、何もせずに警報判定処理を終了する。
また、ステップS21において、自車両10と対象物との衝突の可能性があると判定した場合(ステップS21のYES)、画像処理ユニット1は、対象物が接近判定領域内に存在するか否かを判定する(ステップS22)。ここで、接近判定領域とは、対象物がそのまま存在し続ければ自車両10との衝突の可能性がきわめて高いと判断される自車両10の前方の領域のことである。
【0027】
もし、ステップS22において、対象物が接近判定領域内に存在しないと判定した場合(ステップS22のNO)、接近判定領域の横方向(x座標方向)外側の進入判定領域内に対象物が存在し、対象物が進行することで接近判定領域へ進入して自車両10と対象物との衝突する進入衝突の可能性があるか否かを判定する進入衝突判定を行う(ステップS23)。
そして、ステップS23において、自車両10と対象物との進入衝突の可能性がないと判定した場合(ステップS23のNO)、何もせずに警報判定処理を終了する。
【0028】
一方、ステップS22において、対象物が接近判定領域内に存在すると判定した場合(ステップS22のYES)、対象物の位置情報がナビゲーション装置6に記憶された登録地点か否かを判定する(ステップS24)。
また、ステップS24において、対象物の位置情報がナビゲーション装置6に記憶された登録地点である場合(ステップS24のYES)、対象物の形状が画像処理ユニット1に記憶された登録形状であるか否かを判定する(ステップS25)。
そして、ステップS25において、対象物の形状が画像処理ユニット1に記憶された登録形状である場合(ステップS25のYES)、何もせずに警報判定処理を終了する。
【0029】
また、ステップS23において、自車両10と対象物との進入衝突の可能性があると判定した場合(ステップS23のYES)、あるいはステップS24において、対象物の位置情報がナビゲーション装置6に記憶された登録地点でない場合(ステップS24のNO)、あるいはステップS25において、対象物の形状が画像処理ユニット1に記憶された登録形状でない場合(ステップS25のNO)のいずれかの場合、自車両10と対象物とが接触する可能性が高いと判定し、スピーカ4を介して音声による警報を発すると共に、画像表示装置5に対して、例えば赤外線カメラ2Rにより得られる画像を出力し、接近してくる対象物を自車両10の運転者に対する強調映像として表示する(ステップS26)。
【0030】
もしこの時、自車両10の運転者は、発せられた警報や強調表示に関し、対象物が歩行者と同等な温度を示す道路脇の電柱や街灯のポール、あるいは自販機等、同じ地点で必ず警報対象とされてしまうような人工構造物であると認識できた場合、この対象物の形状等の特徴を画像処理ユニット1に、位置情報をナビゲーション装置6に、それぞれ記憶することができる。
すなわち、画像処理ユニット1は、自車両10の運転者が画像処理ユニット1に接続された対象物の情報である形状等の特徴と位置情報とを記憶するためのスイッチ(図示せず)を操作し、該スイッチがON(押下)されたか否かを判定する(ステップS27)。
【0031】
もし、ステップS27において、スイッチがONされていない場合(ステップS27のNO)、何もせず警報判定処理を終了する。
一方、ステップS27において、スイッチがONされている場合(ステップS27のYES)、画像処理ユニット1は、目的の対象物(警報が発せられた人工構造物)の形状を抽出して登録形状として記憶すると共に、ナビゲーション装置6から取得できる位置情報に画像処理ユニット1により検出した対象物の距離・方位情報を加味して、再びナビゲーション装置6に登録地点として記憶することで地点登録を実行する(ステップS28)。そして、警報判定処理を終了する。
【0032】
なお、上述の実施の形態では、画像処理ユニット1が、対象物記憶制御手段と警報出力制御手段とを含んでいる。より具体的には、図5のステップS27〜S28が対象物記憶制御手段に相当する。また、図5のステップS24〜S25が警報出力制御手段に相当する。
【0033】
以上説明したように、本実施の形態の障害物検出装置は、赤外線カメラ2R、2Lにより捉えられた画像から検出された対象物が、例えば同じ地点で必ず警報対象とされてしまうような人工構造物であった場合、画像処理ユニット1に対する運転者の操作で、対象物記憶制御手段が検出された対象物の形状等の特徴と位置情報とを記憶手段へ記憶することにより、運転者は、意識的に警報対象から除外したい任意の対象物の情報を記憶させることができる。
【0034】
そして、画像処理ユニット1は、記憶手段に情報が記憶されている対象物が再度検出された場合、警報出力制御手段により、この対象物を運転者が警報対象から除外したい対象物として判断すると共に、該対象物に対する警報出力を中止することができる。
従って、歩行者と同等な温度を示す道路脇の電柱や街灯のポール、あるいは自販機等の対象物から除外することができないような人工構造物でも、明示的にその形状等の特徴と位置情報とを記憶して非警報対象物として指定することで、運転者を煩わす警報の出力を抑制することができるという効果が得られる。
【0035】
また、本実施の形態では、対象物の位置情報は、ナビゲーション装置6から取得できる位置情報に画像処理ユニット1により検出した対象物の距離・方位情報を加味して、新たな位置情報(登録地点)として記憶することで正確に求めたが、警報は対象物が車両の近傍にある場合に行われることから、対象物の位置情報は、スイッチが操作された時にナビゲーション装置6から取得できる位置情報を基準とした所定の範囲とすることもできる。
【0036】
【発明の効果】
以上の如く、請求項1に記載の障害物検出装置によれば、運転者が意識的に警報対象から除外したい任意の対象物の特徴と位置情報とを記憶させることができる。そして、記憶されている対象物が再度検出された場合、該対象物に対する警報出力を中止することができる。
従って、歩行者と同等な温度を示し、対象物から除外することができないような人工構造物でも、明示的にその形状等の特徴と位置情報とを記憶して非警報対象物として指定することで、運転者を煩わす警報の出力を抑制することができるという効果が得られる。
【図面の簡単な説明】
【図1】本発明の一実施の形態の障害物検出装置の構成を示すブロック図である。
【図2】車両における赤外線カメラやセンサ、ディスプレイ等の取り付け位置を示す図である。
【図3】同実施の形態の障害物検出装置における対象物検出・警報動作を示すフローチャートである。
【図4】赤外線カメラにより得られるグレースケール画像とその2値化画像を示す図である。
【図5】同実施の形態の障害物検出装置における警報判定処理動作を示すフローチャートである。
【符号の説明】
1  画像処理ユニット
2R、2L  赤外線カメラ
4  スピーカ
5  画像表示装置
6  ナビゲーション装置
10  自車両
S24〜S25  警報出力制御手段
S27〜S28  対象物記憶制御手段
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an obstacle detection device that detects an object likely to affect the traveling of a host vehicle from an image captured by an imaging unit and issues an alarm.
[0002]
[Prior art]
A conventional obstacle detection device extracts an object such as a pedestrian that may collide with the host vehicle from an image around the host vehicle captured by an imaging unit such as an infrared camera. Provide to the driver of the vehicle. In this device, a portion having a high temperature in an image around the host vehicle taken by a pair of left and right stereo cameras is set as a target object, and a distance to the target object is calculated by obtaining a parallax of the target object. From the moving direction of the object and the position of the object, an object that is likely to affect the traveling of the host vehicle is detected and an alarm is output (for example, see Patent Document 1).
In addition, in an image around the host vehicle captured by an imaging unit such as an infrared camera, there is a type in which a region indicating a high temperature that cannot be a target such as a pedestrian is excluded to prevent erroneous detection of the target. (For example, see Patent Document 2).
[0003]
[Patent Document 1]
JP 2001-6096 A [Patent Document 2]
JP 2001-108758 A
[Problems to be solved by the invention]
However, in the conventional technology, it is possible to prevent an erroneous detection such as detecting an artificial structure exhibiting an extreme temperature as an object by excluding a region indicating a high temperature that cannot be an object such as a pedestrian. Although it is possible, there is a problem that it is difficult to recognize an artificial structure such as a utility pole, a streetlight pole, a vending machine or the like as a non-warning object and remove it from the object, which shows a temperature similar to that of a pedestrian. For this reason, there is a problem that a warning for these artificial structures that are not pedestrians is troublesome for the driver.
[0005]
The present invention has been made in view of the above-described problems, and provides an obstacle detection device capable of causing a driver to accurately recognize an object such as a pedestrian likely to affect the traveling of the vehicle. With the goal.
[0006]
[Means for Solving the Problems]
In order to solve the above problem, the obstacle detection device according to the first aspect of the present invention uses an image captured by an infrared camera (for example, the infrared camera 2R or 2L of the embodiment) to read the vehicle (for example, the vehicle of the embodiment). In an obstacle detection device that detects an object that affects the vehicle 10) and issues a warning to the driver of the host vehicle, the characteristics of the detected object and the characteristics of the detected object are determined based on the operation of the driver. An object storage control unit (for example, steps S27 to S28 in the embodiment) for storing the position information in the storage unit, and an alarm for the object when the object stored in the storage unit is detected again. An alarm output control means for stopping the output (for example, steps S24 to S25 in the embodiment) is provided.
[0007]
The obstacle detection device having the above configuration allows the driver to store the characteristics such as the shape of the detected object and the position information in the storage unit by the operation of the driver, so that the driver can In addition, it is possible to store information of an arbitrary object that is intentionally excluded from the alarm target. When an object whose information is stored in the storage unit is detected again, the alarm output control unit determines that the object is an object that the driver intentionally wants to exclude from the alarm target, and Can be stopped.
[0008]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram illustrating a configuration of an obstacle detection device according to an embodiment of the present invention.
In FIG. 1, reference numeral 1 denotes a vehicle-mounted image processing unit provided with a CPU (Central Processing Unit) for controlling the obstacle detection device according to the present embodiment, and includes two infrared cameras 2R capable of detecting far infrared rays. 2L is connected, and a signal indicating the running state of the vehicle, such as vehicle speed information and turning angle information, of the vehicle equipped with the obstacle detection device of the present embodiment is input. Thereby, the image processing unit 1 detects a pedestrian or an animal in front of the vehicle from the infrared image around the vehicle and the signal indicating the running state of the vehicle, and issues an alarm when it is determined that the possibility of collision is high. Emits.
[0009]
Further, the image processing unit 1 displays a speaker 4 for issuing a warning by voice and images taken by the infrared cameras 2R and 2L, and allows the driver of the vehicle to recognize an object having a high risk of collision. For example, a meter-integrated display integrated with a meter that indicates the running state of the own vehicle by a number, a NAVI Display installed on the console of the own vehicle, and further, information is displayed at a position on the front window that does not obstruct the driver's front view. An image display device 5 including a HUD (Head Up Display) is connected.
Further, a navigation device 6 is connected to the image processing unit 1, and the image processing unit 1 adds the distance information of the target detected by the image processing unit 1 to the position information acquired from the navigation device 6. -It is possible to store new position information in consideration of the direction information.
[0010]
The image processing unit 1 includes an A / D conversion circuit that converts an input analog signal into a digital signal, an image memory that stores a digitized image signal, a CPU (Central Processing Unit) that performs various types of arithmetic processing, (Random Access Memory) used to store data of the ROM, ROM (Read Only Memory) storing programs, tables, maps, and the like executed by the CPU, drive signals of the speaker 4, display signals of the image display device 5, and the like. The output circuit outputs an image captured by the infrared cameras 2R and 2L, and signals indicating the running state of the vehicle, such as vehicle speed information and turning angle information, are converted into digital signals and input to the CPU. It is configured to be.
[0011]
Further, the image processing unit 1 and the navigation device 6 include a non-volatile memory such as a flash memory, and a switch (not shown) for storing information on an object connected to the image processing unit 1. In response to the signal, information on the shape of the object (object) detected in front of the vehicle is stored in the image processing unit 1, and information on the position is stored in a nonvolatile memory such as a flash memory provided in the navigation device 6. be able to.
[0012]
Further, as shown in FIG. 2, the infrared cameras 2R and 2L are arranged at the front of the host vehicle 10 at positions substantially symmetric with respect to the center of the host vehicle 10 in the vehicle width direction. The optical axes of 2R and 2L are fixed so that the optical axes are parallel to each other and the heights from both roads are equal. Note that the infrared cameras 2R and 2L have a characteristic that the higher the temperature of the target, the higher the output signal level (the higher the luminance).
The HUD 7a is provided such that the display screen is displayed at a position on the front window of the host vehicle 10 where the front view of the driver is not obstructed.
Further, the host vehicle 10 is also equipped with a yaw rate sensor 3 for measuring a yaw rate for obtaining turning angle information.
[0013]
Next, the operation of the present embodiment will be described with reference to the drawings.
FIG. 3 is a flowchart illustrating the operation of detecting and warning an object such as a pedestrian in the image processing unit 1 of the obstacle detection device according to the present embodiment.
First, the image processing unit 1 acquires an infrared image which is an output signal of the infrared cameras 2R and 2L (step S1), performs A / D conversion (step S2), and stores a gray scale image in an image memory (step S1). S3). Here, a right image is obtained by the infrared camera 2R, and a left image is obtained by the infrared camera 2L. Further, in the right image and the left image, the horizontal position of the same object on the display screen is shifted, so that the distance (parallax) to the object can be calculated.
[0014]
After the grayscale image is obtained in step S3, the right image obtained by the infrared camera 2R is used as a reference image, and the image signal is binarized, that is, an area brighter than the luminance threshold ITH is set to "1" ( White) and the process of setting the dark area to “0” (black) (step S4).
FIG. 4A shows a grayscale image obtained by the infrared camera 2R. By performing a binarization process on the grayscale image, an image as shown in FIG. 4B is obtained. In FIG. 4B, for example, an object surrounded by a frame from P1 to P4 is an object displayed as white on the display screen (hereinafter, referred to as a “high luminance area”).
When the binarized image data is obtained from the infrared image, a process of converting the binarized image data into run-length data is performed (step S5). The line represented by the run-length data indicates, at a pixel level, an area that has been whitened by binarization, and each has a width of one pixel in the y direction and also has a width of one pixel in the x direction. It has the length of a pixel constituting the run-length data.
[0015]
Next, a process of extracting the target object is performed by labeling the target object from the image data converted to the run-length data (step S6) (step S7). That is, among the lines converted into run-length data, a line having a portion overlapping in the y-direction is regarded as one object, so that, for example, the high-luminance areas P1 to P4 shown in FIG. (Value object).
When the extraction of the object is completed, the center of gravity G, the area S, and the aspect ratio ASPECT of the circumscribed rectangle of the extracted object are calculated (step S8).
[0016]
Here, the area S is obtained by calculating the run length data of the target object of the label A by (x [i], y [i], run [i], A) (i = 0, 1, 2,..., N−1). ), The length (run [i] -1) of the run-length data is calculated by integrating the same object (N run-length data). The coordinates (xc, yc) of the center of gravity G of the object A are represented by the length (run [i] -1) of each run-length data and the coordinates x [i] or y [i] of each run-length data. Are multiplied by each other, and the sum of the multiplications for the same object is calculated by dividing by the area S. Further, the aspect ratio ASPECT is calculated as a ratio Dy / Dx of the length Dy in the vertical direction and the length Dx in the horizontal direction of the circumscribed rectangle of the object.
Since the run length data is indicated by the number of pixels (the number of coordinates) (= run [i]), the actual length needs to be “−1” (subtract 1) (= run [i]). ] -1). In addition, the position of the center of gravity G may be replaced by the position of the center of gravity of a circumscribed rectangle.
[0017]
When the center of gravity, area, and aspect ratio of the circumscribed rectangle of the object can be calculated, next, tracking of the object between times, that is, recognition of the same object in each sampling cycle is performed (step S9). In time tracking, the time at which the time t as the analog quantity is discretized at the sampling cycle is k, and for example, if the objects A and B are extracted at time k, the objects C and D extracted at time (k + 1) The identity with the objects A and B is determined. When it is determined that the objects A and B are the same as the objects C and D, the inter-time tracking is performed by changing the objects C and D to the labels of the objects A and B, respectively.
Further, the position coordinates (of the center of gravity) of each object recognized in this way are stored in the memory as time-series position data, and are used in subsequent arithmetic processing.
[0018]
Note that the processes of steps S4 to S9 described above are performed on the binarized reference image (the right image in the present embodiment).
Next, the turning angle information obtained by time-integrating the vehicle speed information detected by the vehicle speed sensor (not shown) and the yaw rate detected by the yaw rate sensor 3 is read, and the turning angle θr of the host vehicle 10 is calculated (step). S10).
[0019]
On the other hand, in parallel with the processing of steps S9 and S10, in steps S11 to S13, processing of calculating the distance z between the target object and the host vehicle 10 is performed. Since this calculation requires a longer time than steps S9 and S10, it is executed in a cycle longer than steps S9 and S10 (for example, about three times the execution cycle of steps S1 to S10).
First, by selecting one of the objects tracked by the binarized image of the reference image (right image), the search image R1 (here, the entire area surrounded by the circumscribed rectangle is searched from the right image) Then, a circumscribed rectangle of the search image is referred to as a target frame (step S11).
[0020]
Next, a search area R2 for searching for an image corresponding to the search image R1 (hereinafter referred to as "corresponding image") from the left image is set (step S12), and a correlation operation with the search image R1 is performed within the search area R2. Then, an area having a high correlation with the search image R1 is obtained and set as a corresponding image. Then, a parallax / distance calculation between the search image R1 and the corresponding image is performed to calculate a distance z between the host vehicle 10 and the target (step S13).
[0021]
When the calculation of the turning angle θr in step S10 and the calculation of the distance to the target in step S13 are completed, the turning angle correction for correcting the positional shift on the image due to the turning of the host vehicle 10 is then performed. Perform (Step S14). In the turning angle correction, if the host vehicle 10 turns, for example, to the left by a turning angle θr during the period from time k to (k + 1), the range of the image is shifted by Δx in the x direction on the image obtained by the camera. This is a process for correcting this.
[0022]
When the turning angle correction is completed, the coordinates (x, y) and the distance z in the image are converted into real space coordinates (X, Y, Z) (step S15).
Here, as shown in FIG. 2, the real space coordinates (X, Y, Z) are obtained by setting the middle point of the mounting positions of the infrared cameras 2R, 2L (the position fixed to the host vehicle 10) as the origin O. The coordinates in the image are defined as x in the horizontal direction and y in the vertical direction with the center of the image as the origin.
In the following description, the coordinates after the turning angle correction are displayed as (X, Y, Z).
Next, when the turning angle correction for the real space coordinates is completed, N (for example, about N = 10) real space position data after the turning angle correction, obtained for the same object during the monitoring period of ΔT, that is, From the time-series data, an approximate straight line LMV corresponding to a relative movement vector between the target object and the host vehicle 10 is obtained.
[0023]
Next, the latest position coordinates P (0) = (X (0), Y (0), Z (0)) and the position coordinates P (N−1) before (N−1) samples (time ΔT before). = (X (N-1), Y (N-1), Z (N-1)) is corrected to a position on the approximate straight line LMV, and the corrected position coordinates Pv (0) = (Xv (0), Yv (0), Zv (0)) and Pv (N-1) = (Xv (N-1), Yv (N-1), Zv (N-1)).
As a result, a relative movement vector is obtained as a vector from the position coordinates Pv (N-1) to Pv (0) (step S16).
In this way, the influence of the position detection error is reduced by calculating the approximate straight line that approximates the relative movement trajectory of the target object with respect to the vehicle 10 from the plurality (N) of data within the monitoring period ΔT. As a result, it is possible to more accurately predict the possibility of collision with the object.
[0024]
Further, when the relative movement vector is obtained in step S16, next, an alarm determination process of determining whether there is a possibility that the own vehicle 10 collides with the detected object and outputting an alarm is performed (step S16). S17). The details of the alarm determination process will be described later.
After the end of the alarm determination processing, the process returns to step S1, and the above processing is repeated.
[0025]
The above is the object detection / warning operation in the image processing unit 1 of the obstacle detection device according to the present embodiment. Next, referring to the flowchart shown in FIG. 5, step S17 of the flowchart shown in FIG. The alarm determination process of determining a possibility of collision with an object and outputting an alarm will be described in more detail.
FIG. 5 is a flowchart showing the alarm determination processing operation of the present embodiment.
First, the image processing unit 1 calculates a relative speed of the target object with respect to the host vehicle 10. Then, by dividing the distance between the host vehicle 10 and the target by the relative speed, the time until contact between the host vehicle 10 and the target is calculated, and it is determined whether or not this is equal to or longer than a margin time for avoiding a collision. Is determined. In determining whether or not a collision occurs, a range in the height direction is also defined.
[0026]
In step S21, when it is determined that there is no possibility of collision between the host vehicle 10 and the target (NO in step S21), the warning determination process is terminated without doing anything.
When it is determined in step S21 that there is a possibility of collision between the host vehicle 10 and the target (YES in step S21), the image processing unit 1 determines whether the target exists in the approach determination area. Is determined (step S22). Here, the approach determination area is an area in front of the host vehicle 10 where it is determined that the possibility of collision with the host vehicle 10 is extremely high if the target object continues to exist as it is.
[0027]
If it is determined in step S22 that the object does not exist in the approach determination area (NO in step S22), the object exists in the approach determination area laterally (x-coordinate direction) outside the approach determination area. Then, an approach collision determination is made to determine whether there is a possibility of an approach collision in which the subject advances into the approach determination area and the vehicle 10 collides with the object (step S23).
Then, in step S23, when it is determined that there is no possibility of the ingress collision between the vehicle 10 and the target object (NO in step S23), the warning determination process is terminated without doing anything.
[0028]
On the other hand, when it is determined in step S22 that the target is present in the approach determination area (YES in step S22), it is determined whether or not the position information of the target is a registered point stored in the navigation device 6 (step S24). ).
Also, in step S24, when the position information of the object is the registered point stored in the navigation device 6 (YES in step S24), whether or not the shape of the object is the registered shape stored in the image processing unit 1 Is determined (step S25).
If the shape of the target object is the registered shape stored in the image processing unit 1 in step S25 (YES in step S25), the warning determination process ends without performing any operation.
[0029]
When it is determined in step S23 that there is a possibility that the vehicle 10 and the target collide with each other (YES in step S23), or in step S24, the position information of the target is stored in the navigation device 6. If it is not a registered point (NO in step S24), or if the shape of the object is not the registered shape stored in the image processing unit 1 in step S25 (NO in step S25), the host vehicle 10 and the object It is determined that there is a high possibility of contact with an object, an alarm is issued by voice via the speaker 4, and an image obtained by, for example, the infrared camera 2 </ b> R is output to the image display device 5, and the approaching object is output. The object is displayed as an emphasized image for the driver of the vehicle 10 (step S26).
[0030]
At this time, if the driver of the own vehicle 10 issues a warning or highlighting, the warning is always issued at the same point, such as a power pole, a streetlight pole, a vending machine, or the like, on the roadside where the target object has the same temperature as the pedestrian. When it is recognized that the object is an artificial structure that can be regarded as an object, characteristics such as the shape of the object can be stored in the image processing unit 1 and position information can be stored in the navigation device 6.
That is, the image processing unit 1 operates the switch (not shown) for the driver of the vehicle 10 to store the shape information and the like, which are information of the object connected to the image processing unit 1, and the position information. Then, it is determined whether or not the switch is turned on (pressed) (step S27).
[0031]
If the switch is not turned on in step S27 (NO in step S27), nothing is performed and the alarm determination process ends.
On the other hand, if the switch is turned on in step S27 (YES in step S27), the image processing unit 1 extracts the shape of the target object (artificial structure for which an alarm has been issued) and stores it as a registered shape. At the same time, the location registration is executed by adding the location information acquired from the navigation device 6 to the distance / direction information of the object detected by the image processing unit 1 and storing the information again in the navigation device 6 as a registered location (step). S28). Then, the alarm determination processing ends.
[0032]
In the above-described embodiment, the image processing unit 1 includes the object storage control unit and the alarm output control unit. More specifically, steps S27 to S28 in FIG. 5 correspond to an object storage control unit. Steps S24 to S25 in FIG. 5 correspond to alarm output control means.
[0033]
As described above, the obstacle detection device according to the present embodiment has an artificial structure in which an object detected from images captured by the infrared cameras 2R and 2L is always set as a warning target at the same point, for example. If the object is a driver, the driver operates the image processing unit 1 to store the characteristics such as the shape of the detected target object and the position information in the storage unit by the target object storage control unit. It is possible to store information on any object that is intentionally excluded from the alarm target.
[0034]
When the object whose information is stored in the storage unit is detected again, the image processing unit 1 determines the object as an object that the driver wants to exclude from the alarm target by the alarm output control unit, and The alarm output for the object can be stopped.
Therefore, even for artificial structures that cannot be excluded from objects such as utility poles, streetlight poles, or vending machines that show the same temperature as pedestrians, such as shapes and other characteristics and location information. Is stored and designated as a non-warning target, an effect is obtained that the output of a warning that bothers the driver can be suppressed.
[0035]
Further, in the present embodiment, the position information of the object is obtained by adding new position information (registered location) by adding the distance / direction information of the object detected by the image processing unit 1 to the position information obtainable from the navigation device 6. ) Is accurately obtained by storing the information. However, since the warning is performed when the object is in the vicinity of the vehicle, the position information of the object is obtained from the navigation device 6 when the switch is operated. May be set to a predetermined range based on.
[0036]
【The invention's effect】
As described above, according to the obstacle detection device of the first aspect, it is possible to store the feature and position information of an arbitrary object that the driver wants to intentionally exclude from the alarm target. Then, when the stored object is detected again, the alarm output for the object can be stopped.
Therefore, even for an artificial structure that shows a temperature equivalent to that of a pedestrian and cannot be excluded from the object, explicitly store the characteristics such as its shape and position information and designate it as a non-warning object. Thus, the effect of suppressing the output of an alarm that bothers the driver can be obtained.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a configuration of an obstacle detection device according to an embodiment of the present invention.
FIG. 2 is a diagram showing attachment positions of an infrared camera, a sensor, a display, and the like in a vehicle.
FIG. 3 is a flowchart showing an object detection / warning operation in the obstacle detection device of the embodiment.
FIG. 4 is a diagram showing a grayscale image obtained by an infrared camera and its binary image.
FIG. 5 is a flowchart showing an alarm determination processing operation in the obstacle detection device of the embodiment.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 Image processing unit 2R, 2L Infrared camera 4 Speaker 5 Image display device 6 Navigation device 10 Own vehicle S24-S25 Alarm output control means S27-S28 Object storage control means

Claims (1)

赤外線カメラで捉えた画像から、自車両に影響を与える対象物を検出し、前記自車両の運転者へ該対象物に対する警報を発する障害物検出装置において、
前記運転者の操作に基づいて、検出された対象物の特徴と位置情報とを記憶手段へ記憶する対象物記憶制御手段と、
前記記憶手段に記憶された対象物が再度検出された場合は、該対象物に対する警報出力を中止する警報出力制御手段と
を備えたことを特徴とする障害物検出装置。
From an image captured by an infrared camera, an obstacle detecting device that detects an object affecting the own vehicle and issues an alarm to the driver of the own vehicle to the object.
Based on the operation of the driver, an object storage control unit that stores the detected feature and position information of the object in the storage unit,
An obstacle detection device comprising: an alarm output control unit that stops an alarm output for an object stored in the storage unit when the object is detected again.
JP2002271634A 2002-09-18 2002-09-18 Obstacle detection device Expired - Fee Related JP3999088B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002271634A JP3999088B2 (en) 2002-09-18 2002-09-18 Obstacle detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002271634A JP3999088B2 (en) 2002-09-18 2002-09-18 Obstacle detection device

Publications (2)

Publication Number Publication Date
JP2004106682A true JP2004106682A (en) 2004-04-08
JP3999088B2 JP3999088B2 (en) 2007-10-31

Family

ID=32268887

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002271634A Expired - Fee Related JP3999088B2 (en) 2002-09-18 2002-09-18 Obstacle detection device

Country Status (1)

Country Link
JP (1) JP3999088B2 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006099603A (en) * 2004-09-30 2006-04-13 Nissan Motor Co Ltd Figure detection device and method
JP2007017351A (en) * 2005-07-08 2007-01-25 Xanavi Informatics Corp Navigation device
JP2007087203A (en) * 2005-09-22 2007-04-05 Sumitomo Electric Ind Ltd Collision determination system, collision determination method, and computer program
JP2010020557A (en) * 2008-07-10 2010-01-28 Sumitomo Electric Ind Ltd Image processor and image processing method
JP2010072947A (en) * 2008-09-18 2010-04-02 Toyota Motor Corp Obstacle detection device
JP2011057101A (en) * 2009-09-10 2011-03-24 Toshiba Alpine Automotive Technology Corp Obstacle detector for vehicle
WO2014156706A1 (en) * 2013-03-28 2014-10-02 ソニー株式会社 Image processing device and method, and program
US9514547B2 (en) 2013-07-11 2016-12-06 Denso Corporation Driving support apparatus for improving awareness of unrecognized object
JP2017515227A (en) * 2014-04-25 2017-06-08 ローベルト ボッシュ ゲゼルシャフト ミット ベシュレンクテル ハフツング Reduce false alarms using location data
JP2017143339A (en) * 2016-02-08 2017-08-17 日本電信電話株式会社 Image synthesizing apparatus, operation method of image synthesizing apparatus, and computer program
US11208116B2 (en) * 2017-03-02 2021-12-28 Panasonic Intellectual Property Management Co., Ltd. Driving assistance method, and driving assistance device and driving assistance system using said method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1038586A (en) * 1996-07-29 1998-02-13 Kensetsusho Hokurikuchihou Kensetsukyoku Obstacle warning equipment of working vehicle and obstacle position registration method for working vehicle
JPH1049799A (en) * 1996-07-30 1998-02-20 Nissan Motor Co Ltd Operation controller
JP2001006096A (en) * 1999-06-23 2001-01-12 Honda Motor Co Ltd Peripheral part monitoring device for vehicle

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1038586A (en) * 1996-07-29 1998-02-13 Kensetsusho Hokurikuchihou Kensetsukyoku Obstacle warning equipment of working vehicle and obstacle position registration method for working vehicle
JPH1049799A (en) * 1996-07-30 1998-02-20 Nissan Motor Co Ltd Operation controller
JP2001006096A (en) * 1999-06-23 2001-01-12 Honda Motor Co Ltd Peripheral part monitoring device for vehicle

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006099603A (en) * 2004-09-30 2006-04-13 Nissan Motor Co Ltd Figure detection device and method
JP4543861B2 (en) * 2004-09-30 2010-09-15 日産自動車株式会社 Person detection apparatus and method
JP2007017351A (en) * 2005-07-08 2007-01-25 Xanavi Informatics Corp Navigation device
JP4695933B2 (en) * 2005-07-08 2011-06-08 クラリオン株式会社 Navigation device
JP2007087203A (en) * 2005-09-22 2007-04-05 Sumitomo Electric Ind Ltd Collision determination system, collision determination method, and computer program
JP2010020557A (en) * 2008-07-10 2010-01-28 Sumitomo Electric Ind Ltd Image processor and image processing method
JP2010072947A (en) * 2008-09-18 2010-04-02 Toyota Motor Corp Obstacle detection device
JP2011057101A (en) * 2009-09-10 2011-03-24 Toshiba Alpine Automotive Technology Corp Obstacle detector for vehicle
WO2014156706A1 (en) * 2013-03-28 2014-10-02 ソニー株式会社 Image processing device and method, and program
JPWO2014156706A1 (en) * 2013-03-28 2017-02-16 ソニー株式会社 Image processing apparatus and method, and program
TWI649675B (en) * 2013-03-28 2019-02-01 新力股份有限公司 Display device
US10365767B2 (en) 2013-03-28 2019-07-30 Sony Corporation Augmented reality image processing apparatus and method, and program
US9514547B2 (en) 2013-07-11 2016-12-06 Denso Corporation Driving support apparatus for improving awareness of unrecognized object
JP2017515227A (en) * 2014-04-25 2017-06-08 ローベルト ボッシュ ゲゼルシャフト ミット ベシュレンクテル ハフツング Reduce false alarms using location data
JP2017143339A (en) * 2016-02-08 2017-08-17 日本電信電話株式会社 Image synthesizing apparatus, operation method of image synthesizing apparatus, and computer program
US11208116B2 (en) * 2017-03-02 2021-12-28 Panasonic Intellectual Property Management Co., Ltd. Driving assistance method, and driving assistance device and driving assistance system using said method
US11691642B2 (en) 2017-03-02 2023-07-04 Panasonic Intellectual Property Management Co., Ltd. Driving assistance method, and driving assistance device and driving assistance system using said method

Also Published As

Publication number Publication date
JP3999088B2 (en) 2007-10-31

Similar Documents

Publication Publication Date Title
JP4426535B2 (en) Vehicle periphery monitoring device
JP4203512B2 (en) Vehicle periphery monitoring device
JP3756452B2 (en) Infrared image processing device
JP4733756B2 (en) Vehicle periphery monitoring device
JP4815488B2 (en) Vehicle periphery monitoring device
JP2010097541A (en) Vehicular periphery monitoring apparatus
JP4094604B2 (en) Vehicle periphery monitoring device
JP3999088B2 (en) Obstacle detection device
JP2003329439A (en) Distance detecting device
JP4128562B2 (en) Vehicle periphery monitoring device
JP4425852B2 (en) Vehicle periphery monitoring device
JP2009075124A (en) Distance detector
JP2004126905A (en) Image processor
JP4864953B2 (en) Vehicle periphery monitoring device
JP2007164566A (en) System and device of vehicle sensing for traffic-actuated control
JP3916930B2 (en) Approach warning device
JP6087240B2 (en) Vehicle periphery monitoring device
JP4176558B2 (en) Vehicle periphery display device
JP4943403B2 (en) Vehicle periphery monitoring device
JP2004103018A (en) Vehicular circumference monitoring device
JP2004362265A (en) Infrared image recognition device
JP4040657B2 (en) Moving object detection device
JP3999025B2 (en) Alarm display device
JP2008276787A (en) Vehicle periphery monitoring device
JP3859429B2 (en) Moving object detection device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070508

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070703

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070731

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070808

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100817

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100817

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110817

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110817

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120817

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120817

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130817

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140817

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees