JP3987013B2 - 車両周辺監視装置 - Google Patents
車両周辺監視装置 Download PDFInfo
- Publication number
- JP3987013B2 JP3987013B2 JP2003309059A JP2003309059A JP3987013B2 JP 3987013 B2 JP3987013 B2 JP 3987013B2 JP 2003309059 A JP2003309059 A JP 2003309059A JP 2003309059 A JP2003309059 A JP 2003309059A JP 3987013 B2 JP3987013 B2 JP 3987013B2
- Authority
- JP
- Japan
- Prior art keywords
- binarized
- image
- pedestrian
- feature quantity
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R21/00—Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
- B60R21/01—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
- B60R21/013—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/66—Analysis of geometric attributes of image moments or centre of gravity
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R21/00—Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
- B60R21/01—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
- B60R21/013—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
- B60R21/0134—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to imminent contact with an obstacle, e.g. using radar systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R21/00—Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
- B60R21/34—Protecting non-occupants of a vehicle, e.g. pedestrians
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
Description
更に、画像全体のヒストグラムの状態を降雨判定に用いる方法も提案されている。
図1は、本発明の第1の実施例の車両周辺監視装置の構成を示すブロック図である。
図1において、符号1は、本実施例の車両周辺監視装置を制御するCPU(中央演算装置)を備えた画像処理ユニットであって、遠赤外線を検出可能な2つの赤外線カメラ2R、2Lと当該車両のヨーレートを検出するヨーレートセンサ3、更に、当該車両の走行速度(車速)を検出する車速センサ4とブレーキの操作を検出するためのブレーキセンサ5が接続される。これにより、画像処理ユニット1は、車両の周辺の赤外線画像と車両の走行状態を示す信号とから、車両前方の歩行者や動物等の動く物体を検出し、衝突の可能性が高いと判断したときに警報を発する。
また、HUD7aは、自車両10のフロントウインドウの運転者の前方視界を妨げない位置に表示画面が表示されるように設けられている。
(対象物検出・警報動作)
図3は、本実施例の車両周辺監視装置の画像処理ユニット1における歩行者等の対象物検出・警報動作を示すフローチャートである。
図3において、まず画像処理ユニット1は、赤外線カメラ2R、2Lの出力信号である赤外線画像を取得して(ステップS1)、A/D変換し(ステップS2)、グレースケール画像を画像メモリに格納する(ステップS3)。なお、ここでは赤外線カメラ2Rにより右画像が得られ、赤外線カメラ2Lにより左画像が得られる。また、右画像と左画像では、同一の対象物の表示画面上の水平位置がずれて表示されるので、このずれ(視差)によりその対象物までの距離を算出することができる。
図4(a)は、赤外線カメラ2Rにより得られたグレースケール画像を示し、これに2値化処理を行うことにより、図4(b)に示すような画像を得る。なお、図4(b)において、例えばP1からP4の枠で囲った物体を、表示画面上に白色として表示される対象物(以下「高輝度領域」という)とする。
赤外線画像から2値化された画像データを取得したら、2値化した画像データをランレングスデータに変換する処理を行う(ステップS5)。ランレングスデータにより表されるラインは、2値化により白となった領域を画素レベルで示したもので、いずれもy方向には1画素の幅を有しており、またx方向にはそれぞれランレングスデータを構成する画素の長さを有している。
2値化対象物の抽出が完了したら、次に、抽出した2値化対象物の重心G、面積S及び外接四角形の縦横比ASPECTを算出する(ステップS8)。
更に、縦横比ASPECTは、対象物の外接四角形の縦方向の長さDyと横方向の長さDxとの比Dy/Dxとして算出する。
なお、ランレングスデータは画素数(座標数)(=run[i])で示されているので、実際の長さは「−1」する(1を減算する)必要がある(=run[i]−1)。また、重心Gの位置は、外接四角形の重心位置で代用してもよい。
また、このようにして認識された各対象物の(重心の)位置座標は、時系列位置データとしてメモリに格納され、後の演算処理に使用される。
次に、車速センサ4により検出される車速VCAR及びヨーレートセンサ3より検出されるヨーレートYRを読み込み、ヨーレートYRを時間積分することにより、自車両10の回頭角θrを算出する(ステップS10)。
まず、基準画像(右画像)の2値化画像によって追跡される対象物の中の1つを選択することにより、右画像から探索画像R1(ここでは、外接四角形で囲まれる領域全体を探索画像とし、この探索画像の外接四角形を対象枠という)を抽出する(ステップS11)。
また、ステップS10における回頭角θrの算出と、ステップS13における対象物との距離zの算出が完了したら、次に、自車両10が回頭することによる画像上の位置ずれを補正するための回頭角補正を行う(ステップS14)。回頭角補正は、時刻kから(k+1)までの期間中に自車両10が例えば左方向に回頭角θrだけ回頭すると、カメラによって得られる画像上では、画像の範囲がΔxだけx方向にずれるので、これを補正する処理である。
ここで、実空間座標(X,Y,Z)は、図2に示すように、赤外線カメラ2R、2Lの取り付け位置の中点の位置(自車両10に固定された位置)を原点Oとして図示のように定め、画像内の座標は、画像の中心を原点として水平方向をx、垂直方向をyと定めている。なお、以下の説明では、回頭角補正後の座標を(X,Y,Z)と表示する。
次に、実空間座標に対する回頭角補正が完了したら、同一対象物について、ΔTのモニタ期間内に得られた、回頭角補正後のN個(例えばN=10程度)の実空間位置データ、すなわち時系列データから、対象物と自車両10との相対移動ベクトルに対応する近似直線LMVを求める。
これにより、位置座標Pv(N−1)からPv(0)に向かうベクトルとして、相対移動ベクトルが得られる(ステップS16)。
このようにモニタ期間ΔT内の複数(N個)のデータから対象物の自車両10に対する相対移動軌跡を近似する近似直線を算出して相対移動ベクトルを求めることにより、位置検出誤差の影響を軽減して対象物との衝突の可能性をより正確に予測することが可能となる。
ステップS17において、自車両10と検出した対象物との衝突の可能性がないと判定された場合(ステップS17のNO)、ステップS1へ戻り、上述の処理を繰り返す。
また、ステップS17において、自車両10と検出した対象物との衝突の可能性があると判定された場合(ステップS17のYES)、ステップS18の警報出力判定処理へ進む。
もし、自車両10の運転者がブレーキ操作を行っている場合には、それによって発生する加速度Gs(減速方向を正とする)を算出し、この加速度Gsが所定しきい値GTHより大きいときは、ブレーキ操作により衝突が回避されると判定して警報出力判定処理を終了し(ステップS18のNO)、ステップS1へ戻り、上述の処理を繰り返す。
これにより、適切なブレーキ操作が行われているときは、警報を発しないようにして、運転者に余計な煩わしさを与えないようにすることができる。
なお、所定しきい値GTHは、ブレーキ操作中の加速度Gsがそのまま維持された場合に、対象物と自車両10との距離Zv(0)以下の走行距離で自車両10が停止する条件に対応する値である。
まず降雨判定処理、警報判定処理、及び歩行者判定処理の詳細を説明する前に、先に各処理に用いる2値化対象物の特徴量、あるいは抽出された2値化対象物に対応するグレースケール画像上の対象物(グレースケール対象物)の特徴量の算出方法を具体的に説明する。
まず、実空間での2値化対象物の形状の特徴を示す2値化対象物形状特徴量は、図3に示したフローチャートのステップS8において算出された2値化対象物の重心G(xc、yc)(図5に示す2値化対象物の重心G100)と、面積S(図5に示す2値化対象物面積S101)と、対象物の外接四角形の縦横比ASPECTと、ステップS13において算出された自車両10と対象物との距離zに加えて、図5に示す2値化対象物の外接四角形の高さhbと幅wb、及び外接四角形重心座標(xb、yb)(図5に示す外接四角形重心102)の値、更にはカメラの基線長D[m]、カメラ焦点距離f[m]、画素ピッチp[m/pixel]、及び左右映像の相関演算によって算出される視差量Δd[pixel]を用いて算出する。
具体的には、外接四角形と対象物面積の比率Rateは、
ΔHb=hb×z×p/f ・・・(4)
Yc=yc×z×p/f
Zc=z ・・・(5)
Yb=yb×z×p/f
Zb=z ・・・(6)
Yt=yb×z×p/f−ΔHb/2
Zt=z ・・・(7)
具体的には、図6に示すように、実空間での大きさがW[m]×H[m]、画面上のマスク領域サイズWp[pixel]×Hp[pixel]である長方形領域のマスク領域(それぞれをMASK[I]、但しI=0、1、2、・・・とする)を、図3に示したフローチャートのステップS3において取得されたグレースケール画像上に2値化対象物外接四角形の上下端から複数個並べて設定し、下記条件1から条件3の条件を満たすマスク領域(例えば図6において、「TRUE」と判定したマスク領域)を包含する領域をグレースケール対象物の領域として抽出する。
条件2:左右の画像間のマスク領域の相関度が高い(マスク領域内に2つ以上の対象物が存在しない)。
条件3:2値化対象物と同距離(同視差)である。
次に、図7及び図8に示すフローチャートを参照して、図3に示したフローチャートのステップS21における降雨判定処理について更に詳細に説明する。図7及び図8は、本実施例の降雨判定処理動作を示すフローチャートであって、複数の画像フレームについて降雨の判定を行い、その集計結果から歩行者判定処理の動作モードを決定する手順について示す。
図7において、まず画像処理ユニット1は、1つの画像フレームに対して、任意のN1個(N1は整数であり、例えば画像上の全ての物体)の2値化対象物を抽出する(ステップS31)。
次に、変数Iと変数Cとを「ゼロ」にリセットする(ステップS32)。
そして、先に示した方法で抽出された2値化対象物のいずれか1個に対応するグレースケール対象物の高さを算出する(ステップS33)。
次に、グレースケール対象物の高さΔHgと2値化対象物の高さΔHbとの差の絶対値が所定値ΔHより小さいか否かを判定する(ステップS34)。
次に、変数Iを「1」だけカウントアップする(ステップS36)。
また、ステップS34において、グレースケール対象物の高さΔHgと2値化対象物の高さΔHbとの差の絶対値が所定値ΔH以上である場合(ステップS34のNO)、画像処理ユニット1はステップS36へ進み、変数Iのみを「1」だけカウントアップする(ステップS36)。
一方、ステップS37において、変数Iが2値化対象物の総数N1以上であった場合(ステップS37のYES)、変数Cの2値化対象物の総数N1に対する割合「C/N1」、すなわちグレースケール対象物の高さΔHgと2値化対象物の高さΔHbとの差の絶対値「|ΔHg−ΔHb|」が所定値ΔHより小さい2値化対象物の数Cの2値化対象物の総数N1に対する割合「C/N1」が、所定値X1より大きいか否かを判定する(ステップS38)。
一方、ステップS38において、高さの差の絶対値が所定値ΔHより小さい2値化対象物の数Cの2値化対象物の総数N1に対する割合「C/N1」が、所定値X1以下の場合(ステップS38のNO)、この画像フレームを通常判定のフレームと判定して、最新の画像フレームの状態を示すフラグF[0]に「0」を設定する(ステップS40)。
そして、変数Jで指定される画像フレームの状態を示すフラグF[J]が「1」であるか否かを判定する(ステップS42)。
もし、ステップS42において、変数Jで指定される画像フレームの状態を示すフラグF[J]が「1」である場合(ステップS42のYES)、画像処理ユニット1は、変数Kを「1」だけカウントアップする(ステップS43)。
次に、変数Jを「1」だけカウントアップする(ステップS44)。
また、ステップS42において、変数Jで指定される画像フレームの状態を示すフラグF[J]が「0」である場合(ステップS42のNO)、画像処理ユニット1は、ステップS44へ進み、変数Jのみを「1」だけカウントアップする(ステップS44)。
一方、ステップS45において、変数Jが判定する画像フレームの総数M以上であった場合(ステップS45のYES)、画像処理ユニット1は、図8のステップS46へ進み、変数Kの画像フレームの総数Mに対する割合「K/M」、すなわち降雨判定のフレームとされた画像フレームの数Kの画像フレームの総数Mに対する割合「K/M」が、所定値Yより大きいか否かを判定する(ステップS46)。
一方、ステップS46において、降雨判定のフレームの数Kの画像フレームの総数Mに対する割合「K/M」が、所定値Y以下の場合(ステップS46のNO)、歩行者判定処理の動作モードを通常モードと判定して、歩行者判定処理の動作モードを示すフラグ「Rain_flag」に「0」を設定する(ステップS48)。
そして、変数Jが「0」より大きいか否かを判定し(ステップS52)、変数Jが「0」より大きい場合(ステップS52のYES)、ステップS50へ戻り、上述の処理を繰り返す。
一方、ステップS52において、変数Jが「0」以下の場合(ステップS52のNO)、降雨判定処理を終了する。すなわち、ステップS49からステップS52の処理によって、画像フレームの状態を示すフラグの内容が1個ずつシフトされ、最新の画像フレームの状態を示すフラグF[0]が空いた状態となる。
図7及び図8に示すステップS31からステップS52の処理では、ロバスト性を向上させるために複数の画像フレームについて降雨の判定を行い、その集計結果から歩行者判定処理の動作モードを決定する手順について示したが、降雨判定処理は、処理手順を簡略化するために、複数の画像フレームについての集計結果を用いず1つの画像フレームの判定結果を歩行者判定処理の動作モードとしても良い。具体的には、図7に示すステップS38において、変数Cの2値化対象物の総数N1に対する割合「C/N1」、すなわち高さの差の絶対値が所定値ΔHより小さい2値化対象物の数Cの2値化対象物の総数N1に対する割合「C/N1」が、所定値X1より大きい場合(ステップS38のYES)、画像処理ユニット1は、ステップS47へ進み、歩行者判定処理の動作モードを降雨モードと判定して、歩行者判定処理の動作モードを示すフラグ「Rain_flag」に「1」を設定する。
なお、複数の画像フレームについての集計結果を用いずに、1つの画像フレームの判定結果を歩行者判定処理の動作モードとする場合、その後のステップS39からステップS46、及びステップS49からステップS52により実行される複数の画像フレームの判定内容の集計処理は実行しなくて良い。
次に、図10に示すフローチャートを参照して、図3に示したフローチャートのステップS17における警報判定処理について更に詳細に説明する。
図10は、本実施例の警報判定処理動作を示すフローチャートである。
警報判定処理は、以下に示す衝突判定処理、接近判定領域内か否かの判定処理、進入衝突判定処理、歩行者判定処理、及び人工構造物判定処理により、自車両10と検出した対象物との衝突の可能性を判定する処理である。以下、図11に示すように、自車両10の進行方向に対してほぼ90°の方向から、速度Vpで進行してくる対象物20がいる場合を例に取って説明する。
また、ステップS64において、対象物は歩行者の可能性があると判定された場合(ステップS64のYES)、更に判定の信頼性を上げるために、対象物が人工構造物であるか否かを判定する人工構造物判定処理を行う(ステップS65)。人工構造物判定処理は、対象物画像に、例えば以下に示すような歩行者にはあり得ない特徴が検出された場合、該対象物を人工構造物と判定し、警報の対象から除外する処理である。
(1)対象物の画像に直線エッジを示す部分が含まれる場合。
(2)対象物の画像の角が直角である場合。
(3)対象物の画像に同じ形状のものが複数含まれている場合。
(4)対象物の画像が予め登録された人口構造物の形状と一致する場合。
次に、図13から図18に示すフローチャートを参照して、図10に示したフローチャートのステップS64における歩行者判定処理について更に詳細に説明する。図13から図18は、本実施例の歩行者判定処理動作を示すフローチャートである。歩行者判定処理は、前述の降雨判定処理で決定された動作モードに従って処理方法が変更される。
具体的には、図13において、まず画像処理ユニット1は、先に示した方法で実空間での2値化対象物の形状の特徴を示す2値化対象物形状特徴量を算出する(ステップS71)。
また、2値化対象物形状特徴量を算出したら、フラグ「Rain_flag」が「1」であるか否かを判定することにより、自車両10の周囲が降雨の影響を受けている状態か否かを判定する(ステップS72)。
もし、ステップS72において、自車両10の周囲が降雨の影響を受けている状態ではなかった場合(ステップS72のNO)、次に、画像処理ユニット1は、先に示した方法で抽出された2値化対象物に対応するグレースケール対象物の高さを算出する(ステップS73)。
まず、画像処理ユニット1は、2値化対象物の高さ、幅、存在高さ、輝度平均値、輝度分散について、歩行者として適当な範囲内の値か否かを判定する。
具体的には、歩行者を対象とするため、2値化対象物の幅ΔWbがしきい値TH1以上TH2以下(歩行者の幅として適当な値)か否かを判定する(ステップS75)。
そして、ステップS76において、自車両10の周囲が降雨の影響を受けている状態ではなかった場合(ステップS76のNO)、2値化対象物の高さΔHbがしきい値TH3(歩行者の高さとして適当な値)未満で、かつグレースケール対象物の高さΔHgがしきい値TH4(歩行者の高さとして適当な値)未満か否かを判定する(ステップS77)。
そして、ステップS77において、2値化対象物の高さΔHbがしきい値TH3未満で、かつグレースケール対象物の高さΔHgがしきい値TH4未満であった場合(ステップS77のYES)、あるいはステップS78において、2値化対象物の高さΔHbがしきい値TH3未満であった場合(ステップS78のYES)、路面からの対象物の上端高さ位置Ytがしきい値TH5(歩行者の高さとして適当な値)未満か否かを判定する(ステップS79)。
そして、ステップS80において、自車両10の周囲が降雨の影響を受けている状態ではなかった場合(ステップS80のNO)、マスク領域AREA3の輝度分散Var_A3がしきい値TH6より大きいか否かを判定する(ステップS81)。この処理を、図20の対象物が歩行者の一部あるいは全体である場合や壁の場合のマスク領域AREA3の輝度分散を示した図を用いて説明する。
従って、ステップS81では、マスク領域AREA3の輝度分散Var_A3がしきい値TH6より大きいか否かを判定することで、対象物が歩行者であるか否かを判定する。
具体的には、歩行者の2値化対象物を対象とするため、2値化対象物形状が時間的に大きく変化することはないと考えられる。このため、規定時間内の外接四角形の面積と2値化対象物の面積比率であるRateの最大値Max_Rateと最小値Min_Rateの差分がしきい値TH7未満であるか否かを判定する(ステップS82)。
具体的には、図14において、まず、路面からの対象物の上端高さ位置Ytがしきい値TH8(歩行者の上半身と下半身を区別できる高さとして適当な値)より大きいか否かを判定する(ステップS84)。
ステップS84において、路面からの対象物の上端高さ位置Ytがしきい値TH8以下であった場合(ステップS84のNO)、歩行者の下半身であるか、あるいは座った歩行者として、2値化対象物の幅ΔWbがしきい値TH9(歩行者の胴体幅として適当な値)以下か否かを判定する(ステップS85)。
そして、(ステップS86)において、自車両10の周囲が降雨の影響を受けている状態ではなかった場合(ステップS86のNO)、対象物が座った歩行者であるか否かを判定するために、グレースケール対象物の高さΔHgがしきい値TH10(歩行者の高さとして適当な値)未満か否かを判定する(ステップS87)。
ステップS88において、マスク領域AREA1の輝度平均値Ave_A1がしきい値TH11より大きかった場合(ステップS88のYES)、更に胴体部位は衣服の影響により熱を発散しにくい場合が有るため、グレースケール画像上で輝度パタンがある対象物として、マスク領域AREA2の輝度分散Var_A2がしきい値TH18より大きいか否かを判定する(ステップS89)。
また、ステップS86において、自車両10の周囲が降雨の影響を受けている状態であった場合(ステップS86のYES)、ステップS87からステップS89におけるマスク領域の判定は行わず、ステップS90へ進み、検出された対象物は歩行者であると判定して(ステップS90)歩行者判定処理を終了し、図10に示すステップS64のYESとして図10のステップS65へ進み、人工構造物判定を行う。
ステップS92において、2値化対象物の路面からの対象物の上端高さ位置Ytがしきい値TH12よりも大きかった場合(ステップS92のYES)、2値化対象物の外接四角形の縦横比ASPECTを表すAspが、しきい値TH13以上TH14以下(歩行者として適当な値)か否かを判定する(ステップS93)。
そして、ステップS96において、自車両10の周囲が降雨の影響を受けている状態ではなかった場合(ステップS96のNO)、対象物が空中に浮いている物体(例えば、カーブミラーのような対象物)か否かを判定するために、グレースケール対象物の高さΔHgがしきい値TH16(上述のしきい値TH8と同じ値)より大きいか否かを判定する(ステップS97)。
また、ステップS99において、マスク領域AREA2の輝度分散Var_A2がしきい値TH18より大きかった場合(ステップS99のYES)、まず頭部、あるいは上半身が2値化処理により抽出された歩行者を判定するために、2値化対象物の幅ΔWbがしきい値TH19(歩行者の頭部、あるいは上半身を区別できる幅として適当な値)以下か否かを判定する(ステップS100)。
更に、ステップS101において、2値化対象物の幅ΔWbがしきい値TH9より大きかった場合(ステップS101のNO)、複数の歩行者が並列歩行を行っているか否かを判定するために、2値化対象物の幅ΔWbがしきい値TH2(歩行者の胴体幅として適当な値)以下か否かを判定する(ステップS102)。
ステップS105において、距離Dis_cがしきい値TH15未満であった場合(ステップS105のYES)、検出された対象物は歩行者であると判定して(ステップS106)歩行者判定処理を終了し、図10に示すステップS64のYESとして図10のステップS65へ進み、人工構造物判定を行う。
ステップS109において、距離Dis_cがしきい値TH15未満であった場合(ステップS109のYES)、フラグ「Rain_flag」が「1」であるか否かを判定することにより、自車両10の周囲が降雨の影響を受けている状態か否かを判定する(ステップS110)。
また、(ステップS110)において、自車両10の周囲が降雨の影響を受けている状態であった場合(ステップS110のYES)、ステップS111におけるマスク領域の判定は行わず、ステップS112へ進み、検出された対象物は歩行者であると判定して(ステップS112)歩行者判定処理を終了し、図10に示すステップS64のYESとして図10のステップS65へ進み、人工構造物判定を行う。
ステップS116において、距離Dis_cがしきい値TH15未満であった場合(ステップS116のYES)、検出された対象物は歩行者であると判定して(ステップS117)歩行者判定処理を終了し、図10に示すステップS64のYESとして図10のステップS65へ進み、人工構造物判定を行う。
従って、例えばワイパーの動作信号や雨滴センサの検出信号等を利用しなくても物体の状態を判断することができるので、これらを利用するためのセンサ等を設ける必要がなく、コストを削減しつつ物体の状態判断の信頼性を向上させ、的確に物体の状態を判断可能な車両周辺監視装置を実現することができるという効果が得られる。
従って、赤外線カメラ2R、2Lのどのような配置にも対応可能な車両周辺監視装置を実現することができるという効果が得られる。
(全体構成)
本発明の第2の実施例の車両周辺監視装置の構成は、図1に示す第1の実施例の車両周辺監視装置の構成と同一であるので、ここでは説明を省略する。具体的に、第1の実施例の車両周辺監視装置と第2の実施例の車両周辺監視装置との違いについて説明すると、第1の実施例の車両周辺監視装置が、グレースケール対象物の高さΔHgと2値化対象物の高さΔHbとの差を所定値ΔHと比較することで、自車両10の周囲の物体や赤外線カメラ2R、2Lが通常の状態であるか、あるいは降雨による影響を受けている状態(カメラレンズが汚れている場合を含む)であるかを判別していたのに対し、第2の実施例の車両周辺監視装置は、赤外線画像のグレースケール画像を複数の輝度しきい値によって2値化することにより、物体を輝度しきい値の異なる2種類の2値化対象物として抽出し、同一の物体に対応する2種類の2値化対象物の特徴量の違いから、自車両10の周囲の物体や赤外線カメラ2R、2Lが通常の状態であるか、あるいは降雨による影響を受けている状態(カメラレンズが汚れている場合を含む)であるかを判別することを特徴とする。
(対象物検出・警報動作)
図21及び図22は、本実施例の車両周辺監視装置の画像処理ユニット1における歩行者等の対象物検出・警報動作を示すフローチャートである。
図21において、まず画像処理ユニット1は、変数Iと変数Cとを「ゼロ」にリセットする(ステップS121)。
次に、赤外線カメラ2R、2Lの出力信号である赤外線画像を取得して(ステップS122)、A/D変換し(ステップS123)、グレースケール画像を画像メモリに格納する(ステップS124)。なお、ここでは赤外線カメラ2Rにより右画像が得られ、赤外線カメラ2Lにより左画像が得られる。また、右画像と左画像では、同一の対象物の表示画面上の水平位置がずれて表示されるので、このずれ(視差)によりその対象物までの距離を算出することができる。
もし、ステップS127において、同一の物体に対応する輝度しきい値の異なる2種類の2値化対象物の面積S1、S2の差分の絶対値(|S1−S2|)が所定値以下である場合(ステップS127のYES)、画像処理ユニット1は変数Cを「1」だけカウントアップし、降雨の影響を受けていると考えられる2値化対象物として、同一の物体に対応する輝度しきい値の異なる2種類の2値化対象物の面積S1、S2の差分の絶対値(|S1−S2|)が所定値以下であるものの数を計数する(ステップS128)。
次に、変数Iを「1」だけカウントアップする(ステップS129)。
そして、変数Iが輝度しきい値TH_1を用いて2値化した2値化対象物の総数N2以上となったか否かを判定し(ステップS130)、変数Iが2値化対象物の総数N2未満であった場合(ステップS130のNO)、画像処理ユニット1は、ステップS122へ戻り、上述の処理を繰り返す。なお、変数Iが輝度しきい値TH_1を用いて2値化した2値化対象物の総数N2以上となったか否かを判定するのは、輝度しきい値TH_1<輝度しきい値TH_2であって、輝度しきい値TH_1を用いて2値化した2値化対象物の方が全ての物体を含んでいる確率が高いからである。
またステップS131において、面積の差分の絶対値(|S1−S2|)が所定値以下であるものの数Cの2値化対象物の総数N2に対する割合「C/N2」が、所定値X2以下の場合(ステップS131のNO)、歩行者判定処理の動作モードを通常モードと判定して、歩行者判定処理の動作モードを示すフラグ「Rain_flag」に「0」を設定する(ステップS133)。
なお、ステップ9からステップS20までの処理は、第1の実施例で図3を用いて説明した対象物検出・警報動作の処理と同一の処理であるので、ここでは説明を省略する。また、本実施例では、第1の実施例で実行したステップS21の処理は実行しない。
図21に示すステップS121からステップS133の処理では、ロバスト性を向上させるために複数の物体について降雨の判定を行い、その集計結果から歩行者判定処理の動作モードを決定する手順について示したが、本実施例における対象物検出・警報動作では、処理手順を簡略化するために、複数の物体についての集計結果を用いず1つの物体についての判定結果を歩行者判定処理の動作モードとしても良い。具体的には、図21に示すステップS127において、同一の物体に対応する輝度しきい値の異なる2種類の2値化対象物の面積S1、S2の差分の絶対値(|S1−S2|)が所定値以下である場合(ステップS127のYES)、画像処理ユニット1はステップS132へ進み、歩行者判定処理の動作モードを降雨モードと判定して、歩行者判定処理の動作モードを示すフラグ「Rain_flag」に「1」を設定する(ステップS132)。
なお、複数の画像フレームについての集計結果を用いずに、1つの画像フレームの判定結果を歩行者判定処理の動作モードとする場合、その後のステップS128からステップS131により実行される複数の物体の判定内容の集計処理は実行しなくて良い。
次に、図24に示すフローチャートを参照して、図21に示したフローチャートのステップS125における2つの輝度しきい値(TH_1、TH_2)による2値化と2値化対象物の特徴量算出処理について更に詳細に説明する。
図24において、まず画像処理ユニット1は、赤外線カメラ2R、2Lによりグレースケール画像が得られたら、次に、赤外線カメラ2Rにより得られた右画像を基準画像とし、その画像信号を輝度しきい値TH_1を用いて2値化処理、すなわち、輝度しきい値TH_1より明るい領域を「1」(白)とし、暗い領域を「0」(黒)とする処理を行う(ステップS141)。
次に、ランレングスデータに変換された画像データから、対象物のラベリングをする(ステップS143)ことにより、2値化対象物を抽出する処理を行う(ステップS144)。
2値化対象物の抽出が完了したら、次に、第1の実施例で図3を用いて説明した対象物検出・警報動作のステップS8の処理と同様の方法で、抽出した2値化対象物の重心G、面積S及び外接四角形の縦横比ASPECTを算出する(ステップS145)。
また、赤外線画像から輝度しきい値TH_2を用いて2値化された画像データを取得したら、2値化した画像データをランレングスデータに変換する処理を行う(ステップS147)。
次に、ランレングスデータに変換された画像データから、対象物のラベリングをする(ステップS148)ことにより、2値化対象物を抽出する処理を行う(ステップS149)。
2値化対象物の抽出が完了したら、次に、第1の実施例で図3を用いて説明した対象物検出・警報動作のステップS8の処理と同様の方法で、抽出した2値化対象物の重心G、面積S及び外接四角形の縦横比ASPECTを算出し(ステップS149)、2つの輝度しきい値による2値化処理と2値化対象物の特徴量算出処理を終了する。
また、本実施例では、画像処理ユニット1が、2値化対象物抽出手段と、2値化対象物特徴量算出手段と、対象物画像抽出手段と、対象物画像特徴量算出手段と、特徴量比較手段と、物体状態判定手段と、歩行者認識手段とを含んでいる。より具体的には、図21のステップS125、及び図24のステップS141とステップS146の処理が2値化対象物抽出手段に相当し、図13のステップS71、図21のステップS125、及び図24のステップS142からステップS145、ステップS147からステップS150の処理が2値化対象物特徴量算出手段に相当し、図7のステップS33、及び図13のステップS73の処理が対象物画像抽出手段と対象物画像特徴量算出手段に相当する。また、図21のステップS126からステップS130の処理が特徴量比較手段に相当し、図21のステップS131からステップS133の処理が物体状態判定手段に相当し、図13から図18のステップS72、ステップS74からステップS118の処理が歩行者認識手段に相当する。
従って、第1の実施例と同様に、例えばワイパーの動作信号や雨滴センサの検出信号等を利用しなくても物体の状態を判断することができるので、これらを利用するためのセンサ等を設ける必要がなく、コストを削減しつつ物体の状態判断の信頼性を向上させ、的確に物体の状態を判断可能な車両周辺監視装置を実現することができるという効果が得られる。
10 自車両(車両)
S7、S31 2値化対象物抽出手段(第1の実施例)
S8、S71 2値化対象物特徴量算出手段(第1の実施例)
S33、S73 対象物画像抽出手段、対象物画像特徴量算出手段
S34 特徴量比較手段(第1の実施例)
S35〜S52 物体状態判定手段(第1の実施例)
S72、S74〜S118 歩行者認識手段
S125、S141、S146 2値化対象物抽出手段(第2の実施例)
S71、S125、S142〜S145、S147〜S150 2値化対象物特徴量算出手段(第2の実施例)
S126〜S130 特徴量比較手段(第2の実施例)
S131〜S133 物体状態判定手段(第2の実施例)
Claims (8)
- 赤外線カメラにより撮影された赤外線画像から、車両の周辺に存在する物体を検出する車両周辺監視装置であって、
前記赤外線画像のグレースケール画像を2値化することにより、前記物体を2値化対象物として抽出する2値化対象物抽出手段と、
前記2値化対象物の高さもしくは幅を特徴量として算出する2値化対象物特徴量算出手段と、
前記グレースケール画像から前記2値化対象物に対応するグレースケール対象物を抽出する対象物画像抽出手段と、
前記グレースケール対象物の高さもしくは幅を特徴量として算出する対象物画像特徴量算出手段と、
前記2値化対象物特徴量算出手段により抽出された特徴量と前記対象物画像特徴量算出手段により抽出された特徴量とを比較する特徴量比較手段と、
前記特徴量比較手段による比較の結果、前記特徴量の差が所定値以内である場合に、前記物体もしくは前記赤外線カメラが降雨の影響を受けている状態であると判断する物体状態判定手段とを備えたことを特徴とする車両周辺監視装置。 - 前記特徴量比較手段が、複数の物体に対して、前記2値化対象物特徴量算出手段により抽出された特徴量と前記対象物画像特徴量算出手段により抽出された特徴量とを比較し、
前記物体状態判定手段が、前記特徴量比較手段による比較の結果、前記特徴量の差が所定値以内である物体の割合が所定値以上である場合に、前記物体もしくは前記赤外線カメラが降雨の影響を受けている状態であると判断することを特徴とする請求項1に記載の車両周辺監視装置。 - 前記特徴量比較手段が、複数の画像フレームに渡って、前記2値化対象物特徴量算出手段により抽出された特徴量と前記対象物画像特徴量算出手段により抽出された特徴量とを比較し、
前記物体状態判定手段が、前記特徴量比較手段による比較の結果、前記特徴量の差が所定値以内である物体の割合が所定値以上である画像フレームの割合が所定値以上である場合に、前記物体もしくは前記赤外線カメラが降雨の影響を受けている状態であると判断することを特徴とする請求項1、または請求項2に記載の車両周辺監視装置。 - 少なくとも前記2値化対象物特徴量算出手段により算出された特徴量と前記対象物画像特徴量算出手段により算出された特徴量とを用いて歩行者を認識する歩行者認識手段を備え、
前記歩行者認識手段が、前記物体状態判定手段によって物体もしくは前記赤外線カメラが降雨の影響を受けていると判断された場合、前記歩行者の認識処理方法を降雨モードに変更することを特徴とする請求項1〜3のいずれかに記載の車両周辺監視装置。 - 赤外線カメラにより撮影された赤外線画像から、車両の周辺に存在する物体を検出する車両周辺監視装置であって、
前記赤外線画像のグレースケール画像を複数の輝度しきい値によって2値化することにより、前記物体を輝度しきい値の異なる複数の2値化対象物として抽出する2値化対象物抽出手段と、
輝度しきい値の異なる前記複数の2値化対象物の面積を特徴量としてそれぞれ算出する2値化対象物特徴量算出手段と、
前記2値化対象物特徴量算出手段により抽出された輝度しきい値の異なる前記複数の2値化対象物の特徴量を相互に比較する特徴量比較手段と、
前記特徴量比較手段による比較の結果、前記特徴量の差が所定値以内である場合に、前記物体もしくは前記赤外線カメラが降雨の影響を受けている状態であると判断する物体状態判定手段とを備えたことを特徴とする車両周辺監視装置。 - 前記特徴量比較手段が、複数の物体に対して、前記2値化対象物特徴量算出手段により抽出された輝度しきい値の異なる前記複数の2値化対象物の特徴量を相互に比較し、
前記物体状態判定手段が、前記特徴量比較手段による比較の結果、前記特徴量の差が所定値以内である物体の割合が所定値以上である場合に、前記物体もしくは前記赤外線カメラが降雨の影響を受けている状態であると判断することを特徴とする請求項5に記載の車両周辺監視装置。 - 少なくとも前記2値化対象物特徴量算出手段により算出された特徴量と前記対象物画像特徴量算出手段により算出された特徴量とを用いて歩行者を認識する歩行者認識手段を備え、
前記歩行者認識手段が、前記物体状態判定手段によって物体もしくは前記赤外線カメラが降雨の影響を受けていると判断された場合、前記歩行者の認識処理方法を降雨モードに変更することを特徴とする請求項5又は6に記載の車両周辺監視装置。 - 前記歩行者認識手段は、降雨モードの歩行者認識方法では、輝度分散による判定を行わないことを特徴とする請求項4又は7に記載の車両周辺監視装置。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003309059A JP3987013B2 (ja) | 2003-09-01 | 2003-09-01 | 車両周辺監視装置 |
US10/928,768 US7672510B2 (en) | 2003-09-01 | 2004-08-27 | Vehicle environment monitoring device |
DE102004041919A DE102004041919B4 (de) | 2003-09-01 | 2004-08-30 | Fahrzeugumgebungs-Überwachungseinrichtung |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003309059A JP3987013B2 (ja) | 2003-09-01 | 2003-09-01 | 車両周辺監視装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005079999A JP2005079999A (ja) | 2005-03-24 |
JP3987013B2 true JP3987013B2 (ja) | 2007-10-03 |
Family
ID=34308399
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003309059A Expired - Fee Related JP3987013B2 (ja) | 2003-09-01 | 2003-09-01 | 車両周辺監視装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US7672510B2 (ja) |
JP (1) | JP3987013B2 (ja) |
DE (1) | DE102004041919B4 (ja) |
Families Citing this family (113)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
MY138544A (en) * | 2003-06-26 | 2009-06-30 | Neuramatix Sdn Bhd | Neural networks with learning and expression capability |
KR100543709B1 (ko) * | 2003-12-23 | 2006-01-20 | 삼성전자주식회사 | 이동체의 회전 이동량 이용 방법과 장치 및 컴퓨터프로그램을 저장하는 컴퓨터로 읽을 수 있는 기록 매체 |
JP4376653B2 (ja) * | 2004-02-17 | 2009-12-02 | 富士重工業株式会社 | 車外監視装置 |
US7561720B2 (en) * | 2004-04-30 | 2009-07-14 | Visteon Global Technologies, Inc. | Single camera system and method for range and lateral position measurement of a preceding vehicle |
US8594370B2 (en) | 2004-07-26 | 2013-11-26 | Automotive Systems Laboratory, Inc. | Vulnerable road user protection system |
DE102005056665B4 (de) * | 2004-11-30 | 2011-03-17 | Honda Motor Co., Ltd. | Fahrzeugumgebungsüberwachungsvorrichtung |
JP4094604B2 (ja) * | 2004-11-30 | 2008-06-04 | 本田技研工業株式会社 | 車両周辺監視装置 |
JP4128562B2 (ja) * | 2004-11-30 | 2008-07-30 | 本田技研工業株式会社 | 車両周辺監視装置 |
DE102005056645B4 (de) * | 2004-11-30 | 2010-09-16 | Honda Motor Co., Ltd. | Fahrzeugumgebungsüberwachungsvorrichtung |
US7599521B2 (en) * | 2004-11-30 | 2009-10-06 | Honda Motor Co., Ltd. | Vehicle vicinity monitoring apparatus |
US7403639B2 (en) * | 2004-11-30 | 2008-07-22 | Honda Motor Co., Ltd. | Vehicle surroundings monitoring apparatus |
JP3970876B2 (ja) * | 2004-11-30 | 2007-09-05 | 本田技研工業株式会社 | 車両周辺監視装置 |
DE102005056647B4 (de) * | 2004-11-30 | 2011-02-03 | Honda Motor Co., Ltd. | Fahrzeugumgebungsüberwachungsvorrichtung |
US7590263B2 (en) * | 2004-11-30 | 2009-09-15 | Honda Motor Co., Ltd. | Vehicle vicinity monitoring apparatus |
JP4032052B2 (ja) * | 2004-11-30 | 2008-01-16 | 本田技研工業株式会社 | 位置検出装置及びその補正方法 |
JP4461091B2 (ja) * | 2004-11-30 | 2010-05-12 | 本田技研工業株式会社 | 位置検出装置及びその補正方法 |
DE102005056666B4 (de) * | 2004-11-30 | 2010-09-30 | Honda Motor Co., Ltd. | Fahrzeugumgebungsüberwachungsvorrichtung |
JP4224449B2 (ja) * | 2004-11-30 | 2009-02-12 | 本田技研工業株式会社 | 画像抽出装置 |
JP2006160193A (ja) * | 2004-12-10 | 2006-06-22 | Alpine Electronics Inc | 車両運転支援装置 |
US20060184462A1 (en) * | 2004-12-10 | 2006-08-17 | Hawkins Jeffrey C | Methods, architecture, and apparatus for implementing machine intelligence and hierarchical memory systems |
US7561721B2 (en) * | 2005-02-02 | 2009-07-14 | Visteon Global Technologies, Inc. | System and method for range measurement of a preceding vehicle |
JP4466571B2 (ja) * | 2005-05-12 | 2010-05-26 | 株式会社デンソー | ドライバ状態検出装置、車載警報装置、運転支援システム |
US7739208B2 (en) * | 2005-06-06 | 2010-06-15 | Numenta, Inc. | Trainable hierarchical memory system and method |
DE102005030838A1 (de) * | 2005-07-01 | 2007-01-04 | Siemens Ag | Nightvisionsystem |
US20070031008A1 (en) * | 2005-08-02 | 2007-02-08 | Visteon Global Technologies, Inc. | System and method for range measurement of a preceding vehicle |
US7623681B2 (en) * | 2005-12-07 | 2009-11-24 | Visteon Global Technologies, Inc. | System and method for range measurement of a preceding vehicle |
US20070192267A1 (en) * | 2006-02-10 | 2007-08-16 | Numenta, Inc. | Architecture of a hierarchical temporal memory based system |
US7941389B2 (en) * | 2006-02-10 | 2011-05-10 | Numenta, Inc. | Hierarchical temporal memory based system including nodes with input or output variables of disparate properties |
US8732098B2 (en) | 2006-02-10 | 2014-05-20 | Numenta, Inc. | Hierarchical temporal memory (HTM) system deployed as web service |
US20080208966A1 (en) * | 2007-02-28 | 2008-08-28 | Numenta, Inc. | Hierarchical Temporal Memory (HTM) System Deployed as Web Service |
JP4456086B2 (ja) * | 2006-03-09 | 2010-04-28 | 本田技研工業株式会社 | 車両周辺監視装置 |
JP4793638B2 (ja) * | 2006-03-27 | 2011-10-12 | マツダ株式会社 | 車両用歩行者検出装置 |
JP4171501B2 (ja) * | 2006-04-25 | 2008-10-22 | 本田技研工業株式会社 | 車両の周辺監視装置 |
EP1897751B1 (en) * | 2006-09-11 | 2012-08-15 | Kawasaki Jukogyo Kabushiki Kaisha | Driving assist system for a vehicle |
US8131011B2 (en) * | 2006-09-25 | 2012-03-06 | University Of Southern California | Human detection and tracking system |
JP4254844B2 (ja) * | 2006-11-01 | 2009-04-15 | トヨタ自動車株式会社 | 走行制御計画評価装置 |
US7937342B2 (en) * | 2006-11-28 | 2011-05-03 | Numenta, Inc. | Method and apparatus for detecting spatial patterns |
DE102006058308A1 (de) * | 2006-12-11 | 2008-06-12 | Robert Bosch Gmbh | Verfahren und Vorrichtung zum Erfassen eines Hindernisses in einem Umgebungsbereich eines Kraftfahrzeugs und Kraftfahrzeug |
JP4914234B2 (ja) * | 2007-01-31 | 2012-04-11 | 富士重工業株式会社 | 先行車両検出装置 |
US7941392B2 (en) * | 2007-02-28 | 2011-05-10 | Numenta, Inc. | Scheduling system and method in a hierarchical temporal memory based system |
WO2008106623A2 (en) * | 2007-02-28 | 2008-09-04 | Numenta, Inc. | Episodic memory with a hierarchical temporal memory based system |
US8037010B2 (en) | 2007-02-28 | 2011-10-11 | Numenta, Inc. | Spatio-temporal learning algorithms in hierarchical temporal networks |
EP2162853A1 (en) * | 2007-06-29 | 2010-03-17 | Numenta, Inc. | Hierarchical temporal memory system with enhanced inference capability |
JP2009053815A (ja) * | 2007-08-24 | 2009-03-12 | Nikon Corp | 被写体追跡プログラム、および被写体追跡装置 |
JP5354767B2 (ja) * | 2007-10-17 | 2013-11-27 | 株式会社日立国際電気 | 物体検知装置 |
US20090116413A1 (en) * | 2007-10-18 | 2009-05-07 | Dileep George | System and method for automatic topology determination in a hierarchical-temporal network |
US8175984B2 (en) * | 2007-12-05 | 2012-05-08 | Numenta, Inc. | Action based learning |
JP4359710B2 (ja) * | 2008-02-04 | 2009-11-04 | 本田技研工業株式会社 | 車両周辺監視装置、車両、車両周辺監視用プログラム、車両周辺監視方法 |
US8175985B2 (en) | 2008-03-19 | 2012-05-08 | Numenta, Inc. | Plugin infrastructure for hierarchical temporal memory (HTM) system |
US7983998B2 (en) | 2008-03-21 | 2011-07-19 | Numenta, Inc. | Feedback in group based hierarchical temporal memory system |
US8407166B2 (en) * | 2008-06-12 | 2013-03-26 | Numenta, Inc. | Hierarchical temporal memory system with higher-order temporal pooling capability |
JP4482599B2 (ja) * | 2008-10-24 | 2010-06-16 | 本田技研工業株式会社 | 車両の周辺監視装置 |
US8195582B2 (en) * | 2009-01-16 | 2012-06-05 | Numenta, Inc. | Supervision based grouping of patterns in hierarchical temporal memory (HTM) |
WO2010140215A1 (ja) * | 2009-06-02 | 2010-12-09 | トヨタ自動車株式会社 | 車両用周辺監視装置 |
US8503727B2 (en) * | 2009-07-22 | 2013-08-06 | Omron Corporation | Monitoring camera terminal |
JP5382122B2 (ja) * | 2009-07-31 | 2014-01-08 | 富士通株式会社 | 移動体位置検出装置および移動体位置検出方法 |
JP4922368B2 (ja) * | 2009-08-27 | 2012-04-25 | 本田技研工業株式会社 | 車両周辺監視装置 |
US8675060B2 (en) | 2009-08-28 | 2014-03-18 | Indian Institute Of Science | Machine vision based obstacle avoidance system |
JP5039765B2 (ja) * | 2009-09-17 | 2012-10-03 | 日立オートモティブシステムズ株式会社 | 車両制御装置 |
EP2544449B1 (en) * | 2010-03-01 | 2016-03-16 | Honda Motor Co., Ltd. | Vehicle perimeter monitoring device |
US11651277B2 (en) | 2010-03-15 | 2023-05-16 | Numenta, Inc. | Sparse distributed representation for networked processing in predictive system |
US9189745B2 (en) | 2010-03-15 | 2015-11-17 | Numenta, Inc. | Temporal memory using sparse distributed representation |
US8649592B2 (en) | 2010-08-30 | 2014-02-11 | University Of Illinois At Urbana-Champaign | System for background subtraction with 3D camera |
US8870751B2 (en) | 2010-09-28 | 2014-10-28 | Fujifilm Corporation | Endoscope system, endoscope image recording apparatus, endoscope image acquisition assisting method and computer readable medium |
US9160986B2 (en) * | 2010-11-16 | 2015-10-13 | Honda Motor Co., Ltd. | Device for monitoring surroundings of a vehicle |
JP5680436B2 (ja) * | 2011-02-15 | 2015-03-04 | アルパイン株式会社 | 車載カメラレンズ用異物付着判定装置 |
US9650893B2 (en) | 2011-04-01 | 2017-05-16 | Joy Mm Delaware, Inc. | Imaging-based interface sensor and control device for mining machines |
US8587657B2 (en) | 2011-04-13 | 2013-11-19 | Xerox Corporation | Determining a number of objects in an IR image |
US8825565B2 (en) | 2011-08-25 | 2014-09-02 | Numenta, Inc. | Assessing performance in a spatial and temporal memory system |
US8504570B2 (en) | 2011-08-25 | 2013-08-06 | Numenta, Inc. | Automated search for detecting patterns and sequences in data using a spatial and temporal memory system |
US8645291B2 (en) | 2011-08-25 | 2014-02-04 | Numenta, Inc. | Encoding of data for processing in a spatial and temporal memory system |
WO2013034182A1 (en) * | 2011-09-08 | 2013-03-14 | Valeo Schalter Und Sensoren Gmbh | Method for creating a vehicle surroundings map, driver assistance device, and vehicle having a driver assistance device |
US9292735B2 (en) * | 2011-09-28 | 2016-03-22 | Honda Motor Co., Ltd. | Living body recognizing device |
WO2013065121A1 (ja) * | 2011-11-01 | 2013-05-10 | アイシン精機株式会社 | 障害物警報装置 |
US8818030B2 (en) * | 2011-12-13 | 2014-08-26 | Xerox Corporation | Post-processing a multi-spectral image for enhanced object identification |
JP5615862B2 (ja) * | 2012-03-07 | 2014-10-29 | クラリオン株式会社 | 車両周囲監視装置 |
GB2497603B (en) * | 2012-03-23 | 2014-08-20 | Jaguar Land Rover Ltd | Windscreen clearing system for a vehicle |
US20150169980A1 (en) * | 2012-06-26 | 2015-06-18 | Honda Motor Co., Ltd. | Object recognition device |
US9159021B2 (en) | 2012-10-23 | 2015-10-13 | Numenta, Inc. | Performing multistep prediction using spatial and temporal memory system |
US10043067B2 (en) * | 2012-12-03 | 2018-08-07 | Harman International Industries, Incorporated | System and method for detecting pedestrians using a single normal camera |
JP5754470B2 (ja) * | 2012-12-20 | 2015-07-29 | 株式会社デンソー | 路面形状推定装置 |
US20140205139A1 (en) * | 2013-01-18 | 2014-07-24 | Caterpillar Inc. | Object recognition system implementing image data transformation |
US9542626B2 (en) * | 2013-09-06 | 2017-01-10 | Toyota Jidosha Kabushiki Kaisha | Augmenting layer-based object detection with deep convolutional neural networks |
US9355334B1 (en) * | 2013-09-06 | 2016-05-31 | Toyota Jidosha Kabushiki Kaisha | Efficient layer-based object recognition |
JP5906224B2 (ja) * | 2013-09-27 | 2016-04-20 | 富士重工業株式会社 | 車外環境認識装置 |
CN103692974B (zh) * | 2013-12-16 | 2015-11-25 | 广州中国科学院先进技术研究所 | 一种基于环境监测的车辆行驶安全预警方法及系统 |
US9485433B2 (en) | 2013-12-31 | 2016-11-01 | Personify, Inc. | Systems and methods for iterative adjustment of video-capture settings based on identified persona |
US10318878B2 (en) | 2014-03-19 | 2019-06-11 | Numenta, Inc. | Temporal processing scheme and sensorimotor information processing |
CN103927846A (zh) * | 2014-03-26 | 2014-07-16 | 南京理工大学 | 基于车内温度和气体检测的汽车自动报警器 |
US10013616B2 (en) * | 2014-05-27 | 2018-07-03 | Robert Bosch Gmbh | Detection, identification, and mitigation of lens contamination for vehicle mounted camera systems |
JP6474396B2 (ja) * | 2014-06-03 | 2019-02-27 | 住友重機械工業株式会社 | 人検知システム及びショベル |
JP2016062134A (ja) * | 2014-09-16 | 2016-04-25 | コニカミノルタ株式会社 | オブジェクト操作システム及びオブジェクト操作制御プログラム並びにオブジェクト操作制御方法 |
US10055643B2 (en) | 2014-09-19 | 2018-08-21 | Bendix Commercial Vehicle Systems Llc | Advanced blending of stitched images for 3D object reproduction |
KR101684095B1 (ko) * | 2015-04-09 | 2016-12-07 | 현대자동차주식회사 | 보행자 거리 추정장치 및 방법 |
CN104776885A (zh) * | 2015-04-28 | 2015-07-15 | 宁波萨瑞通讯有限公司 | 汽车内环境监测系统 |
US9563962B2 (en) | 2015-05-19 | 2017-02-07 | Personify, Inc. | Methods and systems for assigning pixels distance-cost values using a flood fill technique |
US9916668B2 (en) | 2015-05-19 | 2018-03-13 | Personify, Inc. | Methods and systems for identifying background in video data using geometric primitives |
JP6236039B2 (ja) * | 2015-06-26 | 2017-11-22 | 株式会社Subaru | 車外環境認識装置 |
EP3440630A4 (en) * | 2016-04-06 | 2019-09-11 | HRL Laboratories, LLC | SYSTEM AND METHOD FOR REMOVING GHOST IMAGES IN A VIDEO SEQUENCE USING ENLARGING OBJECT BOXES |
US9883155B2 (en) | 2016-06-14 | 2018-01-30 | Personify, Inc. | Methods and systems for combining foreground video and background video using chromatic matching |
JP6627680B2 (ja) * | 2016-07-27 | 2020-01-08 | 株式会社Jvcケンウッド | 人物検出装置、人物検出システム、人物検出方法及び人物検出プログラム |
US9881207B1 (en) * | 2016-10-25 | 2018-01-30 | Personify, Inc. | Methods and systems for real-time user extraction using deep learning networks |
CN110312952B (zh) | 2017-02-20 | 2022-09-27 | 3M创新有限公司 | 光学制品和与其交互的系统 |
EP3688662A1 (en) | 2017-09-27 | 2020-08-05 | 3M Innovative Properties Company | Personal protective equipment management system using optical patterns for equipment and safety monitoring |
JP7135796B2 (ja) * | 2018-11-30 | 2022-09-13 | トヨタ自動車株式会社 | サーバ装置、サーバ制御方法、サーバ制御プログラム、車両、車両制御方法、及び車両制御プログラム |
TWI688502B (zh) * | 2018-02-14 | 2020-03-21 | 先進光電科技股份有限公司 | 用於警告車輛障礙物的設備 |
JP7102800B2 (ja) * | 2018-03-13 | 2022-07-20 | 富士通株式会社 | 評価プログラム、評価方法および評価装置 |
CN108806318A (zh) * | 2018-06-19 | 2018-11-13 | 芜湖岭上信息科技有限公司 | 一种基于图像的停车位管理系统和方法 |
EP3666594B1 (en) * | 2018-12-12 | 2022-08-10 | Ningbo Geely Automobile Research & Development Co. Ltd. | System and method for warning a driver of a vehicle of an object in a proximity of the vehicle |
US11024169B2 (en) * | 2019-09-09 | 2021-06-01 | International Business Machines Corporation | Methods and systems for utilizing vehicles to investigate events |
CN110996053B (zh) * | 2019-11-26 | 2021-06-01 | 浙江吉城云创科技有限公司 | 一种环境安全检测方法、装置、终端及存储介质 |
US11681922B2 (en) | 2019-11-26 | 2023-06-20 | Numenta, Inc. | Performing inference and training using sparse neural network |
CN114697761B (zh) * | 2022-04-07 | 2024-02-13 | 脸萌有限公司 | 一种处理方法、装置、终端设备及介质 |
Family Cites Families (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4823194A (en) * | 1986-08-01 | 1989-04-18 | Hitachi, Ltd. | Method for processing gray scale images and an apparatus thereof |
US4916640A (en) * | 1987-06-03 | 1990-04-10 | Allen-Bradley Company, Inc. | Video image processing system |
DE68928895T2 (de) * | 1988-10-11 | 1999-05-27 | Oyo Keisoku Kenkyusho Kk | Verfahren und Gerät für universelle adaptiv lernende Bildmessung und -erkennung |
JP2552728B2 (ja) * | 1989-05-31 | 1996-11-13 | 富士通株式会社 | 赤外線監視システム |
JP3263699B2 (ja) * | 1992-12-22 | 2002-03-04 | 三菱電機株式会社 | 走行環境監視装置 |
JP3037432B2 (ja) * | 1993-11-01 | 2000-04-24 | カドラックス・インク | 光波オーブンによる食物調理方法および調理装置 |
US5978497A (en) * | 1994-09-20 | 1999-11-02 | Neopath, Inc. | Apparatus for the identification of free-lying cells |
US6088468A (en) * | 1995-05-17 | 2000-07-11 | Hitachi Denshi Kabushiki Kaisha | Method and apparatus for sensing object located within visual field of imaging device |
JPH08313632A (ja) | 1995-05-19 | 1996-11-29 | Omron Corp | 警報発生装置および方法,ならびにこの警報発生装置を搭載した車両 |
JP3490559B2 (ja) * | 1995-11-14 | 2004-01-26 | 富士写真フイルム株式会社 | 画像の主要部判定方法及び複写条件決定方法 |
US6088471A (en) * | 1997-05-16 | 2000-07-11 | Authentec, Inc. | Fingerprint sensor including an anisotropic dielectric coating and associated methods |
US5992753A (en) * | 1997-10-30 | 1999-11-30 | Metanetics Corporation | Hand held dataform reader utilizing binarization process for dataform and signature area capture |
JP3716623B2 (ja) | 1998-07-09 | 2005-11-16 | 日産自動車株式会社 | 温体検出装置 |
US6546113B1 (en) * | 1999-03-02 | 2003-04-08 | Leitch Technology International Inc. | Method and apparatus for video watermarking |
US6839457B1 (en) * | 1999-06-03 | 2005-01-04 | Teijin Limited | Bone measuring method |
JP3515926B2 (ja) | 1999-06-23 | 2004-04-05 | 本田技研工業株式会社 | 車両の周辺監視装置 |
JP4414054B2 (ja) * | 2000-03-27 | 2010-02-10 | 本田技研工業株式会社 | 物体認識装置 |
WO2001085491A1 (en) * | 2000-05-08 | 2001-11-15 | Automotive Technologies International, Inc. | Vehicular blind spot identification and monitoring system |
JP2001351200A (ja) | 2000-06-09 | 2001-12-21 | Nissan Motor Co Ltd | 車載用物体検知装置 |
WO2002019698A2 (en) * | 2000-08-31 | 2002-03-07 | Rytec Corporation | Sensor and imaging system |
US6785402B2 (en) * | 2001-02-15 | 2004-08-31 | Hewlett-Packard Development Company, L.P. | Head tracking and color video acquisition via near infrared luminance keying |
US6915010B2 (en) * | 2001-06-15 | 2005-07-05 | Siemens Corporate Research, Inc. | Real time object localization and recognition from silhouette images |
DE10301468B4 (de) | 2002-01-18 | 2010-08-05 | Honda Giken Kogyo K.K. | Vorrichtung zur Beobachtung der Umgebung eines Fahrzeugs |
WO2004029659A2 (en) * | 2002-06-14 | 2004-04-08 | Honda Giken Kogyo Kabushiki Kaisha | Pedestrian detection and tracking with night vision |
JP4047090B2 (ja) * | 2002-07-31 | 2008-02-13 | キヤノン株式会社 | 画像処理方法及び画像処理装置 |
US7310442B2 (en) * | 2003-07-02 | 2007-12-18 | Lockheed Martin Corporation | Scene analysis surveillance system |
US7340443B2 (en) * | 2004-05-14 | 2008-03-04 | Lockheed Martin Corporation | Cognitive arbitration system |
US7391934B2 (en) * | 2005-10-05 | 2008-06-24 | Ncr Corporation | Method of creating a substitute check using check image data from a remote check image capture device and an apparatus therefor |
-
2003
- 2003-09-01 JP JP2003309059A patent/JP3987013B2/ja not_active Expired - Fee Related
-
2004
- 2004-08-27 US US10/928,768 patent/US7672510B2/en active Active
- 2004-08-30 DE DE102004041919A patent/DE102004041919B4/de not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
US20050063565A1 (en) | 2005-03-24 |
DE102004041919B4 (de) | 2008-05-08 |
DE102004041919A1 (de) | 2005-04-28 |
US7672510B2 (en) | 2010-03-02 |
JP2005079999A (ja) | 2005-03-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3987013B2 (ja) | 車両周辺監視装置 | |
JP3987048B2 (ja) | 車両周辺監視装置 | |
JP4060159B2 (ja) | 車両周辺監視装置 | |
JP3934119B2 (ja) | 車両周辺監視装置 | |
JP4104867B2 (ja) | ナイトビジョンシステム | |
US8810653B2 (en) | Vehicle surroundings monitoring apparatus | |
JP4203512B2 (ja) | 車両周辺監視装置 | |
JP3987057B2 (ja) | 車両周辺監視装置 | |
US8144195B2 (en) | Vehicle zone monitoring apparatus | |
US20030138133A1 (en) | Device for monitoring around a vehicle | |
EP1671216A2 (en) | Moving object detection using low illumination depth capable computer vision | |
JP4094604B2 (ja) | 車両周辺監視装置 | |
JP3839329B2 (ja) | ナイトビジョンシステム | |
JPH1186185A (ja) | 車種判別装置 | |
JP4425852B2 (ja) | 車両周辺監視装置 | |
JP2006151300A (ja) | 車両周辺監視装置 | |
JP3898157B2 (ja) | 赤外線画像認識装置 | |
JP3844750B2 (ja) | 赤外線画像認識装置、及び赤外線画像認識装置を用いた警報装置 | |
JP3939626B2 (ja) | 車両周辺監視装置 | |
JP3970876B2 (ja) | 車両周辺監視装置 | |
JP4647648B2 (ja) | 車両周辺監視装置 | |
JP4567072B2 (ja) | 車両周辺監視装置 | |
JP4298699B2 (ja) | 車両周辺監視装置 | |
JP3532896B2 (ja) | スミア検出方法及びこのスミア検出方法を用いた画像処理装置 | |
KR20140076043A (ko) | 보행자 후보 검출장치 및 검출방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20060518 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060530 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060731 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20060731 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070327 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070518 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070703 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070711 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100720 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100720 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110720 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110720 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120720 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120720 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130720 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140720 Year of fee payment: 7 |
|
LAPS | Cancellation because of no payment of annual fees |