JP2014178836A - 車両の外部環境認識装置 - Google Patents

車両の外部環境認識装置 Download PDF

Info

Publication number
JP2014178836A
JP2014178836A JP2013051847A JP2013051847A JP2014178836A JP 2014178836 A JP2014178836 A JP 2014178836A JP 2013051847 A JP2013051847 A JP 2013051847A JP 2013051847 A JP2013051847 A JP 2013051847A JP 2014178836 A JP2014178836 A JP 2014178836A
Authority
JP
Japan
Prior art keywords
vehicle
image
control information
processing
object detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013051847A
Other languages
English (en)
Other versions
JP6253175B2 (ja
Inventor
Motoya Ogawa
原也 小川
Shu Ito
周 伊藤
Tadashi Matsuda
匡史 松田
Yuki Higuchi
侑輝 樋口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Fuji Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Heavy Industries Ltd filed Critical Fuji Heavy Industries Ltd
Priority to JP2013051847A priority Critical patent/JP6253175B2/ja
Publication of JP2014178836A publication Critical patent/JP2014178836A/ja
Application granted granted Critical
Publication of JP6253175B2 publication Critical patent/JP6253175B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

【課題】車外を撮像した画像から外部環境を認識して物体を検出する際に、処理リソースを効率的に使用できるようにする。
【解決手段】自車両の周囲環境を撮像した画像を処理して物体を検出する物体検出部10、自車両と物体との衝突可能性を判定してドライバに対する警報発令や衝突回避のブレーキ制御等の制御介入を指示する警報・回避制御判定部20、物体検出部10の物体検出に係る制御情報を設定する制御情報設定部30、画像情報及び車両情報に基づいて各部の動作を切り換える状況を判定し、その判定結果に応じて物体検出部10と制御情報設定部30との動作状態を選択的に遷移させる状況判定部40により衝突防止システム1を構成し、状況判定部40で走行状態及び外部環境により制御対象とするシーンを切り分けて、実行すべき処理を選択することで、不必要な処理を行うことなく計算リソースの効率化を可能とする。
【選択図】図1

Description

本発明は、車外を撮像した画像から外部環境を認識する車両の外部環境認識装置に関する。
近年、自動車等の車両においては、カメラで撮像した画像から外部環境を認識して障害物や先行車等の物体を検出し、障害物に対する警報制御を行うシステムや先行車に対して追従制御や警報制御を行うシステムが開発され、実用化されている。
このようなシステムにおいては、画像認識による障害物や先行車等の物体検出は、計算量が多く負荷の大きい処理となるが、実用上はさらに、カメラ制御、雨天や夜間等の性能が出せない場面でシステムを停止させるための条件判定、オンラインでのキャリブレーション処理等が必要となり、計算リソースの効率的な使用が重要となる。
このため、例えば、特許文献1には、車載カメラ装置において、「撮像動作モード」、「撮像スタンバイモード」、「撮像停止モード」の3つのモードを備え、車両の周囲環境や走行状態に応じてモードを切り換える技術が開示されている。
また、特許文献2には、車載画像認識システムにおいて、連続して撮像を行うカメラに対して、第1の画像を元に次に撮像する第2画像のためにカメラを制御し、第2画像で認識を行う技術が開示されている。
特開2000−207696号公報 特開2011−085979号公報
しかしながら、特許文献1の技術は、運転支援として画像表を行ってドライバに提示することを主としている。このため、撮像動作モードでもカメラ制御を行っており、認識処理を行う場合、処理リソースを効率的に使用することは困難である。
また、特許文献2の技術は、次に撮像する第2画像のための第1画像でのカメラ制御となり、極めて短い時間間隔でカメラ制御を行っている。このため、画像認識に要する時間軸でみると、認識処理とカメラ制御とを同時に行うこととかわりなく、処理リソースを効率的に使用しているとは言えない。
本発明は上記事情に鑑みてなされたもので、車外を撮像した画像から外部環境を認識して物体を検出する際に、処理リソースを効率的に使用することのできる車両の外部環境認識装置を提供することを目的としている。
本発明による車両の外部環境認識装置は、自車両の周囲環境を撮像した画像を処理して物体を検出する物体検出部と、前記物体検出部に対して排他的に動作し、前記物体検出部の物体検出に係る制御情報を設定する制御情報設定部と、画像情報及び車両情報に基づいて前記物体検出部と前記制御情報設定部とを切り換える状況を判定し、前記状況の判定結果に応じて前記物体検出部と前記制御情報設定部との動作状態を選択的に遷移させる状況判定部とを備えるものである。
本発明によれば、車外を撮像した画像から外部環境を認識して物体を検出する際に、処理リソースを効率的に使用することができる。
衝突防止システムの構成図 シーンの遷移を示す説明図 入力画像例を示す説明図 状況判定処理のフローチャート 条件Aの判定処理を示すフローチャート 条件Bの判定処理を示すフローチャート 条件Cの判定処理を示すフローチャート 条件Dの判定処理を示すフローチャート 条件Eの判定処理を示すフローチャート 条件Fの判定処理を示すフローチャート
以下、図面を参照して本発明の実施の形態を説明する。
本発明の外部環境認識装置は、例えば自動車等の車両の衝突防止システムの一部として構成され、車外の環境を撮像した画像を処理して障害となる物体を認識し、認識した物体と自車両との衝突可能性を判断する。本実施の形態においては、交差点等の交差路における他車両等の移動物体と自車両との出会い頭の衝突を防止する衝突防止システムに適用した例について説明する。
具体的には、図1に示す衝突防止システム1は、交差点等の交差路で側方(左右方向)から自車両に接近する他車両等の移動物体(接近物)を検出し、検出した接近物が自車両位置に到達する時間を予測して自車両と接近物との衝突の可能性を判断する。そして。衝突の可能性がある場合に、ドライバに対する警報発令やブレーキ制御等の車両制御の介入を指示する。
自車両に接近する移動物体は、本実施の形態においては、自車両の外界の環境を認識するデバイスとして、単眼の広画角のカメラ(例えば、画角180°の魚眼カメラ)2を用いて検出する。衝突防止システム1は、このカメラ2と、カメラ2で撮像した画像を処理して自車両と接近物との出会い頭の衝突を判定する単一のコンピュータ或いはワーク接続される複数のコンピュータとによって構成されている。
また、自車両と接近物との出会い頭の衝突判定は、接近物が自車両位置に達するまでの横方向からの予測時間(横方向衝突予測時間)TTCRと、接近物が自車両位置に達するまでの進行方向からの予測時間(進行方向衝突予測時間)TTCとを用いて判定する。すなわち、横方向衝突予測時間TTCRは、接近物が自車両を横切るまでの時間であり、自車両と衝突する場合以外にも、自車両の前を横切る(接近物が先に通り過ぎる)、自車両の後を横切る(自車両が先に通過する)場合も含むため、進行方向の予測時間TTCを加えることにより、衝突判定の精度を上げて不要な警報や制御介入を回避する。
このような事故防止システムでは、計算量の多い物体認識及び衝突判定の処理に加え、カメラ2の制御、雨天や夜間等の性能が確保できない状況でシステムを停止させるための判定(HALT判定)、オンラインでのキャリブレーション処理等も実行しなけれならない。このため、衝突防止システム1は、計算リソースを効率的に使用可能とするように構成されている。
すなわち、衝突防止システム1は、自車両の周囲環境を撮像した画像を処理して物体を検出する物体検出部10、自車両と物体との衝突可能性を判定してドライバに対する警報発令や衝突回避のブレーキ制御等の制御介入を指示する警報・回避制御判定部20、物体検出部10の物体検出に係る制御情報を設定する制御情報設定部30、画像情報及び車両情報に基づいて各部の動作を切り換える状況を判定し、その判定結果に応じて物体検出部10と制御情報設定部30との動作状態を選択的に遷移させる状況判定部40を備えている。
物体検出部10は、カメラ2からの画像を入力処理する画像入力部11、画像認識により物体を検出すると共に位置や速度を算出する認識処理部12とを有して構成されている。また、制御情報設定部30は、本実施の形態においては、カメラ2の露光時間(シャッタ速度)を調整する露光時間調整部31、HALT判定を行うHALT判定部32、カメラパラメータ等を用いてオンラインキャリブレーション処理を行うオンラインキャリブレーション部33、本システムの対象となる交差点を検出する交差点検出部34を備えて構成されている。
このような機能構成を有する衝突防止システム1においては、状況判定部40で走行状態及び外部環境により制御対象とするシーンを切り分けて、実行すべき処理を選択するようにしている。これにより、不必要な処理を行うことなく計算リソースの効率化を可能とし、また、必要なシーンのみで警報・制御介入が行われることで、不必要な警報・制御介入を抑制することができ、ドライバに違和感を与えることがない。
本実施の形態においては、各シーンは、図2に示すようなS1,S2,S3の3つのシーンに切り分けられ、各シーンに対応して、以下に示すように、物体検出部10及び警報・回避制御判定部20の動作と、物体検出部10のみの動作と、制御情報設定部30のみの動作とを排他的に切り換える。各シーンに対してシステムが行う処理は、以下に示す処理となる。尚、以下では、各シーンS1−S3の遷移は、システムの制御状態の遷移を意味するものとする。
S1:交差点で警報・制御介入等が必要なシーン
画像入力部11及び認識処理部12による物体検出
警報・回避制御判定部20による警報・回避制御介入の判定
S2:交差点での警報・制御介入が不必要なシーン
画像入力部11及び認識処理部12による物体検出
S3:S1,S2以外のシーン
露光時間調整部31によるカメラ2の露光時間調整(シャッタ速度制御)
HALT判定部32によるHALT判定
オンラインキャリブレーション部33によるキャリブレーション処理
交差点検出部34による交差点の検出
これらのシーンS1〜S3の間の遷移は、後述する複数の条件を調べることによって判定される。ここでは、先ず、各シーンにおける各部の処理について説明し、次に、シーン間の遷移について説明する。
先ず、本システムの基本機能であるシーンS1,S2における処理は、画像入力部11でカメラ2から図3に示すような広画角の画像G(魚眼レンズによる180度画像)を入力し、認識処理部12で、カメラ画像から自車両に接近する移動物体(接近物)及びその位置を検出して自車両に対する接近物を認識し、接近物の横方向衝突予測時間TTCR及び進行方向衝突予測時間TTCを算出する。尚、後述するように、シーンS1,S2での処理では、カメラ2のシャッタ速度は変更せず、シーンS3で設定されたシャッタ速度で撮像した時系列画像を用いて処理を行う。
例えば、カメラ画像Gのフレーム間での画像上の動き(オプティカルフロー)を求め、このオプティカルフローから自車両に接近する移動物体を検出する。具体的には、画像上の動き情報(オプティカルフロー)を主として、この動き情報に基づいて画像上から接近物の領域を切り出し、追跡を行う。例えば、図3に示すような入力画像Gのサイズを640×60ピクセルとするとき、8×8ピクセルのブロック毎に、時間的に連続するフレーム間でのオプティカルフローをブロックマッチング等によって求め、画像中心方向への動き(自車両に向かう動き)を調べる。
そして、画像中心方向へ動いているブロックすなわち自車両に向かって動いているブロックを纏めて接近物領域として切り出し、この接近物領域の時系列的な追跡を行う。図3の例では、他車両CRoを含む矩形の領域ARが画像中心方向に動いている接近物として検出される。
次に、画像座標上の接近物領域の位置を、自車両を原点として横方向の距離をX、進行方向の距離をZとする実空間座標上の位置に変換する。この画像上の位置から実空間上の位置への変換は、予め作成してある距離変換テーブルを用いて行い、テーブル参照により接近物領域の画像座標(i,j)から距離X,Zのそれぞれを求める。距離変換テーブルの参照に際しては、先ず、接近物領域において自車両に一番近い接地点Poを求める。具体的には、画像左半分では、接近物領域の右下、右半分では接近物領域の右下に接地点Poを設定する。
図3の例では、矩形状に囲われた領域ARの左下の点が接地点Poとなる。次に、距離変換テーブルで接地点Poの位置を参照する。距離変換テーブルは、カメラの設置位置や角度から画像上の各画素がどの距離(X,Z)に対応するかを表すテーブルである。本実施の形態におけるカメラ2は立体射影方式の魚眼カメラであるため、立体射影カメラモデルと地表面への射影モデルとを合わせたモデルを用いて予めテーブルを作成しておく。その際、カメラパラメータは、実カメラ画像からキャリブレーションにより設定する。
更に、接近物のオプティカルフローの変化量又はトラッキングによる位置微分により自車両に対する接近物の横方向相対速度Vxを求め、この横方向相対速度Vxと距離Xとを用いて、以下の(1)式により横方向衝突予測時間TTCRを算出する。同様に、接近物のオプティカルフロー変化量又はトラッキングによる位置微分により自車両に対する接近物の進行方向相対速度Vzを求め、この進行方向相対速度Vzと距離Zとを用いて、以下の(2)式によりて進行方向衝突予測時間TTCを算出する。
TTCR=X/Vx …(1)
TTC =Z/Vz …(2)
以上の処理はシーンS1,S2の双方で実行される処理であるが、カメラ2の露光調整(シャッタ速度制御)は実施せず、異なるシャッタ速度でのフロー計算による誤検出を防止することができる。すなわち、シャッタ速度が認識処理動作中に変更されると、オプティカルフロー算出時に使用する2枚の画像で明るさが異なってしまい、そのため2枚の画像から同一のパターンを検出するマッチングを誤ることがあり、オプティカルフローの精度が悪化する。そのため、シーンS1,S2における認識処理動作中は、シャッタ速度を一定として、ミスマッチングを防止する。
シーンS1では、警報・回避制御判定部20にて、横方向衝突予測時間TTCR及び進行方向衝突予測時間TTCを用いて自車両と接近物との衝突が判定される。自車両と接近物との衝突は、例えば、横方向衝突予測時間TTCR、進行方向衝突予測時間TTCが所定の範囲に入ったときに衝突発生と判定される。衝突と判定された場合には、警報・回避制御判定部20は、ドライバに対する警報発令や衝突回避のブレーキ制御等の制御介入を指示する。
一方、シーンS2では、認識処理は行うが警報・回避制御の判定は行わない。シーン2で認識処理だけを行う理由としては、認識処理は時系列での処理を行っており、交差点で警報・制御介入等が必要なシーンになったときに警報・回避制御の遅れを発生させないためであり、事前に認識処理だけは行っておく。尚、このとき、上述したように、シャッタ速度は変更せずに一定としておき、異なるシャッタ速度でのフロー計算による誤検出を防止する。
次に、シーンS3における処理について説明する。シーン3は、主として交差点以外を走行している場合、具体的には後述する複数の遷移条件の何れかが満足されない場合に遷移するシーンである。このシーン3では、認識処理、警報・回避制御判定処理は実行せず、露光時間調整部31による露光時間調整処理、HALT判定部32によるHALT判定処理、オンラインキャリブレーション部33によるオンラインキャリブレーション処理、交差点検出部34による交差点検出処理を実行する。
露光時間調整部31は、本実施の形態においては、主としてカメラ2のシャッタ速度をを入力画像に基づいて決定することで、撮像画像の露光時間を最適に設定する。例えば、オートアイリス下で画像の各領域毎に適正シャッタ速度を格納したマップを用いて、撮像した画像の各領域の輝度平均値をパラメータとして得られる領域毎のマップ値を総計してシャッタ速度を決定する。尚、この露光時間の調整に際しては、他にカメラ2のゲイン調整やホワイトバランス等の調整を行っても良い。
HALT判定部32は、雨天・夜間等の悪環境やカメラ2のレンズへの汚れの付着といった認識処理で充分な精度を出せない状況を検出する。例えば、撮像画像から物体の動きと、それを隠す部分とを検出することにより、部分的な汚れを検出したり、画像中の最大輝度及び最大コントラストを定期的に設定値と比較することで、徐々に付着する汚れを検出する。これらの状況を検出した場合には、警報や回避制御を行わない、またシステム処理自体を停止させる等の対応を行うとともに、システムが動作しない状態であることをメータに表示する等してドライバへ提示する。
オンラインキャリブレーション部33は、走行時のカメラ2の位置ずれ等の検出を行い、カメラキャリブレーションにより位置ずれによる影響を補正する。例えば、撮像画像中の車線区画線を利用してカメラ2の光軸を進行方向と一致させるように調整する等してキャリブレーションを行う。本システムは、カメラ2の設置位置及び角度から移動物体の距離を算出しているため、特に、カメラ2の角度のずれを検出してキャリブレーションを行う。
交差点検出部34は、本システムで対象となる交差点をカメラ画像から検出する。例えば、交差点手前に接地されている「止まれ」の標識・路面表示を認識して交差点を検出する。標識の文字列は、各文字毎に予め登録しておいた文字とのテンプレートマッチングを行うことで認識することができる。
以上のシーンS3において、上述の制御情報設定部30の処理のみを行うのは、上述の処理に加えて認識処理や警報・回避制御判定処理を行うと、計算量が増大し、一定の処理周期でのシステム動作を実現するためには計算コストがかかりすぎるからである。逆に、シーンS1,S2で、上述の処理を行わないのも、同様の理由である。
次に、シーンS1−S3の間の遷移判定について説明する。シーンS1−S3の間の遷移判定は、本実施の形態においては、以下に示すように、条件A(車速)、条件B(走行時間)、条件C(走行距離)、条件D(変速位置)、条件E(交差点検出結果)、条件F(ドライバのブレーキ操作)の6つの条件で判定される。
(A)車速
システムを動作させたい範囲は、低速での交差点進入〜通過時である。従って、自車両の車速を、遷移条件の一つとする。
(B)走行時間
交差点通過後に警報・回避制御が行われることを防止するための条件であり、走行時間が一定以内の場合を条件とする。
(C)走行距離
条件Bと同様の目的で、走行距離による判定を行う。
(D)変速位置
変速位置により、ドライバの走行(前進)の意思があるか否かを判断できるため、変速位置も条件とする。
(E)交差点検出結果
シーンS3にて取得した画像を用いて交差点の検出処理を行い、その結果をシーン遷移の条件に加える。
(F)ドライバのブレーキ操作
ブレーキ操作は、ドライバが危険を認知していると考えられる。このため、ブレーキ操作の有無を遷移条件の一つに加える。
状況判定部40は、図4のフローチャートに示す状況判定処理を実行し、ステップS11で画像を入力し、ステップS12で車両情報を入力すると、ステップS13−S18で条件A−Fを判定し、ステップS19で何れの条件を満足するかに応じてシーンを遷移させる処理を行う。
この状況判定処理におけるステップS13ーS18の各条件の判定は、詳細には、それぞれ、図5−図10のフローチャートで示す判定処理によって個別に判定される。各判定処理は、フラグによる条件判定を示す処理であり、フラグがセットされているとき、条件を満たしているものとする。次に、各条件の判定処理について説明する。
図5の車速に関する条件Aの判定処理では、最初のステップS13−1において、前回(1フレーム前)の車速V(n-1)が閾値H1(例えば、H1=15km/h)以下で、且つ現在(現フレーム)の車速V(n)が閾値H1以上の条件が成立するか否かを調べる。そして、ステップS13−1の条件が成立しない場合には、ステップS13−3へジャンプし、条件が成立する場合、ステップS13−2でフラグFAをクリア(FA=0)した後、ステップS13−3へ進む。
ステップS13−3では、現在の車速V(n)が閾値H2(例えば、H2=5km/h)以下か否かを調べる。その結果、V(n)≦H2の場合、ステップS13−4でフラグFAをセット(FA=1)して本処理を抜け、V(n)≦H2の場合、そのまま本処理を抜ける。フラグFAの値は、フレーム間で連続して車速が閾値H1以上になるまで(ステップS13−1)、現在の値が維持され、ヒステリシスを持たせてハンチングを防止する。
次に、図6の走行時間に関する条件Bの判定処理では、最初のステップS14−1で各フレームで走行時間を処理周期時間分だけカウントアップし、ステップS14−2で現在の車速V(n)が閾値H2以下か否かを調べる。そして、V(n)>H2の場合、ステップS14−4へジャンプし、V(n)≦H2の場合、ステップS14−3で走行時間を0にリセットした後、ステップS14−4へ進む。
ステップS14−4では、走行時間が閾値H3(例えば、H3=60sec)以下か否かを調べる。走行時間が閾値H3以下の場合、ステップS14−5でフラグFBをセット(FB=1)して本処理を抜け、閾値H3以下でない場合には、ステップS14−6でフラグFBをクリア(FB=0)して本処理を抜ける。
次に、図7の走行距離に関する条件Cの判定処理では、ステップS15−1で、各フレームで、そのフレームでの走行距離を車速×処理周期時間で求めて累積し、走行距離をカウントアップする。次いで、ステップS15−2で、現在の車速V(n)が閾値H2以下か否かを調べ、V(n)>H2の場合、ステップS15−4へジャンプし、V(n)≦H2の場合、ステップS15−3で走行距離を0にリセットした後、ステップS15−4へ進む。
ステップS15−4では、走行距離が閾値H4(例えば、H3=20m)以下か否かを調べる。走行距離が閾値H4以下の場合、ステップS15−5でフラグFCをセット(FC=1)して本処理を抜け、閾値H4以下でない場合には、ステップS15−6でフラグFCをクリア(FC=0)して本処理を抜ける。
次に、図8の変速位置に関する条件Dの判定処理では、ステップS16−1で、変速位置が"P(パーキング)"、又は"R(後退)"となっているか否かを調べる。変速位置が"P"又は"R"となっている場合には、ステップS16−2でフラグFDをセット(FD=1)して本処理を抜け、それ以外では、ステップS16−3でフラグFDをクリア(FD=0)して本処理を抜ける。
次に、図9の交差点検出結果に関する条件Eの判定処理では、ステップS17−1でシーン3での取得画像による交差点検出結果を参照して交差点が検出されているか否かを調べる。その結果、交差点が検出されている場合には、ステップS17−2でフラグFEをセット(FE=1)して本処理を抜け、交差点が検出されていない場合には、ステップS17−3でフラグFEをクリア(FE=0)して本処理を抜ける。
この場合、フラグFEが0→1になったとき、フレームでの走行距離を0にクリアし、各フレームでそのフレームでの走行距離を累積する。また、フラグFEが1であっても(交差点が検出されていても)、走行距離が閾値H4以上になった場合には、フラグFEを0にクリアする。
次に、図10のブレーキ操作に関する条件Fの判定処理では、ステップS18−1でブレーキランプスイッチがONしているか否かを調べる。ブレーキランプスイッチがONになっている場合には、ステップS18−2でフラグFFをセット(FF=1)して本処理を抜け、ブレーキランプスイッチがOFFの場合、ステップS18−3でフラグFFをクリア(FF=0)して本処理を抜ける。
以上のフラグFA,FB,FC,FD,FE,FFの値は、状況判定処理のステップS19で参照され、条件A−Fの判定結果に応じてシーンS1−S3を遷移させる処理が行われる。シーンS1−S3の遷移条件は、以下の通りである。
S1→S3:シーンS1で条件A−Dの何れかを満足しないとき、シーンS3に遷移
(FA,FB,FC,FDの何れかが0)
S3→S1:シーンS3で条件A−Dを全て満足するか若しくは条件Eを満足し、
且つ条件Fを満足しないとき、シーンS1に遷移
(FA=FB=FC=FD=1又はFE=1、且つFF=0)
S1→S2:シーンS1で条件A−Dを全て満足するか若しくは条件Eを満足し、
且つ条件Fを満足するとき、シーンS2に遷移
(FA=FB=FC=FD=FF=1、又はFD=FF=1)
S2→S1:シーンS2で条件A−Dを全て満足するか若しくは条件Eを満足し、
且つ条件Fを満足しないとき、シーンS1に遷移
(FA=FB=FC=FD=1又はFE=1、且つFF=0)
S2→S3:シーンS2で条件A−Dの何れかを満足しないとき、シーンS3に遷移
(FA,FB,FC,FDの何れかが0)
S3→S2:シーンS3で条件A−Dを全て満足するか若しくは条件Eを満足し、
且つ条件Fを満足するとき、シーンS2に遷移
(FA=FB=FC=FD=FF=1、又はFD=FF=1)
このように本実施の形態においては、車外を撮像した画像から外部環境を認識する際に、走行状態及び外部環境により制御対象とするシーンを切り分けて実行すべき処理を選択するようにしているため、不必要な処理を行うことなく、処理リソースを効率的に使用することができる、
しかも、画像認識によって物体を検出する処理に対して、物体検出に係る制御情報としての露光時間を調整する処理を、物体検出を停止した状態で排他的に実行し、物体検出処理を実行するときには、先に調整した一定の露光時間で物体検出を行うため、処理リソースを効率的に使用できるばかりでなく、異なる露光時間の画像に起因する誤認識を防止することができ、認識精度の向上に寄与することができる。
1 衝突防止システム
10 物体検出部
11 画像入力部
12 認識処理部
20 警報・回避制御判定部
30 制御情報設定部
31 露光時間調整部
40 状況判定部

Claims (3)

  1. 自車両の周囲環境を撮像した画像を処理して物体を検出する物体検出部と、
    前記物体検出部に対して排他的に動作し、前記物体検出部の物体検出に係る制御情報を設定する制御情報設定部と、
    画像情報及び車両情報に基づいて前記物体検出部と前記制御情報設定部とを切り換える状況を判定し、前記状況の判定結果に応じて前記物体検出部と前記制御情報設定部との動作状態を選択的に遷移させる状況判定部と
    を備えることを特徴とする車両の外部環境認識装置。
  2. 前記制御情報設定部は、前記物体検出部が停止した状態で前記画像の露光時間を調整して前記制御情報として設定し、前記物体検出部は、前記制御情報設定部が停止した状態で、前記制御情報設定部によって調整された一定の露光時間で物体検出を行うことを特徴とする請求項1記載の車両の外部環境認識装置。
  3. 前記状況判定部は、前記画像情報及び前記車両情報に基づく複数の条件を組み合わせた遷移条件を判定して前記物体検出部と前記制御情報設定部との動作状態を選択的に遷移させることを特徴とする請求項1又は2記載の車両の外部環境認識装置。
JP2013051847A 2013-03-14 2013-03-14 車両の外部環境認識装置 Active JP6253175B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013051847A JP6253175B2 (ja) 2013-03-14 2013-03-14 車両の外部環境認識装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013051847A JP6253175B2 (ja) 2013-03-14 2013-03-14 車両の外部環境認識装置

Publications (2)

Publication Number Publication Date
JP2014178836A true JP2014178836A (ja) 2014-09-25
JP6253175B2 JP6253175B2 (ja) 2017-12-27

Family

ID=51698736

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013051847A Active JP6253175B2 (ja) 2013-03-14 2013-03-14 車両の外部環境認識装置

Country Status (1)

Country Link
JP (1) JP6253175B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017045240A (ja) * 2015-08-26 2017-03-02 三菱自動車工業株式会社 運転支援装置
WO2018061428A1 (ja) * 2016-09-28 2018-04-05 日立オートモティブシステムズ株式会社 画像処理装置、撮像装置
WO2022024993A1 (ja) * 2020-07-31 2022-02-03 株式会社デンソー 車両制御装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005143083A (ja) * 2003-10-15 2005-06-02 Fujitsu Ten Ltd 画像処理装置、運転支援装置および運転支援システム
WO2011114624A1 (ja) * 2010-03-17 2011-09-22 本田技研工業株式会社 車両の周辺監視装置
JP2012073927A (ja) * 2010-09-29 2012-04-12 Fuji Heavy Ind Ltd 運転支援装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005143083A (ja) * 2003-10-15 2005-06-02 Fujitsu Ten Ltd 画像処理装置、運転支援装置および運転支援システム
WO2011114624A1 (ja) * 2010-03-17 2011-09-22 本田技研工業株式会社 車両の周辺監視装置
JP2012073927A (ja) * 2010-09-29 2012-04-12 Fuji Heavy Ind Ltd 運転支援装置

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017045240A (ja) * 2015-08-26 2017-03-02 三菱自動車工業株式会社 運転支援装置
WO2018061428A1 (ja) * 2016-09-28 2018-04-05 日立オートモティブシステムズ株式会社 画像処理装置、撮像装置
JP2018055322A (ja) * 2016-09-28 2018-04-05 日立オートモティブシステムズ株式会社 画像処理装置、撮像装置
US11042757B2 (en) 2016-09-28 2021-06-22 Hitachi Automotive Systems, Ltd. Image processing device and image capturing apparatus
WO2022024993A1 (ja) * 2020-07-31 2022-02-03 株式会社デンソー 車両制御装置
JP2022027066A (ja) * 2020-07-31 2022-02-10 株式会社デンソー 車両制御装置
JP7410819B2 (ja) 2020-07-31 2024-01-10 株式会社デンソー 車両制御装置

Also Published As

Publication number Publication date
JP6253175B2 (ja) 2017-12-27

Similar Documents

Publication Publication Date Title
JP4654163B2 (ja) 車両の周囲環境認識装置及びシステム
US8896687B2 (en) Lane departure prevention support apparatus, method of displaying a lane boundary line and program
US10198950B2 (en) Parking support method and parking support device
US10810446B2 (en) Parking space line detection method and device
US10956757B2 (en) Image processing device, outside recognition device
US9975550B2 (en) Movement trajectory predicting device and movement trajectory predicting method
EP3188156B1 (en) Object recognition device and vehicle control system
JP2018537329A (ja) 車両の車両周辺部における覆い隠された領域を割り出すための方法と装置
JP2005309797A (ja) 歩行者警報装置
JP2018124768A (ja) 車両制御装置
US8160300B2 (en) Pedestrian detecting apparatus
JP2009252198A (ja) 走行環境推測装置、方法及びプログラム並びに車線逸脱警報装置及び操舵アシスト装置
JP6035095B2 (ja) 車両の衝突判定装置
JP2022060074A (ja) 車両の運転支援装置
JP2014182632A (ja) 車両周辺監視装置
WO2020022021A1 (ja) 距離算出装置
JP2018060422A (ja) 物体検出装置
JP6253175B2 (ja) 車両の外部環境認識装置
JP2005309660A (ja) 車両用右左折支援装置
JP5723561B2 (ja) 運転支援装置
JP7454685B2 (ja) 車両走行路内のデブリの検出
US11769337B2 (en) Traffic signal recognition method and traffic signal recognition device
US20210110177A1 (en) Obstacle recognition device
JP2016002959A (ja) 操舵支援制御装置
JP2014186646A (ja) 車両用白線認識装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151225

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160923

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161018

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170508

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171031

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171127

R150 Certificate of patent or registration of utility model

Ref document number: 6253175

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250