JP4063920B2 - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP4063920B2
JP4063920B2 JP20283597A JP20283597A JP4063920B2 JP 4063920 B2 JP4063920 B2 JP 4063920B2 JP 20283597 A JP20283597 A JP 20283597A JP 20283597 A JP20283597 A JP 20283597A JP 4063920 B2 JP4063920 B2 JP 4063920B2
Authority
JP
Japan
Prior art keywords
image processing
vehicle
photographing
tunnel
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP20283597A
Other languages
Japanese (ja)
Other versions
JPH1142972A (en
Inventor
正博 馬場崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP20283597A priority Critical patent/JP4063920B2/en
Publication of JPH1142972A publication Critical patent/JPH1142972A/en
Application granted granted Critical
Publication of JP4063920B2 publication Critical patent/JP4063920B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、追突防止等の運転支援を行うための画像処理装置に係り、特に、車両の走行環境に適した画像処理が行える画像処理装置に関する。
【0002】
【従来の技術】
図10は従来の画像処理装置の構成を示すブロック図である。また、図11は従来の画像処理装置のアイリス値調整方法を説明するための図である。また、図12は従来の画像処理装置のカメラ(撮影)画像を示す図である。また、図13は従来の画像処理装置の制御部の行う処理を示す図である。以下、図に従って説明する。
【0003】
2は車両に設置され、車両及び道路状況を撮影するカメラである。3はカメラ2により撮影した前方車両51及び道路状況を基に前方車両51との車間距離、割り込み車両52の有無を判断するマイクロコンピュータ(マイコン)等で構成された画像処理部である。4はカメラ2で撮影された映像または画像処理結果を表示する液晶等で構成される表示部である。31はカメラ2への光量を制御するアイリス制御部で、カメラ2からの映像信号の大小に基いて光量が最適になるようにカメラ2のレンズの開口度を調整する。
【0004】
先ず、カメラ2への光量を調整するアイリス制御について説明する。カメラ2は車両に設置されているために、例えば、季節、時刻、天候の他、車両の走行ととも日陰部、トンネル等の走行環境によって、カメラ2に入射する光量は時々刻々変化する。従って、画像処理に最適な画像、つまり明るさ、解像度、コントラスト(濃淡)等のよい画像を得るためには、走行環境に応じてカメラ2への入射光量を調節しなければならない。
【0005】
カメラ2で撮影された映像信号は画像処理部3に送られて画像処理されると共に、アイリス制御部31にも送られ映像信号の大小(明るさに対応する)が検出される。そして、映像信号が基準値より小さいとカメラ2への入射光量が少なく良好な画像が得られないと判断され、アイリス制御部31はカメラ2に対して入射光量を増加するように指示する(レンズの絞りを開く)。逆に、映像信号が大き過ぎるとカメラ2への入射光量が多過ぎて同様に良好な画像が得られないと判断され、アイリス制御部31はカメラ2に対して入射光量を減少するように指示する(レンズの絞りを絞る)。このようにして、車両の走行環境(晴れ、曇り等)が変化しても常に良好な画像が得られるように入射光量の制御が行われる(図11参照、以下、この制御をオートアイリス制御と称し、また、このような状態でのアイリス値をオートアイリス値と称する)。
【0006】
次に、画像処理方法について説明する。カメラ2で撮影された映像信号は画像処理部3を経由して表示部4に送られ、前方車両51及び割り込み車両52と道路状況が表示される(図12参照)。また、画像処理部3では撮影された画像から、両側が白線53で区切られた自車走行車線(前方車両検出領域)については、主として車間距離が維持できないことによる追突防止を目的として車間距離を計測する。その白線53の外側の隣接車線(割り込み車両検出領域)については、自車走行車線への車線変更(割り込み)の恐れのある車両を検出する。画像処理では画像中の横成分を抽出して車両を認識し、また対象車両までの距離を算出する。
【0007】
前方車両51と割り込み車両52の両方を画像処理により検出するためには、図13のごとく、先ず自車走行車線(前方車両検出領域)において前方車両51の認識処理を、次に隣接車線(割り込み車両検出領域)において割り込み車両52の認識処理を行う。この前方車両検出処理、割り込み車両検出処理を1周期として繰り返す。このようにして、画像処理装置はカメラ2により撮影した画像を基に、運転者は前方車両51及び割り込み車両52に対して早期に対応が採れるように支援する。
【0008】
【発明が解決しようとする課題】
従来のカメラによる撮影及び画像処理装置では、トンネルの入口または出口付近の急激な明るさの変化にカメラのアイリス値調整が応答できず不適切な光量になり、画像のコントラストや解像度が低下する。その結果、画像処理により対象車両の認識が困難になる。
【0009】
また、従来のような画像処理方法では、自車走行車線に合流する合流車線の有無に係わらず、一定の手順で画像処理を行い前方車両及び割り込み車両を認識するので、例えば、合流点付近では合流する車線からの車両、つまり割り込み車両の率が増えるにも係わらず同様の画像処理を行うので、割り込み車両の認識が遅れるという問題がある。
【0010】
本発明は、走行環境の急激な変化にも対応して道路状況が撮影でき、且つ、適切なタイミングで前方車両及び割り込み車両の認識が行える画像処理装置を提供することを目的とする。
【0011】
【課題を解決するための手段】
上記目的を達成するために本発明は、車両に設置され、該車両の前方を撮影する撮影手段と、前記撮影手段により撮影された画像を基に前記車両の前方車両及び道路状況を認識する画像処理手段と、前記車両の位置を検出する位置検出手段と、前記位置検出手段により検出した前記車両の位置に基づいて自車が所定位置に到達したことを検出する到達検出手段と、前記到達検出手段により前記車両が前記所定位置に到達したことが検出された時に、前記撮影手段の撮影条件を変更する撮影条件変更手段と、を備え、前記撮影条件変更手段は、前記撮影手段への光量を制御するアイリス値を変更することを特徴とするものである。
【0012】
また、前記所定位置が、トンネル入口の所定距離手前であり、前記撮影条件変更手段は、予め設定されたトンネル内アイリス値に変更することを特徴とするものである。
また、前記所定位置が、トンネル出口の所定距離手前であり、前記撮影条件変更手段は、予め設定されたトンネル外アイリス値に変更することを特徴とするものである。
【0013】
また、前記所定位置が、トンネル入口又はトンネル出口に到達したことを検出し、前記撮影条件変更手段は、周囲の明るさに対応して可変するオートアイリス制御手段に基づくアイリス値に変更することを特徴とするものである。
【0014】
また、前記撮影条件変更手段は、前記車両と前記トンネル入口またはトンネル出口までの距離に応じてアイリス値を徐々に変更することを特徴とするものである。
また、車両に設置され、該車両の前方を撮影する撮影手段と、前記撮影手段により撮影された画像を基に前記車両の前方車両及び道路条件を認識する画像処理手段と、前記車両の位置を検出する位置検出手段と、前記車両が所定位置に到達したことを検出する到達検出手段と、前記到達検出手段により前記車両が前記所定位置に到達したことが検出された時に、前記画像処理手段の画像処理条件を変更する画像処理条件変更手段と、を備えたことを特徴とするものである。
【0015】
また、前記所定位置が、隣接車線との合流を開始する合流開始点の所定距離手前に到達したことを検出し、前記画像処理条件変更手段は、前記隣接車線の画像処理領域を広くすることを特徴とするものである。
また、前記所定位置が、隣接車線との合流を開始する合流開始点の所定距離手前であり、前記画像処理条件変更手段は、前記隣接車線の画像処理時間を長くすることを特徴とするものである。
【0016】
また、前記所定位置が、隣接車線との合流が終了する合流終了点であり、前記画像処理条件変更手段は、前記画像処理条件の変更を禁止する変更禁止手段を備えたことを特徴とするものである。
また、前記画像処理条件変更手段は、前記隣接車線の前記画像処理領域または前記画像処理時間を、前記合流開始点までの距離に応じて徐々に変更することを特徴とするものである。
【0017】
【実施例】
図1は本発明の第1の実施例の画像処理装置の構成を示すブロック図である。以下、図に従って説明する。
11はGPSシステムや、車速センサ、方位センサ等により自車の位置を検出する自立航行システム等からなる位置検出部である。12は地図情報(経路データ、トンネル位置等)が記録されたCD−ROMの読取装置(CD−ROMドライブ)等からなる地図データベースである。2は車両に設置され、前方車両及び道路状況を撮影するカメラである。3はカメラ2により撮影した前方車両51及び道路状況を基に前方車両51との車間距離、割り込み車両52の有無を判断するマイクロコンピュータ(マイコン)等で構成された画像処理部である。また、画像処理部3は位置検出部11及び対応する地図データベース12の地図情報に基いて自車の位置を特定する処理、トンネルとの位置関係(距離等)を算出する処理等も行う。4はカメラ2で撮影された映像または画像処理結果を表示する液晶等で構成される表示部である。31はカメラ2への光量を制御するアイリス制御部で、カメラ2の映像信号の大小及び走行環境に基いて光量が最適になるようにカメラ2のレンズの開口度を調整する。
【0018】
図2は車両とトンネルの位置関係を示す図である。また、図3は本発明の第1の実施例の画像処理装置の制御部の行う処理フローチャートである。また、図4は本発明の第1の実施例の他のアイリス値調整を説明するための図である。以下、カメラへの光量を調整するアイリス制御について図に従って説明する。尚、本処理はナビゲーション装置により目的地までの経路(ルート)設定が行われた時点から開始する。
【0019】
ステップS11では、自車とトンネルとの相対位置を検出してステップS12に移る。つまり、位置検出部11によりGPSまたは車速センサとジャイロセンサ等により自車の現在位置を緯度、経度で特定する。また、現在位置に対応する地図情報を地図データベース12から読み出す。そして、現在地(自車位置)から走行経路上にあるトンネル入口までの距離Diを算出する。
【0020】
ステップS12では、トンネル入口までの距離Diが予め設定された距離Di1より小さいか否かを判断して距離Diの方が小さければステップS13に移り(図2のB区間に対応)、小さくなければステップS15に移る(図2のA区間に対応)。つまり、自車がトンネル入口の所定距離以内に接近したか否かを判断する。
【0021】
ステップS13では、カメラ2のアイリス値をトンネル内アイリス値Aiに設定してステップS14に移る。つまり、自車が間もなくトンネルに入る(B区間にある)ので急激に暗くなると予想される。そこで、事前にカメラ2の光量調整を行うためにアイリス値をトンネル内アイリス値Aiに変更する。このトンネル内アイリス値Aiは予め平均的なトンネルにおけるアイリス値を実測して、この値を基に決められている。
【0022】
ステップS14では、自車がトンネルに入ったか否かを判断してトンネルに入っておれば(図2のC区間に対応)ステップS15に移り、トンネルに入っていなければ(図2のB区間に対応)待機する。
ステップS15ではオートアイリスに設定してステップS16に移る。つまり、周囲の明るさが急激に変化しない状況にあるので明るさに対応してカメラ2のアイリス値を調整(オートアイリス)にする。尚、トンネル内の照度変化が大きくなければ、ステップS14の処理を省略してC区間を設けずB区間と同様にトンネル内アイリス値Aiとしてオートアイリスにする必要もない。
【0023】
ステップS16では、トンネル出口までの距離Doが予め設定された距離Do1より小さいか否かを判断して距離Doの方が小さければ(図2のD区間に対応)ステップS17に移り、小さくなければ(図2のC区間に対応)待機する。つまり、自車がトンネル出口の所定距離以内に接近したか否かを判断する。
ステップS17では、カメラ2のアイリス値をトンネル外アイリス値Aoに設定してステップS18に移る。つまり、自車が間もなくトンネルを出るので急激に明るくなると予想される。そこで、事前にカメラ2の光量調整を行うためにアイリス値をトンネル外アイリス値Aoに変更する。このトンネル外アイリス値Aoは予め自車が当該トンネルに入る前の平均的なアイリス値を記憶しておき、この値を基に決められている。
【0024】
ステップS18では、自車がトンネルを出たか否かを判断してトンネルを出ておれば(図2のE区間、次のトンネルからみるとA区間に対応)ステップS19に移り、トンネルを出ていなければ(図2のD区間に対応)待機する。
ステップS19ではオートアイリスに設定してステップS11に戻る。つまり、周囲の明るさの変化が急激に変化しない状況にあるので明るさに対応してカメラ2のアイリス値を調整(オートアイリス)し、このような処理を繰り返す。
【0025】
以上のように本実施例では、急激な明るさの変化を予測して予めアイリス値の調整を行うので良好な画像が得られ、画像処理による前方車両51及び割り込み車両52の認識の信頼性が向上する。
また、本例ではアイリス値Aiの調整をトンネル入口の所定距離Di1手前で一度に行う代わりに、図4のようにトンネルの入口からの距離(Di1、Di2等)に応じて複数の区間に分割して徐々にトンネル内アイリス値に近づけるように、アイリス値Ai1、Ai2を調整するようにしてもよい。さらに、図4の点線のごとくトンネルの入口からの距離に対応して連続してアイリス値を調整してもよい。出口についても同様にトンネル出口からの距離(Do1、Do2等)に応じてアイリス値Aoの調整を多段階(Ao1、Ao2)に、または点線のごとく連続して行うこともできる。
【0026】
図5は車両と合流点の位置関係を示す図である。また、図6は本発明の第2の実施例の画像処理装置のカメラ画像を示す図である。また、図7は本発明の第2の実施例の画像処理装置の制御部の行う処理フローチャートである。また、図8は本発明の第2の実施例の画像処理装置の制御部の行う処理を示す図で、(a)は合流点付近以外での処理、(b)は合流点付近での処理である。また、図9は本発明の第2の実施例の画像処理装置の制御部の行う他の処理を示す図で、(a)は合流点付近以外での処理、(b)は合流点付近での処理である。以下、画像処理方法について図に従って説明する。尚、本処理はナビゲーション装置により目的地までの経路(ルート)設定が行われた時点から開始する。
【0027】
ステップS21では、自車と合流開始点位置を検出してステップS22に移る。つまり、位置検出部11によりGPSまたは車速センサとジャイロセンサ等により自車の現在位置を緯度、経度で特定する。また、現在位置に対応する地図情報を地図データベース12から読み出す。そして、現在地(自車位置)から走行経路上にある合流開始点までの距離D1を算出する。
【0028】
ステップS22では、合流開始点までの距離D1が予め設定された距離Da1より小さいか否かを判断して距離D1の方が小さければステップS23に移り(図5のB区間に対応)、小さくなければステップS24に移る(図5のA区間に対応)。つまり、自車が合流開始点の所定距離以内に接近したか否かを判断する。
【0029】
ステップS23では、割り込み車両優先の画像処理を実施してステップS21に戻る。つまり、自車が合流開始点の所定距離以内に接近しているので、隣接車線からの合流車両(割り込み車両52)が多くなる。そのため、割り込み車両に重点をおいた処理を行う必要がある。図8(b)のような合流点付近での処理に従って前方車両51の他、割り込み車両52の処理に重点をおく必要がある。例えば、処理頻度を前方車両認識、割り込み車両認識、割り込み車両認識を1周期として画像処理を行う。
【0030】
ステップS24では、合流終了点に到達したか否かを判断して合流終了点に到達しておればステップS25に移り(図5のC区間に対応)、到達していなければ待機する(図5のB区間に対応)。
ステップS25では、前方車両優先の画像処理を実施してステップS21に戻る。つまり、自車が合流終了点を通過したので、合流車両(割り込み車両52)が少なくなる。そのため、割り込み車両52に重点をおいた処理よりも追突防止のために図8(a)のような合流点付近以外での処理に従って前方車両51に重点をおいた処理を行う必要がある。例えば、処理頻度を前方車両認識、割り込み車両認識を1周期として画像処理を行う。
【0031】
以上のように本実施例では、割り込み車両52の多少を予測して画像処理による車両の認識対象を変えるので、前方車両51及び割り込み車両52の動向に対して早期に対応が採れ事故防止に効果がある。
また、本例では割り込み車両重点画像処理として処理頻度を変えているが、図6のごとく割り込み車両検出領域をA、Bに区別して、合流点付近(B区間)では、合流する車両を早くから認識できるように割り込み車両検出領域を領域A及び領域Bの広い領域について行う。一方、合流点付近以外(A区間、C区間)では、割り込み車両検出領域を領域Aの狭い領域に限定して行うようにしてもよい。つまり、割り込み対象車両の検出(認識)範囲を割り込みの可能性の大小により変更するものである。さらに、合流開始点からの距離に対応して連続して処理領域を変更してもよい。
【0032】
【発明の効果】
以上説明したように、本発明では、走行環境の急激な変化にも常に良好が画像を撮影でき、且つ、適切なタイミングで前方車両及び割り込み車両の認識が行える画像処理装置が提供できる。
【図面の簡単な説明】
【図1】本発明の第1の実施例の画像処理装置の構成を示すブロック図である。
【図2】車両とトンネルの位置関係を示す図である。
【図3】本発明の第1の実施例の画像処理装置の制御部の行う処理フローチャートである。
【図4】本発明の第1の実施例の画像処理装置の他のアイリス値調整を説明するための図である。
【図5】車両と合流点の位置関係を示す図である。
【図6】本発明の第2の実施例の画像処理装置のカメラ画像を示す図である。
【図7】本発明の第2の実施例の画像処理装置の制御部の行う処理フローチャートである。
【図8】本発明の第2の実施例の画像処理装置の制御部の行う処理手順を示す図である。
【図9】本発明の第2の実施例の画像処理装置の制御部の行う他の処理手順を示す図である。
【図10】従来の画像処理装置の構成を示すブロック図である。
【図11】従来の画像処理装置のアイリス値調整方法を説明するための図である。
【図12】従来の画像処理装置のカメラ画像を示す図である。
【図13】従来の画像処理装置の制御部の行う処理手順を示す図である。
【符号の説明】
11・・・位置検出部、 3・・・・画像処理部、
12・・・地図データベース、 31・・・アイリス制御部、
2・・・・カメラ、 4・・・・表示部、
51・・・前方車両、 52・・・割り込み車両。
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing apparatus for performing driving support such as rear-end collision prevention, and more particularly to an image processing apparatus capable of performing image processing suitable for a traveling environment of a vehicle.
[0002]
[Prior art]
FIG. 10 is a block diagram showing a configuration of a conventional image processing apparatus. FIG. 11 is a diagram for explaining an iris value adjustment method of a conventional image processing apparatus. FIG. 12 is a view showing a camera (captured) image of a conventional image processing apparatus. FIG. 13 is a diagram showing processing performed by the control unit of the conventional image processing apparatus. Hereinafter, it demonstrates according to a figure.
[0003]
Reference numeral 2 denotes a camera that is installed in the vehicle and photographs the vehicle and road conditions. Reference numeral 3 denotes an image processing unit configured by a microcomputer (microcomputer) or the like that determines the distance between the front vehicle 51 and the presence or absence of the interrupting vehicle 52 based on the road ahead and the front vehicle 51 photographed by the camera 2. Reference numeral 4 denotes a display unit composed of a liquid crystal or the like for displaying a video taken by the camera 2 or an image processing result. An iris control unit 31 controls the amount of light to the camera 2 and adjusts the aperture of the lens of the camera 2 so that the amount of light is optimized based on the magnitude of the video signal from the camera 2.
[0004]
First, iris control for adjusting the amount of light to the camera 2 will be described. Since the camera 2 is installed in the vehicle, for example, in addition to the season, time, and weather, the amount of light incident on the camera 2 changes from moment to moment depending on the running environment such as a shaded part and a tunnel along with the running of the vehicle. Therefore, in order to obtain an image optimal for image processing, that is, an image having good brightness, resolution, contrast (shading), etc., the amount of light incident on the camera 2 must be adjusted according to the traveling environment.
[0005]
The video signal photographed by the camera 2 is sent to the image processing unit 3 for image processing and also sent to the iris control unit 31 to detect the magnitude (corresponding to brightness) of the video signal. If the video signal is smaller than the reference value, it is determined that the amount of incident light on the camera 2 is small and a good image cannot be obtained, and the iris control unit 31 instructs the camera 2 to increase the amount of incident light (lens Open the aperture). On the other hand, if the video signal is too large, it is determined that the amount of incident light on the camera 2 is too large to obtain a good image, and the iris control unit 31 instructs the camera 2 to reduce the amount of incident light. Yes (the lens aperture is reduced). In this way, the amount of incident light is controlled so that a good image is always obtained even if the vehicle driving environment (sunny, cloudy, etc.) changes (see FIG. 11, hereinafter this control is referred to as auto iris control). In addition, the iris value in such a state is referred to as an auto iris value).
[0006]
Next, an image processing method will be described. The video signal photographed by the camera 2 is sent to the display unit 4 via the image processing unit 3, and the front vehicle 51, the interrupting vehicle 52, and the road condition are displayed (see FIG. 12). Also, the image processing unit 3 sets the inter-vehicle distance for the purpose of preventing a rear-end collision mainly due to the fact that the inter-vehicle distance cannot be maintained with respect to the own vehicle traveling lane (front vehicle detection area) divided on both sides by the white line 53 from the photographed image. measure. For the adjacent lane outside the white line 53 (interrupt vehicle detection area), a vehicle that is likely to change (interrupt) the lane to the host vehicle lane is detected. In the image processing, the lateral component in the image is extracted to recognize the vehicle, and the distance to the target vehicle is calculated.
[0007]
In order to detect both the preceding vehicle 51 and the interrupting vehicle 52 by image processing, as shown in FIG. 13, first the recognition processing of the preceding vehicle 51 is performed in the own vehicle traveling lane (the preceding vehicle detection area), and then the adjacent lane (interrupting). In the vehicle detection area, recognition processing for the interrupting vehicle 52 is performed. This forward vehicle detection process and interrupt vehicle detection process are repeated as one cycle. In this way, the image processing apparatus assists the driver so that the driver can quickly deal with the forward vehicle 51 and the interrupting vehicle 52 based on the image captured by the camera 2.
[0008]
[Problems to be solved by the invention]
In a conventional camera photographing and image processing apparatus, the iris value adjustment of the camera cannot respond to a sudden change in brightness near the entrance or exit of the tunnel, resulting in an inappropriate amount of light, resulting in a reduction in image contrast and resolution. As a result, it becomes difficult to recognize the target vehicle by image processing.
[0009]
In addition, in the conventional image processing method, regardless of the presence or absence of the merging lane that merges with the host vehicle lane, image processing is performed in a certain procedure to recognize the preceding vehicle and the interrupting vehicle. There is a problem that recognition of an interrupting vehicle is delayed because the same image processing is performed even though the rate of vehicles from the lane to join, that is, the rate of interrupting vehicles increases.
[0010]
SUMMARY OF THE INVENTION An object of the present invention is to provide an image processing apparatus that can capture road conditions in response to a sudden change in the driving environment and can recognize a preceding vehicle and an interrupting vehicle at an appropriate timing.
[0011]
[Means for Solving the Problems]
In order to achieve the above object, the present invention provides an imaging unit that is installed in a vehicle and captures the front of the vehicle, and an image that recognizes the vehicle ahead and the road condition based on the image captured by the imaging unit. Processing means; position detection means for detecting the position of the vehicle; arrival detection means for detecting that the vehicle has reached a predetermined position based on the position of the vehicle detected by the position detection means; and the arrival detection. Photographing condition changing means for changing the photographing condition of the photographing means when the means detects that the vehicle has reached the predetermined position, and the photographing condition changing means controls the amount of light to the photographing means. The iris value to be controlled is changed.
[0012]
Further, the predetermined position is a predetermined distance before the entrance of the tunnel, and the photographing condition changing means changes to a preset in-tunnel iris value.
Further, the predetermined position is a predetermined distance before the tunnel exit, and the photographing condition changing means changes to a preset iris value outside the tunnel.
[0013]
Further, it is detected that the predetermined position has reached a tunnel entrance or a tunnel exit, and the imaging condition changing means changes to an iris value based on an auto iris control means that varies according to ambient brightness. It is what.
[0014]
Further, the photographing condition changing means gradually changes the iris value according to the distance from the vehicle to the tunnel entrance or tunnel exit.
Also, an imaging unit that is installed in the vehicle and images the front of the vehicle, an image processing unit that recognizes a vehicle ahead and a road condition based on an image captured by the imaging unit, and a position of the vehicle Position detecting means for detecting, arrival detecting means for detecting that the vehicle has reached a predetermined position, and when the arrival detecting means detects that the vehicle has reached the predetermined position, the image processing means The image processing condition changing means for changing the image processing condition is provided.
[0015]
Further, it is detected that the predetermined position has reached a predetermined distance before the merging start point where merging with the adjacent lane is started, and the image processing condition changing means widens the image processing area of the adjacent lane. It is a feature.
The predetermined position is a predetermined distance before a merging start point at which merging with an adjacent lane is started, and the image processing condition changing unit extends an image processing time of the adjacent lane. is there.
[0016]
The predetermined position is a merging end point where merging with an adjacent lane ends, and the image processing condition changing unit includes a change prohibiting unit that prohibits the change of the image processing condition. It is.
Further, the image processing condition changing means is characterized by gradually changing the image processing area or the image processing time of the adjacent lane according to the distance to the merging start point.
[0017]
【Example】
FIG. 1 is a block diagram showing the configuration of the image processing apparatus according to the first embodiment of the present invention. Hereinafter, it demonstrates according to a figure.
A position detection unit 11 includes a GPS system, a vehicle speed sensor, a direction sensor, and the like, and a self-contained navigation system that detects the position of the vehicle. A map database 12 includes a CD-ROM reader (CD-ROM drive) and the like in which map information (route data, tunnel position, etc.) is recorded. Reference numeral 2 denotes a camera that is installed in the vehicle and photographs the vehicle ahead and the road conditions. Reference numeral 3 denotes an image processing unit configured by a microcomputer (microcomputer) or the like that determines the distance between the front vehicle 51 and the presence or absence of the interrupting vehicle 52 based on the road ahead and the front vehicle 51 photographed by the camera 2. The image processing unit 3 also performs processing for specifying the position of the vehicle based on the map information in the position detection unit 11 and the corresponding map database 12, processing for calculating the positional relationship (distance, etc.) with the tunnel, and the like. Reference numeral 4 denotes a display unit composed of a liquid crystal or the like for displaying a video taken by the camera 2 or an image processing result. An iris control unit 31 controls the amount of light to the camera 2 and adjusts the aperture of the lens of the camera 2 so that the amount of light is optimized based on the magnitude of the video signal of the camera 2 and the traveling environment.
[0018]
FIG. 2 is a diagram showing the positional relationship between the vehicle and the tunnel. FIG. 3 is a flowchart of processing performed by the control unit of the image processing apparatus according to the first embodiment of the present invention. FIG. 4 is a diagram for explaining another iris value adjustment of the first embodiment of the present invention. Hereinafter, iris control for adjusting the amount of light to the camera will be described with reference to the drawings. This process starts from the time when the route to the destination is set by the navigation device.
[0019]
In step S11, the relative position between the vehicle and the tunnel is detected, and the process proceeds to step S12. That is, the current position of the host vehicle is specified by the latitude and longitude by the GPS or a vehicle speed sensor and a gyro sensor by the position detection unit 11. Further, the map information corresponding to the current position is read from the map database 12. Then, a distance Di from the current location (own vehicle position) to the tunnel entrance on the travel route is calculated.
[0020]
In step S12, it is determined whether or not the distance Di to the tunnel entrance is smaller than the preset distance Di1, and if the distance Di is smaller, the process proceeds to step S13 (corresponding to section B in FIG. 2), and if not smaller. The process proceeds to step S15 (corresponding to section A in FIG. 2). That is, it is determined whether or not the own vehicle approaches within a predetermined distance of the tunnel entrance.
[0021]
In step S13, the iris value of the camera 2 is set to the in-tunnel iris value Ai, and the process proceeds to step S14. That is, it is expected that the vehicle will be darkened rapidly as it enters the tunnel soon (in the B section). Therefore, in order to adjust the light amount of the camera 2 in advance, the iris value is changed to the in-tunnel iris value Ai. The in-tunnel iris value Ai is determined based on an actual measured iris value in an average tunnel.
[0022]
In step S14, it is determined whether or not the vehicle has entered the tunnel. If the vehicle has entered the tunnel (corresponding to section C in FIG. 2), the process proceeds to step S15. If the vehicle has not entered the tunnel (in section B in FIG. 2). Action) Wait.
In step S15, the auto iris is set and the process proceeds to step S16. That is, since the ambient brightness does not change suddenly, the iris value of the camera 2 is adjusted (auto iris) corresponding to the brightness. If the illuminance change in the tunnel is not large, the process of step S14 is omitted and the C section is not provided, and it is not necessary to set the iris value Ai in the tunnel to auto iris as in the B section.
[0023]
In step S16, it is determined whether or not the distance Do to the tunnel exit is smaller than the preset distance Do1, and if the distance Do is smaller (corresponding to the D section in FIG. 2), the process proceeds to step S17. Wait (corresponding to section C in FIG. 2). That is, it is determined whether or not the vehicle has approached within a predetermined distance of the tunnel exit.
In step S17, the iris value of the camera 2 is set to the out-tunnel iris value Ao, and the process proceeds to step S18. In other words, it is expected that the vehicle will brighten rapidly as it leaves the tunnel soon. Therefore, the iris value is changed to the out-tunnel iris value Ao in order to adjust the light amount of the camera 2 in advance. The iris value Ao outside the tunnel is determined in advance based on the average iris value stored before the vehicle enters the tunnel.
[0024]
In step S18, it is determined whether or not the vehicle has exited the tunnel, and if it has exited the tunnel (corresponding to section E in FIG. 2 and section A from the next tunnel), the process proceeds to step S19 and exits the tunnel. If not (corresponding to section D in FIG. 2), it waits.
In step S19, the auto iris is set and the process returns to step S11. That is, since the surrounding brightness does not change suddenly, the iris value of the camera 2 is adjusted (auto iris) corresponding to the brightness, and such processing is repeated.
[0025]
As described above, in the present embodiment, since the iris value is adjusted in advance by predicting a sudden change in brightness, a good image can be obtained, and the reliability of the recognition of the forward vehicle 51 and the interrupting vehicle 52 by image processing is high. improves.
Also, in this example, the iris value Ai is adjusted at a predetermined distance Di1 before the tunnel entrance at once, instead of being divided into a plurality of sections according to the distance from the tunnel entrance (Di1, Di2, etc.) as shown in FIG. Then, the iris values Ai1 and Ai2 may be adjusted so as to gradually approach the iris value in the tunnel. Further, the iris value may be adjusted continuously corresponding to the distance from the entrance of the tunnel as indicated by the dotted line in FIG. Similarly, for the exit, the iris value Ao can be adjusted in multiple stages (Ao1, Ao2) or continuously as indicated by dotted lines in accordance with the distance from the tunnel exit (Do1, Do2, etc.).
[0026]
FIG. 5 is a diagram showing the positional relationship between the vehicle and the junction. FIG. 6 is a view showing a camera image of the image processing apparatus according to the second embodiment of the present invention. FIG. 7 is a flowchart of processing performed by the control unit of the image processing apparatus according to the second embodiment of the present invention. FIG. 8 is a diagram showing processing performed by the control unit of the image processing apparatus according to the second embodiment of the present invention, where (a) is processing outside the junction, and (b) is processing near the junction. It is. FIG. 9 is a diagram showing another process performed by the control unit of the image processing apparatus according to the second embodiment of the present invention. (A) is a process other than near the junction, and (b) is near the junction. It is processing of. Hereinafter, an image processing method will be described with reference to the drawings. This process starts from the time when the route to the destination is set by the navigation device.
[0027]
In step S21, the own vehicle and the merge start point position are detected, and the process proceeds to step S22. That is, the current position of the host vehicle is specified by the latitude and longitude by the GPS or a vehicle speed sensor and a gyro sensor by the position detection unit 11. Further, the map information corresponding to the current position is read from the map database 12. Then, a distance D1 from the current location (own vehicle position) to the junction start point on the travel route is calculated.
[0028]
In step S22, it is determined whether or not the distance D1 to the merging start point is smaller than the preset distance Da1, and if the distance D1 is smaller, the process proceeds to step S23 (corresponding to the B section in FIG. 5) and must be smaller. Then, the process proceeds to step S24 (corresponding to section A in FIG. 5). That is, it is determined whether or not the own vehicle has approached within a predetermined distance from the merging start point.
[0029]
In step S23, the interrupt vehicle priority image processing is performed, and the process returns to step S21. That is, since the own vehicle is approaching within a predetermined distance from the merging start point, the number of merging vehicles (interrupt vehicles 52) from adjacent lanes increases. Therefore, it is necessary to perform processing with an emphasis on the interrupting vehicle. It is necessary to place emphasis on the process of the interrupting vehicle 52 in addition to the preceding vehicle 51 according to the process near the junction as shown in FIG. For example, the image processing is performed with the processing frequency as one cycle of forward vehicle recognition, interrupted vehicle recognition, and interrupted vehicle recognition.
[0030]
In step S24, it is determined whether or not the merging end point has been reached. If the merging end point has been reached, the process proceeds to step S25 (corresponding to section C in FIG. 5). Corresponds to section B).
In step S25, the forward vehicle priority image processing is performed, and the process returns to step S21. That is, since the own vehicle has passed the merge end point, the number of merge vehicles (interrupt vehicles 52) is reduced. Therefore, in order to prevent a rear-end collision rather than a process that focuses on the interrupting vehicle 52, it is necessary to perform a process that focuses on the preceding vehicle 51 according to a process other than in the vicinity of the junction as shown in FIG. For example, the image processing is performed with the processing frequency as the forward vehicle recognition and the interrupted vehicle recognition as one cycle.
[0031]
As described above, in this embodiment, the number of the interrupting vehicles 52 is predicted and the vehicle recognition target is changed by the image processing. Therefore, it is possible to respond quickly to the trends of the preceding vehicle 51 and the interrupting vehicle 52 and to prevent accidents. There is.
In this example, the processing frequency is changed as the interrupting vehicle priority image processing. However, as shown in FIG. 6, the interrupting vehicle detection area is distinguished into A and B, and the joining vehicle is recognized early in the vicinity of the merging point (B section). The interrupting vehicle detection area is performed in a wide area of the area A and the area B so as to be possible. On the other hand, the area where the interrupted vehicle is detected may be limited to a narrow area A except in the vicinity of the junction (section A, section C). That is, the detection (recognition) range of the vehicle to be interrupted is changed depending on the possibility of interruption. Furthermore, you may change a process area | region continuously corresponding to the distance from a merging start point.
[0032]
【The invention's effect】
As described above, according to the present invention, it is possible to provide an image processing apparatus that can always capture a good image even in a sudden change in the driving environment and can recognize a preceding vehicle and an interrupting vehicle at an appropriate timing.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a configuration of an image processing apparatus according to a first exemplary embodiment of the present invention.
FIG. 2 is a diagram showing a positional relationship between a vehicle and a tunnel.
FIG. 3 is a flowchart illustrating processing performed by a control unit of the image processing apparatus according to the first exemplary embodiment of the present invention.
FIG. 4 is a diagram for explaining another iris value adjustment of the image processing apparatus according to the first embodiment of the present invention.
FIG. 5 is a diagram illustrating a positional relationship between a vehicle and a merging point.
FIG. 6 is a diagram showing a camera image of the image processing apparatus according to the second embodiment of the present invention.
FIG. 7 is a flowchart illustrating a process performed by a control unit of the image processing apparatus according to the second exemplary embodiment of the present invention.
FIG. 8 is a diagram illustrating a processing procedure performed by a control unit of the image processing apparatus according to the second exemplary embodiment of the present invention.
FIG. 9 is a diagram illustrating another processing procedure performed by the control unit of the image processing apparatus according to the second embodiment of the present invention.
FIG. 10 is a block diagram illustrating a configuration of a conventional image processing apparatus.
FIG. 11 is a diagram for explaining an iris value adjustment method of a conventional image processing apparatus.
FIG. 12 is a diagram illustrating a camera image of a conventional image processing apparatus.
FIG. 13 is a diagram illustrating a processing procedure performed by a control unit of a conventional image processing apparatus.
[Explanation of symbols]
11 ... position detection unit, 3 ... image processing unit,
12 ... Map database, 31 ... Iris control unit,
2 ... Camera, 4 ... Display,
51... Vehicle ahead, 52.

Claims (10)

車両に設置され、該車両の前方を撮影する撮影手段と、
前記撮影手段により撮影された画像を基に前記車両の前方車両及び道路状況を認識する画像処理手段と、
前記車両の位置を検出する位置検出手段と、
前記位置検出手段により検出した前記車両の位置に基づいて自車が所定位置に到達したことを検出する到達検出手段と、
前記到達検出手段により前記車両が前記所定位置に到達したことが検出された時に、前記撮影手段の撮影条件を変更する撮影条件変更手段と、を備え、
前記撮影条件変更手段は、前記撮影手段への光量を制御するアイリス値を変更することを特徴とする画像処理装置。
Photographing means installed in the vehicle and photographing the front of the vehicle;
Image processing means for recognizing a vehicle ahead and a road condition of the vehicle based on an image photographed by the photographing means;
Position detecting means for detecting the position of the vehicle;
Arrival detection means for detecting that the host vehicle has reached a predetermined position based on the position of the vehicle detected by the position detection means;
Photographing condition changing means for changing the photographing condition of the photographing means when the arrival detecting means detects that the vehicle has reached the predetermined position;
The image processing apparatus, wherein the photographing condition changing unit changes an iris value for controlling a light amount to the photographing unit.
前記所定位置が、トンネル入口の所定距離手前であり、
前記撮影条件変更手段は、予め設定されたトンネル内アイリス値に変更することを特徴とする請求項1記載の画像処理装置。
The predetermined position is a predetermined distance before the tunnel entrance,
The image processing apparatus according to claim 1, wherein the photographing condition changing unit changes the preset iris value in the tunnel.
前記所定位置が、トンネル出口の所定距離手前であり、
前記撮影条件変更手段は、予め設定されたトンネル外アイリス値に変更することを特徴とする請求項1記載の画像処理装置。
The predetermined position is a predetermined distance before the tunnel exit;
The image processing apparatus according to claim 1, wherein the photographing condition changing unit changes the iris value outside the tunnel to a preset value.
前記所定位置が、トンネル入口又はトンネル出口に到達したことを検出し、
前記撮影条件変更手段は、周囲の明るさに対応して可変するオートアイリス制御手段に基づくアイリス値に変更することを特徴とする請求項1記載の画像処理装置。
Detecting that the predetermined position has reached a tunnel entrance or a tunnel exit;
The image processing apparatus according to claim 1, wherein the photographing condition changing unit changes the iris value based on an auto iris control unit that varies according to ambient brightness.
前記撮影条件変更手段は、前記車両と前記トンネル入口またはトンネル出口までの距離に応じてアイリス値を徐々に変更することを特徴とする請求項2又は3に記載の画像処理装置。  The image processing apparatus according to claim 2, wherein the photographing condition changing unit gradually changes an iris value according to a distance between the vehicle and the tunnel entrance or tunnel exit. 車両に設置され、該車両の前方を撮影する撮影手段と、
前記撮影手段により撮影された画像を基に前記車両の前方車両及び道路条件を認識する画像処理手段と、
前記車両の位置を検出する位置検出手段と、
前記車両が所定位置に到達したことを検出する到達検出手段と、
前記到達検出手段により前記車両が前記所定位置に到達したことが検出された時に、前記画像処理手段の画像処理条件を変更する画像処理条件変更手段と、を備えたことを特徴とする画像処理装置。
Photographing means installed in the vehicle and photographing the front of the vehicle;
Image processing means for recognizing a vehicle ahead and a road condition of the vehicle based on an image photographed by the photographing means;
Position detecting means for detecting the position of the vehicle;
Arrival detection means for detecting that the vehicle has reached a predetermined position;
An image processing apparatus comprising: an image processing condition changing unit configured to change an image processing condition of the image processing unit when the arrival detecting unit detects that the vehicle has reached the predetermined position. .
前記所定位置が、隣接車線との合流を開始する合流開始点の所定距離手前に到達したことを検出し、
前記画像処理条件変更手段は、前記隣接車線の画像処理領域を広くすることを特徴とする請求項6記載の画像処理装置。
Detecting that the predetermined position has reached a predetermined distance before the merging start point at which merging with an adjacent lane starts.
The image processing apparatus according to claim 6, wherein the image processing condition changing unit widens an image processing area of the adjacent lane.
前記所定位置が、隣接車線との合流を開始する合流開始点の所定距離手前であり、
前記画像処理条件変更手段は、前記隣接車線の画像処理時間を長くすることを特徴とする請求項6記載の画像処理装置。
The predetermined position is a predetermined distance before a merging start point for starting merging with an adjacent lane;
The image processing apparatus according to claim 6, wherein the image processing condition changing unit extends an image processing time of the adjacent lane.
前記所定位置が、隣接車線との合流が終了する合流終了点であり、
前記画像処理条件変更手段は、前記画像処理条件の変更を禁止する変更禁止手段を備えたことを特徴とする請求項6記載の画像処理装置。
The predetermined position is a merging end point where merging with an adjacent lane ends.
The image processing apparatus according to claim 6, wherein the image processing condition changing unit includes a change prohibiting unit that prohibits the change of the image processing condition.
前記画像処理条件変更手段は、前記隣接車線の前記画像処理領域または前記画像処理時間を、前記合流開始点までの距離に応じて徐々に変更することを特徴とする請求項7または8記載の画像処理装置。  9. The image according to claim 7, wherein the image processing condition changing means gradually changes the image processing area or the image processing time of the adjacent lane according to a distance to the merging start point. Processing equipment.
JP20283597A 1997-07-29 1997-07-29 Image processing device Expired - Fee Related JP4063920B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP20283597A JP4063920B2 (en) 1997-07-29 1997-07-29 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP20283597A JP4063920B2 (en) 1997-07-29 1997-07-29 Image processing device

Publications (2)

Publication Number Publication Date
JPH1142972A JPH1142972A (en) 1999-02-16
JP4063920B2 true JP4063920B2 (en) 2008-03-19

Family

ID=16463986

Family Applications (1)

Application Number Title Priority Date Filing Date
JP20283597A Expired - Fee Related JP4063920B2 (en) 1997-07-29 1997-07-29 Image processing device

Country Status (1)

Country Link
JP (1) JP4063920B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4685562B2 (en) * 2005-09-13 2011-05-18 クラリオン株式会社 Mobile imaging device
JP4687573B2 (en) * 2006-06-14 2011-05-25 トヨタ自動車株式会社 Vehicle driving support device
JP2009010860A (en) * 2007-06-29 2009-01-15 Sanyo Electric Co Ltd Navigation device
JP5012704B2 (en) * 2008-07-08 2012-08-29 株式会社デンソー Vehicle shooting system
JP2010239479A (en) * 2009-03-31 2010-10-21 Aisin Aw Co Ltd Imaging part control device, imaging part control method, and imaging part control program
JP2012073927A (en) * 2010-09-29 2012-04-12 Fuji Heavy Ind Ltd Driving support apparatus
JP2012124963A (en) * 2012-03-15 2012-06-28 Konica Minolta Holdings Inc On-vehicle imaging apparatus and imaging method of the same
KR20140075504A (en) * 2012-12-11 2014-06-19 현대자동차주식회사 System and method for recognizing lane
KR20180025591A (en) * 2016-09-01 2018-03-09 삼성전자주식회사 Control method and apparatus of vision sensor for automatic driving car

Also Published As

Publication number Publication date
JPH1142972A (en) 1999-02-16

Similar Documents

Publication Publication Date Title
US5530771A (en) Image tracking device and image tracking method
US20050083432A1 (en) Image processing device, operation supporting device, and operation supporting system
JP2004326730A (en) System for autonomous travelling on expressway and control method for the same
CN109844842B (en) Driving mode switching control device, system, method and storage medium
JP2005173882A (en) Rear side image control device and method
JPH11312300A (en) On-vehicle camera
JPH07125567A (en) Preceding car detecting mechanism of car traveling controller
JP4541609B2 (en) Stop line recognition device and vehicle driving support device using the stop line recognition device
JP4063920B2 (en) Image processing device
JP2006222844A (en) On-vehicle image information output device, and method of controlling same
JP3888166B2 (en) Vehicle driving support device
JP2001028050A (en) Walker detecting device
KR20160105255A (en) Smart traffic light control apparatus and method for preventing traffic accident
JP2008217693A (en) Face direction warning device and warning method for face direction warning device
JPH0632175A (en) Rearward image pick-up device for vehicle
JP2000251198A (en) Periphery monitor device for vehicle
JP2874083B2 (en) Car travel control device
JP2001088574A (en) Travel control device for vehicle
JP7245653B2 (en) Traffic light recognition method and traffic light recognition device
JPH09272414A (en) Vehicle control device
JP2004252550A (en) Driving support device
JP2018007037A (en) Imaging apparatus and automobile
JP3019684B2 (en) Car driving control device
JP2001071790A (en) Vehicular display device
JP2000326758A (en) Preventive safety device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040726

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070523

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070605

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070720

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071225

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071226

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110111

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120111

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130111

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140111

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150111

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees