JP4063920B2 - Image processing device - Google Patents
Image processing device Download PDFInfo
- Publication number
- JP4063920B2 JP4063920B2 JP20283597A JP20283597A JP4063920B2 JP 4063920 B2 JP4063920 B2 JP 4063920B2 JP 20283597 A JP20283597 A JP 20283597A JP 20283597 A JP20283597 A JP 20283597A JP 4063920 B2 JP4063920 B2 JP 4063920B2
- Authority
- JP
- Japan
- Prior art keywords
- image processing
- vehicle
- photographing
- tunnel
- processing apparatus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Studio Devices (AREA)
- Traffic Control Systems (AREA)
- Navigation (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、追突防止等の運転支援を行うための画像処理装置に係り、特に、車両の走行環境に適した画像処理が行える画像処理装置に関する。
【0002】
【従来の技術】
図10は従来の画像処理装置の構成を示すブロック図である。また、図11は従来の画像処理装置のアイリス値調整方法を説明するための図である。また、図12は従来の画像処理装置のカメラ(撮影)画像を示す図である。また、図13は従来の画像処理装置の制御部の行う処理を示す図である。以下、図に従って説明する。
【0003】
2は車両に設置され、車両及び道路状況を撮影するカメラである。3はカメラ2により撮影した前方車両51及び道路状況を基に前方車両51との車間距離、割り込み車両52の有無を判断するマイクロコンピュータ(マイコン)等で構成された画像処理部である。4はカメラ2で撮影された映像または画像処理結果を表示する液晶等で構成される表示部である。31はカメラ2への光量を制御するアイリス制御部で、カメラ2からの映像信号の大小に基いて光量が最適になるようにカメラ2のレンズの開口度を調整する。
【0004】
先ず、カメラ2への光量を調整するアイリス制御について説明する。カメラ2は車両に設置されているために、例えば、季節、時刻、天候の他、車両の走行ととも日陰部、トンネル等の走行環境によって、カメラ2に入射する光量は時々刻々変化する。従って、画像処理に最適な画像、つまり明るさ、解像度、コントラスト(濃淡)等のよい画像を得るためには、走行環境に応じてカメラ2への入射光量を調節しなければならない。
【0005】
カメラ2で撮影された映像信号は画像処理部3に送られて画像処理されると共に、アイリス制御部31にも送られ映像信号の大小(明るさに対応する)が検出される。そして、映像信号が基準値より小さいとカメラ2への入射光量が少なく良好な画像が得られないと判断され、アイリス制御部31はカメラ2に対して入射光量を増加するように指示する(レンズの絞りを開く)。逆に、映像信号が大き過ぎるとカメラ2への入射光量が多過ぎて同様に良好な画像が得られないと判断され、アイリス制御部31はカメラ2に対して入射光量を減少するように指示する(レンズの絞りを絞る)。このようにして、車両の走行環境(晴れ、曇り等)が変化しても常に良好な画像が得られるように入射光量の制御が行われる(図11参照、以下、この制御をオートアイリス制御と称し、また、このような状態でのアイリス値をオートアイリス値と称する)。
【0006】
次に、画像処理方法について説明する。カメラ2で撮影された映像信号は画像処理部3を経由して表示部4に送られ、前方車両51及び割り込み車両52と道路状況が表示される(図12参照)。また、画像処理部3では撮影された画像から、両側が白線53で区切られた自車走行車線(前方車両検出領域)については、主として車間距離が維持できないことによる追突防止を目的として車間距離を計測する。その白線53の外側の隣接車線(割り込み車両検出領域)については、自車走行車線への車線変更(割り込み)の恐れのある車両を検出する。画像処理では画像中の横成分を抽出して車両を認識し、また対象車両までの距離を算出する。
【0007】
前方車両51と割り込み車両52の両方を画像処理により検出するためには、図13のごとく、先ず自車走行車線(前方車両検出領域)において前方車両51の認識処理を、次に隣接車線(割り込み車両検出領域)において割り込み車両52の認識処理を行う。この前方車両検出処理、割り込み車両検出処理を1周期として繰り返す。このようにして、画像処理装置はカメラ2により撮影した画像を基に、運転者は前方車両51及び割り込み車両52に対して早期に対応が採れるように支援する。
【0008】
【発明が解決しようとする課題】
従来のカメラによる撮影及び画像処理装置では、トンネルの入口または出口付近の急激な明るさの変化にカメラのアイリス値調整が応答できず不適切な光量になり、画像のコントラストや解像度が低下する。その結果、画像処理により対象車両の認識が困難になる。
【0009】
また、従来のような画像処理方法では、自車走行車線に合流する合流車線の有無に係わらず、一定の手順で画像処理を行い前方車両及び割り込み車両を認識するので、例えば、合流点付近では合流する車線からの車両、つまり割り込み車両の率が増えるにも係わらず同様の画像処理を行うので、割り込み車両の認識が遅れるという問題がある。
【0010】
本発明は、走行環境の急激な変化にも対応して道路状況が撮影でき、且つ、適切なタイミングで前方車両及び割り込み車両の認識が行える画像処理装置を提供することを目的とする。
【0011】
【課題を解決するための手段】
上記目的を達成するために本発明は、車両に設置され、該車両の前方を撮影する撮影手段と、前記撮影手段により撮影された画像を基に前記車両の前方車両及び道路状況を認識する画像処理手段と、前記車両の位置を検出する位置検出手段と、前記位置検出手段により検出した前記車両の位置に基づいて自車が所定位置に到達したことを検出する到達検出手段と、前記到達検出手段により前記車両が前記所定位置に到達したことが検出された時に、前記撮影手段の撮影条件を変更する撮影条件変更手段と、を備え、前記撮影条件変更手段は、前記撮影手段への光量を制御するアイリス値を変更することを特徴とするものである。
【0012】
また、前記所定位置が、トンネル入口の所定距離手前であり、前記撮影条件変更手段は、予め設定されたトンネル内アイリス値に変更することを特徴とするものである。
また、前記所定位置が、トンネル出口の所定距離手前であり、前記撮影条件変更手段は、予め設定されたトンネル外アイリス値に変更することを特徴とするものである。
【0013】
また、前記所定位置が、トンネル入口又はトンネル出口に到達したことを検出し、前記撮影条件変更手段は、周囲の明るさに対応して可変するオートアイリス制御手段に基づくアイリス値に変更することを特徴とするものである。
【0014】
また、前記撮影条件変更手段は、前記車両と前記トンネル入口またはトンネル出口までの距離に応じてアイリス値を徐々に変更することを特徴とするものである。
また、車両に設置され、該車両の前方を撮影する撮影手段と、前記撮影手段により撮影された画像を基に前記車両の前方車両及び道路条件を認識する画像処理手段と、前記車両の位置を検出する位置検出手段と、前記車両が所定位置に到達したことを検出する到達検出手段と、前記到達検出手段により前記車両が前記所定位置に到達したことが検出された時に、前記画像処理手段の画像処理条件を変更する画像処理条件変更手段と、を備えたことを特徴とするものである。
【0015】
また、前記所定位置が、隣接車線との合流を開始する合流開始点の所定距離手前に到達したことを検出し、前記画像処理条件変更手段は、前記隣接車線の画像処理領域を広くすることを特徴とするものである。
また、前記所定位置が、隣接車線との合流を開始する合流開始点の所定距離手前であり、前記画像処理条件変更手段は、前記隣接車線の画像処理時間を長くすることを特徴とするものである。
【0016】
また、前記所定位置が、隣接車線との合流が終了する合流終了点であり、前記画像処理条件変更手段は、前記画像処理条件の変更を禁止する変更禁止手段を備えたことを特徴とするものである。
また、前記画像処理条件変更手段は、前記隣接車線の前記画像処理領域または前記画像処理時間を、前記合流開始点までの距離に応じて徐々に変更することを特徴とするものである。
【0017】
【実施例】
図1は本発明の第1の実施例の画像処理装置の構成を示すブロック図である。以下、図に従って説明する。
11はGPSシステムや、車速センサ、方位センサ等により自車の位置を検出する自立航行システム等からなる位置検出部である。12は地図情報(経路データ、トンネル位置等)が記録されたCD−ROMの読取装置(CD−ROMドライブ)等からなる地図データベースである。2は車両に設置され、前方車両及び道路状況を撮影するカメラである。3はカメラ2により撮影した前方車両51及び道路状況を基に前方車両51との車間距離、割り込み車両52の有無を判断するマイクロコンピュータ(マイコン)等で構成された画像処理部である。また、画像処理部3は位置検出部11及び対応する地図データベース12の地図情報に基いて自車の位置を特定する処理、トンネルとの位置関係(距離等)を算出する処理等も行う。4はカメラ2で撮影された映像または画像処理結果を表示する液晶等で構成される表示部である。31はカメラ2への光量を制御するアイリス制御部で、カメラ2の映像信号の大小及び走行環境に基いて光量が最適になるようにカメラ2のレンズの開口度を調整する。
【0018】
図2は車両とトンネルの位置関係を示す図である。また、図3は本発明の第1の実施例の画像処理装置の制御部の行う処理フローチャートである。また、図4は本発明の第1の実施例の他のアイリス値調整を説明するための図である。以下、カメラへの光量を調整するアイリス制御について図に従って説明する。尚、本処理はナビゲーション装置により目的地までの経路(ルート)設定が行われた時点から開始する。
【0019】
ステップS11では、自車とトンネルとの相対位置を検出してステップS12に移る。つまり、位置検出部11によりGPSまたは車速センサとジャイロセンサ等により自車の現在位置を緯度、経度で特定する。また、現在位置に対応する地図情報を地図データベース12から読み出す。そして、現在地(自車位置)から走行経路上にあるトンネル入口までの距離Diを算出する。
【0020】
ステップS12では、トンネル入口までの距離Diが予め設定された距離Di1より小さいか否かを判断して距離Diの方が小さければステップS13に移り(図2のB区間に対応)、小さくなければステップS15に移る(図2のA区間に対応)。つまり、自車がトンネル入口の所定距離以内に接近したか否かを判断する。
【0021】
ステップS13では、カメラ2のアイリス値をトンネル内アイリス値Aiに設定してステップS14に移る。つまり、自車が間もなくトンネルに入る(B区間にある)ので急激に暗くなると予想される。そこで、事前にカメラ2の光量調整を行うためにアイリス値をトンネル内アイリス値Aiに変更する。このトンネル内アイリス値Aiは予め平均的なトンネルにおけるアイリス値を実測して、この値を基に決められている。
【0022】
ステップS14では、自車がトンネルに入ったか否かを判断してトンネルに入っておれば(図2のC区間に対応)ステップS15に移り、トンネルに入っていなければ(図2のB区間に対応)待機する。
ステップS15ではオートアイリスに設定してステップS16に移る。つまり、周囲の明るさが急激に変化しない状況にあるので明るさに対応してカメラ2のアイリス値を調整(オートアイリス)にする。尚、トンネル内の照度変化が大きくなければ、ステップS14の処理を省略してC区間を設けずB区間と同様にトンネル内アイリス値Aiとしてオートアイリスにする必要もない。
【0023】
ステップS16では、トンネル出口までの距離Doが予め設定された距離Do1より小さいか否かを判断して距離Doの方が小さければ(図2のD区間に対応)ステップS17に移り、小さくなければ(図2のC区間に対応)待機する。つまり、自車がトンネル出口の所定距離以内に接近したか否かを判断する。
ステップS17では、カメラ2のアイリス値をトンネル外アイリス値Aoに設定してステップS18に移る。つまり、自車が間もなくトンネルを出るので急激に明るくなると予想される。そこで、事前にカメラ2の光量調整を行うためにアイリス値をトンネル外アイリス値Aoに変更する。このトンネル外アイリス値Aoは予め自車が当該トンネルに入る前の平均的なアイリス値を記憶しておき、この値を基に決められている。
【0024】
ステップS18では、自車がトンネルを出たか否かを判断してトンネルを出ておれば(図2のE区間、次のトンネルからみるとA区間に対応)ステップS19に移り、トンネルを出ていなければ(図2のD区間に対応)待機する。
ステップS19ではオートアイリスに設定してステップS11に戻る。つまり、周囲の明るさの変化が急激に変化しない状況にあるので明るさに対応してカメラ2のアイリス値を調整(オートアイリス)し、このような処理を繰り返す。
【0025】
以上のように本実施例では、急激な明るさの変化を予測して予めアイリス値の調整を行うので良好な画像が得られ、画像処理による前方車両51及び割り込み車両52の認識の信頼性が向上する。
また、本例ではアイリス値Aiの調整をトンネル入口の所定距離Di1手前で一度に行う代わりに、図4のようにトンネルの入口からの距離(Di1、Di2等)に応じて複数の区間に分割して徐々にトンネル内アイリス値に近づけるように、アイリス値Ai1、Ai2を調整するようにしてもよい。さらに、図4の点線のごとくトンネルの入口からの距離に対応して連続してアイリス値を調整してもよい。出口についても同様にトンネル出口からの距離(Do1、Do2等)に応じてアイリス値Aoの調整を多段階(Ao1、Ao2)に、または点線のごとく連続して行うこともできる。
【0026】
図5は車両と合流点の位置関係を示す図である。また、図6は本発明の第2の実施例の画像処理装置のカメラ画像を示す図である。また、図7は本発明の第2の実施例の画像処理装置の制御部の行う処理フローチャートである。また、図8は本発明の第2の実施例の画像処理装置の制御部の行う処理を示す図で、(a)は合流点付近以外での処理、(b)は合流点付近での処理である。また、図9は本発明の第2の実施例の画像処理装置の制御部の行う他の処理を示す図で、(a)は合流点付近以外での処理、(b)は合流点付近での処理である。以下、画像処理方法について図に従って説明する。尚、本処理はナビゲーション装置により目的地までの経路(ルート)設定が行われた時点から開始する。
【0027】
ステップS21では、自車と合流開始点位置を検出してステップS22に移る。つまり、位置検出部11によりGPSまたは車速センサとジャイロセンサ等により自車の現在位置を緯度、経度で特定する。また、現在位置に対応する地図情報を地図データベース12から読み出す。そして、現在地(自車位置)から走行経路上にある合流開始点までの距離D1を算出する。
【0028】
ステップS22では、合流開始点までの距離D1が予め設定された距離Da1より小さいか否かを判断して距離D1の方が小さければステップS23に移り(図5のB区間に対応)、小さくなければステップS24に移る(図5のA区間に対応)。つまり、自車が合流開始点の所定距離以内に接近したか否かを判断する。
【0029】
ステップS23では、割り込み車両優先の画像処理を実施してステップS21に戻る。つまり、自車が合流開始点の所定距離以内に接近しているので、隣接車線からの合流車両(割り込み車両52)が多くなる。そのため、割り込み車両に重点をおいた処理を行う必要がある。図8(b)のような合流点付近での処理に従って前方車両51の他、割り込み車両52の処理に重点をおく必要がある。例えば、処理頻度を前方車両認識、割り込み車両認識、割り込み車両認識を1周期として画像処理を行う。
【0030】
ステップS24では、合流終了点に到達したか否かを判断して合流終了点に到達しておればステップS25に移り(図5のC区間に対応)、到達していなければ待機する(図5のB区間に対応)。
ステップS25では、前方車両優先の画像処理を実施してステップS21に戻る。つまり、自車が合流終了点を通過したので、合流車両(割り込み車両52)が少なくなる。そのため、割り込み車両52に重点をおいた処理よりも追突防止のために図8(a)のような合流点付近以外での処理に従って前方車両51に重点をおいた処理を行う必要がある。例えば、処理頻度を前方車両認識、割り込み車両認識を1周期として画像処理を行う。
【0031】
以上のように本実施例では、割り込み車両52の多少を予測して画像処理による車両の認識対象を変えるので、前方車両51及び割り込み車両52の動向に対して早期に対応が採れ事故防止に効果がある。
また、本例では割り込み車両重点画像処理として処理頻度を変えているが、図6のごとく割り込み車両検出領域をA、Bに区別して、合流点付近(B区間)では、合流する車両を早くから認識できるように割り込み車両検出領域を領域A及び領域Bの広い領域について行う。一方、合流点付近以外(A区間、C区間)では、割り込み車両検出領域を領域Aの狭い領域に限定して行うようにしてもよい。つまり、割り込み対象車両の検出(認識)範囲を割り込みの可能性の大小により変更するものである。さらに、合流開始点からの距離に対応して連続して処理領域を変更してもよい。
【0032】
【発明の効果】
以上説明したように、本発明では、走行環境の急激な変化にも常に良好が画像を撮影でき、且つ、適切なタイミングで前方車両及び割り込み車両の認識が行える画像処理装置が提供できる。
【図面の簡単な説明】
【図1】本発明の第1の実施例の画像処理装置の構成を示すブロック図である。
【図2】車両とトンネルの位置関係を示す図である。
【図3】本発明の第1の実施例の画像処理装置の制御部の行う処理フローチャートである。
【図4】本発明の第1の実施例の画像処理装置の他のアイリス値調整を説明するための図である。
【図5】車両と合流点の位置関係を示す図である。
【図6】本発明の第2の実施例の画像処理装置のカメラ画像を示す図である。
【図7】本発明の第2の実施例の画像処理装置の制御部の行う処理フローチャートである。
【図8】本発明の第2の実施例の画像処理装置の制御部の行う処理手順を示す図である。
【図9】本発明の第2の実施例の画像処理装置の制御部の行う他の処理手順を示す図である。
【図10】従来の画像処理装置の構成を示すブロック図である。
【図11】従来の画像処理装置のアイリス値調整方法を説明するための図である。
【図12】従来の画像処理装置のカメラ画像を示す図である。
【図13】従来の画像処理装置の制御部の行う処理手順を示す図である。
【符号の説明】
11・・・位置検出部、 3・・・・画像処理部、
12・・・地図データベース、 31・・・アイリス制御部、
2・・・・カメラ、 4・・・・表示部、
51・・・前方車両、 52・・・割り込み車両。[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing apparatus for performing driving support such as rear-end collision prevention, and more particularly to an image processing apparatus capable of performing image processing suitable for a traveling environment of a vehicle.
[0002]
[Prior art]
FIG. 10 is a block diagram showing a configuration of a conventional image processing apparatus. FIG. 11 is a diagram for explaining an iris value adjustment method of a conventional image processing apparatus. FIG. 12 is a view showing a camera (captured) image of a conventional image processing apparatus. FIG. 13 is a diagram showing processing performed by the control unit of the conventional image processing apparatus. Hereinafter, it demonstrates according to a figure.
[0003]
[0004]
First, iris control for adjusting the amount of light to the
[0005]
The video signal photographed by the
[0006]
Next, an image processing method will be described. The video signal photographed by the
[0007]
In order to detect both the preceding
[0008]
[Problems to be solved by the invention]
In a conventional camera photographing and image processing apparatus, the iris value adjustment of the camera cannot respond to a sudden change in brightness near the entrance or exit of the tunnel, resulting in an inappropriate amount of light, resulting in a reduction in image contrast and resolution. As a result, it becomes difficult to recognize the target vehicle by image processing.
[0009]
In addition, in the conventional image processing method, regardless of the presence or absence of the merging lane that merges with the host vehicle lane, image processing is performed in a certain procedure to recognize the preceding vehicle and the interrupting vehicle. There is a problem that recognition of an interrupting vehicle is delayed because the same image processing is performed even though the rate of vehicles from the lane to join, that is, the rate of interrupting vehicles increases.
[0010]
SUMMARY OF THE INVENTION An object of the present invention is to provide an image processing apparatus that can capture road conditions in response to a sudden change in the driving environment and can recognize a preceding vehicle and an interrupting vehicle at an appropriate timing.
[0011]
[Means for Solving the Problems]
In order to achieve the above object, the present invention provides an imaging unit that is installed in a vehicle and captures the front of the vehicle, and an image that recognizes the vehicle ahead and the road condition based on the image captured by the imaging unit. Processing means; position detection means for detecting the position of the vehicle; arrival detection means for detecting that the vehicle has reached a predetermined position based on the position of the vehicle detected by the position detection means; and the arrival detection. Photographing condition changing means for changing the photographing condition of the photographing means when the means detects that the vehicle has reached the predetermined position, and the photographing condition changing means controls the amount of light to the photographing means. The iris value to be controlled is changed.
[0012]
Further, the predetermined position is a predetermined distance before the entrance of the tunnel, and the photographing condition changing means changes to a preset in-tunnel iris value.
Further, the predetermined position is a predetermined distance before the tunnel exit, and the photographing condition changing means changes to a preset iris value outside the tunnel.
[0013]
Further, it is detected that the predetermined position has reached a tunnel entrance or a tunnel exit, and the imaging condition changing means changes to an iris value based on an auto iris control means that varies according to ambient brightness. It is what.
[0014]
Further, the photographing condition changing means gradually changes the iris value according to the distance from the vehicle to the tunnel entrance or tunnel exit.
Also, an imaging unit that is installed in the vehicle and images the front of the vehicle, an image processing unit that recognizes a vehicle ahead and a road condition based on an image captured by the imaging unit, and a position of the vehicle Position detecting means for detecting, arrival detecting means for detecting that the vehicle has reached a predetermined position, and when the arrival detecting means detects that the vehicle has reached the predetermined position, the image processing means The image processing condition changing means for changing the image processing condition is provided.
[0015]
Further, it is detected that the predetermined position has reached a predetermined distance before the merging start point where merging with the adjacent lane is started, and the image processing condition changing means widens the image processing area of the adjacent lane. It is a feature.
The predetermined position is a predetermined distance before a merging start point at which merging with an adjacent lane is started, and the image processing condition changing unit extends an image processing time of the adjacent lane. is there.
[0016]
The predetermined position is a merging end point where merging with an adjacent lane ends, and the image processing condition changing unit includes a change prohibiting unit that prohibits the change of the image processing condition. It is.
Further, the image processing condition changing means is characterized by gradually changing the image processing area or the image processing time of the adjacent lane according to the distance to the merging start point.
[0017]
【Example】
FIG. 1 is a block diagram showing the configuration of the image processing apparatus according to the first embodiment of the present invention. Hereinafter, it demonstrates according to a figure.
A
[0018]
FIG. 2 is a diagram showing the positional relationship between the vehicle and the tunnel. FIG. 3 is a flowchart of processing performed by the control unit of the image processing apparatus according to the first embodiment of the present invention. FIG. 4 is a diagram for explaining another iris value adjustment of the first embodiment of the present invention. Hereinafter, iris control for adjusting the amount of light to the camera will be described with reference to the drawings. This process starts from the time when the route to the destination is set by the navigation device.
[0019]
In step S11, the relative position between the vehicle and the tunnel is detected, and the process proceeds to step S12. That is, the current position of the host vehicle is specified by the latitude and longitude by the GPS or a vehicle speed sensor and a gyro sensor by the
[0020]
In step S12, it is determined whether or not the distance Di to the tunnel entrance is smaller than the preset distance Di1, and if the distance Di is smaller, the process proceeds to step S13 (corresponding to section B in FIG. 2), and if not smaller. The process proceeds to step S15 (corresponding to section A in FIG. 2). That is, it is determined whether or not the own vehicle approaches within a predetermined distance of the tunnel entrance.
[0021]
In step S13, the iris value of the
[0022]
In step S14, it is determined whether or not the vehicle has entered the tunnel. If the vehicle has entered the tunnel (corresponding to section C in FIG. 2), the process proceeds to step S15. If the vehicle has not entered the tunnel (in section B in FIG. 2). Action) Wait.
In step S15, the auto iris is set and the process proceeds to step S16. That is, since the ambient brightness does not change suddenly, the iris value of the
[0023]
In step S16, it is determined whether or not the distance Do to the tunnel exit is smaller than the preset distance Do1, and if the distance Do is smaller (corresponding to the D section in FIG. 2), the process proceeds to step S17. Wait (corresponding to section C in FIG. 2). That is, it is determined whether or not the vehicle has approached within a predetermined distance of the tunnel exit.
In step S17, the iris value of the
[0024]
In step S18, it is determined whether or not the vehicle has exited the tunnel, and if it has exited the tunnel (corresponding to section E in FIG. 2 and section A from the next tunnel), the process proceeds to step S19 and exits the tunnel. If not (corresponding to section D in FIG. 2), it waits.
In step S19, the auto iris is set and the process returns to step S11. That is, since the surrounding brightness does not change suddenly, the iris value of the
[0025]
As described above, in the present embodiment, since the iris value is adjusted in advance by predicting a sudden change in brightness, a good image can be obtained, and the reliability of the recognition of the
Also, in this example, the iris value Ai is adjusted at a predetermined distance Di1 before the tunnel entrance at once, instead of being divided into a plurality of sections according to the distance from the tunnel entrance (Di1, Di2, etc.) as shown in FIG. Then, the iris values Ai1 and Ai2 may be adjusted so as to gradually approach the iris value in the tunnel. Further, the iris value may be adjusted continuously corresponding to the distance from the entrance of the tunnel as indicated by the dotted line in FIG. Similarly, for the exit, the iris value Ao can be adjusted in multiple stages (Ao1, Ao2) or continuously as indicated by dotted lines in accordance with the distance from the tunnel exit (Do1, Do2, etc.).
[0026]
FIG. 5 is a diagram showing the positional relationship between the vehicle and the junction. FIG. 6 is a view showing a camera image of the image processing apparatus according to the second embodiment of the present invention. FIG. 7 is a flowchart of processing performed by the control unit of the image processing apparatus according to the second embodiment of the present invention. FIG. 8 is a diagram showing processing performed by the control unit of the image processing apparatus according to the second embodiment of the present invention, where (a) is processing outside the junction, and (b) is processing near the junction. It is. FIG. 9 is a diagram showing another process performed by the control unit of the image processing apparatus according to the second embodiment of the present invention. (A) is a process other than near the junction, and (b) is near the junction. It is processing of. Hereinafter, an image processing method will be described with reference to the drawings. This process starts from the time when the route to the destination is set by the navigation device.
[0027]
In step S21, the own vehicle and the merge start point position are detected, and the process proceeds to step S22. That is, the current position of the host vehicle is specified by the latitude and longitude by the GPS or a vehicle speed sensor and a gyro sensor by the
[0028]
In step S22, it is determined whether or not the distance D1 to the merging start point is smaller than the preset distance Da1, and if the distance D1 is smaller, the process proceeds to step S23 (corresponding to the B section in FIG. 5) and must be smaller. Then, the process proceeds to step S24 (corresponding to section A in FIG. 5). That is, it is determined whether or not the own vehicle has approached within a predetermined distance from the merging start point.
[0029]
In step S23, the interrupt vehicle priority image processing is performed, and the process returns to step S21. That is, since the own vehicle is approaching within a predetermined distance from the merging start point, the number of merging vehicles (interrupt vehicles 52) from adjacent lanes increases. Therefore, it is necessary to perform processing with an emphasis on the interrupting vehicle. It is necessary to place emphasis on the process of the interrupting
[0030]
In step S24, it is determined whether or not the merging end point has been reached. If the merging end point has been reached, the process proceeds to step S25 (corresponding to section C in FIG. 5). Corresponds to section B).
In step S25, the forward vehicle priority image processing is performed, and the process returns to step S21. That is, since the own vehicle has passed the merge end point, the number of merge vehicles (interrupt vehicles 52) is reduced. Therefore, in order to prevent a rear-end collision rather than a process that focuses on the interrupting
[0031]
As described above, in this embodiment, the number of the interrupting
In this example, the processing frequency is changed as the interrupting vehicle priority image processing. However, as shown in FIG. 6, the interrupting vehicle detection area is distinguished into A and B, and the joining vehicle is recognized early in the vicinity of the merging point (B section). The interrupting vehicle detection area is performed in a wide area of the area A and the area B so as to be possible. On the other hand, the area where the interrupted vehicle is detected may be limited to a narrow area A except in the vicinity of the junction (section A, section C). That is, the detection (recognition) range of the vehicle to be interrupted is changed depending on the possibility of interruption. Furthermore, you may change a process area | region continuously corresponding to the distance from a merging start point.
[0032]
【The invention's effect】
As described above, according to the present invention, it is possible to provide an image processing apparatus that can always capture a good image even in a sudden change in the driving environment and can recognize a preceding vehicle and an interrupting vehicle at an appropriate timing.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a configuration of an image processing apparatus according to a first exemplary embodiment of the present invention.
FIG. 2 is a diagram showing a positional relationship between a vehicle and a tunnel.
FIG. 3 is a flowchart illustrating processing performed by a control unit of the image processing apparatus according to the first exemplary embodiment of the present invention.
FIG. 4 is a diagram for explaining another iris value adjustment of the image processing apparatus according to the first embodiment of the present invention.
FIG. 5 is a diagram illustrating a positional relationship between a vehicle and a merging point.
FIG. 6 is a diagram showing a camera image of the image processing apparatus according to the second embodiment of the present invention.
FIG. 7 is a flowchart illustrating a process performed by a control unit of the image processing apparatus according to the second exemplary embodiment of the present invention.
FIG. 8 is a diagram illustrating a processing procedure performed by a control unit of the image processing apparatus according to the second exemplary embodiment of the present invention.
FIG. 9 is a diagram illustrating another processing procedure performed by the control unit of the image processing apparatus according to the second embodiment of the present invention.
FIG. 10 is a block diagram illustrating a configuration of a conventional image processing apparatus.
FIG. 11 is a diagram for explaining an iris value adjustment method of a conventional image processing apparatus.
FIG. 12 is a diagram illustrating a camera image of a conventional image processing apparatus.
FIG. 13 is a diagram illustrating a processing procedure performed by a control unit of a conventional image processing apparatus.
[Explanation of symbols]
11 ... position detection unit, 3 ... image processing unit,
12 ... Map database, 31 ... Iris control unit,
2 ... Camera, 4 ... Display,
51... Vehicle ahead, 52.
Claims (10)
前記撮影手段により撮影された画像を基に前記車両の前方車両及び道路状況を認識する画像処理手段と、
前記車両の位置を検出する位置検出手段と、
前記位置検出手段により検出した前記車両の位置に基づいて自車が所定位置に到達したことを検出する到達検出手段と、
前記到達検出手段により前記車両が前記所定位置に到達したことが検出された時に、前記撮影手段の撮影条件を変更する撮影条件変更手段と、を備え、
前記撮影条件変更手段は、前記撮影手段への光量を制御するアイリス値を変更することを特徴とする画像処理装置。Photographing means installed in the vehicle and photographing the front of the vehicle;
Image processing means for recognizing a vehicle ahead and a road condition of the vehicle based on an image photographed by the photographing means;
Position detecting means for detecting the position of the vehicle;
Arrival detection means for detecting that the host vehicle has reached a predetermined position based on the position of the vehicle detected by the position detection means;
Photographing condition changing means for changing the photographing condition of the photographing means when the arrival detecting means detects that the vehicle has reached the predetermined position;
The image processing apparatus, wherein the photographing condition changing unit changes an iris value for controlling a light amount to the photographing unit.
前記撮影条件変更手段は、予め設定されたトンネル内アイリス値に変更することを特徴とする請求項1記載の画像処理装置。The predetermined position is a predetermined distance before the tunnel entrance,
The image processing apparatus according to claim 1, wherein the photographing condition changing unit changes the preset iris value in the tunnel.
前記撮影条件変更手段は、予め設定されたトンネル外アイリス値に変更することを特徴とする請求項1記載の画像処理装置。The predetermined position is a predetermined distance before the tunnel exit;
The image processing apparatus according to claim 1, wherein the photographing condition changing unit changes the iris value outside the tunnel to a preset value.
前記撮影条件変更手段は、周囲の明るさに対応して可変するオートアイリス制御手段に基づくアイリス値に変更することを特徴とする請求項1記載の画像処理装置。Detecting that the predetermined position has reached a tunnel entrance or a tunnel exit;
The image processing apparatus according to claim 1, wherein the photographing condition changing unit changes the iris value based on an auto iris control unit that varies according to ambient brightness.
前記撮影手段により撮影された画像を基に前記車両の前方車両及び道路条件を認識する画像処理手段と、
前記車両の位置を検出する位置検出手段と、
前記車両が所定位置に到達したことを検出する到達検出手段と、
前記到達検出手段により前記車両が前記所定位置に到達したことが検出された時に、前記画像処理手段の画像処理条件を変更する画像処理条件変更手段と、を備えたことを特徴とする画像処理装置。Photographing means installed in the vehicle and photographing the front of the vehicle;
Image processing means for recognizing a vehicle ahead and a road condition of the vehicle based on an image photographed by the photographing means;
Position detecting means for detecting the position of the vehicle;
Arrival detection means for detecting that the vehicle has reached a predetermined position;
An image processing apparatus comprising: an image processing condition changing unit configured to change an image processing condition of the image processing unit when the arrival detecting unit detects that the vehicle has reached the predetermined position. .
前記画像処理条件変更手段は、前記隣接車線の画像処理領域を広くすることを特徴とする請求項6記載の画像処理装置。Detecting that the predetermined position has reached a predetermined distance before the merging start point at which merging with an adjacent lane starts.
The image processing apparatus according to claim 6, wherein the image processing condition changing unit widens an image processing area of the adjacent lane.
前記画像処理条件変更手段は、前記隣接車線の画像処理時間を長くすることを特徴とする請求項6記載の画像処理装置。The predetermined position is a predetermined distance before a merging start point for starting merging with an adjacent lane;
The image processing apparatus according to claim 6, wherein the image processing condition changing unit extends an image processing time of the adjacent lane.
前記画像処理条件変更手段は、前記画像処理条件の変更を禁止する変更禁止手段を備えたことを特徴とする請求項6記載の画像処理装置。The predetermined position is a merging end point where merging with an adjacent lane ends.
The image processing apparatus according to claim 6, wherein the image processing condition changing unit includes a change prohibiting unit that prohibits the change of the image processing condition.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP20283597A JP4063920B2 (en) | 1997-07-29 | 1997-07-29 | Image processing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP20283597A JP4063920B2 (en) | 1997-07-29 | 1997-07-29 | Image processing device |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH1142972A JPH1142972A (en) | 1999-02-16 |
JP4063920B2 true JP4063920B2 (en) | 2008-03-19 |
Family
ID=16463986
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP20283597A Expired - Fee Related JP4063920B2 (en) | 1997-07-29 | 1997-07-29 | Image processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4063920B2 (en) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4685562B2 (en) * | 2005-09-13 | 2011-05-18 | クラリオン株式会社 | Mobile imaging device |
JP4687573B2 (en) * | 2006-06-14 | 2011-05-25 | トヨタ自動車株式会社 | Vehicle driving support device |
JP2009010860A (en) * | 2007-06-29 | 2009-01-15 | Sanyo Electric Co Ltd | Navigation device |
JP5012704B2 (en) * | 2008-07-08 | 2012-08-29 | 株式会社デンソー | Vehicle shooting system |
JP2010239479A (en) * | 2009-03-31 | 2010-10-21 | Aisin Aw Co Ltd | Imaging part control device, imaging part control method, and imaging part control program |
JP2012073927A (en) * | 2010-09-29 | 2012-04-12 | Fuji Heavy Ind Ltd | Driving support apparatus |
JP2012124963A (en) * | 2012-03-15 | 2012-06-28 | Konica Minolta Holdings Inc | On-vehicle imaging apparatus and imaging method of the same |
KR20140075504A (en) * | 2012-12-11 | 2014-06-19 | 현대자동차주식회사 | System and method for recognizing lane |
KR20180025591A (en) * | 2016-09-01 | 2018-03-09 | 삼성전자주식회사 | Control method and apparatus of vision sensor for automatic driving car |
-
1997
- 1997-07-29 JP JP20283597A patent/JP4063920B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH1142972A (en) | 1999-02-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US5530771A (en) | Image tracking device and image tracking method | |
US20050083432A1 (en) | Image processing device, operation supporting device, and operation supporting system | |
JP2004326730A (en) | System for autonomous travelling on expressway and control method for the same | |
CN109844842B (en) | Driving mode switching control device, system, method and storage medium | |
JP2005173882A (en) | Rear side image control device and method | |
JPH11312300A (en) | On-vehicle camera | |
JPH07125567A (en) | Preceding car detecting mechanism of car traveling controller | |
JP4541609B2 (en) | Stop line recognition device and vehicle driving support device using the stop line recognition device | |
JP4063920B2 (en) | Image processing device | |
JP2006222844A (en) | On-vehicle image information output device, and method of controlling same | |
JP3888166B2 (en) | Vehicle driving support device | |
JP2001028050A (en) | Walker detecting device | |
KR20160105255A (en) | Smart traffic light control apparatus and method for preventing traffic accident | |
JP2008217693A (en) | Face direction warning device and warning method for face direction warning device | |
JPH0632175A (en) | Rearward image pick-up device for vehicle | |
JP2000251198A (en) | Periphery monitor device for vehicle | |
JP2874083B2 (en) | Car travel control device | |
JP2001088574A (en) | Travel control device for vehicle | |
JP7245653B2 (en) | Traffic light recognition method and traffic light recognition device | |
JPH09272414A (en) | Vehicle control device | |
JP2004252550A (en) | Driving support device | |
JP2018007037A (en) | Imaging apparatus and automobile | |
JP3019684B2 (en) | Car driving control device | |
JP2001071790A (en) | Vehicular display device | |
JP2000326758A (en) | Preventive safety device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20040726 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20070523 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070605 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070720 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20071225 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20071226 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110111 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120111 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130111 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140111 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150111 Year of fee payment: 7 |
|
LAPS | Cancellation because of no payment of annual fees |