JPWO2012066609A1 - 環境推定装置及び車両制御装置 - Google Patents

環境推定装置及び車両制御装置 Download PDF

Info

Publication number
JPWO2012066609A1
JPWO2012066609A1 JP2012544011A JP2012544011A JPWO2012066609A1 JP WO2012066609 A1 JPWO2012066609 A1 JP WO2012066609A1 JP 2012544011 A JP2012544011 A JP 2012544011A JP 2012544011 A JP2012544011 A JP 2012544011A JP WO2012066609 A1 JPWO2012066609 A1 JP WO2012066609A1
Authority
JP
Japan
Prior art keywords
vehicle
image
unit
environment
surrounding environment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012544011A
Other languages
English (en)
Other versions
JP5501477B2 (ja
Inventor
達也 三次
達也 三次
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2012066609A1 publication Critical patent/JPWO2012066609A1/ja
Application granted granted Critical
Publication of JP5501477B2 publication Critical patent/JP5501477B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/02Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments
    • B60Q1/04Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights
    • B60Q1/14Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights having dimming means
    • B60Q1/1415Dimming circuits
    • B60Q1/1423Automatic dimming circuits, i.e. switching between high beam and low beam due to change of ambient light or light level in road traffic
    • B60Q1/143Automatic dimming circuits, i.e. switching between high beam and low beam due to change of ambient light or light level in road traffic combined with another condition, e.g. using vehicle recognition from camera images or activation of wipers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2300/00Indexing codes for automatically adjustable headlamps or automatically dimmable headlamps
    • B60Q2300/30Indexing codes relating to the vehicle environment
    • B60Q2300/31Atmospheric conditions
    • B60Q2300/314Ambient light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Lighting Device Outwards From Vehicle And Optical Signal (AREA)

Abstract

車両カメラで撮像されたカメラ画像を複数の画像領域に分割する画像領域分割部3と、画像領域分割部3に分割された複数の画像領域のうち、空が撮像されている画像領域から、当該画像領域の特徴を示す画像情報を抽出するカメラ画像情報抽出部4と、カメラ画像情報抽出部4によって抽出された画像情報に基づいて、画像領域の特徴と周辺環境の天候又は明暗との対応関係を示す対応データを参照することにより、周辺環境の天候又は明暗を推定する環境推定部5とを備える。

Description

この発明は、車両等に固定設置されたカメラで撮像したカメラ画像を基に当該車両等の周辺環境を推定する環境推定装置及びこの装置を用いた車両制御装置に関する。
車両に固定設置された車両カメラは、カメラ画像から車外の障害物の発見や駐車支援等に利用される。また、車両カメラのカメラ画像からは、撮像範囲の明るさを示す照度情報が得られ、この照度情報から特定される画面全体の照度によって、車両が位置する場所の明暗を判定することができる。この判定結果を利用すれば、ライトの自動点灯又は消灯が可能である。
例えば、特許文献1には、自車前方を撮像する撮像手段と、撮像手段により撮像された画像に基づいてライト類を点灯又は消灯させるライト制御を行うライト制御手段とを有するオートライト装置が開示されている。この装置では、自車前方の明るさ(cd/m)が、予め設定されたレベル1(第1基準値)以上である場合には、ライトの消灯が選択され、予め設定されたレベル2(第2基準値)よりも明るく、かつレベル1未満の明るさである場合には、スモールライトの点灯が選択される。そして、レベル2未満の明るさであると、ヘッドライトの点灯が選択される。
特開2010−6172号公報
特許文献1に代表される従来の技術は、カメラ画像中で明るさを判断する領域を自車の走行状態や自車周囲の環境状態に基づいて設定している。このため、自車の走行状態として車速や操舵角度等の車両情報を検出するセンサが必要であり、また、カメラ画像から先行車両の有無や走行車線を認識して自車周囲の環境状態を特定する必要がある。
このように、従来の技術では、車両情報を検出するセンサや特別な画像認識処理チップが必要であり、構成の複雑化や部品点数の増加を招くという課題があった。
この発明は、上記のような課題を解決するためになされたもので、簡易な構成でカメラ画像から撮像対象の周辺環境を推定することができる環境推定装置を得ることを目的とする。また、この発明は、上記環境推定装置で推定された周辺環境に応じた車載機器の動作を制御する車両制御装置を得ることを目的とする。
この発明に係る環境推定装置は、撮像部で撮像された撮像画像を複数の画像領域に分割する画像領域分割部と、画像領域分割部に分割された複数の画像領域のうち、空が撮像されている画像領域から、当該画像領域の特徴を示す画像情報を抽出する情報抽出部と、情報抽出部によって抽出された画像情報に基づいて、画像領域の特徴と周辺環境の天候又は明暗との対応関係を示す対応データを参照することにより、周辺環境の天候又は明暗を推定する環境推定部とを備える。
この発明によれば、簡易な構成でカメラ画像から撮像対象の周辺環境を推定することができるという効果がある。
この発明の実施の形態1による環境推定装置を用いた車両制御装置の構成を示すブロック図である。 実施の形態1によるカメラ画像の分割処理の一例を示す図である。 画像領域の平均照度と周辺環境の照度状態及び車両ライトへの車両信号の内容との対応関係を示す図である。 実施の形態1による環境推定及び車両制御の流れを示すフローチャートである。 この発明の実施の形態2による環境推定装置を用いた車両制御装置の構成を示すブロック図である。 実施の形態2による環境推定及び車両制御の流れを示すフローチャートである。 画像領域の色相、色調及び色状態と周辺環境及び車両ライトへの車両信号の内容との対応関係の一例を示す図である。 この発明の実施の形態3による環境推定装置を用いた車両制御装置の構成を示すブロック図である。 各矩形画像領域の平均照度の関係と周辺環境及び車両信号の内容との対応関係の一例を示す図である。 実施の形態3による環境推定及び車両制御の流れを示すフローチャートである。 雨滴や雨膜による投影面上の被写体の変化を説明するための図である。 この発明の実施の形態4による環境推定装置を用いた車両制御装置の構成を示すブロック図である。 実施の形態4によるカメラ画像の分割処理の一例を示す図である。 実施の形態4による環境推定及び車両制御の流れを示すフローチャートである。
以下、この発明をより詳細に説明するため、この発明を実施するための形態について、添付の図面に従って説明する。
実施の形態1.
図1は、この発明の実施の形態1による環境推定装置を用いた車両制御装置の構成を示すブロック図である。図1において、実施の形態1の車両制御装置1は、車載機器の動作を制御する制御装置であり、環境推定装置2及び車両信号制御部6を備える。また、環境推定装置2は、車両カメラ(撮像部)で撮像されたカメラ画像(撮像画像)から当該車両の周辺環境を推定する装置であり、画像領域分割部3、カメラ画像情報抽出部(情報抽出部)4及び環境推定部5を備える。なお、車両カメラは、車外の風景のうち、特定の属性を有する風景の一部(例えば、空)が被写体に含まれる撮像範囲になるように、当該車両に固定設置されたカメラである。
画像領域分割部3は、車両カメラで撮像されたカメラ画像を所定の画像領域に分割する構成部である。例えば、カメラ画像を表示した画面の水平方向(左右方向)にX軸を割り当て、垂直方向(上下方向)にY軸を割り当てて、XY軸方向に所定のサイズで区画することにより、複数の矩形画像領域を規定する。なお、この実施の形態1では、カメラ画像を複数に分割した矩形画像領域の少なくとも1つの矩形画像領域が、空を撮像範囲に含むものとする。つまり、本発明の車両カメラは、所定の垂直画角を有するカメラを、被写体に空が含まれるように、車両への取り付け高さ、取り付け水平角度、取り付け垂直角度、車両幅の中心からの偏移の距離が固定される。
カメラ画像情報抽出部4は、画像領域分割部3によって複数に分割された画像領域からカメラ画像情報を抽出する構成部であり、単一領域輝度情報抽出部41を有する。本発明でいうカメラ画像情報には、カメラ画像の被写体の形状情報、輝度情報及び色情報等が含まれる。単一領域輝度情報抽出部41は、画像領域分割部3により得られた複数の画像領域のうち、被写体に空を含む画像領域から、当該画像領域内の画素の照度を平均した平均照度を、輝度情報として抽出する構成部である。
環境推定部5は、カメラ画像情報抽出部4で抽出されたカメラ画像情報から自車の周辺環境を推定する構成部である。実施の形態1では、環境推定部5が、単一領域輝度情報抽出部41によって抽出された被写体に空を含む画像領域の平均照度と画像の照度に関する所定の閾値との大小比較の結果から、自車が位置する場所の周辺環境が暗いか明るいかを推定する。
車両信号制御部6は、環境推定部5による周辺環境の推定結果に応じて自車の車載機器の動作を制御する構成部である。実施の形態6では、環境推定部5による自車の周辺環境が暗いか明るいかの推定結果に応じて、周辺環境に適応した車両状態となるように車載機器を動作させる車両制御信号を生成する。例えば、自車の周辺環境が暗いと推定された場合には、車両ライトを点灯する車両制御信号を車両ECU(Electric Control Unit)に出力する。車両ECUは、車両制御信号を受けると、当該車両制御信号に該当する車載機器を動作させる。
なお、図1では、実施の形態1の車両制御装置1を車両ECUとは別個の装置として設けた場合を示したが、車両ECUにおける1つの機能構成として設けてもかまわない。
また、画像領域分割部3、カメラ画像情報抽出部4、環境推定部5及び車両信号制御部6は、車両制御装置1又は車両ECUを構成するコンピュータが、本発明の趣旨に従う環境推定及び車両制御用プログラムを実行することにより、ソフトウェアとハードウェアとが協働した具体的手段として実現される。
図2は、実施の形態1によるカメラ画像の分割処理の一例を示す図である。図2に示すカメラ画像は、水平画角180度及び垂直画角150度のカメラを、車両幅の中央で、取り付け高さ200mm、取り付け水平角度0度、取り付け垂直角度30度で、車両の前方方向が撮像範囲になるように車両に固定設置したフロントカメラにより撮像された画像である。図2の例では、画像領域分割部3が、カメラ画像を表示した画面の水平方向(左右方向)にX軸を割り当て、垂直方向(上下方向)にY軸を割り当てて、XY軸方向に所定のサイズでそれぞれ3つに区画することにより、画像領域(XY=11〜33)を規定している。すなわち、カメラ画像のX軸方向を、左矩形領域(X=1)、中央矩形領域(X=2)、右矩形領域(X=3)に3分割し、Y軸方向を、上部矩形領域(Y=1)、中部矩形領域(Y=2)、下部矩形領域(Y=3)に3分割することにより、全部で9つの画像領域に分割している。
ここで、図2は、自車が都市を走行しているときのカメラ画像を示しており、車両カメラの被写体には、都市の建造物や樹木等の“地物”、自然風景である“空”、走行道路を示す“地面”が含まれる。各画像領域での主な被写体は、領域(XY=11)では建物の一部と空が主に映っていることから“地物と空”であり、領域(XY=21)では“空”、領域(XY=31)では樹木と空が主に映っているので“地物と空”である。また、領域(XY=12)では“地物”、領域(XY=22)も“地物”、領域(XY=32)では“地物”であり、領域(XY=13)では“地物と地面”、領域(XY=23)では“地面”、領域(XY=33)で“地物と地面”である。
また、自車が山間部を走行したときの車両カメラの被写体には、自然風景である“山”、“空”、走行道路を示す“地面”が含まれる。例えば、山道を走行し、自車の進行方向に山が遠目で見える場合、各画像領域での主な被写体は、領域(XY=11)では“山と空”、領域(XY=21)で“空”、領域(XY=31)で“山と空”である。また、領域(XY=12)で“山”、領域(XY=22)で“山と空”、領域(XY=32)では“山と空”であり、領域(XY=13)で“地面”、領域(XY=23)で“地面”、領域(XY=33)で“地面”である。
さらに、自車が都市以外の平野(建物がない草原など)を走行したときの車両カメラの被写体には、自然風景である草原などの“平野”、“空”、走行道路を示す“地面”が含まれる。例えば、平野を抜ける道路を走行している場合、各画像領域での主な被写体は、領域(XY=11)で“空”、領域(XY=21)で“空”、領域(XY=31)で“空”であり、領域(XY=12)で“平野”、領域(XY=22)で“平野と空”、領域(XY=32)では“平野”であり、領域(XY=13)で“地面”、領域(XY=23)で“地面”、領域(XY=33)で“地面”である。
このように、撮像方向を極端に地面に向けるようなことをせず、自車の周辺の所定方向の風景を遠目で見渡せる視野を有するように車両カメラを固定設置することにより、自車が屋外を走行して撮像を連続的又は周期的に繰り返せば、少なくとも被写体に空が含まれる場合が多くなる。例えば、図2では、車両より上方の風景が撮像される上部矩形領域(Y=1)に被写体に空が含まれる場合が多い。なお、通常の車両カメラは、自車の前方、後方あるいは側方の風景を遠目で見渡せる視野を有するように取り付けられている。
そこで、実施の形態1では、上部矩形領域(Y=1)における画像領域(XY=11,21,31)のうちの少なくとも1つの画像領域を、被写体に空を含む画像領域として規定する。
図3は、画像領域の平均照度と周辺環境の照度状態及び車両ライトへの車両信号の内容との対応関係を示す図である。図3において、閾値ILL_aは、車両ライトを消灯していてもよい明るさを示す平均照度の下限値であり、環境推定部5に設定される。また、環境推定部5には、図3に示す平均照度と照度状態との対応関係を示すデータが設定されている。さらに、図3に示す照度状態と車両信号の内容との対応関係を示すデータは、車両信号制御部6に設定される。照度状態が“低”、すなわち、自車の周辺が暗い場合には、車両ライトの点灯を指示する車両信号ILLがオンとなり、照度状態が“高”、すなわち自車の周辺が明るい場合は、車両ライトの点灯を指示する車両信号ILLがオフとなる。
次に動作について説明する。
図4は、実施の形態1による環境推定及び車両制御の流れを示すフローチャートである。この図に沿って環境推定処理と車両制御処理の詳細を説明する。なお、装置の構成については、図1を参照する。
先ず、カメラ画像情報抽出部4の単一領域輝度情報抽出部41が、画像領域分割部3により得られた複数の画像領域のうち、被写体に空を含む画像領域(「空」領域)から、当該画像領域内の画素の照度を平均した平均照度Eを検出する(ステップST1)。ここでは、車両カメラのカメラ画像のうち、図2の上部矩形領域(Y=1)に相当する画像領域の一部が、被写体に空を含む画像領域として特定される。以降では、単一領域輝度情報抽出部41が、上部矩形領域(Y=1)のうち、被写体が主に空である領域(XY=21)を被写体に空を含む画像領域として特定し、その平均照度Eを検出した場合を述べる。
環境推定部5は、単一領域輝度情報抽出部41から、被写体に空を含む画像領域(領域(XY=21))の平均照度Eを入力すると、平均照度Eが所定の閾値ILL_a未満であるか否かを判定する(ステップST2)。平均照度Eが所定の閾値ILL_a以上であると(ステップST2;NO)、環境推定部5は、この比較判定の結果に基づいて、図3に示した平均照度と照度状態との対応関係を示すデータを参照することにより、自車の周辺環境(空)は明るいと推定し、この推定結果を車両信号制御部6に出力する(ステップST3)。
車両信号制御部6は、自車の周辺環境(空)が明るいことを示す照度状態(高)の推定結果を受けると、この推定結果に基づいて、図3に示す照度状態と車両信号の内容との対応関係を示すデータを参照することで、車両ライトを消灯させる車両信号を車両ECUに出力する。これにより、車両ECUは、車両信号制御部6からの車両信号に従って、車両イルミネーションをオフする(ステップST4)。
一方、平均照度Eが所定の閾値ILL_a未満であると(ステップST2;YES)、環境推定部5は、この比較判定の結果に基づいて、図3に示した平均照度と照度状態との対応関係を示すデータを参照することで、自車の周辺環境(空)は暗いと推定し、この推定結果を車両信号制御部6に出力する(ステップST5)。
車両信号制御部6は、自車の周辺環境(空)が暗いことを示す照度状態(低)の推定結果を受けると、この推定結果に基づいて、図3に示す照度状態と車両信号の内容との対応関係を示すデータを参照することにより、車両ライトを点灯する車両信号を車両ECUに出力する。車両ECUは、車両信号制御部6からの車両信号に従って、車両イルミネーションをオンする(ステップST6)。
ステップST4又はステップST6の処理を完了すると、ステップST1に戻り、上記処理を繰り返して空の明暗の変化を監視し、この変化に応じた車載機器(車両ライト)の制御を行う。
なお、ステップST2の環境推定処理において、閾値ILL_aを平均照度Eに関する第1の閾値とし、この閾値ILL_aより小さい値の閾値ILL_bを第2の閾値としてを設け、第1及び第2の閾値で規定される照度範囲を用いて、より詳細に明暗を推定するようにしてもよい。
例えば、平均照度Eが閾値ILL_a以上の場合には、自車の周辺環境(空)が明るいと推定し、自車の全ての車両ライトを消灯する。平均照度Eが閾値ILL_b未満である場合は、自車の周辺環境(空)が暗いと推定し、車両ライトのうち、ヘッドライトを点灯する。また、平均照度Eが閾値ILL_a未満で閾値ILL_b以上の場合には、自車の周辺環境(空)がやや明るいと推定し、車両ライトのうち、スモールライトを点灯する。
以上のように、この実施の形態1によれば、車両カメラで撮像されたカメラ画像を複数の画像領域に分割する画像領域分割部3と、画像領域分割部3に分割された複数の画像領域のうち、空が撮像されている画像領域から、当該画像領域の特徴を示す画像情報を抽出するカメラ画像情報抽出部4と、カメラ画像情報抽出部4によって抽出された画像情報に基づいて、画像領域の特徴と周辺環境の天候又は明暗との対応関係を示す対応データを参照することにより、周辺環境の天候又は明暗を推定する環境推定部5とを備える。
特に、カメラ画像情報抽出部4が、空が撮像されている画像領域から、その輝度情報を抽出し、環境推定部5が、カメラ画像情報抽出部4によって抽出された輝度情報に基づいて、画像領域の輝度情報と周辺環境の明暗との対応関係を示す対応データを参照することにより、周辺環境の明暗を推定する。
このように、車両に固定設置された車両カメラのカメラ画像を分割した複数の画像領域のうち、被写体に空を含む画像領域は、一定位置の画像領域として特定できることから、この画像領域の平均照度Eを用いれば、自車の周辺環境の明暗の推定が可能である。これにより、専用の照度センサや画像認識用チップが不要であり、簡易な構成で自車の周辺環境を推定できる。
実施の形態2.
図5は、この発明の実施の形態2による環境推定装置を用いた車両制御装置の構成を示すブロック図である。図5において、実施の形態2の車両制御装置1Aは、車載機器の動作を制御する制御装置であり、環境推定装置2a及び車両信号制御部6を備える。また、環境推定装置2aは、車両カメラで撮像されたカメラ画像から当該車両の周辺環境を推定する装置であり、画像領域分割部3、カメラ画像情報抽出部4a及び環境推定部5aを備える。なお、図5において、図1と同一構成要素には同一符号を付して説明を省略する。
カメラ画像情報抽出部4aは、画像領域分割部3によって複数に分割された画像領域からカメラ画像情報を抽出する構成部であり、単一領域色情報抽出部42を有する。単一領域色情報抽出部42は、画像領域分割部3により得られた複数の画像領域のうち、被写体に空を含む画像領域から、当該画像領域内の画素の色相を平均した平均色相H、画素の彩度を平均した平均彩度S及び画素の明度を平均した平均明度Vを、色情報として抽出する構成部である。
環境推定部5aは、カメラ画像情報抽出部4aで抽出されたカメラ画像情報から自車の周辺環境を推定する構成部である。実施の形態2では、環境推定部5aが、単一領域色情報抽出部42によって抽出された被写体に空を含む画像領域の平均色相H、平均彩度S、平均明度Vと、これらに関する所定の閾値との大小比較の結果から、自車が位置する場所の周辺環境を推定する。
次に動作について説明する。
図6は、実施の形態2による環境推定及び車両制御の流れを示すフローチャートである。この図に沿って環境推定処理と車両制御処理の詳細を説明する。なお、装置の構成については、図5を参照する。
先ず、カメラ画像情報抽出部4aの単一領域色情報抽出部42が、画像領域分割部3により得られた複数の画像領域のうち、被写体に空を含む画像領域から、当該画像領域内の画素の色相を平均した平均色相H、画素の彩度を平均した平均彩度S及び画素の明度を平均した平均明度Vを検出する(ステップST1a)。ここでは、車両カメラのカメラ画像のうち、上記実施の形態1で示した図2の上部矩形領域(Y=1)が、被写体に空を含む画像領域として特定される。
環境推定部5aは、単一領域色情報抽出部42から、被写体に空を含む画像領域の平均色相H、平均彩度S及び平均明度Vを入力すると、平均色相Hが所定の色相範囲H_a(170度より大きく250度より小さい色相範囲)であるか否かを判定する(ステップST2a−1)。また、環境推定部5aは、平均彩度Sが所定の彩度閾値S_a(図6の例では50)より大きいか否かを判定する(ステップST2a−2)。さらに、環境推定部5aは、平均明度Vが所定の明度閾値V_a(図6の例では30)より大きいか否かを判定する(ステップST2a−3)。
平均色相Hが所定の色相範囲H_aにはない場合(ステップST2a−1;NO)、環境推定部5aは、この比較判定の結果に基づいて、予め設定された平均色相と色状態との対応関係を示すデータを参照することで、自車の周辺環境(空)は青くないと推定して、この推定結果を車両信号制御部6に出力する(ステップST3a−1)。
また、平均彩度Sが所定の彩度閾値S_aより大きくない場合(ステップST2a−2;NO)、環境推定部5aは、この比較判定の結果に基づいて、予め設定された平均彩度と色状態との対応関係を示すデータを参照することで、自車の周辺環境(空)は霞んでいると推定して、この推定結果を車両信号制御部6に出力する(ステップST3a−2)。
さらに、平均明度Vが所定の明度閾値V_aより大きくない場合(ステップST2a−3;NO)、環境推定部5aは、この比較判定の結果に基づいて、予め設定された平均明度と色状態との対応関係を示すデータを参照することで、自車の周辺環境(空)は暗いと推定し、この推定結果を車両信号制御部6に出力する(ステップST3a−3)。
一方、平均色相Hが所定の色相範囲H_aにある場合(ステップST2a−1;YES)、環境推定部5aは、この比較判定の結果に基づいて、予め設定された平均色相と色状態との対応関係を示すデータを参照することで、自車の周辺環境(空)は青いと推定し、この推定結果を車両信号制御部6に出力する(ステップST4a−1)。
また、平均彩度Sが所定の彩度閾値S_aよりも大きい場合(ステップST2a−2;YES)、環境推定部5aは、この比較判定の結果に基づいて、予め設定された平均彩度と色状態との対応関係を示すデータを参照することで、自車の周辺環境(空)の色彩は、くっきりしていると推定して、この推定結果を車両信号制御部6に出力する(ステップST4a−2)。
さらに、平均明度Vが所定の明度閾値V_aより大きい場合(ステップST2a−3;YES)、環境推定部5aは、この比較判定の結果に基づいて、予め設定された平均明度と色状態との対応関係を示すデータを参照することで、自車の周辺環境(空)は明るいと推定し、この推定結果を車両信号制御部6に出力する(ステップST4a−3)。
車両信号制御部6は、自車の周辺環境(空)が青くない(ステップST3a−1)、あるいは、自車の周辺環境(空)は霞んでいる(ステップST3a−2)との推定結果を受けると、この推定結果に基づいて、予め設定された色状態と車両信号の内容との対応関係を示すデータを参照することで、スモールライトを点灯させる車両信号を車両ECUに出力する。これにより、車両ECUは、車両信号制御部6からの車両信号に従って、スモールライトを点灯する(ステップST5a)。
また、車両信号制御部6は、自車の周辺環境(空)が青く(ステップST4a−1)、かつ自車の周辺環境(空)の色彩がくっきりしており(ステップST4a−2)、かつ自車の周辺環境(空)は明るい(ステップST4a−3)との推定結果を受けると、この推定結果に基づいて、予め設定された色状態と車両信号の内容との対応関係を示すデータを参照することで、車両ライトを消灯させる車両信号を車両ECUに出力する。車両ECUは、車両信号制御部6からの車両信号に従って車両ライトを消灯する(ステップST6a)。
さらに、車両信号制御部6は、自車の周辺環境(空)が暗い(ステップST3a−3)という推定結果を受けると、この推定結果に基づいて、予め設定された色状態と車両信号の内容との対応関係を示すデータを参照することで、ヘッドライトを点灯させる車両信号を車両ECUに出力する。車両ECUは、車両信号制御部6からの車両信号に従って、ヘッドライトを点灯する(ステップST7a)。
ステップST5a、ステップST6a又はステップST7aの処理を完了すると、ステップST1aに戻り、上記処理を繰り返して自車の周辺環境の変化を監視し、この変化に応じた車載機器(車両ライト)の制御を行う。
なお、ステップST2a−1〜2a−3の環境推定処理において、平均色相H、平均彩度S及び平均明度Vについての各閾値を組み合わせた判定範囲を設定して、周囲環境の状態をより詳細に推定するようにしてもよい。
図7は、画像領域の色相、色調及び色状態と周辺環境及び車両ライトへの車両信号の内容との対応関係の一例を示す図である。図7の例では、被写体に空を含む画像領域(上部矩形領域(Y=1))の平均色相Hが所定の色相範囲H_aにあり、かつその平均彩度Sが所定の彩度閾値S_aよりも大きく、かつその平均明度Vが所定の明度閾値V_aよりも大きい場合、自車の周辺環境(空)が青い色状態であると判断して、自車の周辺環境が昼で天気(晴れ)であると推定し、車両ライトを消灯する。
被写体に空を含む画像領域の平均色相Hが所定の色相範囲H_aにあり、かつその平均彩度Sが所定の彩度閾値S_aよりも大きいが、その平均明度Vが所定の明度閾値V_a以下であると、自車の周辺環境(空)が黒い色状態であると判断して、自車の周辺環境が夜であると推定し、車両ライト(ヘッドライト)を点灯する。
また、被写体に空を含む画像領域の平均色相Hが所定の色相範囲H_aにあるが、その平均彩度Sが所定の彩度閾値S_a以下であり、その平均明度Vが所定の明度閾値V_aよりも大きい場合は、自車の周辺環境(空)が灰色の色状態であると判断して、自車の周辺環境が昼で曇天であると推定し、車両ライト(スモールライト)を点灯する。
さらに、被写体に空を含む画像領域の平均色相Hが所定の色相範囲H_aにあるが、その平均彩度Sが所定の彩度閾値S_a以下、かつその平均明度Vが所定の明度閾値V_a以下である場合、自車の周辺環境(空)が黒い色状態にあると判断して、自車の周辺環境が夜であると推定し、車両ライト(ヘッドライト)を点灯する。
被写体に空を含む画像領域の平均色相Hが所定の色相範囲H_aになく、かつその平均彩度Sが所定の彩度閾値S_aよりも大きく、その平均明度Vが所定の明度閾値V_aよりも大きい場合、自車の周辺環境(空)が橙色の色状態であると判断して、自車の周辺環境が夕方で天気(晴れ)であると推定し、車両ライト(スモールライト又はヘッドライト)を点灯する。
被写体に空を含む画像領域の平均色相Hが所定の色相範囲H_aになく、かつその平均彩度Sが所定の彩度閾値S_aよりも大きいが、その平均明度Vが所定の明度閾値V_a以下であると、自車の周辺環境(空)が黒い色状態であると判断して、自車の周辺環境が夜であると推定し、車両ライト(ヘッドライト)を点灯する。
また、被写体に空を含む画像領域の平均色相Hが所定の色相範囲H_aになく、その平均彩度Sが所定の彩度閾値S_a以下であり、その平均明度Vが所定の明度閾値V_aよりも大きい場合には、自車の周辺環境(空)が赤灰色の色状態であると判断して、自車の周辺環境が夕方で曇天であると推定し、車両ライト(スモールライト又はヘッドライト)を点灯する。
さらに、被写体に空を含む画像領域の平均色相Hが所定の色相範囲H_aになく、その平均彩度Sが所定の彩度閾値S_a以下かつその平均明度Vが所定の明度閾値V_a以下である場合、自車の周辺環境(空)が黒い色状態にあると判断して、自車の周辺環境が夜であると推定し、車両ライト(ヘッドライト)を点灯する。
以上のように、この実施の形態2によれば、カメラ画像情報抽出部4aが、空が撮像されている画像領域の色情報を抽出し、環境推定部5aが、カメラ画像情報抽出部4aによって抽出された色情報に基づいて、画像領域の色情報と周辺環境の天候及び明暗との対応関係を示す対応データを参照することにより、周辺環境の天候及び明暗を推定する。このように、車両に固定設置された車両カメラのカメラ画像を分割した複数の画像領域のうち、被写体に空を含む画像領域は一定位置の画像領域として特定できることから、この画像領域の平均色相H、平均彩度S及び平均明度Vを用いて自車の周辺環境を推定することから、専用センサや画像認識用チップが不要であり、簡易な構成で自車の周辺環境を推定できる。
実施の形態3.
図8は、この発明の実施の形態3による環境推定装置を用いた車両制御装置の構成を示すブロック図である。図8において、実施の形態3の車両制御装置1Bは、車載機器の動作を制御する制御装置であり、環境推定装置2b及び車両信号制御部6を備える。また、環境推定装置2bは、車両カメラで撮像されたカメラ画像から当該車両の周辺環境を推定する装置であり、画像領域分割部3、カメラ画像情報抽出部4b及び環境推定部5bを備える。なお、図8において、図1と同一構成要素には同一符号を付して説明を省略する。
カメラ画像情報抽出部4bは、画像領域分割部3によって複数に分割された画像領域からカメラ画像情報を抽出する構成部であり、複数領域輝度情報抽出部43を有する。複数領域輝度情報抽出部43は、画像領域分割部3により得られた複数の画像領域を上部、中部、下部の3つの画像領域に区画して、上部、中部、下部に区画された各画像領域内の画素の照度をそれぞれ平均した平均照度E1,E2,E3を、輝度情報として抽出する構成部である。
なお、上部、中部、下部に区画された3つの画像領域とは、上記実施の形態1で示した図2の上部矩形領域(Y=1)、中部矩形領域(Y=2)、下部矩形領域(Y=3)に相当するものである。以降の説明では、複数領域輝度情報抽出部43が、上部矩形領域(Y=1)、中部矩形領域(Y=2)、下部矩形領域(Y=3)から、平均照度E1,E2,E3を求めるものとする。
環境推定部5bは、カメラ画像情報抽出部4bで抽出されたカメラ画像情報から自車の周辺環境を推定する構成部である。実施の形態3では、環境推定部5bが、複数領域輝度情報抽出部43によって抽出された上部、中部、下部に区画された画像領域の各平均照度E1,E2,E3とこれらに関する所定の閾値との大小比較の結果から、自車が位置する場所の周辺環境を推定する。
図9は、実施の形態3における、各矩形画像領域の平均照度の関係と周辺環境及び車両信号の内容との対応関係の一例を示す図である。図9において、上部矩形領域(Y=1)、中部矩形領域(Y=2)及び下部矩形領域(Y=3)の平均照度E1,E2,E3がとり得る値の関係と環境推定の内容との対応関係を示すデータは、環境推定部5bに設定される。また、図9に示す環境推定の内容と車両信号の内容との対応関係を示すデータは、車両信号制御部6に設定される。
例えば、環境推定の内容が昼であり、かつ雨でない場合(昼快晴、昼晴れ、昼曇り)には、車両ライトの点灯を指示する車両信号ILLがオフ、ワイパーの駆動を指示する車両信号がオフ、フォグライトの点灯を指示する車両信号がオフとなる。
環境推定の内容が昼であるが、霧の場合には、車両ライトのうち、スモールライトの点灯を指示する車両信号ILLがオンとなり、ワイパーの駆動を指示する車両信号がオフ、フォグライトの点灯を指示する車両信号がオンとなる。
環境推定の内容が夜であり、かつ雨でない場合は、車両ライト(ヘッドライト)の点灯を指示する車両信号ILLがオン、ワイパーの駆動を指示する車両信号がオフ、フォグライトの点灯を指示する車両信号がオフとなる。また、環境推定の内容が夜で雨の場合は、これに加えてワイパーの駆動を指示する車両信号がオンとなる。
環境推定の内容が昼であり、かつ雨の場合には、車両ライトのうち、スモールライトの点灯を指示する車両信号ILLがオンとなり、ワイパーの駆動を指示する車両信号がオン、フォグライトの点灯を指示する車両信号がオフとなる。
次に動作について説明する。
図10は、実施の形態3による環境推定及び車両制御の流れを示すフローチャートである。この図に沿って環境推定処理と車両制御処理の詳細を説明する。なお、装置の構成については、図8を参照する。
先ず、カメラ画像情報抽出部4bの複数領域輝度情報抽出部43が、画像領域分割部3により得られた複数の画像領域のうち、上部矩形領域(Y=1)、中部矩形領域(Y=2)及び下部矩形領域(Y=3)から、上部矩形領域(Y=1)の平均照度E1、中部矩形領域(Y=2)の平均照度E2、下部矩形領域(Y=3)の平均照度E3を検出する(ステップST1b)。
次に、環境推定部5bは、複数領域輝度情報抽出部43から、上部矩形領域(Y=1)の平均照度E1、中部矩形領域(Y=2)の平均照度E2、下部矩形領域(Y=3)の平均照度E3を入力すると、平均照度E2が平均照度E3よりも大きくなく、かつ平均照度E1が平均照度E2,E3のいずれよりも大きい照度関係(E2>E3ではなく、E1>E2,E3)にあるか否かを判定する(ステップST2b)。
この照度関係にあれば(ステップST2b;YES)、環境推定部5bは、この判定結果に基づいて、予め設定された平均照度の関係と環境推定の内容との対応関係を示すデータを参照することで、自車の周辺環境は昼で晴れであると推定し、この推定結果を車両信号制御部6に出力する(ステップST3b)。
一方、この照度関係にない場合(ステップST2b;NO)、環境推定部5bは、平均照度E1が平均照度E2,E3のいずれよりも大きく、かつ平均照度E2が平均照度E3よりも大きい照度関係(E1>E2,E3かつE2>E3)にあるか否かを判定する(ステップST4b)。
ここで、E1>E2,E3かつE2>E3の照度関係にある場合(ステップST4b;YES)、環境推定部5bは、この判定結果に基づいて、予め設定された平均照度の関係と環境推定の内容との対応関係を示すデータを参照することにより、自車の周辺環境は昼で曇りであると推定し、この推定結果を車両信号制御部6に出力する(ステップST5b)。
また、E1>E2,E3かつE2>E3の照度関係にない場合(ステップST4b;NO)、環境推定部5bは、平均照度E1,E3のいずれも平均照度E2よりも大きいか、又は平均照度E1,E2,E3がほぼ同一の値である照度関係(E1,E3>E2、又はE1≒E2≒E3)にあるか否かを判定する(ステップST6b)。
この照度関係にあれば(ステップST6b;YES)、環境推定部5bは、この判定結果に基づいて、予め設定された平均照度の関係と環境推定の内容との対応関係を示すデータを参照することで、自車の周辺環境は霧であると推定し、この推定結果を車両信号制御部6に出力する(ステップST7b)。
一方、この照度関係にない場合(ステップST6b;NO)、環境推定部5bは、平均照度E3が平均照度E1よりも大きくなく、かつ平均照度E2が平均照度E1,E3のいずれよりも大きい照度関係(E3>E1でなく、E2>E1,E3)にあるか否かを判定する(ステップST8b)。
ここで、E3>E1でなく、E2>E1,E3の照度関係にある場合(ステップST8b;YES)、環境推定部5bは、この判定結果に基づいて、予め設定された平均照度の関係と環境推定の内容との対応関係を示すデータを参照することで、自車の周辺環境は夜であると推定し、この推定結果を車両信号制御部6に出力する(ステップST9b)。
E3>E1でなく、E2>E1,E3の照度関係にない場合(ステップST8b;NO)、環境推定部5bは、平均照度E2が平均照度E1,E3のいずれよりも大きく、かつ平均照度E3が平均照度E1よりも大きい照度関係(E2>E1,E3、かつE3>E1)にあるか否かを判定する(ステップST10b)。
この照度関係にあれば(ステップST10b;YES)、環境推定部5bは、この判定結果に基づいて、予め設定された平均照度の関係と環境推定の内容との対応関係を示すデータを参照することで、自車の周辺環境は夜で雨であると推定し、この推定結果を車両信号制御部6に出力する(ステップST11b)。
一方、この照度関係にない場合(ステップST10b;NO)、環境推定部5bは、平均照度E2が平均照度E1よりも大きくなく、かつ平均照度E3が平均照度E1,E2のいずれよりも大きい照度関係(E2>E1でなく、E3>E1,E2)にあるか否かを判定する(ステップST12b)。
ここで、E2>E1でなく、かつE3>E1,E2の照度関係にある場合(ステップST12b;YES)、環境推定部5bは、この判定結果に基づいて、予め設定された平均照度の関係と環境推定の内容との対応関係を示すデータを参照することにより、自車の周辺環境は雨であると推定して、この推定結果を車両信号制御部6に出力する(ステップST13b)。
E2>E1でなく、かつE3>E1,E2の照度関係になければ(ステップST12b;NO)、ステップST1bに戻り、上記処理を繰り返して自車の周辺環境の変化を監視し、この変化に応じた車載機器の制御を行う。
車両信号制御部6は、自車の周辺環境が昼で晴れ(ステップST3b)、あるいは自車の周辺環境が昼で曇り(ステップST5b)、自車の周辺環境が霧(ステップST7b)、自車の周辺環境が夜(ステップST9b)という推定結果を受けると、この推定結果に基づいて、予め設定された環境推定の内容と車両信号の内容との対応関係を示すデータを参照することで、ワイパーを停止させる車両信号を車両ECUに出力する。車両ECUは、車両信号制御部6からの車両信号に従いワイパーを停止する(ステップST14b)。
また、車両信号制御部6は、自車の周辺環境が昼で曇り(ステップST5b)との推定結果を受けると、この推定結果に基づいて、予め設定された環境推定の内容と車両信号の内容との対応関係を示すデータを参照することで、車両ライトを消灯させる車両信号を車両ECUに出力する。車両ECUは、車両信号制御部6からの車両信号に従い、車両ライトを消灯する(ステップST15b)。
さらに、車両信号制御部6は、自車の周辺環境が霧(ステップST7b)という推定結果を受けると、この推定結果に基づいて、予め設定された環境推定の内容と車両信号の内容との対応関係を示すデータを参照することで、フォグライトを点灯させる車両信号を車両ECUに出力する。車両ECUは、車両信号制御部6からの車両信号に従い、フォグライトを点灯する(ステップST16b)。
また、車両信号制御部6は、自車の周辺環境が夜(ステップST9b)であるか、あるいは自車の周辺環境が夜で雨(ステップST11b)という推定結果を受けると、この推定結果に基づいて、予め設定された環境推定の内容と車両信号の内容との対応関係を示すデータを参照することで、車両ライトを消灯させる車両信号を車両ECUに出力する。車両ECUは、車両信号制御部6からの車両信号に従い、車両ライトのうち、ヘッドライトを点灯する(ステップST17b)。
車両信号制御部6は、自車の周辺環境が夜で雨(ステップST11b)、あるいは自車の周辺環境が雨(ステップST13b)という推定結果を受けると、この推定結果に基づいて、予め設定された環境推定の内容と車両信号の内容との対応関係を示すデータを参照することで、ワイパーを駆動させる車両信号を車両ECUに出力する。車両ECUは、車両信号制御部6からの車両信号に従い、ワイパーを駆動する(ステップST18b)。
また、車両信号制御部6は、自車の周辺環境が雨(ステップST13b)という推定結果を受けると、この推定結果に基づいて、予め設定された環境推定の内容と車両信号の内容との対応関係を示すデータを参照することで、スモールライトを点灯させる車両信号を車両ECUに出力する。車両ECUは、車両信号制御部6からの車両信号に従い、スモールライトを消灯する(ステップST19b)。
ステップST14b、ステップST15b、ステップST16b、ステップST17b、ステップST18b又はステップST19bの処理を完了すると、ステップST1bに戻り、環境推定部5bは、上記処理を繰り返して自車の周辺環境の変化を監視して、この変化に応じた車載機器の制御を行う。
以上のように、この実施の形態3によれば、カメラ画像情報抽出部4bが、画像領域分割部3に分割された複数の画像領域のうち、少なくとも空が撮像されている画像領域を含む上部画像領域(Y=1)、及び地面が撮像されている下部画像領域(Y=3)の輝度情報をそれぞれ抽出し、環境推定部5bが、カメラ画像情報抽出部4bによって抽出された各輝度情報に基づいて、各画像領域の輝度情報と周辺環境の天候及び明暗との対応関係を示す対応データを参照することにより、周辺環境の天候及び明暗を推定する。
このように、車両に固定設置された車両カメラのカメラ画像を、上部矩形領域(Y=1)、中部矩形領域(Y=2)及び下部矩形領域(Y=3)の3つの画像領域に区画しておき、各画像領域の平均照度E1,E2,E3の関係を用いて自車の周辺環境を推定することから、専用センサや画像認識用チップが不要であり、簡易な構成で自車の周辺環境を推定できる。
実施の形態4.
実施の形態4は、車両カメラで撮像されたカメラ画像上のマーカーの形状が変化したか否かに応じて、自車の周辺環境を推定する。具体的には、車両カメラの投影面上の被写体の像が変化した場合に、当該車両カメラのカメラレンズ上の雨滴や雨膜によって光の反射や屈折が発生したと判断して自車の周辺が雨天であると推定する。
図11は、雨滴による投影面上の被写体の変化を説明するための図である。図11(a)に示すように、カメラレンズ7の表面上に雨滴や雨膜がない場合には、カメラレンズ7における光の屈折現象によって、被写体S0は、車両カメラ内の投影面に像S1を結ぶ。実施の形態4では、車両カメラの撮像範囲内に含まれる車体の一部に特定形状のマーカーを設け、このマーカーの形状を示す被写体形状データを予め用意しておく。
自車の周辺が雨になって、図11(b)に示すように、カメラレンズ7上に雨滴や雨膜のような光を屈折させる異物8が付着すると、カメラレンズ7での屈折に加え、異物8での屈折も起こることから、被写体S0は、車両カメラ内の投影面において、図11(a)とは異なる像S2を結ぶ。この場合、カメラ画像上で被写体S0の形状が変化する。
従って、カメラ画像におけるマーカーが、予め用意した被写体形状データで規定される形状から変化した場合には、自車の周辺が雨天であると判断できる。
図12は、この発明の実施の形態4による環境推定装置を用いた車両制御装置の構成を示すブロック図であり、図1と同一構成要素には同一符号を付して説明を省略する。図12において、実施の形態4の車両制御装置1Cは、車載機器の動作を制御する制御装置であり、環境推定装置2c及び車両信号制御部6を備える。
また、環境推定装置2cは、車両カメラで撮像されたカメラ画像から当該車両の周辺環境を推定する装置であり、画像領域分割部3、カメラ画像情報抽出部4c及び環境推定部5cを備える。なお、この実施の形態4では、車体の一部が撮像範囲内に含まれるように車両カメラを固定設置しておき、当該車体の一部に特定形状のマーカーを設ける。
カメラ画像情報抽出部4cは、画像領域分割部3によって複数に分割された画像領域からカメラ画像情報を抽出する構成部であり、被写体形状抽出部44、被写体形状判定部45及び特定形状記憶部46を有する。
被写体形状抽出部44は、画像領域分割部3により得られた複数の画像領域から、特定形状のマーカーを設けた車体の一部が撮像されている画像領域を特定し、この画像領域でのマーカーの形状を抽出する構成部である。
被写体形状判定部45は、被写体形状抽出部44に抽出された画像領域でのマーカーの形状と、特定形状記憶部46に記憶される特定形状データが示す形状とが一致するか否かを判定する構成部であり、この形状判定結果をカメラ画像情報であるものとして環境推定部5cへ出力する。
特定形状記憶部46は、車両カメラのカメラレンズに光の屈折を生じる雨滴等の異物がない状態における、カメラ画像でのマーカーの形状を示す特定形状データを記憶する記憶部である。
環境推定部5cは、カメラ画像情報抽出部4cから入力したカメラ画像情報から自車の周辺環境を推定する構成部である。実施の形態4では、環境推定部5cが、被写体形状判定部45による形状判定の結果から、自車が位置する場所の周辺環境を推定する。
すなわち、画像領域でのマーカーの形状と特定形状データが示す形状とが一致しなければ、車両カメラのカメラレンズ7に雨滴や雨膜のような異物8が付着しており、自車の周辺が、異物8を付着させるような例えば雨天であると推定する。
また、画像領域でのマーカーの形状と特定形状データが示す形状とが一致していれば、自車の周辺が、雨ではなく、カメラレンズ7に異物8が付着しない天候であると推定される。
図13は、実施の形態4によるカメラ画像の分割処理の一例を示す図である。図13に示すカメラ画像は、水平画角180度及び垂直画角150度のカメラを、車両幅の中央で、取り付け高さ500mm、取り付け水平角度0度、取り付け垂直角度45度で、車両の後方が撮像範囲になるように車両に固定設置したリアカメラにより撮像された画像である。図13の例では、画像領域分割部3が、カメラ画像を表示した画面の水平方向(左右方向)にX軸を割り当て、垂直方向(上下方向)にY軸を割り当てて、X軸方向に所定のサイズで3つに区画し、Y軸方向に所定のサイズで4つに区画することにより、画像領域(XY=11〜34)を規定している。すなわち、カメラ画像のX軸方向を、左矩形領域(X=1)、中央矩形領域(X=2)、右矩形領域(X=3)に3分割し、Y軸方向を、上部矩形領域(Y=1)、中部矩形領域(Y=2)、下部矩形領域(Y=3)、及び最下部矩形領域(Y=4)に4分割することにより、全部で12個の画像領域に分割している。
ここで、図13は、自車が都市を走行しているときのカメラ画像を示しており、車両カメラの被写体には、都市の建造物や樹木等の“地物”、自然風景である“空”、走行道路を示す“地面”、特定形状のマーカーS0を設けた車体の一部9である“ボディ”が含まれる。なお、この車体の一部9としては、例えばバンパーやナンバープレートが挙げられる。
各画像領域での主な被写体は、領域(XY=11)では建物の一部と空が主に映っていることから“地物と空”であり、領域(XY=21)では“空”、領域(XY=31)では樹木と空が主に映っているので“地物と空”である。また、領域(XY=12)では“地物”、領域(XY=22)も“地物”、領域(XY=32)でも“地物”であり、領域(XY=13)では“地物と地面”、領域(XY=23)では“地面”、領域(XY=33)では“地物と地面”である。さらに、領域(XY=14)、領域(XY=24)、領域(XY=34)では“ボディ”である。
また、自車が山間部を走行したときの車両カメラの被写体には、自然風景である“山”、“空”、走行道路を示す“地面”、車体の一部9である“ボディ”が含まれる。
例えば、山道を走行し、自車の進行方向に山が遠目で見える場合、各画像領域での主な被写体は、領域(XY=11)では“山と空”、領域(XY=21)で“空”、領域(XY=31)で“山と空”である。また、領域(XY=12)で“山”、領域(XY=22)で“山と空”、領域(XY=32)でも“山と空”であり、領域(XY=13)で“地面”、領域(XY=23)で“地面”、領域(XY=33)で“地面”である。さらに、領域(XY=14)、領域(XY=24)、領域(XY=34)では“ボディ”である。
さらに、自車が都市以外の平野(建物がない草原など)を走行したときの車両カメラの被写体には、自然風景である草原などの“平野”、“空”、走行道路を示す“地面”が含まれる。例えば、平野を抜ける道路を走行している場合、各画像領域での主な被写体は、領域(XY=11)で“空”、領域(XY=21)で“空”、領域(XY=31)で“空”であり、領域(XY=12)で“平野”、領域(XY=22)で“平野と空”、領域(XY=32)では“平野”であり、領域(XY=13)で“地面”、領域(XY=23)で“地面”、領域(XY=33)で“地面”である。領域(XY=14)、領域(XY=24)、領域(XY=34)では“ボディ”である。
このように、特定形状のマーカーS0を設けた車体の一部9を視野に含むように車両カメラを固定設置することにより、自車が屋外を走行して撮像を連続的又は周期的に繰り返せば、少なくとも被写体に車体の一部9が含まれる。例えば、図13では、最下部矩形領域(Y=4)に被写体に車体の一部9が含まれている。
そこで、この実施の形態4では、最下部矩形領域(Y=4)における画像領域(XY=14,24,34)の画像領域を、車体の一部9を含む画像領域として規定する。また、画像領域(XY=24)を被写体に特定形状のマーカーS0を含む画像領域と規定する。
次に動作について説明する。
図14は、実施の形態4による環境推定及び車両制御の流れを示すフローチャートである。この図に沿って環境推定処理と車両制御処理の詳細を説明する。なお、装置の構成については、図12を参照する。
先ず、カメラ画像情報抽出部4cの被写体形状抽出部44が、画像領域分割部3により得られた複数の画像領域の中から被写体に車体の一部9を含む矩形画像領域を特定して、この矩形画像領域から、マーカーS0を被写体に含む画像領域を抽出する(ステップST1c)。ここでは、車両カメラのカメラ画像のうち、図13の最下部矩形領域(Y=4)に相当する画像領域が、被写体に車体の一部9を含む矩形画像領域として特定され、最下部矩形領域(Y=4)中の画像領域(XY=24)が被写体にマーカーS0を含む画像領域として抽出される。
次に、被写体形状判定部45が、被写体形状抽出部44により抽出されたマーカーS0を被写体に含む画像領域(XY=24)に対して、特定形状記憶部46から読み出した特定形状データを用いて形状認識処理を実施することにより、画像領域(XY=24)中のマーカーS0の形状が、特定形状データが示す形状と一致するか否かを判定する(ステップST2c)。この形状判定結果は、被写体形状判定部45から環境推定部5cへ出力される。
環境推定部5cは、被写体形状判定部45から、マーカーS0の形状と特定形状データの形状とが一致しない旨の形状判定結果を受けると(ステップST2c;NO)、自車の周辺環境が雨であると推定して、この推定結果を車両信号制御部6に出力する(ステップST3c)。
車両信号制御部6は、自車の周辺環境が雨であることを示す推定結果を受けると、従前にワイパーが駆動していなければ、この推定結果に基づいて、ワイパーを駆動させる車両信号を車両ECUに出力する。これにより、車両ECUは、車両信号制御部6からの車両信号に従って、ワイパーを駆動させる(ステップST4c)。
一方、マーカーS0の形状と特定形状データの形状とが一致する旨の形状判定結果を受けると(ステップST2c;YES)、環境推定部5cは、自車の周辺環境が雨以外の天候であると推定し、この推定結果を車両信号制御部6に出力する(ステップST5c)。
車両信号制御部6は、この推定結果を受けると、従前にワイパーを駆動させていれば、ワイパーを停止する車両信号を車両ECUに出力する。車両ECUは、車両信号制御部6からの車両信号に従って、ワイパーを停止する(ステップST6c)。
ステップST4c又はステップST6cの処理が完了すると、再びステップST1cに戻り、上記処理を繰り返して天候の変化を監視し、この変化に応じた車載機器の制御を行う。
以上のように、この実施の形態4によれば、車両カメラで撮像されたカメラ画像を複数の画像領域に分割する画像領域分割部3と、画像領域分割部3に分割された複数の画像領域のうち、特定の形状を有するマーカーS0が撮像されている画像領域を抽出するカメラ画像情報抽出部4cと、カメラ画像情報抽出部4cによって抽出されたマーカーS0が撮像されている画像領域での当該マーカーS0の形状と、予め用意した当該マーカーS0の形状を示す特定形状データとが一致するか否かに応じて、周辺環境の天候を推定する環境推定部5cとを備える。このように、車両に固定設置された車両カメラのカメラ画像から、特定形状のマーカーS0を被写体に含む画像領域を特定し、この画像領域でのマーカーS0の形状と予め用意した特定形状データの形状とが一致するか否かに応じて自車の周辺環境を推定することから、専用センサや画像認識用チップが不要であり、簡易な構成で自車の周辺環境を推定できる。
上記実施の形態1〜4では、本発明に係る環境推定装置を、車載機器等を制御する車両制御装置に適用した場合を示したが、被写体に周辺環境の変化を特定できる空などを含むカメラ画像が得られるシステムであれば適用可能である。例えば、屋外を監視対象とする監視カメラシステムにおいて、空を被写体を含むようにカメラが固定設置されていれば、カメラ画像のみから監視対象の周辺環境を推定することができる。
なお、本願発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。
この発明に係る環境推定装置は、簡易な構成でカメラ画像から撮像対象の周辺環境を推定できることから、車両カメラを搭載した車両の車載機器の動作を制御する車両制御装置に好適である。
1,1A,1B,1C 車両制御装置、2,2a,2b,2c 環境推定装置、3 画像領域分割部、4,4a,4b,4c カメラ画像情報抽出部(情報抽出部)、5,5a,5b,5c 環境推定部、6 車両信号制御部、7、カメラレンズ、8 異物、9 車両の一部、41 単一領域輝度情報抽出部、42 単一領域色情報抽出部、43 複数領域輝度情報抽出部、44 被写体形状抽出部、45 被写体形状判定部、46 特定形状記憶部46。
この発明は、車両等に固定設置されたカメラで撮像したカメラ画像を基に当該車両等の周辺環境を推定する環境推定装置及びこの装置を用いた車両制御装置に関する。
車両に固定設置された車両カメラは、カメラ画像から車外の障害物の発見や駐車支援等に利用される。また、車両カメラのカメラ画像からは、撮像範囲の明るさを示す照度情報が得られ、この照度情報から特定される画面全体の照度によって、車両が位置する場所の明暗を判定することができる。この判定結果を利用すれば、ライトの自動点灯又は消灯が可能である。
例えば、特許文献1には、自車前方を撮像する撮像手段と、撮像手段により撮像された画像に基づいてライト類を点灯又は消灯させるライト制御を行うライト制御手段とを有するオートライト装置が開示されている。この装置では、自車前方の明るさ(cd/m2)が、予め設定されたレベル1(第1基準値)以上である場合には、ライトの消灯が選択され、予め設定されたレベル2(第2基準値)よりも明るく、かつレベル1未満の明るさである場合には、スモールライトの点灯が選択される。そして、レベル2未満の明るさであると、ヘッドライトの点灯が選択される。
特開2010−6172号公報
特許文献1に代表される従来の技術は、カメラ画像中で明るさを判断する領域を自車の走行状態や自車周囲の環境状態に基づいて設定している。このため、自車の走行状態として車速や操舵角度等の車両情報を検出するセンサが必要であり、また、カメラ画像から先行車両の有無や走行車線を認識して自車周囲の環境状態を特定する必要がある。
このように、従来の技術では、車両情報を検出するセンサや特別な画像認識処理チップが必要であり、構成の複雑化や部品点数の増加を招くという課題があった。
この発明は、上記のような課題を解決するためになされたもので、簡易な構成でカメラ画像から撮像対象の周辺環境を推定することができる環境推定装置を得ることを目的とする。また、この発明は、上記環境推定装置で推定された周辺環境に応じた車載機器の動作を制御する車両制御装置を得ることを目的とする。
この発明に係る環境推定装置は、撮像部で撮像された撮像画像を複数の画像領域に分割する画像領域分割部と、画像領域分割部に分割された複数の画像領域のうち、空が撮像されている画像領域から、当該画像領域の特徴を示す画像情報を抽出する情報抽出部と、情報抽出部によって抽出された画像情報に基づいて、画像領域の特徴と周辺環境の天候又は明暗との対応関係を示す対応データを参照することにより、周辺環境の天候又は明暗を推定する環境推定部とを備え、情報抽出部は、空が撮像されている画像領域の彩度及び明度の色情報を常に抽出し、環境推定部は、情報抽出部によって抽出された色情報に基づいて、画像領域の色情報と周辺環境の天候及び明暗との対応関係を示す対応データを参照することにより、周辺環境の天候及び明暗を推定することを特徴とする。
この発明によれば、簡易な構成でカメラ画像から撮像対象の周辺環境を推定することができるという効果がある。
この発明の実施の形態1による環境推定装置を用いた車両制御装置の構成を示すブロック図である。 実施の形態1によるカメラ画像の分割処理の一例を示す図である。 画像領域の平均照度と周辺環境の照度状態及び車両ライトへの車両信号の内容との対応関係を示す図である。 実施の形態1による環境推定及び車両制御の流れを示すフローチャートである。 この発明の実施の形態2による環境推定装置を用いた車両制御装置の構成を示すブロック図である。 実施の形態2による環境推定及び車両制御の流れを示すフローチャートである。 画像領域の色相、色調及び色状態と周辺環境及び車両ライトへの車両信号の内容との対応関係の一例を示す図である。 この発明の実施の形態3による環境推定装置を用いた車両制御装置の構成を示すブロック図である。 各矩形画像領域の平均照度の関係と周辺環境及び車両信号の内容との対応関係の一例を示す図である。 実施の形態3による環境推定及び車両制御の流れを示すフローチャートである。 雨滴や雨膜による投影面上の被写体の変化を説明するための図である。 この発明の実施の形態4による環境推定装置を用いた車両制御装置の構成を示すブロック図である。 実施の形態4によるカメラ画像の分割処理の一例を示す図である。 実施の形態4による環境推定及び車両制御の流れを示すフローチャートである。
以下、この発明をより詳細に説明するため、この発明を実施するための形態について、添付の図面に従って説明する。
実施の形態1.
図1は、この発明の実施の形態1による環境推定装置を用いた車両制御装置の構成を示すブロック図である。図1において、実施の形態1の車両制御装置1は、車載機器の動作を制御する制御装置であり、環境推定装置2及び車両信号制御部6を備える。また、環境推定装置2は、車両カメラ(撮像部)で撮像されたカメラ画像(撮像画像)から当該車両の周辺環境を推定する装置であり、画像領域分割部3、カメラ画像情報抽出部(情報抽出部)4及び環境推定部5を備える。なお、車両カメラは、車外の風景のうち、特定の属性を有する風景の一部(例えば、空)が被写体に含まれる撮像範囲になるように、当該車両に固定設置されたカメラである。
画像領域分割部3は、車両カメラで撮像されたカメラ画像を所定の画像領域に分割する構成部である。例えば、カメラ画像を表示した画面の水平方向(左右方向)にX軸を割り当て、垂直方向(上下方向)にY軸を割り当てて、XY軸方向に所定のサイズで区画することにより、複数の矩形画像領域を規定する。なお、この実施の形態1では、カメラ画像を複数に分割した矩形画像領域の少なくとも1つの矩形画像領域が、空を撮像範囲に含むものとする。つまり、本発明の車両カメラは、所定の垂直画角を有するカメラを、被写体に空が含まれるように、車両への取り付け高さ、取り付け水平角度、取り付け垂直角度、車両幅の中心からの偏移の距離が固定される。
カメラ画像情報抽出部4は、画像領域分割部3によって複数に分割された画像領域からカメラ画像情報を抽出する構成部であり、単一領域輝度情報抽出部41を有する。本発明でいうカメラ画像情報には、カメラ画像の被写体の形状情報、輝度情報及び色情報等が含まれる。単一領域輝度情報抽出部41は、画像領域分割部3により得られた複数の画像領域のうち、被写体に空を含む画像領域から、当該画像領域内の画素の照度を平均した平均照度を、輝度情報として抽出する構成部である。
環境推定部5は、カメラ画像情報抽出部4で抽出されたカメラ画像情報から自車の周辺環境を推定する構成部である。実施の形態1では、環境推定部5が、単一領域輝度情報抽出部41によって抽出された被写体に空を含む画像領域の平均照度と画像の照度に関する所定の閾値との大小比較の結果から、自車が位置する場所の周辺環境が暗いか明るいかを推定する。
車両信号制御部6は、環境推定部5による周辺環境の推定結果に応じて自車の車載機器の動作を制御する構成部である。実施の形態6では、環境推定部5による自車の周辺環境が暗いか明るいかの推定結果に応じて、周辺環境に適応した車両状態となるように車載機器を動作させる車両制御信号を生成する。例えば、自車の周辺環境が暗いと推定された場合には、車両ライトを点灯する車両制御信号を車両ECU(Electric Control Unit)に出力する。車両ECUは、車両制御信号を受けると、当該車両制御信号に該当する車載機器を動作させる。
なお、図1では、実施の形態1の車両制御装置1を車両ECUとは別個の装置として設けた場合を示したが、車両ECUにおける1つの機能構成として設けてもかまわない。
また、画像領域分割部3、カメラ画像情報抽出部4、環境推定部5及び車両信号制御部6は、車両制御装置1又は車両ECUを構成するコンピュータが、本発明の趣旨に従う環境推定及び車両制御用プログラムを実行することにより、ソフトウェアとハードウェアとが協働した具体的手段として実現される。
図2は、実施の形態1によるカメラ画像の分割処理の一例を示す図である。図2に示すカメラ画像は、水平画角180度及び垂直画角150度のカメラを、車両幅の中央で、取り付け高さ200mm、取り付け水平角度0度、取り付け垂直角度30度で、車両の前方方向が撮像範囲になるように車両に固定設置したフロントカメラにより撮像された画像である。図2の例では、画像領域分割部3が、カメラ画像を表示した画面の水平方向(左右方向)にX軸を割り当て、垂直方向(上下方向)にY軸を割り当てて、XY軸方向に所定のサイズでそれぞれ3つに区画することにより、画像領域(XY=11〜33)を規定している。すなわち、カメラ画像のX軸方向を、左矩形領域(X=1)、中央矩形領域(X=2)、右矩形領域(X=3)に3分割し、Y軸方向を、上部矩形領域(Y=1)、中部矩形領域(Y=2)、下部矩形領域(Y=3)に3分割することにより、全部で9つの画像領域に分割している。
ここで、図2は、自車が都市を走行しているときのカメラ画像を示しており、車両カメラの被写体には、都市の建造物や樹木等の“地物”、自然風景である“空”、走行道路を示す“地面”が含まれる。各画像領域での主な被写体は、領域(XY=11)では建物の一部と空が主に映っていることから“地物と空”であり、領域(XY=21)では“空”、領域(XY=31)では樹木と空が主に映っているので“地物と空”である。また、領域(XY=12)では“地物”、領域(XY=22)も“地物”、領域(XY=32)では“地物”であり、領域(XY=13)では“地物と地面”、領域(XY=23)では“地面”、領域(XY=33)で“地物と地面”である。
また、自車が山間部を走行したときの車両カメラの被写体には、自然風景である“山”、“空”、走行道路を示す“地面”が含まれる。例えば、山道を走行し、自車の進行方向に山が遠目で見える場合、各画像領域での主な被写体は、領域(XY=11)では“山と空”、領域(XY=21)で“空”、領域(XY=31)で“山と空”である。また、領域(XY=12)で“山”、領域(XY=22)で“山と空”、領域(XY=32)では“山と空”であり、領域(XY=13)で“地面”、領域(XY=23)で“地面”、領域(XY=33)で“地面”である。
さらに、自車が都市以外の平野(建物がない草原など)を走行したときの車両カメラの被写体には、自然風景である草原などの“平野”、“空”、走行道路を示す“地面”が含まれる。例えば、平野を抜ける道路を走行している場合、各画像領域での主な被写体は、領域(XY=11)で“空”、領域(XY=21)で“空”、領域(XY=31)で“空”であり、領域(XY=12)で“平野”、領域(XY=22)で“平野と空”、領域(XY=32)では“平野”であり、領域(XY=13)で“地面”、領域(XY=23)で“地面”、領域(XY=33)で“地面”である。
このように、撮像方向を極端に地面に向けるようなことをせず、自車の周辺の所定方向の風景を遠目で見渡せる視野を有するように車両カメラを固定設置することにより、自車が屋外を走行して撮像を連続的又は周期的に繰り返せば、少なくとも被写体に空が含まれる場合が多くなる。例えば、図2では、車両より上方の風景が撮像される上部矩形領域(Y=1)に被写体に空が含まれる場合が多い。なお、通常の車両カメラは、自車の前方、後方あるいは側方の風景を遠目で見渡せる視野を有するように取り付けられている。
そこで、実施の形態1では、上部矩形領域(Y=1)における画像領域(XY=11,21,31)のうちの少なくとも1つの画像領域を、被写体に空を含む画像領域として規定する。
図3は、画像領域の平均照度と周辺環境の照度状態及び車両ライトへの車両信号の内容との対応関係を示す図である。図3において、閾値ILL_aは、車両ライトを消灯していてもよい明るさを示す平均照度の下限値であり、環境推定部5に設定される。また、環境推定部5には、図3に示す平均照度と照度状態との対応関係を示すデータが設定されている。さらに、図3に示す照度状態と車両信号の内容との対応関係を示すデータは、車両信号制御部6に設定される。照度状態が“低”、すなわち、自車の周辺が暗い場合には、車両ライトの点灯を指示する車両信号ILLがオンとなり、照度状態が“高”、すなわち自車の周辺が明るい場合は、車両ライトの点灯を指示する車両信号ILLがオフとなる。
次に動作について説明する。
図4は、実施の形態1による環境推定及び車両制御の流れを示すフローチャートである。この図に沿って環境推定処理と車両制御処理の詳細を説明する。なお、装置の構成については、図1を参照する。
先ず、カメラ画像情報抽出部4の単一領域輝度情報抽出部41が、画像領域分割部3により得られた複数の画像領域のうち、被写体に空を含む画像領域(「空」領域)から、当該画像領域内の画素の照度を平均した平均照度Eを検出する(ステップST1)。ここでは、車両カメラのカメラ画像のうち、図2の上部矩形領域(Y=1)に相当する画像領域の一部が、被写体に空を含む画像領域として特定される。以降では、単一領域輝度情報抽出部41が、上部矩形領域(Y=1)のうち、被写体が主に空である領域(XY=21)を被写体に空を含む画像領域として特定し、その平均照度Eを検出した場合を述べる。
環境推定部5は、単一領域輝度情報抽出部41から、被写体に空を含む画像領域(領域(XY=21))の平均照度Eを入力すると、平均照度Eが所定の閾値ILL_a未満であるか否かを判定する(ステップST2)。平均照度Eが所定の閾値ILL_a以上であると(ステップST2;NO)、環境推定部5は、この比較判定の結果に基づいて、図3に示した平均照度と照度状態との対応関係を示すデータを参照することにより、自車の周辺環境(空)は明るいと推定し、この推定結果を車両信号制御部6に出力する(ステップST3)。
車両信号制御部6は、自車の周辺環境(空)が明るいことを示す照度状態(高)の推定結果を受けると、この推定結果に基づいて、図3に示す照度状態と車両信号の内容との対応関係を示すデータを参照することで、車両ライトを消灯させる車両信号を車両ECUに出力する。これにより、車両ECUは、車両信号制御部6からの車両信号に従って、車両イルミネーションをオフする(ステップST4)。
一方、平均照度Eが所定の閾値ILL_a未満であると(ステップST2;YES)、環境推定部5は、この比較判定の結果に基づいて、図3に示した平均照度と照度状態との対応関係を示すデータを参照することで、自車の周辺環境(空)は暗いと推定し、この推定結果を車両信号制御部6に出力する(ステップST5)。
車両信号制御部6は、自車の周辺環境(空)が暗いことを示す照度状態(低)の推定結果を受けると、この推定結果に基づいて、図3に示す照度状態と車両信号の内容との対応関係を示すデータを参照することにより、車両ライトを点灯する車両信号を車両ECUに出力する。車両ECUは、車両信号制御部6からの車両信号に従って、車両イルミネーションをオンする(ステップST6)。
ステップST4又はステップST6の処理を完了すると、ステップST1に戻り、上記処理を繰り返して空の明暗の変化を監視し、この変化に応じた車載機器(車両ライト)の制御を行う。
なお、ステップST2の環境推定処理において、閾値ILL_aを平均照度Eに関する第1の閾値とし、この閾値ILL_aより小さい値の閾値ILL_bを第2の閾値としてを設け、第1及び第2の閾値で規定される照度範囲を用いて、より詳細に明暗を推定するようにしてもよい。
例えば、平均照度Eが閾値ILL_a以上の場合には、自車の周辺環境(空)が明るいと推定し、自車の全ての車両ライトを消灯する。平均照度Eが閾値ILL_b未満である場合は、自車の周辺環境(空)が暗いと推定し、車両ライトのうち、ヘッドライトを点灯する。また、平均照度Eが閾値ILL_a未満で閾値ILL_b以上の場合には、自車の周辺環境(空)がやや明るいと推定し、車両ライトのうち、スモールライトを点灯する。
以上のように、この実施の形態1によれば、車両カメラで撮像されたカメラ画像を複数の画像領域に分割する画像領域分割部3と、画像領域分割部3に分割された複数の画像領域のうち、空が撮像されている画像領域から、当該画像領域の特徴を示す画像情報を抽出するカメラ画像情報抽出部4と、カメラ画像情報抽出部4によって抽出された画像情報に基づいて、画像領域の特徴と周辺環境の天候又は明暗との対応関係を示す対応データを参照することにより、周辺環境の天候又は明暗を推定する環境推定部5とを備える。
特に、カメラ画像情報抽出部4が、空が撮像されている画像領域から、その輝度情報を抽出し、環境推定部5が、カメラ画像情報抽出部4によって抽出された輝度情報に基づいて、画像領域の輝度情報と周辺環境の明暗との対応関係を示す対応データを参照することにより、周辺環境の明暗を推定する。
このように、車両に固定設置された車両カメラのカメラ画像を分割した複数の画像領域のうち、被写体に空を含む画像領域は、一定位置の画像領域として特定できることから、この画像領域の平均照度Eを用いれば、自車の周辺環境の明暗の推定が可能である。これにより、専用の照度センサや画像認識用チップが不要であり、簡易な構成で自車の周辺環境を推定できる。
実施の形態2.
図5は、この発明の実施の形態2による環境推定装置を用いた車両制御装置の構成を示すブロック図である。図5において、実施の形態2の車両制御装置1Aは、車載機器の動作を制御する制御装置であり、環境推定装置2a及び車両信号制御部6を備える。また、環境推定装置2aは、車両カメラで撮像されたカメラ画像から当該車両の周辺環境を推定する装置であり、画像領域分割部3、カメラ画像情報抽出部4a及び環境推定部5aを備える。なお、図5において、図1と同一構成要素には同一符号を付して説明を省略する。
カメラ画像情報抽出部4aは、画像領域分割部3によって複数に分割された画像領域からカメラ画像情報を抽出する構成部であり、単一領域色情報抽出部42を有する。単一領域色情報抽出部42は、画像領域分割部3により得られた複数の画像領域のうち、被写体に空を含む画像領域から、当該画像領域内の画素の色相を平均した平均色相H、画素の彩度を平均した平均彩度S及び画素の明度を平均した平均明度Vを、色情報として抽出する構成部である。
環境推定部5aは、カメラ画像情報抽出部4aで抽出されたカメラ画像情報から自車の周辺環境を推定する構成部である。実施の形態2では、環境推定部5aが、単一領域色情報抽出部42によって抽出された被写体に空を含む画像領域の平均色相H、平均彩度S、平均明度Vと、これらに関する所定の閾値との大小比較の結果から、自車が位置する場所の周辺環境を推定する。
次に動作について説明する。
図6は、実施の形態2による環境推定及び車両制御の流れを示すフローチャートである。この図に沿って環境推定処理と車両制御処理の詳細を説明する。なお、装置の構成については、図5を参照する。
先ず、カメラ画像情報抽出部4aの単一領域色情報抽出部42が、画像領域分割部3により得られた複数の画像領域のうち、被写体に空を含む画像領域から、当該画像領域内の画素の色相を平均した平均色相H、画素の彩度を平均した平均彩度S及び画素の明度を平均した平均明度Vを検出する(ステップST1a)。ここでは、車両カメラのカメラ画像のうち、上記実施の形態1で示した図2の上部矩形領域(Y=1)が、被写体に空を含む画像領域として特定される。
環境推定部5aは、単一領域色情報抽出部42から、被写体に空を含む画像領域の平均色相H、平均彩度S及び平均明度Vを入力すると、平均色相Hが所定の色相範囲H_a(170度より大きく250度より小さい色相範囲)であるか否かを判定する(ステップST2a−1)。また、環境推定部5aは、平均彩度Sが所定の彩度閾値S_a(図6の例では50)より大きいか否かを判定する(ステップST2a−2)。さらに、環境推定部5aは、平均明度Vが所定の明度閾値V_a(図6の例では30)より大きいか否かを判定する(ステップST2a−3)。
平均色相Hが所定の色相範囲H_aにはない場合(ステップST2a−1;NO)、環境推定部5aは、この比較判定の結果に基づいて、予め設定された平均色相と色状態との対応関係を示すデータを参照することで、自車の周辺環境(空)は青くないと推定して、この推定結果を車両信号制御部6に出力する(ステップST3a−1)。
また、平均彩度Sが所定の彩度閾値S_aより大きくない場合(ステップST2a−2;NO)、環境推定部5aは、この比較判定の結果に基づいて、予め設定された平均彩度と色状態との対応関係を示すデータを参照することで、自車の周辺環境(空)は霞んでいると推定して、この推定結果を車両信号制御部6に出力する(ステップST3a−2)。
さらに、平均明度Vが所定の明度閾値V_aより大きくない場合(ステップST2a−3;NO)、環境推定部5aは、この比較判定の結果に基づいて、予め設定された平均明度と色状態との対応関係を示すデータを参照することで、自車の周辺環境(空)は暗いと推定し、この推定結果を車両信号制御部6に出力する(ステップST3a−3)。
一方、平均色相Hが所定の色相範囲H_aにある場合(ステップST2a−1;YES)、環境推定部5aは、この比較判定の結果に基づいて、予め設定された平均色相と色状態との対応関係を示すデータを参照することで、自車の周辺環境(空)は青いと推定し、この推定結果を車両信号制御部6に出力する(ステップST4a−1)。
また、平均彩度Sが所定の彩度閾値S_aよりも大きい場合(ステップST2a−2;YES)、環境推定部5aは、この比較判定の結果に基づいて、予め設定された平均彩度と色状態との対応関係を示すデータを参照することで、自車の周辺環境(空)の色彩は、くっきりしていると推定して、この推定結果を車両信号制御部6に出力する(ステップST4a−2)。
さらに、平均明度Vが所定の明度閾値V_aより大きい場合(ステップST2a−3;YES)、環境推定部5aは、この比較判定の結果に基づいて、予め設定された平均明度と色状態との対応関係を示すデータを参照することで、自車の周辺環境(空)は明るいと推定し、この推定結果を車両信号制御部6に出力する(ステップST4a−3)。
車両信号制御部6は、自車の周辺環境(空)が青くない(ステップST3a−1)、あるいは、自車の周辺環境(空)は霞んでいる(ステップST3a−2)との推定結果を受けると、この推定結果に基づいて、予め設定された色状態と車両信号の内容との対応関係を示すデータを参照することで、スモールライトを点灯させる車両信号を車両ECUに出力する。これにより、車両ECUは、車両信号制御部6からの車両信号に従って、スモールライトを点灯する(ステップST5a)。
また、車両信号制御部6は、自車の周辺環境(空)が青く(ステップST4a−1)、かつ自車の周辺環境(空)の色彩がくっきりしており(ステップST4a−2)、かつ自車の周辺環境(空)は明るい(ステップST4a−3)との推定結果を受けると、この推定結果に基づいて、予め設定された色状態と車両信号の内容との対応関係を示すデータを参照することで、車両ライトを消灯させる車両信号を車両ECUに出力する。車両ECUは、車両信号制御部6からの車両信号に従って車両ライトを消灯する(ステップST6a)。
さらに、車両信号制御部6は、自車の周辺環境(空)が暗い(ステップST3a−3)という推定結果を受けると、この推定結果に基づいて、予め設定された色状態と車両信号の内容との対応関係を示すデータを参照することで、ヘッドライトを点灯させる車両信号を車両ECUに出力する。車両ECUは、車両信号制御部6からの車両信号に従って、ヘッドライトを点灯する(ステップST7a)。
ステップST5a、ステップST6a又はステップST7aの処理を完了すると、ステップST1aに戻り、上記処理を繰り返して自車の周辺環境の変化を監視し、この変化に応じた車載機器(車両ライト)の制御を行う。
なお、ステップST2a−1〜2a−3の環境推定処理において、平均色相H、平均彩度S及び平均明度Vについての各閾値を組み合わせた判定範囲を設定して、周囲環境の状態をより詳細に推定するようにしてもよい。
図7は、画像領域の色相、色調及び色状態と周辺環境及び車両ライトへの車両信号の内容との対応関係の一例を示す図である。図7の例では、被写体に空を含む画像領域(上部矩形領域(Y=1))の平均色相Hが所定の色相範囲H_aにあり、かつその平均彩度Sが所定の彩度閾値S_aよりも大きく、かつその平均明度Vが所定の明度閾値V_aよりも大きい場合、自車の周辺環境(空)が青い色状態であると判断して、自車の周辺環境が昼で天気(晴れ)であると推定し、車両ライトを消灯する。
被写体に空を含む画像領域の平均色相Hが所定の色相範囲H_aにあり、かつその平均彩度Sが所定の彩度閾値S_aよりも大きいが、その平均明度Vが所定の明度閾値V_a以下であると、自車の周辺環境(空)が黒い色状態であると判断して、自車の周辺環境が夜であると推定し、車両ライト(ヘッドライト)を点灯する。
また、被写体に空を含む画像領域の平均色相Hが所定の色相範囲H_aにあるが、その平均彩度Sが所定の彩度閾値S_a以下であり、その平均明度Vが所定の明度閾値V_aよりも大きい場合は、自車の周辺環境(空)が灰色の色状態であると判断して、自車の周辺環境が昼で曇天であると推定し、車両ライト(スモールライト)を点灯する。
さらに、被写体に空を含む画像領域の平均色相Hが所定の色相範囲H_aにあるが、その平均彩度Sが所定の彩度閾値S_a以下、かつその平均明度Vが所定の明度閾値V_a以下である場合、自車の周辺環境(空)が黒い色状態にあると判断して、自車の周辺環境が夜であると推定し、車両ライト(ヘッドライト)を点灯する。
被写体に空を含む画像領域の平均色相Hが所定の色相範囲H_aになく、かつその平均彩度Sが所定の彩度閾値S_aよりも大きく、その平均明度Vが所定の明度閾値V_aよりも大きい場合、自車の周辺環境(空)が橙色の色状態であると判断して、自車の周辺環境が夕方で天気(晴れ)であると推定し、車両ライト(スモールライト又はヘッドライト)を点灯する。
被写体に空を含む画像領域の平均色相Hが所定の色相範囲H_aになく、かつその平均彩度Sが所定の彩度閾値S_aよりも大きいが、その平均明度Vが所定の明度閾値V_a以下であると、自車の周辺環境(空)が黒い色状態であると判断して、自車の周辺環境が夜であると推定し、車両ライト(ヘッドライト)を点灯する。
また、被写体に空を含む画像領域の平均色相Hが所定の色相範囲H_aになく、その平均彩度Sが所定の彩度閾値S_a以下であり、その平均明度Vが所定の明度閾値V_aよりも大きい場合には、自車の周辺環境(空)が赤灰色の色状態であると判断して、自車の周辺環境が夕方で曇天であると推定し、車両ライト(スモールライト又はヘッドライト)を点灯する。
さらに、被写体に空を含む画像領域の平均色相Hが所定の色相範囲H_aになく、その平均彩度Sが所定の彩度閾値S_a以下かつその平均明度Vが所定の明度閾値V_a以下である場合、自車の周辺環境(空)が黒い色状態にあると判断して、自車の周辺環境が夜であると推定し、車両ライト(ヘッドライト)を点灯する。
以上のように、この実施の形態2によれば、カメラ画像情報抽出部4aが、空が撮像されている画像領域の色情報を抽出し、環境推定部5aが、カメラ画像情報抽出部4aによって抽出された色情報に基づいて、画像領域の色情報と周辺環境の天候及び明暗との対応関係を示す対応データを参照することにより、周辺環境の天候及び明暗を推定する。このように、車両に固定設置された車両カメラのカメラ画像を分割した複数の画像領域のうち、被写体に空を含む画像領域は一定位置の画像領域として特定できることから、この画像領域の平均色相H、平均彩度S及び平均明度Vを用いて自車の周辺環境を推定することから、専用センサや画像認識用チップが不要であり、簡易な構成で自車の周辺環境を推定できる。
実施の形態3.
図8は、この発明の実施の形態3による環境推定装置を用いた車両制御装置の構成を示すブロック図である。図8において、実施の形態3の車両制御装置1Bは、車載機器の動作を制御する制御装置であり、環境推定装置2b及び車両信号制御部6を備える。また、環境推定装置2bは、車両カメラで撮像されたカメラ画像から当該車両の周辺環境を推定する装置であり、画像領域分割部3、カメラ画像情報抽出部4b及び環境推定部5bを備える。なお、図8において、図1と同一構成要素には同一符号を付して説明を省略する。
カメラ画像情報抽出部4bは、画像領域分割部3によって複数に分割された画像領域からカメラ画像情報を抽出する構成部であり、複数領域輝度情報抽出部43を有する。複数領域輝度情報抽出部43は、画像領域分割部3により得られた複数の画像領域を上部、中部、下部の3つの画像領域に区画して、上部、中部、下部に区画された各画像領域内の画素の照度をそれぞれ平均した平均照度E1,E2,E3を、輝度情報として抽出する構成部である。
なお、上部、中部、下部に区画された3つの画像領域とは、上記実施の形態1で示した図2の上部矩形領域(Y=1)、中部矩形領域(Y=2)、下部矩形領域(Y=3)に相当するものである。以降の説明では、複数領域輝度情報抽出部43が、上部矩形領域(Y=1)、中部矩形領域(Y=2)、下部矩形領域(Y=3)から、平均照度E1,E2,E3を求めるものとする。
環境推定部5bは、カメラ画像情報抽出部4bで抽出されたカメラ画像情報から自車の周辺環境を推定する構成部である。実施の形態3では、環境推定部5bが、複数領域輝度情報抽出部43によって抽出された上部、中部、下部に区画された画像領域の各平均照度E1,E2,E3とこれらに関する所定の閾値との大小比較の結果から、自車が位置する場所の周辺環境を推定する。
図9は、実施の形態3における、各矩形画像領域の平均照度の関係と周辺環境及び車両信号の内容との対応関係の一例を示す図である。図9において、上部矩形領域(Y=1)、中部矩形領域(Y=2)及び下部矩形領域(Y=3)の平均照度E1,E2,E3がとり得る値の関係と環境推定の内容との対応関係を示すデータは、環境推定部5bに設定される。また、図9に示す環境推定の内容と車両信号の内容との対応関係を示すデータは、車両信号制御部6に設定される。
例えば、環境推定の内容が昼であり、かつ雨でない場合(昼快晴、昼晴れ、昼曇り)には、車両ライトの点灯を指示する車両信号ILLがオフ、ワイパーの駆動を指示する車両信号がオフ、フォグライトの点灯を指示する車両信号がオフとなる。
環境推定の内容が昼であるが、霧の場合には、車両ライトのうち、スモールライトの点灯を指示する車両信号ILLがオンとなり、ワイパーの駆動を指示する車両信号がオフ、フォグライトの点灯を指示する車両信号がオンとなる。
環境推定の内容が夜であり、かつ雨でない場合は、車両ライト(ヘッドライト)の点灯を指示する車両信号ILLがオン、ワイパーの駆動を指示する車両信号がオフ、フォグライトの点灯を指示する車両信号がオフとなる。また、環境推定の内容が夜で雨の場合は、これに加えてワイパーの駆動を指示する車両信号がオンとなる。
環境推定の内容が昼であり、かつ雨の場合には、車両ライトのうち、スモールライトの点灯を指示する車両信号ILLがオンとなり、ワイパーの駆動を指示する車両信号がオン、フォグライトの点灯を指示する車両信号がオフとなる。
次に動作について説明する。
図10は、実施の形態3による環境推定及び車両制御の流れを示すフローチャートである。この図に沿って環境推定処理と車両制御処理の詳細を説明する。なお、装置の構成については、図8を参照する。
先ず、カメラ画像情報抽出部4bの複数領域輝度情報抽出部43が、画像領域分割部3により得られた複数の画像領域のうち、上部矩形領域(Y=1)、中部矩形領域(Y=2)及び下部矩形領域(Y=3)から、上部矩形領域(Y=1)の平均照度E1、中部矩形領域(Y=2)の平均照度E2、下部矩形領域(Y=3)の平均照度E3を検出する(ステップST1b)。
次に、環境推定部5bは、複数領域輝度情報抽出部43から、上部矩形領域(Y=1)の平均照度E1、中部矩形領域(Y=2)の平均照度E2、下部矩形領域(Y=3)の平均照度E3を入力すると、平均照度E2が平均照度E3よりも大きくなく、かつ平均照度E1が平均照度E2,E3のいずれよりも大きい照度関係(E2>E3ではなく、E1>E2,E3)にあるか否かを判定する(ステップST2b)。
この照度関係にあれば(ステップST2b;YES)、環境推定部5bは、この判定結果に基づいて、予め設定された平均照度の関係と環境推定の内容との対応関係を示すデータを参照することで、自車の周辺環境は昼で晴れであると推定し、この推定結果を車両信号制御部6に出力する(ステップST3b)。
一方、この照度関係にない場合(ステップST2b;NO)、環境推定部5bは、平均照度E1が平均照度E2,E3のいずれよりも大きく、かつ平均照度E2が平均照度E3よりも大きい照度関係(E1>E2,E3かつE2>E3)にあるか否かを判定する(ステップST4b)。
ここで、E1>E2,E3かつE2>E3の照度関係にある場合(ステップST4b;YES)、環境推定部5bは、この判定結果に基づいて、予め設定された平均照度の関係と環境推定の内容との対応関係を示すデータを参照することにより、自車の周辺環境は昼で曇りであると推定し、この推定結果を車両信号制御部6に出力する(ステップST5b)。
また、E1>E2,E3かつE2>E3の照度関係にない場合(ステップST4b;NO)、環境推定部5bは、平均照度E1,E3のいずれも平均照度E2よりも大きいか、又は平均照度E1,E2,E3がほぼ同一の値である照度関係(E1,E3>E2、又はE1≒E2≒E3)にあるか否かを判定する(ステップST6b)。
この照度関係にあれば(ステップST6b;YES)、環境推定部5bは、この判定結果に基づいて、予め設定された平均照度の関係と環境推定の内容との対応関係を示すデータを参照することで、自車の周辺環境は霧であると推定し、この推定結果を車両信号制御部6に出力する(ステップST7b)。
一方、この照度関係にない場合(ステップST6b;NO)、環境推定部5bは、平均照度E3が平均照度E1よりも大きくなく、かつ平均照度E2が平均照度E1,E3のいずれよりも大きい照度関係(E3>E1でなく、E2>E1,E3)にあるか否かを判定する(ステップST8b)。
ここで、E3>E1でなく、E2>E1,E3の照度関係にある場合(ステップST8b;YES)、環境推定部5bは、この判定結果に基づいて、予め設定された平均照度の関係と環境推定の内容との対応関係を示すデータを参照することで、自車の周辺環境は夜であると推定し、この推定結果を車両信号制御部6に出力する(ステップST9b)。
E3>E1でなく、E2>E1,E3の照度関係にない場合(ステップST8b;NO)、環境推定部5bは、平均照度E2が平均照度E1,E3のいずれよりも大きく、かつ平均照度E3が平均照度E1よりも大きい照度関係(E2>E1,E3、かつE3>E1)にあるか否かを判定する(ステップST10b)。
この照度関係にあれば(ステップST10b;YES)、環境推定部5bは、この判定結果に基づいて、予め設定された平均照度の関係と環境推定の内容との対応関係を示すデータを参照することで、自車の周辺環境は夜で雨であると推定し、この推定結果を車両信号制御部6に出力する(ステップST11b)。
一方、この照度関係にない場合(ステップST10b;NO)、環境推定部5bは、平均照度E2が平均照度E1よりも大きくなく、かつ平均照度E3が平均照度E1,E2のいずれよりも大きい照度関係(E2>E1でなく、E3>E1,E2)にあるか否かを判定する(ステップST12b)。
ここで、E2>E1でなく、かつE3>E1,E2の照度関係にある場合(ステップST12b;YES)、環境推定部5bは、この判定結果に基づいて、予め設定された平均照度の関係と環境推定の内容との対応関係を示すデータを参照することにより、自車の周辺環境は雨であると推定して、この推定結果を車両信号制御部6に出力する(ステップST13b)。
E2>E1でなく、かつE3>E1,E2の照度関係になければ(ステップST12b;NO)、ステップST1bに戻り、上記処理を繰り返して自車の周辺環境の変化を監視し、この変化に応じた車載機器の制御を行う。
車両信号制御部6は、自車の周辺環境が昼で晴れ(ステップST3b)、あるいは自車の周辺環境が昼で曇り(ステップST5b)、自車の周辺環境が霧(ステップST7b)、自車の周辺環境が夜(ステップST9b)という推定結果を受けると、この推定結果に基づいて、予め設定された環境推定の内容と車両信号の内容との対応関係を示すデータを参照することで、ワイパーを停止させる車両信号を車両ECUに出力する。車両ECUは、車両信号制御部6からの車両信号に従いワイパーを停止する(ステップST14b)。
また、車両信号制御部6は、自車の周辺環境が昼で曇り(ステップST5b)との推定結果を受けると、この推定結果に基づいて、予め設定された環境推定の内容と車両信号の内容との対応関係を示すデータを参照することで、車両ライトを消灯させる車両信号を車両ECUに出力する。車両ECUは、車両信号制御部6からの車両信号に従い、車両ライトを消灯する(ステップST15b)。
さらに、車両信号制御部6は、自車の周辺環境が霧(ステップST7b)という推定結果を受けると、この推定結果に基づいて、予め設定された環境推定の内容と車両信号の内容との対応関係を示すデータを参照することで、フォグライトを点灯させる車両信号を車両ECUに出力する。車両ECUは、車両信号制御部6からの車両信号に従い、フォグライトを点灯する(ステップST16b)。
また、車両信号制御部6は、自車の周辺環境が夜(ステップST9b)であるか、あるいは自車の周辺環境が夜で雨(ステップST11b)という推定結果を受けると、この推定結果に基づいて、予め設定された環境推定の内容と車両信号の内容との対応関係を示すデータを参照することで、車両ライトを消灯させる車両信号を車両ECUに出力する。車両ECUは、車両信号制御部6からの車両信号に従い、車両ライトのうち、ヘッドライトを点灯する(ステップST17b)。
車両信号制御部6は、自車の周辺環境が夜で雨(ステップST11b)、あるいは自車の周辺環境が雨(ステップST13b)という推定結果を受けると、この推定結果に基づいて、予め設定された環境推定の内容と車両信号の内容との対応関係を示すデータを参照することで、ワイパーを駆動させる車両信号を車両ECUに出力する。車両ECUは、車両信号制御部6からの車両信号に従い、ワイパーを駆動する(ステップST18b)。
また、車両信号制御部6は、自車の周辺環境が雨(ステップST13b)という推定結果を受けると、この推定結果に基づいて、予め設定された環境推定の内容と車両信号の内容との対応関係を示すデータを参照することで、スモールライトを点灯させる車両信号を車両ECUに出力する。車両ECUは、車両信号制御部6からの車両信号に従い、スモールライトを消灯する(ステップST19b)。
ステップST14b、ステップST15b、ステップST16b、ステップST17b、ステップST18b又はステップST19bの処理を完了すると、ステップST1bに戻り、環境推定部5bは、上記処理を繰り返して自車の周辺環境の変化を監視して、この変化に応じた車載機器の制御を行う。
以上のように、この実施の形態3によれば、カメラ画像情報抽出部4bが、画像領域分割部3に分割された複数の画像領域のうち、少なくとも空が撮像されている画像領域を含む上部画像領域(Y=1)、及び地面が撮像されている下部画像領域(Y=3)の輝度情報をそれぞれ抽出し、環境推定部5bが、カメラ画像情報抽出部4bによって抽出された各輝度情報に基づいて、各画像領域の輝度情報と周辺環境の天候及び明暗との対応関係を示す対応データを参照することにより、周辺環境の天候及び明暗を推定する。
このように、車両に固定設置された車両カメラのカメラ画像を、上部矩形領域(Y=1)、中部矩形領域(Y=2)及び下部矩形領域(Y=3)の3つの画像領域に区画しておき、各画像領域の平均照度E1,E2,E3の関係を用いて自車の周辺環境を推定することから、専用センサや画像認識用チップが不要であり、簡易な構成で自車の周辺環境を推定できる。
実施の形態4.
実施の形態4は、車両カメラで撮像されたカメラ画像上のマーカーの形状が変化したか否かに応じて、自車の周辺環境を推定する。具体的には、車両カメラの投影面上の被写体の像が変化した場合に、当該車両カメラのカメラレンズ上の雨滴や雨膜によって光の反射や屈折が発生したと判断して自車の周辺が雨天であると推定する。
図11は、雨滴による投影面上の被写体の変化を説明するための図である。図11(a)に示すように、カメラレンズ7の表面上に雨滴や雨膜がない場合には、カメラレンズ7における光の屈折現象によって、被写体S0は、車両カメラ内の投影面に像S1を結ぶ。実施の形態4では、車両カメラの撮像範囲内に含まれる車体の一部に特定形状のマーカーを設け、このマーカーの形状を示す被写体形状データを予め用意しておく。
自車の周辺が雨になって、図11(b)に示すように、カメラレンズ7上に雨滴や雨膜のような光を屈折させる異物8が付着すると、カメラレンズ7での屈折に加え、異物8での屈折も起こることから、被写体S0は、車両カメラ内の投影面において、図11(a)とは異なる像S2を結ぶ。この場合、カメラ画像上で被写体S0の形状が変化する。
従って、カメラ画像におけるマーカーが、予め用意した被写体形状データで規定される形状から変化した場合には、自車の周辺が雨天であると判断できる。
図12は、この発明の実施の形態4による環境推定装置を用いた車両制御装置の構成を示すブロック図であり、図1と同一構成要素には同一符号を付して説明を省略する。図12において、実施の形態4の車両制御装置1Cは、車載機器の動作を制御する制御装置であり、環境推定装置2c及び車両信号制御部6を備える。
また、環境推定装置2cは、車両カメラで撮像されたカメラ画像から当該車両の周辺環境を推定する装置であり、画像領域分割部3、カメラ画像情報抽出部4c及び環境推定部5cを備える。なお、この実施の形態4では、車体の一部が撮像範囲内に含まれるように車両カメラを固定設置しておき、当該車体の一部に特定形状のマーカーを設ける。
カメラ画像情報抽出部4cは、画像領域分割部3によって複数に分割された画像領域からカメラ画像情報を抽出する構成部であり、被写体形状抽出部44、被写体形状判定部45及び特定形状記憶部46を有する。
被写体形状抽出部44は、画像領域分割部3により得られた複数の画像領域から、特定形状のマーカーを設けた車体の一部が撮像されている画像領域を特定し、この画像領域でのマーカーの形状を抽出する構成部である。
被写体形状判定部45は、被写体形状抽出部44に抽出された画像領域でのマーカーの形状と、特定形状記憶部46に記憶される特定形状データが示す形状とが一致するか否かを判定する構成部であり、この形状判定結果をカメラ画像情報であるものとして環境推定部5cへ出力する。
特定形状記憶部46は、車両カメラのカメラレンズに光の屈折を生じる雨滴等の異物がない状態における、カメラ画像でのマーカーの形状を示す特定形状データを記憶する記憶部である。
環境推定部5cは、カメラ画像情報抽出部4cから入力したカメラ画像情報から自車の周辺環境を推定する構成部である。実施の形態4では、環境推定部5cが、被写体形状判定部45による形状判定の結果から、自車が位置する場所の周辺環境を推定する。
すなわち、画像領域でのマーカーの形状と特定形状データが示す形状とが一致しなければ、車両カメラのカメラレンズ7に雨滴や雨膜のような異物8が付着しており、自車の周辺が、異物8を付着させるような例えば雨天であると推定する。
また、画像領域でのマーカーの形状と特定形状データが示す形状とが一致していれば、自車の周辺が、雨ではなく、カメラレンズ7に異物8が付着しない天候であると推定される。
図13は、実施の形態4によるカメラ画像の分割処理の一例を示す図である。図13に示すカメラ画像は、水平画角180度及び垂直画角150度のカメラを、車両幅の中央で、取り付け高さ500mm、取り付け水平角度0度、取り付け垂直角度45度で、車両の後方が撮像範囲になるように車両に固定設置したリアカメラにより撮像された画像である。図13の例では、画像領域分割部3が、カメラ画像を表示した画面の水平方向(左右方向)にX軸を割り当て、垂直方向(上下方向)にY軸を割り当てて、X軸方向に所定のサイズで3つに区画し、Y軸方向に所定のサイズで4つに区画することにより、画像領域(XY=11〜34)を規定している。すなわち、カメラ画像のX軸方向を、左矩形領域(X=1)、中央矩形領域(X=2)、右矩形領域(X=3)に3分割し、Y軸方向を、上部矩形領域(Y=1)、中部矩形領域(Y=2)、下部矩形領域(Y=3)、及び最下部矩形領域(Y=4)に4分割することにより、全部で12個の画像領域に分割している。
ここで、図13は、自車が都市を走行しているときのカメラ画像を示しており、車両カメラの被写体には、都市の建造物や樹木等の“地物”、自然風景である“空”、走行道路を示す“地面”、特定形状のマーカーS0を設けた車体の一部9である“ボディ”が含まれる。なお、この車体の一部9としては、例えばバンパーやナンバープレートが挙げられる。
各画像領域での主な被写体は、領域(XY=11)では建物の一部と空が主に映っていることから“地物と空”であり、領域(XY=21)では“空”、領域(XY=31)では樹木と空が主に映っているので“地物と空”である。また、領域(XY=12)では“地物”、領域(XY=22)も“地物”、領域(XY=32)でも“地物”であり、領域(XY=13)では“地物と地面”、領域(XY=23)では“地面”、領域(XY=33)では“地物と地面”である。さらに、領域(XY=14)、領域(XY=24)、領域(XY=34)では“ボディ”である。
また、自車が山間部を走行したときの車両カメラの被写体には、自然風景である“山”、“空”、走行道路を示す“地面”、車体の一部9である“ボディ”が含まれる。
例えば、山道を走行し、自車の進行方向に山が遠目で見える場合、各画像領域での主な被写体は、領域(XY=11)では“山と空”、領域(XY=21)で“空”、領域(XY=31)で“山と空”である。また、領域(XY=12)で“山”、領域(XY=22)で“山と空”、領域(XY=32)でも“山と空”であり、領域(XY=13)で“地面”、領域(XY=23)で“地面”、領域(XY=33)で“地面”である。さらに、領域(XY=14)、領域(XY=24)、領域(XY=34)では“ボディ”である。
さらに、自車が都市以外の平野(建物がない草原など)を走行したときの車両カメラの被写体には、自然風景である草原などの“平野”、“空”、走行道路を示す“地面”が含まれる。例えば、平野を抜ける道路を走行している場合、各画像領域での主な被写体は、領域(XY=11)で“空”、領域(XY=21)で“空”、領域(XY=31)で“空”であり、領域(XY=12)で“平野”、領域(XY=22)で“平野と空”、領域(XY=32)では“平野”であり、領域(XY=13)で“地面”、領域(XY=23)で“地面”、領域(XY=33)で“地面”である。領域(XY=14)、領域(XY=24)、領域(XY=34)では“ボディ”である。
このように、特定形状のマーカーS0を設けた車体の一部9を視野に含むように車両カメラを固定設置することにより、自車が屋外を走行して撮像を連続的又は周期的に繰り返せば、少なくとも被写体に車体の一部9が含まれる。例えば、図13では、最下部矩形領域(Y=4)に被写体に車体の一部9が含まれている。
そこで、この実施の形態4では、最下部矩形領域(Y=4)における画像領域(XY=14,24,34)の画像領域を、車体の一部9を含む画像領域として規定する。また、画像領域(XY=24)を被写体に特定形状のマーカーS0を含む画像領域と規定する。
次に動作について説明する。
図14は、実施の形態4による環境推定及び車両制御の流れを示すフローチャートである。この図に沿って環境推定処理と車両制御処理の詳細を説明する。なお、装置の構成については、図12を参照する。
先ず、カメラ画像情報抽出部4cの被写体形状抽出部44が、画像領域分割部3により得られた複数の画像領域の中から被写体に車体の一部9を含む矩形画像領域を特定して、この矩形画像領域から、マーカーS0を被写体に含む画像領域を抽出する(ステップST1c)。ここでは、車両カメラのカメラ画像のうち、図13の最下部矩形領域(Y=4)に相当する画像領域が、被写体に車体の一部9を含む矩形画像領域として特定され、最下部矩形領域(Y=4)中の画像領域(XY=24)が被写体にマーカーS0を含む画像領域として抽出される。
次に、被写体形状判定部45が、被写体形状抽出部44により抽出されたマーカーS0を被写体に含む画像領域(XY=24)に対して、特定形状記憶部46から読み出した特定形状データを用いて形状認識処理を実施することにより、画像領域(XY=24)中のマーカーS0の形状が、特定形状データが示す形状と一致するか否かを判定する(ステップST2c)。この形状判定結果は、被写体形状判定部45から環境推定部5cへ出力される。
環境推定部5cは、被写体形状判定部45から、マーカーS0の形状と特定形状データの形状とが一致しない旨の形状判定結果を受けると(ステップST2c;NO)、自車の周辺環境が雨であると推定して、この推定結果を車両信号制御部6に出力する(ステップST3c)。
車両信号制御部6は、自車の周辺環境が雨であることを示す推定結果を受けると、従前にワイパーが駆動していなければ、この推定結果に基づいて、ワイパーを駆動させる車両信号を車両ECUに出力する。これにより、車両ECUは、車両信号制御部6からの車両信号に従って、ワイパーを駆動させる(ステップST4c)。
一方、マーカーS0の形状と特定形状データの形状とが一致する旨の形状判定結果を受けると(ステップST2c;YES)、環境推定部5cは、自車の周辺環境が雨以外の天候であると推定し、この推定結果を車両信号制御部6に出力する(ステップST5c)。
車両信号制御部6は、この推定結果を受けると、従前にワイパーを駆動させていれば、ワイパーを停止する車両信号を車両ECUに出力する。車両ECUは、車両信号制御部6からの車両信号に従って、ワイパーを停止する(ステップST6c)。
ステップST4c又はステップST6cの処理が完了すると、再びステップST1cに戻り、上記処理を繰り返して天候の変化を監視し、この変化に応じた車載機器の制御を行う。
以上のように、この実施の形態4によれば、車両カメラで撮像されたカメラ画像を複数の画像領域に分割する画像領域分割部3と、画像領域分割部3に分割された複数の画像領域のうち、特定の形状を有するマーカーS0が撮像されている画像領域を抽出するカメラ画像情報抽出部4cと、カメラ画像情報抽出部4cによって抽出されたマーカーS0が撮像されている画像領域での当該マーカーS0の形状と、予め用意した当該マーカーS0の形状を示す特定形状データとが一致するか否かに応じて、周辺環境の天候を推定する環境推定部5cとを備える。このように、車両に固定設置された車両カメラのカメラ画像から、特定形状のマーカーS0を被写体に含む画像領域を特定し、この画像領域でのマーカーS0の形状と予め用意した特定形状データの形状とが一致するか否かに応じて自車の周辺環境を推定することから、専用センサや画像認識用チップが不要であり、簡易な構成で自車の周辺環境を推定できる。
上記実施の形態1〜4では、本発明に係る環境推定装置を、車載機器等を制御する車両制御装置に適用した場合を示したが、被写体に周辺環境の変化を特定できる空などを含むカメラ画像が得られるシステムであれば適用可能である。例えば、屋外を監視対象とする監視カメラシステムにおいて、空を被写体を含むようにカメラが固定設置されていれば、カメラ画像のみから監視対象の周辺環境を推定することができる。
なお、本願発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。
1,1A,1B,1C 車両制御装置、2,2a,2b,2c 環境推定装置、3 画像領域分割部、4,4a,4b,4c カメラ画像情報抽出部(情報抽出部)、5,5a,5b,5c 環境推定部、6 車両信号制御部、7、カメラレンズ、8 異物、9 車両の一部、41 単一領域輝度情報抽出部、42 単一領域色情報抽出部、43 複数領域輝度情報抽出部、44 被写体形状抽出部、45 被写体形状判定部、46 特定形状記憶部46。
この発明に係る環境推定装置は、撮像部で撮像された撮像画像を複数の画像領域に分割する画像領域分割部と、画像領域分割部に分割された複数の画像領域のうち、空が撮像されている画像領域から、当該画像領域の特徴を示す画像情報を抽出する情報抽出部と、情報抽出部によって抽出された画像情報に基づいて、画像領域の特徴と周辺環境の天候又は明暗との対応関係を示す対応データを参照することにより、周辺環境の天候又は明暗を推定する環境推定部とを備え、情報抽出部は、空が撮像されている画像領域の色相、彩度及び明度の色情報を常に抽出し、環境推定部は、情報抽出部によって抽出された色情報に基づいて、画像領域の色相の値と彩度の値と明度の値と周辺環境の天候及び明暗との対応関係を示す対応データを参照することにより、周辺環境の天候及び明暗を推定することを特徴とするものである
または、撮像部で撮像された撮像画像を複数の画像領域に分割する画像領域分割部と、画像領域分割部に分割された複数の画像領域のうち、空が撮像されている画像領域から、当該画像領域の特徴を示す画像情報を抽出する情報抽出部と、情報抽出部によって抽出された画像情報に基づいて、画像領域の特徴と周辺環境の天候又は明暗との対応関係を示す対応データを参照することにより、周辺環境の天候又は明暗を推定する環境推定部とを備え、情報抽出部は、画像領域分割部に分割された複数の画像領域のうち、少なくとも空が撮像されている画像領域を含む上部画像領域、及び地面が撮像されている下部画像領域の輝度情報をそれぞれ抽出し、環境推定部は、情報抽出部によって抽出された各分割領域に対する各輝度情報を比較して各分割領域の輝度情報の大きさ関係を判断し、各分割領域の輝度情報の大きさ関係と周辺環境の天候及び明暗との対応関係を示す対応データを参照することにより、周辺環境の天候及び明暗を推定することを特徴とするものである。

Claims (6)

  1. 撮像部で撮像された撮像画像を複数の画像領域に分割する画像領域分割部と、
    前記画像領域分割部に分割された複数の画像領域のうち、空が撮像されている画像領域から、当該画像領域の特徴を示す画像情報を抽出する情報抽出部と、
    前記情報抽出部によって抽出された前記画像情報に基づいて、前記画像領域の特徴と周辺環境の天候又は明暗との対応関係を示す対応データを参照することにより、周辺環境の天候又は明暗を推定する環境推定部とを備えた環境推定装置。
  2. 前記情報抽出部は、前記空が撮像されている画像領域の輝度情報を抽出し、
    前記環境推定部は、前記情報抽出部によって抽出された前記輝度情報に基づいて、前記画像領域の輝度情報と周辺環境の明暗との対応関係を示す対応データを参照することにより、周辺環境の明暗を推定することを特徴とする請求項1記載の環境推定装置。
  3. 前記情報抽出部は、前記空が撮像されている画像領域の色情報を抽出し、
    前記環境推定部は、前記情報抽出部によって抽出された前記色情報に基づいて、前記画像領域の色情報と周辺環境の天候及び明暗との対応関係を示す対応データを参照することにより、周辺環境の天候及び明暗を推定することを特徴とする請求項1記載の環境推定装置。
  4. 前記情報抽出部は、前記画像領域分割部に分割された複数の画像領域のうち、少なくとも前記空が撮像されている画像領域を含む上部画像領域、及び地面が撮像されている下部画像領域の輝度情報をそれぞれ抽出し、
    前記環境推定部は、前記情報抽出部によって抽出された前記各輝度情報に基づいて、前記各画像領域の輝度情報と周辺環境の天候及び明暗との対応関係を示す対応データを参照することにより、周辺環境の天候及び明暗を推定することを特徴とする請求項1記載の環境推定装置。
  5. 撮像部で撮像された撮像画像を複数の画像領域に分割する画像領域分割部と、
    前記画像領域分割部に分割された複数の画像領域のうち、特定の形状を有するマーカーが撮像されている画像領域を抽出する情報抽出部と、
    前記情報抽出部によって抽出された前記マーカーが撮像されている画像領域での当該マーカーの形状と、予め用意した当該マーカーの形状を示す形状データとが一致するか否かに応じて、周辺環境の天候を推定する環境推定部とを備えた環境推定装置。
  6. 撮像部で撮像された撮像画像を複数の画像領域に分割する画像領域分割部と、前記画像領域分割部に分割された複数の画像領域のうち、空が撮像されている画像領域から、当該画像領域の特徴を示す画像情報を抽出する情報抽出部と、前記情報抽出部によって抽出された前記画像情報に基づいて、前記画像領域の特徴と周辺環境の天候又は明暗との対応関係を示す対応データを参照することにより、周辺環境の天候又は明暗を推定する環境推定部とを有する環境推定装置と、
    前記環境推定部による推定結果に応じて車載機器の駆動を制御する車両信号を生成する車両信号制御部とを備えた車両制御装置。
JP2012544011A 2010-11-19 2010-11-19 環境推定装置及び車両制御装置 Active JP5501477B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2010/006799 WO2012066609A1 (ja) 2010-11-19 2010-11-19 環境推定装置及び車両制御装置

Publications (2)

Publication Number Publication Date
JPWO2012066609A1 true JPWO2012066609A1 (ja) 2014-05-12
JP5501477B2 JP5501477B2 (ja) 2014-05-21

Family

ID=46083578

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012544011A Active JP5501477B2 (ja) 2010-11-19 2010-11-19 環境推定装置及び車両制御装置

Country Status (4)

Country Link
US (1) US9262817B2 (ja)
JP (1) JP5501477B2 (ja)
DE (1) DE112010006014T5 (ja)
WO (1) WO2012066609A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10030833B2 (en) * 2011-06-03 2018-07-24 Osram Sylvania Inc. Multimode color tunable light source and daylighting system
EP3395613B1 (en) * 2015-12-25 2024-03-20 Hitachi Astemo, Ltd. Headlight control device
JP6817682B2 (ja) * 2016-12-26 2021-01-20 ダイハツ工業株式会社 車両の自動点灯制御システム、及び車両の自動点灯制御方法
EP3594060A1 (en) 2017-01-20 2020-01-15 Koito Manufacturing Co., Ltd. Vehicle lamp control system
US11325522B2 (en) 2018-03-14 2022-05-10 Hitachi Astemo, Ltd. Automatic light system
US10460210B1 (en) * 2019-01-22 2019-10-29 StradVision, Inc. Method and device of neural network operations using a grid generator for converting modes according to classes of areas to satisfy level 4 of autonomous vehicles
KR102220950B1 (ko) * 2019-07-31 2021-02-26 엘지전자 주식회사 자율 주행 시스템에서 차량을 제어하기 위한 방법 및 장치
KR102343049B1 (ko) * 2021-06-17 2021-12-24 주식회사 인피닉 인공지능 학습을 위한 이미지 메타데이터 생성 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램
KR102356907B1 (ko) * 2021-06-17 2022-02-08 주식회사 인피닉 인공지능 학습용 데이터의 메타데이터 입력 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09142259A (ja) * 1995-11-20 1997-06-03 Tokai Rika Co Ltd 雨滴センサ及び雨滴感応払拭装置
EP1734476A4 (en) * 2004-03-29 2007-06-06 Pioneer Corp ROAD VISION ANALYSIS DEVICE AND METHOD
JP2006036048A (ja) 2004-07-28 2006-02-09 Aisin Seiki Co Ltd 車両ライト制御装置
US8086046B2 (en) * 2005-06-27 2011-12-27 Pioneer Corporation Image analysis device and image analysis method
JP2007057331A (ja) 2005-08-23 2007-03-08 Denso Corp 車載霧判定装置
JP2007101307A (ja) * 2005-10-03 2007-04-19 Aisin Aw Co Ltd ナビゲーション装置及びナビゲーション方法
JP4656429B2 (ja) 2006-06-02 2011-03-23 株式会社デンソー 前照灯制御システム
JP2008028957A (ja) * 2006-07-25 2008-02-07 Denso Corp 車両用画像処理装置
JP5074273B2 (ja) * 2008-04-16 2012-11-14 株式会社デンソー 車両用灯火制御装置
JP4937199B2 (ja) * 2008-06-25 2012-05-23 日立オートモティブシステムズ株式会社 オートライト装置
JP5567411B2 (ja) * 2010-06-28 2014-08-06 日本電信電話株式会社 空模様判定システム及び空模様判定方法

Also Published As

Publication number Publication date
JP5501477B2 (ja) 2014-05-21
DE112010006014T5 (de) 2013-08-14
US9262817B2 (en) 2016-02-16
US20130116857A1 (en) 2013-05-09
WO2012066609A1 (ja) 2012-05-24

Similar Documents

Publication Publication Date Title
JP5501477B2 (ja) 環境推定装置及び車両制御装置
US11048264B2 (en) Systems and methods for positioning vehicles under poor lighting conditions
US10504214B2 (en) System and method for image presentation by a vehicle driver assist module
JP5892876B2 (ja) 車載用環境認識装置
JP4491453B2 (ja) 赤外画像と視覚画像を周辺部に依存して融合させることにより車両の周辺部を可視化するための方法及び装置
JP4544233B2 (ja) 車両検出装置及びヘッドランプ制御装置
WO2006109398A1 (ja) 画像処理装置および方法、プログラム、並びに記録媒体
JP5747549B2 (ja) 信号機検出装置及びプログラム
US8315766B2 (en) Process for detecting a phenomenon limiting the visibility for a motor vehicle
US20110184895A1 (en) Traffic object recognition system, method for recognizing a traffic object, and method for setting up a traffic object recognition system
US20060215882A1 (en) Image processing apparatus and method, recording medium, and program
JP4717073B2 (ja) 風景解析装置及び方法
JP5115792B2 (ja) 画像処理装置および方法、並びに、プログラム
US7944362B2 (en) Method of detecting a visibility interference phenomenon for a vehicle
CN108875458B (zh) 车辆远光灯开启的检测方法、装置、电子设备及摄像机
JP2013147112A (ja) 車両の走行環境認識装置
JPWO2019194256A1 (ja) 演算処理装置、オブジェクト識別システム、学習方法、自動車、車両用灯具
JP2009234344A (ja) 撮像手段の調整装置および物体検出装置
JP2010169583A (ja) 照明環境判定装置及びプログラム
US20190193632A1 (en) Vehicles and methods for displaying objects located beyond a headlight illumination line
JP2013016981A (ja) 撮影表示制御システム
WO2014002413A1 (ja) 先行車両検知装置、先行車両検知方法、及び先行車両検知プログラム記憶媒体
JP7426987B2 (ja) 撮影システムおよび画像処理装置
JP6866212B2 (ja) 表示制御装置、表示制御方法及びカメラモニタリングシステム
JP2015058747A (ja) 車両灯体制御装置

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140311

R150 Certificate of patent or registration of utility model

Ref document number: 5501477

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250