JP5066558B2 - Vehicle shadow recognition device - Google Patents
Vehicle shadow recognition device Download PDFInfo
- Publication number
- JP5066558B2 JP5066558B2 JP2009215796A JP2009215796A JP5066558B2 JP 5066558 B2 JP5066558 B2 JP 5066558B2 JP 2009215796 A JP2009215796 A JP 2009215796A JP 2009215796 A JP2009215796 A JP 2009215796A JP 5066558 B2 JP5066558 B2 JP 5066558B2
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- shadow
- vehicle shadow
- information
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
- Navigation (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
Description
本発明は、自車影認識装置に関する。 The present invention relates to a vehicle shadow recognition apparatus.
従来、自車影認識装置では、車載カメラの撮像画像に太陽が写ったときに発生するスミア(smear;CCDイメージセンサを用いたカメラで周囲より極端に明るい被写体を撮影した際に白飛びする現象)を利用して太陽の位置を推定し、自車の影(自車影)の位置を特定している。この記載に関係する技術の一例は、特許文献1に開示されている。
Conventionally, in the vehicle shadow recognition device, smear (smear generated when the sun is reflected in the image taken by the in-vehicle camera) When shooting a subject extremely bright from the surroundings with a camera using a CCD image sensor ) Is used to estimate the position of the sun and identify the position of the shadow of the vehicle (own vehicle shadow). An example of a technique related to this description is disclosed in
上述の従来装置において、自車影領域を高精度に特定して欲しいとのニーズがある。
本発明の目的は、画像の中から自車影領域を高精度に特定できる自車影認識装置を提供することにある。
In the above-described conventional apparatus, there is a need for specifying the own vehicle shadow region with high accuracy.
The objective of this invention is providing the own vehicle shadow recognition apparatus which can pinpoint the own vehicle shadow area | region from an image with high precision.
本発明では、自車の現在位置の情報と現在の日時の情報とから太陽の位置を算出し、太陽の位置情報と、自車の進行方位情報と、自車の立体形状情報とから自車影が発生する領域を推定し、推定により得られる座標情報に基づき、自車周辺撮像装置で得られた画像の中から自車影領域を特定する。 In the present invention, the position of the sun is calculated from information on the current position of the host vehicle and information on the current date and time, and the host vehicle is calculated from the position information of the sun, the traveling direction information of the host vehicle, and the three-dimensional shape information of the host vehicle. The region where the shadow is generated is estimated, and the own vehicle shadow region is specified from the image obtained by the own vehicle periphery imaging device based on the coordinate information obtained by the estimation.
本発明によれば、画像の中から自車影領域を高精度に特定できる。 According to the present invention, the own vehicle shadow region can be specified from the image with high accuracy.
以下、本発明の自車影認識装置を実施するための形態を、図面に示す実施例に基づいて説明する。なお、以下に説明する実施例は、多くのニーズに適応できるように検討されており、画像の中から自車影領域を高精度に特定できることは検討されたニーズの1つである。以下の実施例はさらにコストダウン、省電力化のニーズにも適応している。 EMBODIMENT OF THE INVENTION Hereinafter, the form for implementing the own vehicle shadow recognition apparatus of this invention is demonstrated based on the Example shown on drawing. In addition, the Example demonstrated below is examined so that it can adapt to many needs, and it is one of the needs examined that the own vehicle shadow area | region can be specified with high precision from an image. The following embodiments are further adapted to needs for cost reduction and power saving.
(実施例1)
まず、構成を説明する。
〔全体構成〕
図1は、実施例1の自車影認識装置11の構成図である。自車影認識装置11は、自車影認識制御装置100と、車両周辺撮像装置(自車周辺撮像装置)300と、映像出力装置(車両表示装置)310と、ユーザーインターフェース320と、車載ネットワーク330と、障害物認識装置340と、白線認識装置341と、車両周辺測距装置(距離計測装置)350と、照度取得装置(照度センサ)351と、カーナビゲーション装置400と、を備える。
自車影認識制御装置100は、車両周辺撮像装置300で得られた自車が走行している路面を含む範囲の撮像画像から自車の影(自車影)の位置を特定し、自車影を除去した画像を生成するもので、太陽位置算出手段110と、自車影領域推定手段120と、自車影領域検出手段130と、画像補正手段(自車影領域輝度補正手段)140と、画像メモリ150と、自車立体形状データベース160とを備える。
太陽位置算出手段110は、カーナビゲーション装置400から得られる自車の現在位置の緯度、経度、現在の日にちおよび現在の時刻と、自車の現在位置から決定される標準子午線との情報に基づいて、太陽の高度と方位角を算出する。
自車影領域推定手段120は、太陽位置算出手段110で得られた太陽の高度と方位角に加え、カーナビゲーション装置400で得られた自車進行方向の情報と、自車立体形状データベース160に保存された自車立体形状データ(自車立体形状情報)とから、自車影が出現する方向の推定値と、自車立体形状データに基づく各計測点における影の長さの推定値を算出する。さらに、これらの情報を統合して自車影推定領域を生成する。ここで、自車影推定領域は、自車立体形状データベース160に保存された自車立体形状データを構成する点一つ一つに対応する路面上の点である。よって、n個の二次元の座標(X,Y)のデータとして扱い、SP[n]→{X,Y}で表現される配列として構成される。
自車影領域検出手段130は、自車影領域推定手段120によって得られた自車影推定領域を用いて車両周辺撮像装置300で撮像された画像の中から自車影領域を検出する。
画像補正手段140は、自車影領域検出手段130によって検出された自車影領域に対して輝度とコントラストを補正することで、車両周辺撮像装置300から得られた画像から自車影を除去する。
画像メモリ150は、車両周辺撮像装置300から得られた画像をキャプチャ(保存)する。
自車立体形状データベース160は、自車の三次元データである自車立体形状データを記憶する。自車立体形状データは、自車の外形を三次元の座標(X,Y,Z)として離散化されたn個のデータであり、VP[n]→{X,Y,Z}で表現される配列として構成される。
Example 1
First, the configuration will be described.
〔overall structure〕
FIG. 1 is a configuration diagram of the own vehicle
The own vehicle shadow
The solar position calculation means 110 is based on the information on the latitude, longitude, current date and current time of the current position of the vehicle obtained from the
The own vehicle shadow region estimating means 120 includes the information on the own vehicle traveling direction obtained by the
The own vehicle shadow area detection means 130 detects the own vehicle shadow area from the image captured by the vehicle
The
The
The own vehicle three-
自車影認識制御装置100には、カーナビゲーション装置400、車両周辺撮像装置300、映像出力装置310、障害物認識装置340、白線認識装置341、ユーザーインターフェース320および車載ネットワーク330が直接接続されている。また、車載ネットワーク330を介して、車両周辺測距装置350および照度取得装置351が接続されている。
車両周辺撮像装置300は、少なくとも1つの撮像素子から得られる画像を出力し、自車と路面とが接する範囲を撮像するように車体に設置されたカメラである。例えば、図2に示すように自車1の後方に後方撮像装置300Rrを取り付け、自車後方の範囲301Rrを撮像するように設置してもよい。また、図3に示すように、自車1の前後左右に撮像素子(300Fr,300Rr,300L,300R)を配置し、自車1の全周囲を撮像範囲(301Fr,301Rr,301L,301R)としてもよい。実施例1では、図3に示した自車1の前後左右に撮像素子を配置した構成を採用している。また、実施例1の車両周辺撮像装置300は、4つの撮像素子から得られた各撮像画像を合成し、車両の真上から見たような画像(俯瞰画像)に変換する機能を有する(俯瞰画像作成手段に相当)。
映像出力装置310は、画像補正手段140によって自車影領域を補正された映像を表示する。
ユーザーインターフェース320は、ユーザー(運転者)が自車影認識装置11による自車影認識システムを操作するためのスイッチ類とインジケータ類とにより構成される。例えば、システムの起動状態をLEDの点灯状態で表現したり、システムを強制的に起動したり、逆に強制的に無効状態にする機能を持つ。
車載ネットワーク330は、車両に搭載された複数のコントロールユニット間の情報を共有するためのネットワークであり、代表的な規格としては、CAN(controller Area Network)やFlex Rayなどが挙げられる。この車載ネットワーク330には、例えば、車速情報やステアリング角度、シフトポジションの情報、各種ランプ類のON/OFF状態、ワイパーの動作状態の情報等が含まれる。これらの情報以外にも、車載ネットワーク330に接続されているコントローラやセンサであれば、それら全ての情報を取得することが可能である。
障害物認識装置340は、自車影認識制御装置100によって自車影が除去された画像から障害物を認識してユーザーに警告を促す。
白線認識装置341は、自車影認識制御装置100によって自車影が除去された画像から道路上にペイントされた白線を認識し、自車がレーンから逸脱しないように警報すると共に、レーンからの逸脱を防止するための制御を行う。
車両周辺測距装置350は、自車周辺に存在する立体物までの距離を計測する測距センサを備え、測距センサの情報から立体物の大きさや形状を算出する機能を持つ。実施例1では、図4に示すように、測距センサとして自車周囲に超音波センサ5a〜5jを配置し、自車1の前後左右に存在する立体物までの距離を計測する。
A
The vehicle
The
The
The in-
The
The white
The vehicle periphery
〔自車影除去処理〕
図5は、実施例1の自車影認識制御装置100で実行される自車影除去処理の流れを示すフローチャートで、以下、各ステップについて説明する。
ステップS100では、情報取得処理を実施し、ステップS200へ移行する。
ステップS200では、起動判定処理を実施し、ステップS300へ移行する。ステップS200は、起動判定手段に相当する。
ステップS300では、太陽位置算出手段110において、太陽位置算出処理を実施し、ステップS400へ移行する。
ステップS400では、自車影領域推定手段120において、自車影領域推定処理を実施し、ステップS500へ移行する。
ステップS500では、自車影領域検出手段130において、自車影領域検出処理を実施し、ステップS600へ移行する。
ステップS600では、画像補正手段140において、画像の輝度補正処理を実施し、リターンへ移行する。
以下、各処理の詳細について説明する。
[Self-vehicle shadow removal processing]
FIG. 5 is a flowchart showing the flow of the vehicle shadow removal process executed by the vehicle shadow
In step S100, an information acquisition process is performed, and the process proceeds to step S200.
In step S200, an activation determination process is performed, and the process proceeds to step S300. Step S200 corresponds to activation determination means.
In step S300, the solar position calculation means 110 performs a solar position calculation process, and the process proceeds to step S400.
In step S400, the own vehicle shadow region estimation means 120 performs own vehicle shadow region estimation processing, and the process proceeds to step S500.
In step S500, the own vehicle shadow area detection means 130 performs own vehicle shadow area detection processing, and the process proceeds to step S600.
In step S600, the image correction means 140 performs image brightness correction processing, and the process proceeds to return.
Details of each process will be described below.
〔情報取得処理〕
図6は、実施例1の情報取得処理の流れを示すフローチャートで、以下、各ステップについて説明する。
ステップS110では、車載ネットワーク330で共有されている各種情報をバッファリングし、ステップS120へ移行する。
ステップS120では、カーナビゲーション装置400から提供される現在位置情報を受信し、ステップS130へ移行する。
ステップS130では、車両に搭載された各種センサで、車載ネットワーク330に接続されていないセンサからの情報を取得し、本制御を終了する。
以上のように、情報取得処理では、自車影除去処理を行うための各種情報を車載ネットワーク330やカーナビゲーション装置400等から取得する。
[Information acquisition processing]
FIG. 6 is a flowchart showing the flow of information acquisition processing according to the first embodiment. Each step will be described below.
In step S110, various types of information shared by the in-
In step S120, the current position information provided from
In step S130, information from sensors not connected to the in-
As described above, in the information acquisition process, various information for performing the own vehicle shadow removal process is acquired from the in-
〔起動判定処理〕
図7は、実施例1の起動判定処理の流れを示すフローチャートで、以下、各ステップについて説明する。
ステップS205では、「自動判定モード」であるか否かを判定する。YESの場合にはステップS210へ移行し、NOの場合にはステップS250へ移行する。「自動判定モード」とは、自車影認識システムの起動の可否を、後段の判定処理(ステップS210,S215,S220,S230,S240)の結果に応じて自動的に判定するモードである。
ステップS210では、現在の太陽高度が所定の閾値よりも高いか否かを判定する。YESの場合にはステップS215へ移行し、NOの場合には自車影除去処理を終了する。ここで、閾値は、日の出の太陽高度以上の値とする。
ステップS215では、照度取得装置351が装備されているか否かを判定する。YESの場合にはステップS220へ移行し、NOの場合にはステップS230へ移行する。
ステップS220では、車載ネットワーク330から得られた照度取得装置351の情報が所定の閾値よりも高いか否かを判定する。YESの場合には本制御を終了し、NOの場合には自車影除去処理を終了する。ここで、閾値は、自車影が発生する日射量とする。
ステップS230では、車載ネットワーク330から得られたワイパーの動作状態情報に基づき、所定時間連続してワイパーが停止しているか否かを判定する。YESの場合にはステップS240へ移行し、NOの場合には自車影除去処理を終了する。ワイパーが所定時間連続して停止している状態であれば、降雨中ではないと判断できる。
ステップS240では、自車のヘッドライトが消灯しているか否かを判定する。YESの場合には本制御を終了し、NOの場合には自車影除去処理を終了する。ヘッドライトが消灯している場合、自車周囲が十分に明るく、自車影が発生する可能性が高いと判断できる。
ステップS250では、マニュアル起動SW(スイッチ)がONであるか否かを判定する。YESの場合には本制御を終了し、NOの場合には自車影除去処理を終了する。ここで、マニュアル起動SWは、ユーザーが自車影認識システムを起動するためのスイッチであり、スイッチのON/OFF状態は内部メモリに保存される。
以上のように、起動判定処理では、「自動判定モード」である場合、日の出後で自車影が発生すると判断されたとき、または、日の出後で降雨中ではなく、自車周囲が十分に明るいと判断されたとき、太陽位置算出処理(ステップS300)へと進み、それ以外のときは自車影除去処理を終了する(ステップS100に戻る。)。一方、「自動判定モード」でない場合、ユーザーがマニュアル起動SWをONしているとき、太陽位置算出処理へと進み、マニュアル起動SWがOFFのとき、自車影除去処理を終了する。
[Startup judgment processing]
FIG. 7 is a flowchart showing the flow of the activation determination process according to the first embodiment. Each step will be described below.
In step S205, it is determined whether or not the “automatic determination mode” is set. If YES, the process moves to step S210, and if NO, the process moves to step S250. The “automatic determination mode” is a mode for automatically determining whether or not the own vehicle shadow recognition system can be activated according to the result of the subsequent determination processing (steps S210, S215, S220, S230, and S240).
In step S210, it is determined whether or not the current solar altitude is higher than a predetermined threshold. If YES, the process proceeds to step S215. If NO, the vehicle shadow removal process is terminated. Here, the threshold value is a value equal to or higher than the solar altitude at sunrise.
In step S215, it is determined whether or not the
In step S220, it is determined whether the information of the
In step S230, based on the wiper operation state information obtained from the in-
In step S240, it is determined whether or not the headlight of the host vehicle is turned off. If YES, this control is terminated, and if NO, the vehicle shadow removal process is terminated. When the headlight is turned off, it can be determined that the surrounding area of the host vehicle is sufficiently bright and that the possibility of occurrence of a shadow of the host vehicle is high.
In step S250, it is determined whether or not the manual activation SW (switch) is ON. If YES, this control is terminated, and if NO, the vehicle shadow removal process is terminated. Here, the manual activation SW is a switch for the user to activate the vehicle shadow recognition system, and the ON / OFF state of the switch is stored in the internal memory.
As described above, in the activation determination process, in the “automatic determination mode”, when it is determined that the vehicle shadow will occur after sunrise, or after the sunrise, it is not raining and the surroundings of the vehicle is sufficiently bright When it is determined, the process proceeds to the sun position calculation process (step S300), and otherwise, the vehicle shadow removal process ends (returns to step S100). On the other hand, when not in the “automatic determination mode”, when the user activates the manual activation SW, the process proceeds to the sun position calculation process. When the manual activation SW is OFF, the vehicle shadow removal process is terminated.
〔太陽位置算出処理〕
図8は、実施例1の太陽位置算出処理の流れを示すフローチャートで、以下、各ステップについて説明する。
ステップS310では、カーナビゲーション装置400から提供される現在位置の緯度と経度の情報を取得し、ステップS320へ移行する。
ステップS320では、カーナビゲーション装置400から提供される現在の日にちと時刻を取得し、ステップS330へ移行する。
ステップS330では、カーナビゲーション装置400から提供される現在位置の標準子午線情報を取得し、ステップS340へ移行する。
ステップS340では、ステップS310,S320,S330で取得した各情報に基づいて太陽の高度と方位角を算出し、本制御を終了する。
以上のように、太陽位置算出処理では、カーナビゲーション装置400から提供される現在位置の緯度と経度の情報、現在の日にちと時刻の情報、現在位置の標準子午線情報に基づいて、太陽の高さと方位角、すなわち、太陽の位置を算出する。
[Sun position calculation processing]
FIG. 8 is a flowchart illustrating the flow of the solar position calculation process according to the first embodiment. Each step will be described below.
In step S310, the latitude and longitude information of the current position provided from the
In step S320, the current date and time provided from the
In step S330, the standard meridian information of the current position provided from the
In step S340, the sun's altitude and azimuth are calculated based on the information acquired in steps S310, S320, and S330, and this control is terminated.
As described above, in the solar position calculation process, based on the latitude and longitude information of the current position provided from the
以下、ステップS340における太陽の高度と方位角の算出方法について説明する。
太陽の位置を算出する際には、図9に示す天球の座標系を用いる。自車1の重心を原点Oに取り、南Sを+Y、北Nを-Y、西Wを+X、東Eを-Xとする。
太陽の高度hと方位角Aは、それぞれ真南に向かって東側が負、西側が正と定義でき、それぞれの算出式は、下記の式(1),(2)で表される。
h = sin-1(sin(φ)sin(δ) + cos(φ)cos(δ)cos(t)) …(1)
A = sin-1{(cos(δ)sin(t)) / cos(h)} …(2)
ここで、φは現在位置の緯度である。また、δは太陽赤緯、tは時角を表し、それぞれの算出式を下記の式(3),(4)に示す。
δ = 0.33281 - 22.984cos(ωJ) - 0.34990cos(2ωJ) - 0.13980cos(3ωJ)
+ 3.7872sin(ωJ) + 0.0325sin(2ωJ) + 0.07187sin(3ωJ) …(3)
t = 15°T - 180° …(4)
ただし、ω = 2π/365(閏年の場合は、ω = 2π/366)、J = 元日からの通算日数+0.5とする。
ここで、Tは真太陽時であり、算出式を下記の式(5)に示す。
T = Ts + (L - Ms) / 15° + e …(5)
ここで、現在のTsは中央標準時、現在位置の緯度、Msは標準子午線である(日本の場合は135°)。また、eは均時差であり、算出式を下記の式(6)に示す。
e = 0.0072cos(ωJ) - 0.0528cos(2ωJ) - 0.0012cos(3ωJ)
- 0.1229sin(ωJ) - 0.1565sin(2ωJ) - 0.0041sin(3ωJ) …(6)
ただし、ω = 2π/365(閏年の場合は、ω = 2π/366)、J = 元日からの通算日数+0.5とする。
Hereinafter, a method for calculating the altitude and azimuth of the sun in step S340 will be described.
When calculating the position of the sun, the coordinate system of the celestial sphere shown in FIG. 9 is used. Take the center of gravity of your
The solar altitude h and azimuth angle A can be defined as negative toward the south and positive at the east, respectively, and the respective calculation formulas are expressed by the following formulas (1) and (2).
h = sin -1 (sin (φ) sin (δ) + cos (φ) cos (δ) cos (t))… (1)
A = sin -1 {(cos (δ) sin (t)) / cos (h)}… (2)
Here, φ is the latitude of the current position. Further, δ represents the solar declination, t represents the hour angle, and the respective calculation formulas are shown in the following formulas (3) and (4).
δ = 0.33281-22.984cos (ωJ)-0.34990cos (2ωJ)-0.13980cos (3ωJ)
+ 3.7872sin (ωJ) + 0.0325sin (2ωJ) + 0.07187sin (3ωJ)… (3)
t = 15 ° T-180 °… (4)
However, ω = 2π / 365 (in the case of leap years, ω = 2π / 366), and J = total number of days from the first day +0.5.
Here, T is true solar time, and the calculation formula is shown in the following formula (5).
T = Ts + (L-Ms) / 15 ° + e… (5)
Here, the current Ts is Central Standard Time, the latitude of the current position, and Ms is the standard meridian (135 ° in Japan). Further, e is a time difference, and the calculation formula is shown in the following formula (6).
e = 0.0072cos (ωJ)-0.0528cos (2ωJ)-0.0012cos (3ωJ)
-0.1229sin (ωJ)-0.1565sin (2ωJ)-0.0041sin (3ωJ)… (6)
However, ω = 2π / 365 (in the case of leap years, ω = 2π / 366), and J = total number of days from the first day +0.5.
〔自車影領域推定処理〕
図10は、実施例1の自車影領域推定処理の流れを示すフローチャートで、以下、各ステップについて説明する。
ステップS410では、太陽位置算出処理(ステップS300)で得られた太陽の高度hと方位角Aを読み込み、ステップS420へ移行する。
ステップS420では、カーナビゲーション装置400から提供される自車進行方向情報を取得し、ステップS430へ移行する。
ステップS430では、自車立体形状データベース160にあらかじめ自車立体形状データとして保存してある三次元座標VP[n]を読み込み、ステップS440へ移行する。
ステップS440では、ステップS410,S420,S430で取得した各情報に基づいて自車影が発生する推定領域を算出する。図11を用いて自車影推定領域3の算出方法を説明する。まず、太陽の高度hおよび方位角Aと、自車進行方向と、自車立体形状データとから、自車1の影が出現する方向の推定値θs^と、自車立体形状データに基づく各計測点VP[n]における影SP[n]の長さの推定値L^[n]を算出する。ここで、自車進行方向をθv、自車立体形状データに基づく各計測点の高さをH[n](= VP[n]→Z)とすると、自車影の方向の推定値θs^と、各計測点VP[n]における自車影の長さの推定値L^[n](= {(SP[n]→X)2 + (SP[n]→Y)2}1/2)は、下記の式(7),(8)で算出される。
θs^ = A -θv^ = sin-{(cos(δ)sin(t)) / cos(h)} -θv^ …(7)
L^[n] = H[n]cot(h) …(8)
上記式(7),(8)によって自車影SP[n]の点群を逐次算出し、これらの点群を統合することで、最終的に自車影推定領域3が算出される。
ステップS445では、ステップS440で算出された自車影推定領域が車両周辺撮像装置300の撮像範囲に入っているか否かを判定する。YESの場合にはステップS450へ移行し、NOの場合には自車影除去処理を終了する。
ステップS450では、車両周辺測距装置350で集約した各超音波センサ5a〜5jの計測値を車両周辺の距離情報として取得し、ステップS455へ移行する。
ステップS455では、ステップS455で取得した車両周辺の距離情報に基づき、自車影推定領域に所定以上の大きさの障害物(壁などの立体物)が存在するか否かを判定する。YESの場合にはステップS470へ移行し、NOの場合にはステップS460へ移行する。ここで、自車影推定領域に所定以上の大きさの障害物が存在する場合、自車影は路面上以外に、当該障害物にも投影していると推定できるため、ステップS460へと進み、自車影推定領域を補正する処理を行う必要がある。
[Self-vehicle shadow area estimation processing]
FIG. 10 is a flowchart showing the flow of the own vehicle shadow area estimation process according to the first embodiment. Each step will be described below.
In step S410, the solar altitude h and azimuth angle A obtained in the solar position calculation process (step S300) are read, and the process proceeds to step S420.
In step S420, own vehicle traveling direction information provided from
In step S430, the three-dimensional coordinates VP [n] stored in advance in the vehicle three-
In step S440, an estimated region where the own vehicle shadow is generated is calculated based on each information acquired in steps S410, S420, and S430. A method of calculating the own vehicle
θ s ^ = A -θ v ^ = sin-{(cos (δ) sin (t)) / cos (h)} -θ v ^… (7)
L ^ [n] = H [n] cot (h)… (8)
By calculating the point cloud of the own vehicle shadow SP [n] by the above formulas (7) and (8) and integrating these point groups, the own vehicle
In step S445, it is determined whether or not the own vehicle shadow estimation area calculated in step S440 is within the imaging range of the vehicle
In step S450, the measurement values of the
In step S455, based on the distance information around the vehicle acquired in step S455, it is determined whether or not an obstacle (a solid object such as a wall) having a size larger than a predetermined size exists in the own vehicle shadow estimation area. If YES, the process moves to step S470, and if NO, the process moves to step S460. Here, when there is an obstacle of a predetermined size or more in the own vehicle shadow estimation area, it can be estimated that the own vehicle shadow is projected on the obstacle other than on the road surface, so the process proceeds to step S460. It is necessary to perform processing for correcting the vehicle shadow estimation area.
ステップS460では、ステップS440で算出された自車影推定領域の座標系を画像座標系に変換し、ステップS480へ移行する。世界座標系の点から画像座標系に変換する方法を説明する。下記の式(9)に示すように、世界座標系の三次元点(X,Y,Z)は、投影された画像中の点(u,v)に射影される。式(9)において、λはスケール係数、Pは3行4列の射影行列である。なお、この射影行列Pは、カメラキャリブレーションによって事前に算出される。カメラキャリブレーションとは、世界座標と車両周辺撮像装置300のカメラ画像座標とを関係付けることをいう。
ステップS470では、ステップS455により自車影が障害物にも投影していると推定されたため、自車影推定領域補正処理を実施し、ステップS460へ移行する。実施例1の自車影推定領域補正処理の流れを図12に示す。まず、ステップS471では、ステップS450で計測された障害物までの距離Dを取得し、続くステップS472では、障害物による自車影推定領域の変形量を算出し、変形量に応じて自車影推定領域を補正する。図13に示すように、自車1の側方に壁10が存在し、この壁10に自車影2が射影している場合、自車影2は路面領域7の自車影2aと壁領域の自車影2bに分類できる。今、自車立体形状データの代表点VPの高さをH、壁10が存在しない場合の自車影2の推定領域の長さをLとする。また、路面領域7と壁10との接点をSP(XSP,YSP,ZSP)、壁領域における自車影2bの点をSPW(XSPW,YSPW,ZSPW)とする。ステップS471で取得された自車1と壁10との距離がDの場合、点SPと点SPWはそれぞれ下記の式(11),(12)で表される。なお、便宜的に世界座標系の原点を点SPとしている。
ステップS480では、推定された自車影推定領域を自車影推定パターンとしてメモリに保存し、本制御を終了する。
以上のように、自車影領域推定処理では、太陽の高度hと方位角Aの情報、自車進行方向の情報、自車立体形状データに基づいて自車影推定領域を算出した後、撮像範囲に自車影が含まれると判断された場合、自車影推定領域を世界座標系から画像座標系に変換し、推定された領域の特徴を自車影推定パターンとして記憶する。このとき、自車影が障害物にも投影していると判断された場合、障害物による自車影の変形量に応じて自車影推定領域を補正した後、座標系の変換および自車影推定パターンの記憶を行う。
In step S460, the coordinate system of the own vehicle shadow estimation area calculated in step S440 is converted into an image coordinate system, and the process proceeds to step S480. A method of converting from a point in the world coordinate system to an image coordinate system will be described. As shown in the following equation (9), the three-dimensional point (X, Y, Z) in the world coordinate system is projected onto the point (u, v) in the projected image. In Equation (9), λ is a scale factor, and P is a projection matrix with 3 rows and 4 columns. The projection matrix P is calculated in advance by camera calibration. Camera calibration refers to associating world coordinates with the camera image coordinates of the vehicle
In step S470, since it is estimated that the own vehicle shadow is also projected on the obstacle in step S455, the own vehicle shadow estimation area correction process is performed, and the process proceeds to step S460. FIG. 12 shows the flow of the vehicle shadow estimation area correction process according to the first embodiment. First, in step S471, the distance D to the obstacle measured in step S450 is acquired, and in the subsequent step S472, the deformation amount of the own vehicle shadow estimation area due to the obstacle is calculated, and the own vehicle shadow is calculated according to the deformation amount. Correct the estimated area. As shown in FIG. 13, when the
In step S480, the estimated vehicle shadow estimation area is stored in the memory as a vehicle shadow estimation pattern, and this control is terminated.
As described above, in the own vehicle shadow region estimation process, after calculating the own vehicle shadow estimation region based on the information on the sun altitude h and the azimuth angle A, the information on the own vehicle traveling direction, and the own vehicle solid shape data, When it is determined that the vehicle shadow is included in the range, the vehicle shadow estimation area is converted from the world coordinate system to the image coordinate system, and the characteristics of the estimated area are stored as the vehicle shadow estimation pattern. At this time, if it is determined that the own vehicle shadow is also projected on the obstacle, after correcting the own vehicle shadow estimation area according to the deformation amount of the own vehicle shadow caused by the obstacle, the coordinate system conversion and the own vehicle are corrected. The shadow estimation pattern is stored.
〔自車影領域検出処理〕
図14は、実施例1の自車影領域検出処理の流れを示すフローチャートで、以下、各ステップについて説明する。
ステップS510では、車両周辺撮像装置300によって撮像された画像を画像メモリ150にキャプチャし、ステップS520へ移行する。
ステップS520では、ステップS400で計算した自車影推定パターンに基づき、自車影を探索する領域を設定し、ステップS530へ移行する。ここで、自車影を探索する領域は、ステップS400で計算された自車影推定パターンに比べて所定画素分だけ広い領域(例えば、5画素分だけ自車影推定パターンを膨張させた領域)に設定される。また、この自車影を探索する領域の設定値(膨張率等)は、各ステップにおける計算誤差やセンサの計測誤差等を考慮して可変としてもよい。これにより、ステップS400で計算された自車影推定パターンが種々の計算誤差によって実際の自車影領域に比べて狭い領域として推定された場合でも、自車影を含む領域に設定できる。また、自車影を探索する領域の設定値を可変にすることで、より確実に自車影を含む領域として設定できる。
ステップS530では、ステップS520で設定された探索領域に対して、輝度と形状の特徴を用いて自車影候補領域を抽出し、ステップS540へ移行する。ここでは、輝度の特徴として、自車影領域は周囲に比べて相対的に輝度が低くなっていることを利用する。また、形状特徴として、自車影領域は必ず自車と路面との接地面から伸びていることを利用する。これにより、自車影領域推定手段120(ステップS520)によって得られた自車影推定パターンの情報を用いて画像の探索領域を限定できるため、処理の高速化が期待できる。
ステップS540では、ステップS530で抽出された自車影候補領域と、ステップS400で算出された自車影推定パターンとのパターン照合を行い、ステップS550へ移行する。
ステップS550では、ステップS540のパターン照合の結果で算出された類似度が所定の閾値より大きいか否かを判定する。YESの場合にはステップS570へ移行し、NOの場合にはステップS560へ移行する。
ステップS560では、ステップS530で自車影候補領域の輝度、形状抽出を行う際の閾値をそれぞれ変更し、ステップS530へ移行する。
ステップS570では、自車影候補領域を自車影領域と確定し、本制御を終了する。
以上のように、自車影領域検出処理では、自車影推定パターンに基づいて自車影を探索する領域を設定し、設定した探索領域に対して自車影領域の輝度および形状の特徴を用いて自車影候補領域を抽出し、抽出した自車影候補領域と自車影推定パターンとの類似度が閾値を超えた場合、自車影候補領域を自車影領域と確定する。ここで、類似度が閾値以下であると判定された場合、自車影候補領域を抽出する際に用いる輝度および形状の閾値を変更する。
[Vehicle shadow area detection processing]
FIG. 14 is a flowchart showing the flow of the own vehicle shadow area detection process according to the first embodiment. Each step will be described below.
In step S510, the image captured by the vehicle
In step S520, an area for searching for the own vehicle shadow is set based on the own vehicle shadow estimation pattern calculated in step S400, and the process proceeds to step S530. Here, the area for searching for the own vehicle shadow is an area wider than the own vehicle shadow estimation pattern calculated in step S400 by a predetermined pixel (for example, an area in which the own vehicle shadow estimation pattern is expanded by 5 pixels). Set to In addition, the set value (expansion rate or the like) of the area for searching for the own vehicle shadow may be variable in consideration of calculation errors in each step, sensor measurement errors, and the like. Thereby, even when the vehicle shadow estimation pattern calculated in step S400 is estimated as a narrower region than the actual vehicle shadow region due to various calculation errors, it can be set to a region including the vehicle shadow. In addition, by making the set value of the area for searching for the own vehicle shadow variable, it is possible to set the area including the own vehicle shadow more reliably.
In step S530, the vehicle shadow candidate region is extracted from the search region set in step S520 using the characteristics of luminance and shape, and the process proceeds to step S540. Here, as a feature of the brightness, the fact that the brightness of the own vehicle shadow area is relatively lower than the surrounding area is used. As a shape feature, the fact that the own vehicle shadow region always extends from the ground contact surface between the own vehicle and the road surface is used. As a result, the search area of the image can be limited by using the information of the own vehicle shadow estimation pattern obtained by the own vehicle shadow area estimating means 120 (step S520), so that the processing speed can be expected.
In step S540, pattern matching between the own vehicle shadow candidate area extracted in step S530 and the own vehicle shadow estimation pattern calculated in step S400 is performed, and the process proceeds to step S550.
In step S550, it is determined whether the similarity calculated as a result of pattern matching in step S540 is greater than a predetermined threshold. If YES, the process moves to step S570, and if NO, the process moves to step S560.
In step S560, the threshold values for extracting the brightness and shape of the vehicle shadow candidate region in step S530 are changed, and the process proceeds to step S530.
In step S570, the own vehicle shadow candidate area is determined as the own vehicle shadow area, and this control is terminated.
As described above, in the vehicle shadow area detection process, the area for searching for the vehicle shadow is set based on the vehicle shadow estimation pattern, and the luminance and shape characteristics of the vehicle shadow area are set with respect to the set search area. The vehicle shadow candidate region is extracted using the vehicle shadow candidate region, and when the similarity between the extracted vehicle shadow candidate region and the vehicle shadow estimation pattern exceeds a threshold, the vehicle shadow candidate region is determined as the vehicle shadow region. Here, when it is determined that the similarity is equal to or less than the threshold value, the luminance and shape threshold values used when extracting the own vehicle shadow candidate region are changed.
〔画像の輝度補正処理〕
図15は、実施例1の画像の輝度補正処理の流れを示すフローチャートで、以下、各ステップについて説明する。
ステップS610では、ステップS500によって確定された自車影領域の内側(内部)の平均輝度値Iavrsと、自車影領域の外側(外部)の日射領域の平均輝度値Iavrrを取得する。なお、図16(a)に示すように、日射領域6は、自車影領域4を所定の画素分だけ膨張させた領域(例えば、5画素分だけ自車影領域4を膨張させた領域)とする。日射領域6を自車影領域4よりも所定画素膨張させた領域とすることで、路面のペイントや汚れや路側の構造物、走行車両などのノイズの影響を軽減できるため、より確実に影領域の輝度を補正できる。
ステップS620では、ステップS610で算出された自車影領域4の平均輝度値Iavrsと日射領域6の平均輝度値Iavrrから自車影領域4の輝度補正パラメータαを下記の式(14)を用いて決定し、ステップS630へ移行する。
α = Iavrr / Iavrs …(14)
ステップS630では、ステップS620で算出された輝度補正パラメータαに基づき、自車影領域4の輝度を補正し、本制御を終了する。画像中の自車影領域の画素数をm、補正前における自車影領域の点iの輝度値をIs[i]とすると、補正後の輝度値Is'[i]は下記の式(15)で表される。
Is'[i] = αIs[i](i = 1,2,…,m) …(15)
以上のように、輝度補正処理では、自車影領域4の平均輝度値Iavrsと日射領域の平均輝度値Iavrrから自車影領域の輝度補正パラメータαを求め、輝度補正パラメータαを用いて自車影領域4を補正する。これにより、図16(a)に示すように、自車影領域4によって白線8の輝度値が低く見えづらい状況であっても、自車影領域4の視認性を向上できる(図16(b))。さらに、自車影領域4のみの輝度値を補正するため、日射状態にある路面領域7や白線8については補正前の輝度と同じであり、視認性を悪化させることもない。
[Image brightness correction processing]
FIG. 15 is a flowchart showing the flow of image brightness correction processing according to the first embodiment. Each step will be described below.
At step S610, the obtaining the average luminance value I AVRs inner ascertained vehicle shadow regions (internal) in step S500, the average luminance value I Avrr insolation region outside (external) of Jikurumakage region. As shown in FIG. 16 (a), the solar radiation area 6 is an area in which the
In step S620, the equation (14) from the average luminance value I Avrr the average luminance value I AVRs and solar radiation region 6 of the calculated
α = I avrr / I avrs … (14)
In step S630, the brightness of the
I s ' [i] = αI s [i] (i = 1,2,…, m)… (15)
As described above, in the brightness correction process, the brightness correction parameter α of the own vehicle shadow area is obtained from the average brightness value I avrs of the own
次に、作用を説明する。
〔従来の自車影認識の問題点〕
これまでに、車両の後方にカメラを搭載し、車両後退時におけるユーザーの視界を補助する装置が実用化されている。さらに、近年では、車両に複数のカメラを搭載し、車両の後方だけでなく全周囲の視界を補助する装置も実用化させている。これらのシステムでは、ユーザーの視界を確保することが主目的であり、カーナビゲーションシステム等の画面に表示された映像をユーザーが直接目視して周囲の安全確認を行っている。また、カメラで撮像された画像から自動的に障害物を判断してユーザーに注意を促すシステムも考案されている。
以上のように、ユーザーが直接画像を目視して安全確認を行う場合でも、システムが自動的に障害物を認識する場合でも、判断元となる情報はカメラで撮影された画像である。つまり、両者とも撮像された画像の明るさやコントラスト等が視認性に大きく影響する。特に、車両に搭載されるカメラはコストを抑えるために輝度のダイナミックレンジが狭いものが多く、シーンによっては十分な視認性を確保することが困難である。例えば、日中の晴天時において、直射日光が当たっている路面と自車影により暗い領域とが存在する場合、カメラの露光制御は一般的に面積が大きい方の明るさを基準とするため、直射日光の当たっている路面を基準に輝度が補正される。この結果、自車影領域は輝度、コントラスト共に低い映像となり、視認性が低下してしまう。
このような課題に対して、これまでに自車影を認識する技術が考案されている。例えば、上記特許文献1記載の発明では、車載カメラの撮像画像に太陽が写ったときに発生するスミア(smear;CCDイメージセンサを用いたカメラで周囲より極端に明るい被写体を撮影した際に白飛びする現象)を利用して太陽の位置を推定し、自車影の位置を特定している。また、別の手段として、車両の現在位置の情報と、太陽の位置に関する情報を登録したデータベースと時刻の情報に基づいて自車影の位置を特定する技術も知られている。さらに、これらの手段で特定した自車影の位置に対応する部分の輝度を補正し、影のない画像を生成している。
Next, the operation will be described.
[Problems of conventional vehicle shadow recognition]
Until now, a device that has a camera mounted behind the vehicle and assists the user's field of view when the vehicle moves backward has been put into practical use. Furthermore, in recent years, a device in which a plurality of cameras are mounted on a vehicle and assists the entire field of view as well as the rear of the vehicle has been put into practical use. In these systems, the main purpose is to ensure the user's field of view, and the user directly checks the image displayed on the screen of a car navigation system or the like to confirm the safety of the surroundings. In addition, a system has been devised that automatically determines an obstacle from an image captured by a camera and alerts the user.
As described above, whether the user directly checks the image for safety confirmation or the system automatically recognizes an obstacle, the information that is the determination source is an image taken by the camera. That is, in both cases, the brightness, contrast, and the like of the captured images greatly affect the visibility. In particular, cameras mounted on vehicles often have a narrow dynamic range of luminance in order to reduce costs, and it is difficult to ensure sufficient visibility depending on the scene. For example, when there is a road area that is exposed to direct sunlight and a dark area due to the shadow of the vehicle, the camera exposure control is generally based on the brightness of the larger area. The brightness is corrected based on the road surface exposed to direct sunlight. As a result, the shadow area of the own vehicle becomes an image with low brightness and contrast, and visibility is lowered.
In order to solve such a problem, a technique for recognizing the shadow of the own vehicle has been devised. For example, in the invention described in
ところが、特許文献1記載の発明では、太陽の位置から自車に対して影ができる位置、すなわち、影ができる方向のみを推定するものであるため、自車以外(樹木、建物、人等)の影やその他のノイズ成分を自車影の一部と誤認識し、不必要な領域まで補正してしまう可能性がある。また、推定された自車影と類似する立体物が自車周辺に存在する場合、それを自車影と誤認識する可能性がある。また、狭い路地や駐車場などのシーンにおいて、自車影は路面だけではなく壁面などの構造物に射影することも考えられる。このようなシーンで自車影領域を推定する場合には、構造物までの距離を計測する必要があるため、特許文献1記載の方法では、自車影領域を正確に特定することが困難である。加えて、スミアを利用する方法では、CMOSセンサを用いたカメラではスミアが発生しないことから、太陽の位置を算出できない。また、太陽の高度が高く、カメラの撮像範囲に入らない場合、スミアが発生しないため、太陽の位置を算出できない。
一方、全国各地の太陽の位置(高度、方位角)情報をデータベース(離散化されたテーブルデータ)として保存し、時刻の情報に基づいて自車影の位置を特定するものでは、登録地点の数を減らすと情報量が抑えられるが、分解能が低下するため自車影領域の検出精度が低下する。逆に登録地点の数を増やすと、分解能は高くなるが、情報量が肥大化してコストアップを招く。
さらに、従来の自車影認識装置では、自車影の位置を特定する機能の起動・終了トリガがないため、夜間や天候不良等、影が発生しない状況でも実行されることが想定され、消費電力の増加につながる。
However, in the invention described in
On the other hand, in the case of storing the position (altitude, azimuth) information of the sun around the country as a database (discretized table data) and specifying the position of the own vehicle shadow based on the time information, the number of registration points If the amount is reduced, the amount of information can be reduced, but the resolution is lowered, so that the detection accuracy of the own vehicle shadow region is lowered. Conversely, when the number of registration points is increased, the resolution is increased, but the amount of information is enlarged, resulting in an increase in cost.
Furthermore, in the conventional vehicle shadow recognition device, since there is no start / end trigger for the function to identify the position of the vehicle shadow, it is assumed that it will be executed even in situations where no shadows occur, such as nighttime and bad weather. This leads to an increase in power.
〔自車影推定作用〕
これに対し、実施例1の自車影認識装置11は、太陽の高度hおよび方位角Aと、自車進行方向θvと、自車立体形状データ(影の外形の頂点座標)とに基づいて、自車影が出現する方向の推定値θs^と、自車立体形状データに基づく各計測点VP[n]における影SP[n]の長さの推定値L^[n]を算出し、これらの情報を統合して自車影推定領域を推定する自車影領域推定手段120を備える。つまり、影ができる方向だけでなく、自車立体形状データに基づいて自車影の形状を推定しているため、自車以外の影やその他のノイズ成分を自車影の一部と認識することがなく、自車影領域の推定精度を高めることができる。
〔自車影検出作用〕
また、自車影認識装置11は、車両周辺撮像装置300によって撮像された画像から自車影推定領域(自車影推定パターン)に基づいて自車影を探索する領域を設定し、当該領域に対して自車影領域の輝度と形状の特徴を用いて抽出した自車影候補領域を自車影推定パターンと比較して自車影領域を特定する自車影領域検出手段130を備える。つまり、精度の高い自車影推定領域に基づいて自車影領域を特定するため、他の構造物の影や路面の汚れなどのノイズに対してロバストであり、高精度に自車影領域を検出できる。
〔自車影領域除去作用〕
さらに、自車影認識装置11は、確定した自車影領域の外側(日射領域)の平均輝度値Iavrrと自車影領域の平均輝度値Iavrsとから輝度補正パラメータα(Iavrr / Iavrs)を算出し、自車影領域の各画素の輝度を輝度補正パラメータαにより補正する画像補正手段140を備える。よって、自車影領域の外側の視認性を悪化させることなく、自車影領域の輝度のみを自車影領域の外側の輝度に応じて明るくでき、自車影領域の視認性向上を図ることができる。
(Self-vehicle shadow estimation effect)
On the other hand, the own vehicle
[Self-vehicle shadow detection]
In addition, the vehicle
(Self-vehicle shadow area removal action)
Furthermore,
〔太陽位置算出作用〕
自車影認識装置11は、カーナビゲーション装置400から得られる自車の現在位置の緯度、経度、現在の日にちおよび現在の時刻と、自車の現在位置から決定される標準子午線との情報に基づいて、太陽の高度hと方位角Aを算出する太陽位置算出手段110を備える。よって、スミアを利用することなく太陽の位置を算出できるため、車両周辺撮像装置300として、CCDイメージセンサよりも低消費電力で小型化が容易なCMOSセンサを用いることができる。また、カメラの撮像範囲に太陽が入らない場合も太陽の位置を算出できる。さらに、自車の緯度および経度と太陽の位置との関係を保存するための離散化されたデータベースが不要であり、メモリ容量が少なく済むため、コストを抑制できる。
太陽位置算出手段110は、現在位置に対応した標準子午線を考慮して太陽の高度と方位角とを算出するため、全世界のいずれの位置でも自車影認識装置11による自車影認識システムを利用できる。さらに、カーナビゲーション装置400を用いることで、自車の現在位置の情報(緯度、経度)だけでなく、日にちや時刻の情報も同時に取得できる。加えて、一般的なカーナビゲーション装置が備えるマップマッチング機能とデッドレコニング機能から自車進行方向を取得できるため、自車進行方向を取得する装置を別途追加するコストを削減できる。
〔障害物との距離に基づく自車影推定領域補正作用〕
自車影認識装置11は、自車周辺に存在する立体物までの距離を計測する測距センサ(超音波センサ5a〜5j)を有する車両周辺測距装置350を備えるため、自車影の形状に影響を与える自車周辺の障害物までの距離を計測できる。そして、自車影領域推定手段120は、自車周辺に存在する立体物(障害物)による自車影の変形量を推定、変形量に応じて自車影推定領域を補正するため、自車影推定領域を高精度に推定できる。また、超音波センサ5a〜5jは安価であるため、車両周辺に複数装着でき、障害物検出の分解能を高めることができる。
〔システム起動判定作用〕
自車影認識装置11は、車載ネットワーク330から照度取得装置351等の情報を取得し、日の出後で自車影が発生すると判断されたとき、または、日の出後で降雨中ではなく、自車周囲が十分に明るいと判断されたとき、自車影除去処理を実行する。つまり、自車影が発生する状況であると判断した場合にのみ自車影認識システムを起動する。よって、システムを適切なタイミングで起動できると共に、夜間や天候不良等、影が発生しない状況ではシステムが起動しないため、不要な電力消費を抑制できる。また、自車影の有無にかかわらず、ユーザーが手動で自車影除去処理の実行の可否を設定するユーザーインターフェース320を備えるため、ユーザーの意思を優先して自車影除去処理の実行の可否を判定できる。
[Solar position calculation function]
The own vehicle
The sun position calculation means 110 calculates the sun's altitude and azimuth in consideration of the standard meridian corresponding to the current position. Available. Furthermore, by using the
[Car shadow estimation area correction based on distance to obstacle]
Since the own vehicle
[System startup judgment]
The own vehicle
次に、効果を説明する。
実施例1の自車影認識装置11では、以下に列挙する効果を奏する。
(1) 自車が走行している路面を含む範囲を撮像する車両周辺撮像装置300と、自車の現在位置の情報と、現在の日時の情報とから太陽の位置を算出する太陽位置算出手段110と、太陽位置算出手段110で得られた太陽の位置情報と、自車の進行方位情報と、自車の立体形状データとから自車影が発生する領域を推定する自車影領域推定手段120と、自車影領域推定手段120から得られる座標情報に基づき、車両周辺撮像装置300で得られた画像の中から自車影領域を特定する自車影領域検出手段130と、を備えた。これにより、正確な太陽の位置から自車影領域を精度よく求めることができるため、画像の中から自車影領域を高精度に特定できる。
(2) 太陽位置算出手段110は、自車の現在位置に対応する標準子午線の情報から太陽の位置を算出するため、全世界のいずれの位置でも自車影認識システムを利用できる。
(3) 自車影領域内側の輝度情報と自車影領域外側の輝度情報とに基づいて、自車影領域の輝度を補正する画像補正手段140を備えたため、自車影領域の外側の視認性を悪化させることなく、自車影領域の輝度のみを補正でき、自車影領域の視認性向上を図ることができる。
(4) 画像補正手段140によって自車影領域の輝度を補正した画像を映像出力装置310に出力するため、視認性を向上させた自車周囲の映像をユーザーに提供できる。
(5) 自車周辺に存在する立体物までの距離を計測する車両周辺測距装置350を備え、自車影領域推定手段120は、車両周辺測距装置350からの情報を用いて、自車影領域を推定するため、立体物による自車影の変形量を考慮し、より正確な自車影推定領域を算出できる。
(6) 車両に搭載された照度取得装置351から得た情報によって、自車影領域を検出するための処理を起動するか否かを判断する起動判定手段(ステップS200)を備え、起動判定手段は、照度取得装置351からの照度の値が所定の閾値以下である場合、自車影領域を検出するための処理を実行しない。これにより、夜間や天候不良等、影が発生しない状況では自車影領域の検出が行われないため、不要な電力消費を抑制できる。
(7) ユーザーが自車影領域を検出するための処理を起動するか否かを設定できるユーザーインターフェース320を備えたため、ユーザーの意思を優先して自車影領域検出の可否を判定できる。
(8) 車両周辺撮像装置300は、自車の前後左右を撮像するため、自車全周の映像をユーザーに提供できる。
Next, the effect will be described.
The own vehicle
(1) A vehicle
(2) Since the sun position calculation means 110 calculates the position of the sun from the standard meridian information corresponding to the current position of the own vehicle, the own vehicle shadow recognition system can be used at any position in the world.
(3) Since the image correction means 140 for correcting the luminance of the own vehicle shadow region based on the luminance information inside the own vehicle shadow region and the luminance information outside the own vehicle shadow region is provided, it is possible to visually recognize the outside of the own vehicle shadow region. Therefore, it is possible to correct only the luminance of the own vehicle shadow region without deteriorating the performance, and to improve the visibility of the own vehicle shadow region.
(4) Since the image in which the brightness of the own vehicle shadow area is corrected by the image correcting means 140 is output to the
(5) The vehicle surrounding
(6) Start determination means (step S200) that determines whether or not to start processing for detecting the own vehicle shadow region based on information obtained from the
(7) Since the
(8) Since the vehicle
(実施例2)
図17は、実施例2の自車影認識装置12の構成図である。
実施例2の自車影認識装置12では、図1に示した構成に対し、カーナビゲーション装置400に代えて、GPS(Global Positioning System)機能を備えた現在位置取得装置200と、電気的に地磁気を計測する電子コンパスを備えた自車方位計測装置210を設けた点で異なる。また、標準子午線情報をカーナビゲーション装置400から取得する構成に代えて、標準子午線データを保存する標準子午線データベース170を自車影認識制御装置100内部に設けている。さらに、実施例2では、実施例1の照度取得装置351、障害物認識装置340および白線認識装置341を省略している。
他の構成は実施例1と同様であるため、説明を省略する。
次に、作用を説明する。
現在位置取得装置200は、カーナビゲーション装置と同等の情報を得ることができるため、カーナビゲーション装置が搭載されていない車両であっても自車影認識を行うことができる。また、自車方位計測装置210は、電子コンパスを利用しているため、カーナビゲーション装置のマップマッチングまたはデッドレコニングの精度が低下する状況や、GPSが受信できない状況でも、高精度に自車の方位角を計測できる。
さらに、実施例2では、標準子午線データベース170を自車影認識制御装置100の内部に記憶させる構成であるため、現在位置取得装置200から得られる情報から自車の現在位置に対応する標準子午線参照し、太陽の高度と方位角をそれぞれ算出できる。
実施例2では、実施例1のような照度取得装置351を搭載していない。つまり、車載ネットワーク330からワイパー信号やヘッドライト信号を取得し、自車影が発生する可能性を複合的に判断する。これにより、照度取得装置が搭載されていない車両でも自車影認識システムを適用できる。また、実施例1の障害物認識装置340および白線認識装置341を省略し、映像出力装置310のみに画像補正手段140の結果を出力している。これにより、認識処理を行うハードウェアが不要となるため、コストを抑えることができる。
その他の作用効果は実施例1と同様であるため、説明を省略する。
(Example 2)
FIG. 17 is a configuration diagram of the own vehicle
In the own vehicle
Since other configurations are the same as those of the first embodiment, the description thereof is omitted.
Next, the operation will be described.
Since the current
Further, in the second embodiment, since the
In the second embodiment, the
Other functions and effects are the same as those of the first embodiment, and thus description thereof is omitted.
(実施例3)
実施例3の自車影認識装置は、実施例1の構成に対し、最終的に検出された自車影の方位角に基づき、自車進行方向θvを補正する機能を追加したものである。以下、実施例1と異なる構成について説明する。
〔自車影除去処理〕
図18は、実施例3の自車影認識制御装置100で実行される自車影除去処理の流れを示すフローチャートで、図5に示した実施例1の処理と異なる処理を行うステップのみ説明する。
ステップS700では、自車進行方位補正処理を実施し、リターンへ移行する。自車進行方位補正処理では、自車影領域検出手段130において最終的に検出された自車影の方位角θcから、下記の式(16)に示す補正式を用いて、補正後の自車進行方向θv'を算出する。
θv' = A - (θc + 180) …(16)
ステップS700は、進行方位情報補正手段に相当する。
次に、作用を説明する。
〔自車進行方位補正作用〕
実施例3の自車影認識装置では、画像認識によって自車影の方位角を正確に求められることを利用し、カーナビゲーション装置400による自車進行方向の情報を補正する。これにより、自車影の方位角を利用してカーナビゲーション装置400の精度を向上できる。なお、実施例3の自車進行方位角の補正は、実施例2の構成にも適用でき、実施例3と同様の作用効果を奏する。つまり、自車影の方位角を利用して自車方位計測装置210の精度を向上できる。
(Example 3)
The own vehicle shadow recognition apparatus according to the third embodiment adds a function of correcting the own vehicle traveling direction θ v based on the azimuth angle of the finally detected own vehicle shadow to the configuration of the first embodiment. . Hereinafter, a configuration different from that of the first embodiment will be described.
[Self-vehicle shadow removal processing]
FIG. 18 is a flowchart showing the flow of the own vehicle shadow removal process executed by the own vehicle shadow
In step S700, the host vehicle traveling direction correction process is performed, and the process proceeds to return. The own traveling direction correction processing, the final of the detected self Kurumakage azimuth angle theta c in Jikurumakage
θ v '= A-(θ c + 180)… (16)
Step S700 corresponds to traveling direction information correction means.
Next, the operation will be described.
[Vehicle direction correction function]
In the own vehicle shadow recognition apparatus according to the third embodiment, the information on the traveling direction of the own vehicle by the
次に、効果を説明する。
実施例3の自車影認識装置では、実施例1の効果(1)〜(8)に加え、以下の効果を奏する。
(9) 自車影領域検出手段130によって特定された自車影領域から、自車影の方向と大きさの情報を算出し、自車の進行方位情報を補正する進行方位情報補正手段(ステップS700)を備えた。これにより、カーナビゲーション装置400における自車の進行方位情報の精度を向上できる。
Next, the effect will be described.
In addition to the effects (1) to (8) of the first embodiment, the own vehicle shadow recognition apparatus of the third embodiment has the following effects.
(9) Information on the direction and size of the vehicle shadow is calculated from the vehicle shadow region specified by the vehicle shadow
(実施例4)
実施例4の自車影認識装置は、実施例1の構成に対し、自車立体形状データを補正する機能を追加した例である。以下、実施例1と異なる構成について説明する。
〔追加突起物影領域検出処理〕
図19は、実施例4の追加突起物影領域検出処理の流れを示すフローチャートで、以下、各ステップについて説明する。この処理は、図14に示した自車影領域検出処理において、ステップS550で自車影推定パターンと照合した際の類似度が閾値以下である状態が所定時間以上継続した場合(例えば、直進走行状態で30秒以上継続した場合)に実行される。
ステップS710では、車速が所定の閾値よりも大きいか否かを判定する。YESの場合にはステップS720へ移行し、NOの場合には本制御を終了する。ここで、閾値は、走行中と判断できる速度とする。
ステップS720では、操向輪の舵角が所定の閾値未満であるか否かを判定する。YESの場合にはステップS730へ移行し、NOの場合には本制御を終了する。ここで、閾値は、車両が直進状態であると判断できる舵角とする。
ステップS730では、画像I(t)をキャプチャし、ステップS740へ移行する。
ステップS740では、ステップS400で得られた自車影推定パターンの領域の輝度情報に基づき、ステップS730で取得した画像I(t)を二値化して二値画像Ib(t)を得る。また、二値化した際に、影領域以外の細かいノイズ成分を除去するために、抽出された領域に対して所定の面積以下の領域は除去するようなフィルタリング処理を行い、ステップS750へ移行する。この処理によって、画像中の影の候補領域のみが抽出される。
ステップS750では、二値画像Ib(t)とその前フレームの二値画像との論理積(AND)処理を行い、ステップS760へ移行する。
Example 4
The own vehicle shadow recognition apparatus according to the fourth embodiment is an example in which a function of correcting own vehicle solid shape data is added to the configuration of the first embodiment. Hereinafter, a configuration different from that of the first embodiment will be described.
[Additional protrusion shadow area detection processing]
FIG. 19 is a flowchart showing the flow of additional projection shadow region detection processing according to the fourth embodiment. Each step will be described below. This process is performed when the state in which the similarity when collated with the own vehicle shadow estimation pattern in step S550 is equal to or less than the threshold value continues for a predetermined time or longer in the own vehicle shadow area detection process shown in FIG. (If it continues for more than 30 seconds in the state).
In step S710, it is determined whether the vehicle speed is greater than a predetermined threshold. If YES, the process proceeds to step S720, and if NO, this control is terminated. Here, the threshold is a speed at which it can be determined that the vehicle is traveling.
In step S720, it is determined whether the steering angle of the steered wheels is less than a predetermined threshold. If YES, the process proceeds to step S730, and if NO, this control is terminated. Here, the threshold value is a rudder angle at which it can be determined that the vehicle is traveling straight.
In step S730, the image I (t) is captured, and the process proceeds to step S740.
In step S740, the image I (t) acquired in step S730 is binarized based on the luminance information of the area of the vehicle shadow estimation pattern obtained in step S400 to obtain a binary image I b (t). Further, when binarizing, in order to remove fine noise components other than the shadow region, a filtering process is performed so as to remove a region having a predetermined area or less from the extracted region, and the process proceeds to step S750. . By this processing, only the shadow candidate region in the image is extracted.
In step S750, a logical product (AND) process between the binary image I b (t) and the binary image of the previous frame is performed, and the process proceeds to step S760.
ステップS760では、ステップS710〜ステップS750が所定フレーム数n(例えば、100フレーム)実行されたか否かを判定する。YESの場合にはステップS790へ移行し、NOの場合にはステップS770へ移行する。これにより、路上構造物や対向車の影が除去され、追加突起物を含む自車影領域が抽出される。
ステップS770では、さらにステップS400で得られた自車影推定パターンとステップS750で得られたGb(n)との排他的論理和を算出し、ステップS780へ移行する。これにより、追加突起物影領域のみが抽出される。
ステップS780では、ステップS770で得られた二値画像の領域の座標データを追加突起物影領域として座標データをメモリに保存し、本制御を終了する。このステップでは、太陽高度の情報又は現在時刻とGPS情報も同時に記録し、データベースに蓄積する。この蓄積した複数の追加突起物影領域の座標情報に基づいて追加突起物の三次元形状を推定し、自車立体形状データに追加できる。これにより、追加突起物影領域検出処理(ステップS700)を毎回実行する必要がなくなる。なお、車両から追加突起物20が除去された場合は、ステップS550での類似度が低下するため、元の自車立体形状データが使用される。
ステップS790では、フレーム数nをインクリメントし、ステップS710へ移行する。
以上のように、追加突起物影領域検出処理では、図20に示すように、キャプチャした画像を二値化処理して得られた二値画像とその前のフレームの二値画像との論理積処理を所定フレーム数行うことで画像から追加突起物を含む自車影領域を抽出する。続いて、抽出した自車影領域と自車影推定パターンとの排他的論理和を算出することで追加突起物影領域を抽出し、自車立体形状データに追加する。
In step S760, it is determined whether or not steps S710 to S750 have been executed for a predetermined number of frames n (for example, 100 frames). If YES, the process moves to step S790, and if NO, the process moves to step S770. Thereby, the shadow of the road structure and the oncoming vehicle is removed, and the own vehicle shadow region including the additional protrusion is extracted.
In step S770, an exclusive OR of the own vehicle shadow estimation pattern obtained in step S400 and G b (n) obtained in step S750 is calculated, and the process proceeds to step S780. As a result, only the additional protrusion shadow region is extracted.
In step S780, the coordinate data of the region of the binary image obtained in step S770 is stored in the memory as the additional projection shadow region, and this control is terminated. In this step, solar altitude information or current time and GPS information are recorded simultaneously and stored in a database. The three-dimensional shape of the additional protrusion can be estimated based on the accumulated coordinate information of the plurality of additional protrusion shadow areas, and can be added to the vehicle three-dimensional shape data. This eliminates the need to execute the additional protrusion shadow region detection process (step S700) every time. Note that when the
In step S790, the frame number n is incremented, and the process proceeds to step S710.
As described above, in the additional protrusion shadow region detection process, as shown in FIG. 20, the logical product of the binary image obtained by binarizing the captured image and the binary image of the previous frame is obtained. By performing the processing for a predetermined number of frames, the vehicle shadow region including the additional protrusion is extracted from the image. Subsequently, by calculating an exclusive logical sum of the extracted vehicle shadow area and the vehicle shadow estimation pattern, an additional protrusion shadow area is extracted and added to the vehicle three-dimensional shape data.
次に、作用を説明する。
〔追加突起物影領域検出作用〕
例えば、図21(a)のように自車1にキャリアボックスなどの追加突起物20が付加された場合、追加突起物20のデータは自車立体形状データベース160に保存されていないため、図15に示した自車影領域4のみの輝度を補正する輝度補正(第1の輝度補正)では、追加突起物20の影領域21を除去できない(図21(b))。
そこで、実施例4では、第2の輝度補正として、追加突起物20を含む自車影領域と自車影推定パターンとの排他的論理和を算出して追加突起物影領域21を抽出するため、追加突起物影領域21を含む自車影領域4の輝度補正を行うことができ、追加突起物影領域21を除去できる。
ここで、実施例4では、自車1が走行状態でない場合、第2の輝度補正を実施しない。これは、自車1が停止している場合、自車周辺の立体物(樹木、建物、人等)の影が自車影と重なっている場合、所定フレーム数の二値画像の論理積処理により求めた自車影領域が、追加突起物の影を含むものであるのか、構造物の影を含むものであるのかの判定が困難だからである。自車1が走行状態である場合には、自車影領域と重なる立体物の影響を排除できるため、追加突起物影領域を含む自車影領域の輝度を精度よく補正できる。
また、実施例4では、自車1が直進状態でない場合にも、第2の輝度補正を実施しない。これは、直進状態でない場合、本来の自車影の形状が変化する可能性があり、追加突起物影領域を含む自車影領域の抽出精度が低下するおそれがあるからである。自車1が直進状態である場合には、本来の自車影の形状が変化しないため、追加突起物影領域を含む自車影領域を精度よく抽出できる。
Next, the operation will be described.
[Additional protrusion shadow area detection]
For example, when an
Therefore, in the fourth embodiment, as the second luminance correction, an exclusive logical sum of the own vehicle shadow area including the
Here, in Example 4, when the
Further, in the fourth embodiment, the second luminance correction is not performed even when the
(実施例5)
実施例5の自車影認識装置は、実施例1の構成に対し、最終的に検出された自車影の形状と方位角に基づき、車両周辺測距装置350の結果を補正する機能を追加したものである。以下、実施例1と異なる構成について説明する。
〔自車影除去処理〕
図22は、実施例5の自車影認識制御装置100で実行される自車影除去処理の流れを示すフローチャートで、図5に示した実施例1の処理と異なる処理を行うステップのみ説明する。
ステップS800では、距離測定結果補正処理を実施し、リターンへ移行する。なお、この処理は、図10に示した自車影領域推定処理において、ステップS455で肯定(YES)判定され、ステップS470で車両周辺測距装置350から取得した障害物までの距離Dを用いて自車影推定領域補正処理が実行された場合に実施し、ステップS455で否定(NO)判定された場合には実施しない。
この距離測定結果補正処理では、自車影領域検出手段130において最終的に検出された自車影の方位角と形状とから、図14に示した壁領域における自車影2bの点SPW'(XSPW',YSPW',ZSPW')を求め、これと車両周辺測距装置350から得られた距離Dに基づいて式(13)で算出したSPW(XSPW,YSPW,ZSPW)との差分を車両周辺測距装置350の測定誤差とし、当該誤差をなくすように距離Dを補正する。ステップS800は、距離補正手段に相当する。
(Example 5)
The own vehicle shadow recognition apparatus according to the fifth embodiment adds a function of correcting the result of the vehicle
[Self-vehicle shadow removal processing]
FIG. 22 is a flowchart showing the flow of the own vehicle shadow removal process executed by the own vehicle shadow
In step S800, distance measurement result correction processing is performed, and the process proceeds to return. Note that this process uses the distance D to the obstacle that is determined to be affirmative (YES) in step S455 and acquired from the vehicle peripheral
In this distance measurement result correction process, the point SPW ′ () of the
次に、作用を説明する。
〔距離測定結果補正作用〕
実施例5の自車影認識装置では、画像認識によって自車影の方位角および形状が正確に求められることを利用し、車両周辺測距装置350による自車周辺に存在する障害物までの距離Dを補正する。これにより、車両周辺測距装置350の精度を向上できる。
次に、効果を説明する。
実施例5の自車影認識装置では、実施例1の効果(1)〜(8)に加え、以下の効果を奏する。
(10) 自車影領域検出手段130によって特定された自車影領域に基づいて、自車影の方向と大きさの情報を算出し、車両周辺測距装置350の結果を補正する距離補正手段(ステップS800)を備えた。これにより、車両周辺測距装置350における障害物までの距離情報の精度を向上できる。
Next, the operation will be described.
[Distance measurement result correction]
In the own vehicle shadow recognition apparatus according to the fifth embodiment, the distance to the obstacle existing around the own vehicle by the vehicle peripheral
Next, the effect will be described.
In addition to the effects (1) to (8) of the first embodiment, the own vehicle shadow recognition apparatus of the fifth embodiment has the following effects.
(10) Distance correction means for calculating information on the direction and size of the own vehicle shadow based on the own vehicle shadow area specified by the own vehicle shadow area detection means 130 and correcting the result of the vehicle periphery ranging device 350 (Step S800). Thereby, the accuracy of the distance information to the obstacle in the vehicle peripheral
(他の実施例)
以上、本発明を実施するための形態を、実施例に基づいて説明したが、本発明の具体的な構成は、実施例に示した構成に限定されるものではなく、発明の要旨を逸脱しない範囲の設計変更等があっても本発明に含まれる。
例えば、実施例では、測距センサとして超音波センサを用いた例を示したが、測距センサとしては、赤外線センサ、レーザレーダ、ミリ波レーダ等を用いてもよい。
実施例4では、操向輪の舵角から直進状態を判断したが、ステアリングホイールの角度から判断してもよい。
(Other examples)
As mentioned above, although the form for implementing this invention was demonstrated based on the Example, the specific structure of this invention is not limited to the structure shown in the Example, and does not deviate from the summary of invention. Any change in the design of the range is included in the present invention.
For example, in the embodiment, an example in which an ultrasonic sensor is used as a distance measuring sensor has been described, but an infrared sensor, a laser radar, a millimeter wave radar, or the like may be used as the distance measuring sensor.
In the fourth embodiment, the straight traveling state is determined from the steering angle of the steered wheel, but may be determined from the angle of the steering wheel.
実施例から把握される特許請求の範囲に記載した発明以外の技術的思想について以下に説明する。
(a) 自車の周囲の路面を撮像するカメラと、
自車の現在位置を算出する自車位置算出手段と、
現在の日時の情報に基づいて太陽の位置を算出する太陽位置算出手段と、
自車の立体形状に関連する情報である自車立体形状情報と、
前記自車立体形状情報と、前記算出された自車の現在位置および太陽の位置を用いて自車影領域を推定する自車影領域推定手段と、
前記カメラによって撮像されたデータの中から前記自車影領域推定手段により推定された自車影領域を特定する自車影領域検出手段と、
を備えたことを特徴とする自車影認識装置。
この発明によれば、正確な太陽の位置から自車影領域を精度よく求めることができるため、撮像されたデータの中から自車影領域を高精度に特定できる。
(b) (a)に記載の自車影認識装置において、
前記自車立体形状情報は、車両形状に関する三次元形状データであることを特徴とする自車影認識装置。
この発明によれば、三次元形状データに基づいて自車影領域を推定するため、自車影の形状を高精度に推定できる。
(c) (b)に記載の自車影認識装置において、
前記カメラによって撮像されたデータに基づいて自車の上空から見た俯瞰画像を作成する俯瞰画像作成手段を備え、
前記自車影領域検出手段は、作成された俯瞰画像の中から自車影領域を特定することを特徴とする自車影認識装置。
この発明によれば、ユーザーにとって理解しやすく視認性の高い自車周囲の映像を提供できる。
(d) (c)に記載の自車影認識装置において、
自車影領域内側の輝度情報と、自車影領域外側の輝度情報とに基づいて、自車影領域の輝度を補正する自車影領域輝度補正手段を備えたことを特徴とする自車影認識装置。
この発明によれば、自車影領域外側の輝度については補正前の輝度と同じであるため、自車影領域外側の視認性の悪化を防止しつつ、自車影領域の視認性を高めることができる。
The technical ideas other than the invention described in the scope of claims ascertained from the embodiments will be described below.
(a) a camera that images the road surface around the vehicle;
Own vehicle position calculating means for calculating the current position of the own vehicle;
Solar position calculating means for calculating the position of the sun based on the current date and time information;
3D shape information of the vehicle, which is information related to the 3D shape of the vehicle,
A vehicle shadow region estimation means for estimating the vehicle shadow region using the vehicle three-dimensional shape information and the calculated current position of the vehicle and the position of the sun;
Vehicle shadow area detection means for identifying the vehicle shadow area estimated by the vehicle shadow area estimation means from the data captured by the camera;
A vehicle shadow recognition device characterized by comprising:
According to this invention, since the own vehicle shadow area can be accurately obtained from the accurate sun position, the own vehicle shadow area can be specified with high accuracy from the captured data.
(b) In the vehicle shadow recognition device described in (a),
The own vehicle three-dimensional shape information is three-dimensional shape data relating to the vehicle shape, and the own vehicle shadow recognition device.
According to this invention, since the own vehicle shadow area is estimated based on the three-dimensional shape data, the shape of the own vehicle shadow can be estimated with high accuracy.
(c) In the vehicle shadow recognition device described in (b),
Comprising an overhead image creation means for creating an overhead image viewed from above the vehicle based on data captured by the camera;
The own vehicle shadow area detecting means identifies the own vehicle shadow area from the created overhead view image.
According to the present invention, it is possible to provide an image around the own vehicle that is easy for the user to understand and has high visibility.
(d) In the vehicle shadow recognition device described in (c),
A vehicle shadow comprising a vehicle shadow region luminance correction means for correcting the luminance of the vehicle shadow region based on luminance information inside the vehicle shadow region and luminance information outside the vehicle shadow region. Recognition device.
According to the present invention, the brightness outside the vehicle shadow area is the same as the brightness before correction, and thus the visibility of the vehicle shadow area is improved while preventing the deterioration of the visibility outside the vehicle shadow area. Can do.
(e) (d)に記載の自車影認識装置において、
前記自車影領域輝度補正手段によって自車影領域の輝度を補正した画像を車両表示装置に出力することを特徴とする自車影認識装置。
この発明によれば、視認性を向上させた自車周囲の映像をユーザーに提供できる。
(f) (e)に記載の自車影認識装置において、
前記自車領域輝度補正手段は、自車影領域の輝度を明るくし領域外の輝度と略同じ輝度に補正することを特徴とする自車影認識装置。
この発明によれば、自車影領域内側の輝度が低く見えづらい状況であっても、自車影領域の視認性を向上できる。
(g) (b)に記載の自車影認識装置において、
自車影領域内側の輝度情報と、自車影領域外側の輝度情報とに基づいて、自車影領域の輝度を補正する自車影領域輝度補正手段を備えたことを特徴とする自車影認識装置。
この発明によれば、自車影領域外側の輝度については補正前の輝度と同じであるため、自車影領域外側の視認性の悪化を防止しつつ、自車影領域の視認性を高めることができる。
(h) (g)に記載の自車影認識装置において、
前記自車領域輝度補正手段は、自車影領域の輝度を明るくし領域外の輝度と略同じ輝度に補正することを特徴とする自車影認識装置。
この発明によれば、自車影領域内側の輝度が低く見えづらい状況であっても、自車影領域の視認性を向上できる。
(i) カメラによって撮像されたデータを処理し車両表示装置に表示させる画像表示方法であって、
自車の現在位置と現在の太陽の位置を算出し、算出した両位置と自車の車両形状の三次元データとによって自車影領域を推定し、
推定した自車影領域の輝度を補正した後の画像を前記車両表示装置に表示させることを特徴とする画像表示方法。
この発明によれば、正確な太陽の位置から自車影領域を精度よく求めることができるため、撮像されたデータの中から自車影領域を高精度に特定でき、視認性を向上させた自車周囲の映像をユーザーに提供できる。
(j) (i)に記載の画像表示方法において、
自車影領域の輝度を自車影領域外側の輝度情報に基づいて補正することを特徴とする画像表示方法。
この発明によれば、自車影領域外側の輝度については補正前の輝度と同じであるため、自車影領域外側の視認性の悪化を防止しつつ、自車影領域の視認性を高めることができる。
(e) In the vehicle shadow recognition device described in (d),
An own vehicle shadow recognition device, wherein an image obtained by correcting the luminance of the own vehicle shadow region by the own vehicle shadow region luminance correction means is output to a vehicle display device.
According to the present invention, it is possible to provide a user with an image around the own vehicle with improved visibility.
(f) In the vehicle shadow recognition device described in (e),
The own vehicle area brightness correcting means increases the brightness of the own vehicle shadow area and corrects the brightness to substantially the same as the brightness outside the area.
According to the present invention, the visibility of the own vehicle shadow region can be improved even when the brightness inside the own vehicle shadow region is difficult to see.
(g) In the vehicle shadow recognition device described in (b),
A vehicle shadow comprising a vehicle shadow region luminance correction means for correcting the luminance of the vehicle shadow region based on luminance information inside the vehicle shadow region and luminance information outside the vehicle shadow region. Recognition device.
According to the present invention, the brightness outside the vehicle shadow area is the same as the brightness before correction, and thus the visibility of the vehicle shadow area is improved while preventing the deterioration of the visibility outside the vehicle shadow area. Can do.
(h) In the vehicle shadow recognition device described in (g),
The own vehicle area brightness correcting means increases the brightness of the own vehicle shadow area and corrects the brightness to substantially the same as the brightness outside the area.
According to the present invention, the visibility of the own vehicle shadow region can be improved even when the brightness inside the own vehicle shadow region is difficult to see.
(i) An image display method for processing data captured by a camera and displaying the data on a vehicle display device,
Calculate the current position of the vehicle and the current position of the sun, estimate the shadow area of the vehicle from both calculated positions and the 3D data of the vehicle shape of the vehicle,
An image display method, comprising: displaying an image after correcting the estimated brightness of the vehicle shadow region on the vehicle display device.
According to the present invention, the vehicle shadow region can be accurately obtained from the exact sun position. Therefore, the vehicle shadow region can be identified with high accuracy from the captured data, and the vehicle has improved visibility. It is possible to provide users with images around the car.
(j) In the image display method described in (i),
An image display method comprising correcting the luminance of the own vehicle shadow region based on luminance information outside the own vehicle shadow region.
According to the present invention, the brightness outside the vehicle shadow area is the same as the brightness before correction, and thus the visibility of the vehicle shadow area is improved while preventing the deterioration of the visibility outside the vehicle shadow area. Can do.
11 自車影認識装置
110 太陽位置算出手段
120 自車影領域推定手段
130 自車影領域検出手段
300 車両周辺撮像装置(自車周辺撮像装置)
11 Vehicle shadow recognition device
110 Solar position calculation means
120 Vehicle shadow area estimation means
130 Vehicle shadow area detection means
300 Vehicle periphery imaging device (Self-vehicle periphery imaging device)
Claims (7)
自車の現在位置の情報と、現在の日時の情報と、自車の現在位置に対応する標準子午線の情報から太陽の位置を算出する太陽位置算出手段と、
前記太陽位置算出手段で得られた太陽の位置情報と、自車の進行方位情報と、自車の立体形状情報とから自車影が発生する領域を推定する自車影領域推定手段と、
前記自車影領域推定手段から得られる座標情報に基づき、前記自車周辺撮像装置で得られた画像の中から自車影領域を特定する自車影領域検出手段と、
前記自車影領域検出手段によって特定された自車影領域から、自車影の方向と大きさの情報を算出し、自車の進行方位情報を補正する進行方位情報補正手段と、
を備えたことを特徴とする自車影認識装置。 A vehicle periphery imaging device that images front and rear, left and right of the vehicle within a range including a road surface on which the vehicle is traveling
Solar position calculating means for calculating the position of the sun from information on the current position of the own vehicle, information on the current date and time, and information on the standard meridian corresponding to the current position of the own vehicle ;
A vehicle shadow region estimation unit that estimates a region where the vehicle shadow is generated from the position information of the sun obtained by the sun position calculation unit, the traveling direction information of the host vehicle, and the three-dimensional shape information of the host vehicle;
Based on the coordinate information obtained from the vehicle shadow area estimation means, the vehicle shadow area detection means for identifying the vehicle shadow area from the image obtained by the vehicle periphery imaging device;
From the own vehicle shadow area specified by the own vehicle shadow area detecting means, calculating the direction and size information of the own vehicle shadow, and the traveling direction information correcting means for correcting the traveling direction information of the own vehicle,
A vehicle shadow recognition device characterized by comprising:
前記自車影領域内側の輝度情報と自車影領域外側の輝度情報とに基づいて、自車影領域の輝度を補正する自車影領域輝度補正手段を備えたことを特徴とする自車影認識装置。 The own vehicle shadow recognition device according to claim 1,
An own vehicle shadow comprising a own vehicle shadow region luminance correction means for correcting the luminance of the own vehicle shadow region based on the luminance information inside the own vehicle shadow region and the luminance information outside the own vehicle shadow region. Recognition device.
前記自車影領域輝度補正手段によって自車影領域の輝度を補正した画像を車両表示装置に出力することを特徴とする自車影認識装置。 The own vehicle shadow recognition apparatus according to claim 2 ,
An own vehicle shadow recognition device, wherein an image obtained by correcting the luminance of the own vehicle shadow region by the own vehicle shadow region luminance correction means is output to a vehicle display device.
自車周辺に存在する立体物までの距離を計測する距離計測装置を備え、
前記自車影領域推定手段は、前記距離計測装置からの情報を用いて、自車影領域を推定することを特徴とする自車影認識装置。 The own vehicle shadow recognition device according to claim 1,
It is equipped with a distance measuring device that measures the distance to a three-dimensional object existing around the vehicle.
The own vehicle shadow recognition device, wherein the own vehicle shadow region estimation means estimates the own vehicle shadow region using information from the distance measuring device.
前記自車影領域検出手段によって特定された自車影領域に基づいて、自車影の方向と大きさの情報を算出し、前記距離計測装置の結果を補正する距離補正手段を備えたことを特徴とする自車影認識装置。 In the own vehicle shadow recognition device according to claim 4 ,
Based on the own vehicle shadow area specified by the own vehicle shadow area detecting means, it comprises distance correction means for calculating information on the direction and size of the own vehicle shadow and correcting the result of the distance measuring device. A car shadow recognition device.
車両に搭載された照度センサから得た情報によって、自車影領域を検出するための処理を起動するか否かを判断する起動判定手段を備え、
前記起動判定手段は、前記照度センサからの照度の値が所定値以下である場合、自車影領域を検出するための処理を実行しないことを特徴とする自車影認識装置。 The own vehicle shadow recognition device according to claim 1,
An activation determining means for determining whether to activate a process for detecting the own vehicle shadow area based on information obtained from an illuminance sensor mounted on the vehicle;
The said vehicle determination part does not perform the process for detecting the own vehicle shadow area | region, when the value of the illumination intensity from the said illumination intensity sensor is below a predetermined value, The own vehicle shadow recognition apparatus characterized by the above-mentioned.
ユーザーが自車影領域を検出するための処理を起動するか否かを設定できるユーザーインターフェースを備えたことを特徴とする自車影認識装置。 The own vehicle shadow recognition device according to claim 1,
A host vehicle shadow recognition apparatus comprising a user interface that allows a user to set whether to activate a process for detecting a host vehicle shadow region.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009215796A JP5066558B2 (en) | 2009-09-17 | 2009-09-17 | Vehicle shadow recognition device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009215796A JP5066558B2 (en) | 2009-09-17 | 2009-09-17 | Vehicle shadow recognition device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011065442A JP2011065442A (en) | 2011-03-31 |
JP5066558B2 true JP5066558B2 (en) | 2012-11-07 |
Family
ID=43951617
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009215796A Active JP5066558B2 (en) | 2009-09-17 | 2009-09-17 | Vehicle shadow recognition device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5066558B2 (en) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
ITBO20120543A1 (en) * | 2012-10-03 | 2014-04-04 | Itata | METHOD TO CHECK THE TRANSIT OF VEHICLES IN A ROAD TRAIL WITH AT LEAST ONE TRAIL, STURDY COMPARED TO THE FALSE TRANSITS DUE TO SHADOWS ON THE MOVE |
JP5942771B2 (en) * | 2012-10-18 | 2016-06-29 | 富士通株式会社 | Image processing apparatus and image processing method |
JP6169544B2 (en) * | 2014-09-05 | 2017-07-26 | 本田技研工業株式会社 | Driving support control device |
KR102268645B1 (en) * | 2014-11-11 | 2021-06-23 | 현대모비스 주식회사 | Apparatus for image revision |
JP6272572B1 (en) * | 2017-02-03 | 2018-01-31 | 三菱電機株式会社 | Display control apparatus and display control method |
JP6720931B2 (en) | 2017-07-14 | 2020-07-08 | 株式会社デンソー | Vehicle surrounding recognition device |
JP6405422B2 (en) * | 2017-07-19 | 2018-10-17 | 日立建機株式会社 | Work machine ambient monitoring device |
CN113170057B (en) * | 2018-12-12 | 2023-06-13 | 日立安斯泰莫株式会社 | Imaging unit control device |
JP7298436B2 (en) | 2019-10-14 | 2023-06-27 | 株式会社デンソー | Obstacle identification device and obstacle identification program |
JP7310526B2 (en) | 2019-10-14 | 2023-07-19 | 株式会社デンソー | Obstacle identification device and obstacle identification program |
US11070707B1 (en) | 2020-01-06 | 2021-07-20 | GM Global Technology Operations LLC | System and method to remove a vehicle shadow from a video feed |
JP7495178B2 (en) * | 2020-04-14 | 2024-06-04 | 株式会社Subaru | Vehicle driving support device |
KR102567149B1 (en) * | 2021-11-29 | 2023-08-25 | 주식회사 와이즈오토모티브 | Device and method for generating image of around the vehicle |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0783494A (en) * | 1993-09-16 | 1995-03-28 | Itoki Crebio Corp | Air conditioner panel device |
JPH11271069A (en) * | 1998-03-20 | 1999-10-05 | Sony Corp | Navigator |
JP4296287B2 (en) * | 2003-05-27 | 2009-07-15 | 日産自動車株式会社 | Vehicle recognition device |
JP4596566B2 (en) * | 2005-03-31 | 2010-12-08 | アイシン・エィ・ダブリュ株式会社 | Self-vehicle information recognition device and self-vehicle information recognition method |
US8229162B2 (en) * | 2006-01-17 | 2012-07-24 | Nec Corporation | Graphic recognition device, graphic recognition method, and graphic recognition program |
JP2007300559A (en) * | 2006-05-02 | 2007-11-15 | Alpine Electronics Inc | Vehicle peripheral image providing device and shadow correcting method in vehicle peripheral image |
JP4770572B2 (en) * | 2006-05-09 | 2011-09-14 | トヨタ自動車株式会社 | COMMUNICATION DEVICE AND MOBILE BODY CONTROL SYSTEM |
JP2007316000A (en) * | 2006-05-29 | 2007-12-06 | Denso Corp | Vehicular annunciator apparatus |
-
2009
- 2009-09-17 JP JP2009215796A patent/JP5066558B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2011065442A (en) | 2011-03-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5066558B2 (en) | Vehicle shadow recognition device | |
CN109435942B (en) | Information fusion-based parking space line and parking space recognition method and device | |
JP4871909B2 (en) | Object recognition apparatus and object recognition method | |
EP3049285B1 (en) | Driver assistance system for displaying surroundings of a vehicle | |
JP5157067B2 (en) | Automatic travel map creation device and automatic travel device. | |
US9740942B2 (en) | Moving object location/attitude angle estimation device and moving object location/attitude angle estimation method | |
TWI534764B (en) | Apparatus and method for vehicle positioning | |
CN102458964B (en) | Camera system for use in vehicle parking | |
WO2019007263A1 (en) | Method and device for calibrating external parameters of vehicle-mounted sensor | |
US20130147661A1 (en) | System and method for optical landmark identification for gps error correction | |
CN112740225B (en) | Method and device for determining road surface elements | |
JP7072641B2 (en) | Road surface detection device, image display device using road surface detection device, obstacle detection device using road surface detection device, road surface detection method, image display method using road surface detection method, and obstacle detection method using road surface detection method | |
JP2007228448A (en) | Imaging environment recognition apparatus | |
JP2006279752A (en) | Undervehicle image display controlling apparatus and its display controlling program | |
CN113212498A (en) | Inter-vehicle distance measuring method, inter-vehicle distance measuring device, electronic apparatus, computer program, and computer-readable recording medium | |
JP2007102798A (en) | Vehicle circumference monitoring system | |
JP4296287B2 (en) | Vehicle recognition device | |
JP5910180B2 (en) | Moving object position and orientation estimation apparatus and method | |
JP4720446B2 (en) | Vehicle detection device and vehicle display device using the same | |
JP2018073275A (en) | Image recognition device | |
JP2010226652A (en) | Image processing apparatus, image processing method, and computer program | |
CN113997931A (en) | Bird's-eye view image generation device, bird's-eye view image generation system, and automatic parking device | |
CN116892949A (en) | Ground object detection device, ground object detection method, and computer program for ground object detection | |
KR101578434B1 (en) | Apparatus for detecting lane and method thereof | |
JP2022002045A (en) | Partial image generating device and computer program for partial image generation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20111220 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20111221 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120220 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120807 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120813 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5066558 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150817 Year of fee payment: 3 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |