JP5066558B2 - Vehicle shadow recognition device - Google Patents

Vehicle shadow recognition device Download PDF

Info

Publication number
JP5066558B2
JP5066558B2 JP2009215796A JP2009215796A JP5066558B2 JP 5066558 B2 JP5066558 B2 JP 5066558B2 JP 2009215796 A JP2009215796 A JP 2009215796A JP 2009215796 A JP2009215796 A JP 2009215796A JP 5066558 B2 JP5066558 B2 JP 5066558B2
Authority
JP
Japan
Prior art keywords
vehicle
shadow
vehicle shadow
information
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009215796A
Other languages
Japanese (ja)
Other versions
JP2011065442A (en
Inventor
耕太 入江
今井ひろし
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Astemo Ltd
Original Assignee
Hitachi Automotive Systems Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Automotive Systems Ltd filed Critical Hitachi Automotive Systems Ltd
Priority to JP2009215796A priority Critical patent/JP5066558B2/en
Publication of JP2011065442A publication Critical patent/JP2011065442A/en
Application granted granted Critical
Publication of JP5066558B2 publication Critical patent/JP5066558B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Navigation (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、自車影認識装置に関する。   The present invention relates to a vehicle shadow recognition apparatus.

従来、自車影認識装置では、車載カメラの撮像画像に太陽が写ったときに発生するスミア(smear;CCDイメージセンサを用いたカメラで周囲より極端に明るい被写体を撮影した際に白飛びする現象)を利用して太陽の位置を推定し、自車の影(自車影)の位置を特定している。この記載に関係する技術の一例は、特許文献1に開示されている。   Conventionally, in the vehicle shadow recognition device, smear (smear generated when the sun is reflected in the image taken by the in-vehicle camera) When shooting a subject extremely bright from the surroundings with a camera using a CCD image sensor ) Is used to estimate the position of the sun and identify the position of the shadow of the vehicle (own vehicle shadow). An example of a technique related to this description is disclosed in Patent Document 1.

特開2007−300559号公報JP 2007-300559 A

上述の従来装置において、自車影領域を高精度に特定して欲しいとのニーズがある。
本発明の目的は、画像の中から自車影領域を高精度に特定できる自車影認識装置を提供することにある。
In the above-described conventional apparatus, there is a need for specifying the own vehicle shadow region with high accuracy.
The objective of this invention is providing the own vehicle shadow recognition apparatus which can pinpoint the own vehicle shadow area | region from an image with high precision.

本発明では、自車の現在位置の情報と現在の日時の情報とから太陽の位置を算出し、太陽の位置情報と、自車の進行方位情報と、自車の立体形状情報とから自車影が発生する領域を推定し、推定により得られる座標情報に基づき、自車周辺撮像装置で得られた画像の中から自車影領域を特定する。   In the present invention, the position of the sun is calculated from information on the current position of the host vehicle and information on the current date and time, and the host vehicle is calculated from the position information of the sun, the traveling direction information of the host vehicle, and the three-dimensional shape information of the host vehicle. The region where the shadow is generated is estimated, and the own vehicle shadow region is specified from the image obtained by the own vehicle periphery imaging device based on the coordinate information obtained by the estimation.

本発明によれば、画像の中から自車影領域を高精度に特定できる。   According to the present invention, the own vehicle shadow region can be specified from the image with high accuracy.

実施例1の自車影認識装置11の構成図である。It is a block diagram of the own vehicle shadow recognition apparatus 11 of Example 1. FIG. 車両周辺撮像装置300の配置例と撮像範囲を示す図である。4 is a diagram illustrating an arrangement example and an imaging range of a vehicle periphery imaging device 300. FIG. 車両周辺撮像装置300の配置例と撮像範囲を示す図である。4 is a diagram illustrating an arrangement example and an imaging range of a vehicle periphery imaging device 300. FIG. 車両周辺測距装置350の配置例を示す図である。FIG. 6 is a diagram showing an example of arrangement of a vehicle periphery ranging device 350. 実施例1の自車影認識制御装置100で実行される自車影除去処理の流れを示すフローチャートである。5 is a flowchart showing a flow of own vehicle shadow removal processing executed by the own vehicle shadow recognition control device 100 according to the first embodiment. 実施例1の情報取得処理の流れを示すフローチャートである。6 is a flowchart illustrating a flow of information acquisition processing according to the first exemplary embodiment. 起動判定処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a starting determination process. 実施例1の太陽位置算出処理の流れを示すフローチャートである。3 is a flowchart illustrating a flow of solar position calculation processing according to the first embodiment. 太陽の位置を算出する際に適用する天球の座標系を示す図である。It is a figure which shows the coordinate system of the celestial sphere applied when calculating the position of the sun. 実施例1の自車影領域推定処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the own vehicle shadow area estimation process of Example 1. FIG. 自車影推定領域の算出方法を示す図である。It is a figure which shows the calculation method of the own vehicle shadow estimation area | region. 実施例1の自車影推定領域補正処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the own vehicle shadow estimation area | region correction process of Example 1. FIG. 自車周辺に立体物が存在する場合において自車影推定領域を算出する方法を示す図である。It is a figure which shows the method of calculating the own vehicle shadow estimation area | region when a solid object exists around the own vehicle. 実施例1の自車影領域検出処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the own vehicle shadow area | region detection process of Example 1. FIG. 実施例1の画像の輝度補正処理の流れを示すフローチャートである。3 is a flowchart illustrating a flow of image brightness correction processing according to the first exemplary embodiment. 日射領域6の決定方法を示す図である。6 is a diagram showing a method for determining a solar radiation region 6. FIG. 実施例2の自車影認識装置12の構成図である。It is a block diagram of the own vehicle shadow recognition apparatus 12 of Example 2. FIG. 実施例3の自車影認識制御装置100で実行される自車影除去処理の流れを示すフローチャートである。10 is a flowchart illustrating a flow of own vehicle shadow removal processing executed by the own vehicle shadow recognition control device 100 according to the third embodiment. 実施例4の追加突起物影領域検出処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the additional protrusion shadow area | region detection process of Example 4. FIG. 実施例4の追加突起物影領域検出処理の内容を示す図である。It is a figure which shows the content of the additional protrusion shadow area | region detection process of Example 4. FIG. 実施例4の追加突起物影領域検出処理の作用を示す図である。It is a figure which shows the effect | action of the additional protrusion shadow area | region detection process of Example 4. FIG. 実施例5の自車影認識制御装置100で実行される自車影除去処理の流れを示すフローチャートである。10 is a flowchart showing a flow of own vehicle shadow removal processing executed by the own vehicle shadow recognition control device 100 of the fifth embodiment.

以下、本発明の自車影認識装置を実施するための形態を、図面に示す実施例に基づいて説明する。なお、以下に説明する実施例は、多くのニーズに適応できるように検討されており、画像の中から自車影領域を高精度に特定できることは検討されたニーズの1つである。以下の実施例はさらにコストダウン、省電力化のニーズにも適応している。   EMBODIMENT OF THE INVENTION Hereinafter, the form for implementing the own vehicle shadow recognition apparatus of this invention is demonstrated based on the Example shown on drawing. In addition, the Example demonstrated below is examined so that it can adapt to many needs, and it is one of the needs examined that the own vehicle shadow area | region can be specified with high precision from an image. The following embodiments are further adapted to needs for cost reduction and power saving.

(実施例1)
まず、構成を説明する。
〔全体構成〕
図1は、実施例1の自車影認識装置11の構成図である。自車影認識装置11は、自車影認識制御装置100と、車両周辺撮像装置(自車周辺撮像装置)300と、映像出力装置(車両表示装置)310と、ユーザーインターフェース320と、車載ネットワーク330と、障害物認識装置340と、白線認識装置341と、車両周辺測距装置(距離計測装置)350と、照度取得装置(照度センサ)351と、カーナビゲーション装置400と、を備える。
自車影認識制御装置100は、車両周辺撮像装置300で得られた自車が走行している路面を含む範囲の撮像画像から自車の影(自車影)の位置を特定し、自車影を除去した画像を生成するもので、太陽位置算出手段110と、自車影領域推定手段120と、自車影領域検出手段130と、画像補正手段(自車影領域輝度補正手段)140と、画像メモリ150と、自車立体形状データベース160とを備える。
太陽位置算出手段110は、カーナビゲーション装置400から得られる自車の現在位置の緯度、経度、現在の日にちおよび現在の時刻と、自車の現在位置から決定される標準子午線との情報に基づいて、太陽の高度と方位角を算出する。
自車影領域推定手段120は、太陽位置算出手段110で得られた太陽の高度と方位角に加え、カーナビゲーション装置400で得られた自車進行方向の情報と、自車立体形状データベース160に保存された自車立体形状データ(自車立体形状情報)とから、自車影が出現する方向の推定値と、自車立体形状データに基づく各計測点における影の長さの推定値を算出する。さらに、これらの情報を統合して自車影推定領域を生成する。ここで、自車影推定領域は、自車立体形状データベース160に保存された自車立体形状データを構成する点一つ一つに対応する路面上の点である。よって、n個の二次元の座標(X,Y)のデータとして扱い、SP[n]→{X,Y}で表現される配列として構成される。
自車影領域検出手段130は、自車影領域推定手段120によって得られた自車影推定領域を用いて車両周辺撮像装置300で撮像された画像の中から自車影領域を検出する。
画像補正手段140は、自車影領域検出手段130によって検出された自車影領域に対して輝度とコントラストを補正することで、車両周辺撮像装置300から得られた画像から自車影を除去する。
画像メモリ150は、車両周辺撮像装置300から得られた画像をキャプチャ(保存)する。
自車立体形状データベース160は、自車の三次元データである自車立体形状データを記憶する。自車立体形状データは、自車の外形を三次元の座標(X,Y,Z)として離散化されたn個のデータであり、VP[n]→{X,Y,Z}で表現される配列として構成される。
Example 1
First, the configuration will be described.
〔overall structure〕
FIG. 1 is a configuration diagram of the own vehicle shadow recognition apparatus 11 according to the first embodiment. The vehicle shadow recognition device 11 includes a vehicle shadow recognition control device 100, a vehicle periphery imaging device (vehicle periphery imaging device) 300, a video output device (vehicle display device) 310, a user interface 320, and an in-vehicle network 330. An obstacle recognition device 340, a white line recognition device 341, a vehicle peripheral distance measurement device (distance measurement device) 350, an illuminance acquisition device (illuminance sensor) 351, and a car navigation device 400.
The own vehicle shadow recognition control device 100 identifies the position of the own vehicle shadow (own vehicle shadow) from the captured image of the range including the road surface on which the own vehicle is traveling, obtained by the vehicle surrounding imaging device 300, and An image from which a shadow is removed is generated. A sun position calculating unit 110, a vehicle shadow region estimating unit 120, a vehicle shadow region detecting unit 130, an image correcting unit (vehicle shadow region luminance correcting unit) 140, , An image memory 150 and a vehicle three-dimensional shape database 160 are provided.
The solar position calculation means 110 is based on the information on the latitude, longitude, current date and current time of the current position of the vehicle obtained from the car navigation device 400, and the standard meridian determined from the current position of the vehicle. Calculate the altitude and azimuth of the sun.
The own vehicle shadow region estimating means 120 includes the information on the own vehicle traveling direction obtained by the car navigation device 400 in addition to the altitude and azimuth angle of the sun obtained by the sun position calculating means 110 and the three-dimensional shape database 160 of the own vehicle. Calculate the estimated value of the direction in which the vehicle shadow appears and the estimated shadow length at each measurement point based on the vehicle solid shape data from the saved vehicle solid shape data (vehicle solid shape information) To do. Furthermore, these information is integrated and the own vehicle shadow estimation area | region is produced | generated. Here, the own vehicle shadow estimation area is a point on the road surface corresponding to each point constituting the own vehicle solid shape data stored in the own vehicle solid shape database 160. Therefore, it is handled as data of n two-dimensional coordinates (X, Y), and is configured as an array represented by SP [n] → {X, Y}.
The own vehicle shadow area detection means 130 detects the own vehicle shadow area from the image captured by the vehicle periphery imaging device 300 using the own vehicle shadow estimation area obtained by the own vehicle shadow area estimation means 120.
The image correction unit 140 corrects the brightness and contrast of the vehicle shadow area detected by the vehicle shadow area detection unit 130, thereby removing the vehicle shadow from the image obtained from the vehicle periphery imaging device 300. .
The image memory 150 captures (saves) an image obtained from the vehicle periphery imaging device 300.
The own vehicle three-dimensional shape database 160 stores own vehicle three-dimensional shape data which is three-dimensional data of the own vehicle. The vehicle's three-dimensional shape data is n pieces of data obtained by discretizing the outer shape of the vehicle as three-dimensional coordinates (X, Y, Z), and is expressed as VP [n] → {X, Y, Z}. Configured as an array.

自車影認識制御装置100には、カーナビゲーション装置400、車両周辺撮像装置300、映像出力装置310、障害物認識装置340、白線認識装置341、ユーザーインターフェース320および車載ネットワーク330が直接接続されている。また、車載ネットワーク330を介して、車両周辺測距装置350および照度取得装置351が接続されている。
車両周辺撮像装置300は、少なくとも1つの撮像素子から得られる画像を出力し、自車と路面とが接する範囲を撮像するように車体に設置されたカメラである。例えば、図2に示すように自車1の後方に後方撮像装置300Rrを取り付け、自車後方の範囲301Rrを撮像するように設置してもよい。また、図3に示すように、自車1の前後左右に撮像素子(300Fr,300Rr,300L,300R)を配置し、自車1の全周囲を撮像範囲(301Fr,301Rr,301L,301R)としてもよい。実施例1では、図3に示した自車1の前後左右に撮像素子を配置した構成を採用している。また、実施例1の車両周辺撮像装置300は、4つの撮像素子から得られた各撮像画像を合成し、車両の真上から見たような画像(俯瞰画像)に変換する機能を有する(俯瞰画像作成手段に相当)。
映像出力装置310は、画像補正手段140によって自車影領域を補正された映像を表示する。
ユーザーインターフェース320は、ユーザー(運転者)が自車影認識装置11による自車影認識システムを操作するためのスイッチ類とインジケータ類とにより構成される。例えば、システムの起動状態をLEDの点灯状態で表現したり、システムを強制的に起動したり、逆に強制的に無効状態にする機能を持つ。
車載ネットワーク330は、車両に搭載された複数のコントロールユニット間の情報を共有するためのネットワークであり、代表的な規格としては、CAN(controller Area Network)やFlex Rayなどが挙げられる。この車載ネットワーク330には、例えば、車速情報やステアリング角度、シフトポジションの情報、各種ランプ類のON/OFF状態、ワイパーの動作状態の情報等が含まれる。これらの情報以外にも、車載ネットワーク330に接続されているコントローラやセンサであれば、それら全ての情報を取得することが可能である。
障害物認識装置340は、自車影認識制御装置100によって自車影が除去された画像から障害物を認識してユーザーに警告を促す。
白線認識装置341は、自車影認識制御装置100によって自車影が除去された画像から道路上にペイントされた白線を認識し、自車がレーンから逸脱しないように警報すると共に、レーンからの逸脱を防止するための制御を行う。
車両周辺測距装置350は、自車周辺に存在する立体物までの距離を計測する測距センサを備え、測距センサの情報から立体物の大きさや形状を算出する機能を持つ。実施例1では、図4に示すように、測距センサとして自車周囲に超音波センサ5a〜5jを配置し、自車1の前後左右に存在する立体物までの距離を計測する。
A car navigation device 400, a vehicle periphery imaging device 300, a video output device 310, an obstacle recognition device 340, a white line recognition device 341, a user interface 320, and an in-vehicle network 330 are directly connected to the own vehicle shadow recognition control device 100. . Further, a vehicle peripheral distance measuring device 350 and an illuminance acquisition device 351 are connected via the in-vehicle network 330.
The vehicle periphery imaging device 300 is a camera installed on the vehicle body so as to output an image obtained from at least one image sensor and capture an image of a range where the vehicle is in contact with the road surface. For example, as shown in FIG. 2, a rear imaging device 300Rr may be attached to the rear of the host vehicle 1 so as to capture a range 301Rr behind the host vehicle. In addition, as shown in FIG. 3, imaging elements (300Fr, 300Rr, 300L, 300R) are arranged on the front, rear, left and right sides of the own vehicle 1, and the entire periphery of the own vehicle 1 is used as an imaging range (301Fr, 301Rr, 301L, 301R). Also good. In Example 1, the structure which has arrange | positioned the image pick-up element in the front and rear, right and left of the own vehicle 1 shown in FIG. 3 is employ | adopted. Further, the vehicle periphery imaging device 300 according to the first embodiment has a function of combining the captured images obtained from the four imaging elements and converting the images into an image (overhead image) as seen from directly above the vehicle (overhead view). Equivalent to image creation means).
The video output device 310 displays the video in which the own vehicle shadow area is corrected by the image correction means 140.
The user interface 320 includes switches and indicators for a user (driver) to operate the own vehicle shadow recognition system by the own vehicle shadow recognition device 11. For example, it has a function of expressing the system activation state with the LED lighting state, forcibly starting the system, or forcibly disabling it.
The in-vehicle network 330 is a network for sharing information between a plurality of control units mounted on a vehicle, and typical standards include CAN (controller area network) and Flex Ray. The in-vehicle network 330 includes, for example, vehicle speed information, steering angle, shift position information, ON / OFF states of various lamps, and wiper operation state information. In addition to these pieces of information, any controller or sensor connected to the in-vehicle network 330 can acquire all of the information.
The obstacle recognizing device 340 recognizes the obstacle from the image from which the own vehicle shadow has been removed by the own vehicle shadow recognition control device 100 and prompts the user to give a warning.
The white line recognition device 341 recognizes the white line painted on the road from the image from which the own vehicle shadow has been removed by the own vehicle shadow recognition control device 100, and warns the own vehicle not to deviate from the lane, and from the lane. Control to prevent deviation.
The vehicle periphery distance measuring device 350 includes a distance measuring sensor that measures a distance to a three-dimensional object existing around the host vehicle, and has a function of calculating the size and shape of the three-dimensional object from information of the distance measuring sensor. In the first embodiment, as shown in FIG. 4, ultrasonic sensors 5 a to 5 j are arranged around the subject vehicle as distance measuring sensors, and the distances to the three-dimensional objects existing on the front, rear, left and right of the subject vehicle 1 are measured.

〔自車影除去処理〕
図5は、実施例1の自車影認識制御装置100で実行される自車影除去処理の流れを示すフローチャートで、以下、各ステップについて説明する。
ステップS100では、情報取得処理を実施し、ステップS200へ移行する。
ステップS200では、起動判定処理を実施し、ステップS300へ移行する。ステップS200は、起動判定手段に相当する。
ステップS300では、太陽位置算出手段110において、太陽位置算出処理を実施し、ステップS400へ移行する。
ステップS400では、自車影領域推定手段120において、自車影領域推定処理を実施し、ステップS500へ移行する。
ステップS500では、自車影領域検出手段130において、自車影領域検出処理を実施し、ステップS600へ移行する。
ステップS600では、画像補正手段140において、画像の輝度補正処理を実施し、リターンへ移行する。
以下、各処理の詳細について説明する。
[Self-vehicle shadow removal processing]
FIG. 5 is a flowchart showing the flow of the vehicle shadow removal process executed by the vehicle shadow recognition control apparatus 100 of the first embodiment. Each step will be described below.
In step S100, an information acquisition process is performed, and the process proceeds to step S200.
In step S200, an activation determination process is performed, and the process proceeds to step S300. Step S200 corresponds to activation determination means.
In step S300, the solar position calculation means 110 performs a solar position calculation process, and the process proceeds to step S400.
In step S400, the own vehicle shadow region estimation means 120 performs own vehicle shadow region estimation processing, and the process proceeds to step S500.
In step S500, the own vehicle shadow area detection means 130 performs own vehicle shadow area detection processing, and the process proceeds to step S600.
In step S600, the image correction means 140 performs image brightness correction processing, and the process proceeds to return.
Details of each process will be described below.

〔情報取得処理〕
図6は、実施例1の情報取得処理の流れを示すフローチャートで、以下、各ステップについて説明する。
ステップS110では、車載ネットワーク330で共有されている各種情報をバッファリングし、ステップS120へ移行する。
ステップS120では、カーナビゲーション装置400から提供される現在位置情報を受信し、ステップS130へ移行する。
ステップS130では、車両に搭載された各種センサで、車載ネットワーク330に接続されていないセンサからの情報を取得し、本制御を終了する。
以上のように、情報取得処理では、自車影除去処理を行うための各種情報を車載ネットワーク330やカーナビゲーション装置400等から取得する。
[Information acquisition processing]
FIG. 6 is a flowchart showing the flow of information acquisition processing according to the first embodiment. Each step will be described below.
In step S110, various types of information shared by the in-vehicle network 330 are buffered, and the process proceeds to step S120.
In step S120, the current position information provided from car navigation device 400 is received, and the process proceeds to step S130.
In step S130, information from sensors not connected to the in-vehicle network 330 is acquired by various sensors mounted on the vehicle, and this control is terminated.
As described above, in the information acquisition process, various information for performing the own vehicle shadow removal process is acquired from the in-vehicle network 330, the car navigation device 400, and the like.

〔起動判定処理〕
図7は、実施例1の起動判定処理の流れを示すフローチャートで、以下、各ステップについて説明する。
ステップS205では、「自動判定モード」であるか否かを判定する。YESの場合にはステップS210へ移行し、NOの場合にはステップS250へ移行する。「自動判定モード」とは、自車影認識システムの起動の可否を、後段の判定処理(ステップS210,S215,S220,S230,S240)の結果に応じて自動的に判定するモードである。
ステップS210では、現在の太陽高度が所定の閾値よりも高いか否かを判定する。YESの場合にはステップS215へ移行し、NOの場合には自車影除去処理を終了する。ここで、閾値は、日の出の太陽高度以上の値とする。
ステップS215では、照度取得装置351が装備されているか否かを判定する。YESの場合にはステップS220へ移行し、NOの場合にはステップS230へ移行する。
ステップS220では、車載ネットワーク330から得られた照度取得装置351の情報が所定の閾値よりも高いか否かを判定する。YESの場合には本制御を終了し、NOの場合には自車影除去処理を終了する。ここで、閾値は、自車影が発生する日射量とする。
ステップS230では、車載ネットワーク330から得られたワイパーの動作状態情報に基づき、所定時間連続してワイパーが停止しているか否かを判定する。YESの場合にはステップS240へ移行し、NOの場合には自車影除去処理を終了する。ワイパーが所定時間連続して停止している状態であれば、降雨中ではないと判断できる。
ステップS240では、自車のヘッドライトが消灯しているか否かを判定する。YESの場合には本制御を終了し、NOの場合には自車影除去処理を終了する。ヘッドライトが消灯している場合、自車周囲が十分に明るく、自車影が発生する可能性が高いと判断できる。
ステップS250では、マニュアル起動SW(スイッチ)がONであるか否かを判定する。YESの場合には本制御を終了し、NOの場合には自車影除去処理を終了する。ここで、マニュアル起動SWは、ユーザーが自車影認識システムを起動するためのスイッチであり、スイッチのON/OFF状態は内部メモリに保存される。
以上のように、起動判定処理では、「自動判定モード」である場合、日の出後で自車影が発生すると判断されたとき、または、日の出後で降雨中ではなく、自車周囲が十分に明るいと判断されたとき、太陽位置算出処理(ステップS300)へと進み、それ以外のときは自車影除去処理を終了する(ステップS100に戻る。)。一方、「自動判定モード」でない場合、ユーザーがマニュアル起動SWをONしているとき、太陽位置算出処理へと進み、マニュアル起動SWがOFFのとき、自車影除去処理を終了する。
[Startup judgment processing]
FIG. 7 is a flowchart showing the flow of the activation determination process according to the first embodiment. Each step will be described below.
In step S205, it is determined whether or not the “automatic determination mode” is set. If YES, the process moves to step S210, and if NO, the process moves to step S250. The “automatic determination mode” is a mode for automatically determining whether or not the own vehicle shadow recognition system can be activated according to the result of the subsequent determination processing (steps S210, S215, S220, S230, and S240).
In step S210, it is determined whether or not the current solar altitude is higher than a predetermined threshold. If YES, the process proceeds to step S215. If NO, the vehicle shadow removal process is terminated. Here, the threshold value is a value equal to or higher than the solar altitude at sunrise.
In step S215, it is determined whether or not the illuminance acquisition device 351 is equipped. If YES, the process proceeds to step S220, and if NO, the process proceeds to step S230.
In step S220, it is determined whether the information of the illuminance acquisition device 351 obtained from the in-vehicle network 330 is higher than a predetermined threshold. If YES, this control is terminated, and if NO, the vehicle shadow removal process is terminated. Here, the threshold value is the amount of solar radiation that causes the own vehicle shadow.
In step S230, based on the wiper operation state information obtained from the in-vehicle network 330, it is determined whether or not the wiper has been stopped for a predetermined time. If YES, the process proceeds to step S240. If NO, the vehicle shadow removal process is terminated. If the wiper is stopped for a predetermined time continuously, it can be determined that it is not raining.
In step S240, it is determined whether or not the headlight of the host vehicle is turned off. If YES, this control is terminated, and if NO, the vehicle shadow removal process is terminated. When the headlight is turned off, it can be determined that the surrounding area of the host vehicle is sufficiently bright and that the possibility of occurrence of a shadow of the host vehicle is high.
In step S250, it is determined whether or not the manual activation SW (switch) is ON. If YES, this control is terminated, and if NO, the vehicle shadow removal process is terminated. Here, the manual activation SW is a switch for the user to activate the vehicle shadow recognition system, and the ON / OFF state of the switch is stored in the internal memory.
As described above, in the activation determination process, in the “automatic determination mode”, when it is determined that the vehicle shadow will occur after sunrise, or after the sunrise, it is not raining and the surroundings of the vehicle is sufficiently bright When it is determined, the process proceeds to the sun position calculation process (step S300), and otherwise, the vehicle shadow removal process ends (returns to step S100). On the other hand, when not in the “automatic determination mode”, when the user activates the manual activation SW, the process proceeds to the sun position calculation process. When the manual activation SW is OFF, the vehicle shadow removal process is terminated.

〔太陽位置算出処理〕
図8は、実施例1の太陽位置算出処理の流れを示すフローチャートで、以下、各ステップについて説明する。
ステップS310では、カーナビゲーション装置400から提供される現在位置の緯度と経度の情報を取得し、ステップS320へ移行する。
ステップS320では、カーナビゲーション装置400から提供される現在の日にちと時刻を取得し、ステップS330へ移行する。
ステップS330では、カーナビゲーション装置400から提供される現在位置の標準子午線情報を取得し、ステップS340へ移行する。
ステップS340では、ステップS310,S320,S330で取得した各情報に基づいて太陽の高度と方位角を算出し、本制御を終了する。
以上のように、太陽位置算出処理では、カーナビゲーション装置400から提供される現在位置の緯度と経度の情報、現在の日にちと時刻の情報、現在位置の標準子午線情報に基づいて、太陽の高さと方位角、すなわち、太陽の位置を算出する。
[Sun position calculation processing]
FIG. 8 is a flowchart illustrating the flow of the solar position calculation process according to the first embodiment. Each step will be described below.
In step S310, the latitude and longitude information of the current position provided from the car navigation device 400 is acquired, and the process proceeds to step S320.
In step S320, the current date and time provided from the car navigation device 400 are acquired, and the process proceeds to step S330.
In step S330, the standard meridian information of the current position provided from the car navigation device 400 is acquired, and the process proceeds to step S340.
In step S340, the sun's altitude and azimuth are calculated based on the information acquired in steps S310, S320, and S330, and this control is terminated.
As described above, in the solar position calculation process, based on the latitude and longitude information of the current position provided from the car navigation device 400, the current date and time information, and the standard meridian information of the current position, The azimuth, that is, the position of the sun is calculated.

以下、ステップS340における太陽の高度と方位角の算出方法について説明する。
太陽の位置を算出する際には、図9に示す天球の座標系を用いる。自車1の重心を原点Oに取り、南Sを+Y、北Nを-Y、西Wを+X、東Eを-Xとする。
太陽の高度hと方位角Aは、それぞれ真南に向かって東側が負、西側が正と定義でき、それぞれの算出式は、下記の式(1),(2)で表される。
h = sin-1(sin(φ)sin(δ) + cos(φ)cos(δ)cos(t)) …(1)
A = sin-1{(cos(δ)sin(t)) / cos(h)} …(2)
ここで、φは現在位置の緯度である。また、δは太陽赤緯、tは時角を表し、それぞれの算出式を下記の式(3),(4)に示す。
δ = 0.33281 - 22.984cos(ωJ) - 0.34990cos(2ωJ) - 0.13980cos(3ωJ)
+ 3.7872sin(ωJ) + 0.0325sin(2ωJ) + 0.07187sin(3ωJ) …(3)
t = 15°T - 180° …(4)
ただし、ω = 2π/365(閏年の場合は、ω = 2π/366)、J = 元日からの通算日数+0.5とする。
ここで、Tは真太陽時であり、算出式を下記の式(5)に示す。
T = Ts + (L - Ms) / 15° + e …(5)
ここで、現在のTsは中央標準時、現在位置の緯度、Msは標準子午線である(日本の場合は135°)。また、eは均時差であり、算出式を下記の式(6)に示す。
e = 0.0072cos(ωJ) - 0.0528cos(2ωJ) - 0.0012cos(3ωJ)
- 0.1229sin(ωJ) - 0.1565sin(2ωJ) - 0.0041sin(3ωJ) …(6)
ただし、ω = 2π/365(閏年の場合は、ω = 2π/366)、J = 元日からの通算日数+0.5とする。
Hereinafter, a method for calculating the altitude and azimuth of the sun in step S340 will be described.
When calculating the position of the sun, the coordinate system of the celestial sphere shown in FIG. 9 is used. Take the center of gravity of your car 1 at the origin O, South S is + Y, North N is -Y, West W is + X, East E is -X.
The solar altitude h and azimuth angle A can be defined as negative toward the south and positive at the east, respectively, and the respective calculation formulas are expressed by the following formulas (1) and (2).
h = sin -1 (sin (φ) sin (δ) + cos (φ) cos (δ) cos (t))… (1)
A = sin -1 {(cos (δ) sin (t)) / cos (h)}… (2)
Here, φ is the latitude of the current position. Further, δ represents the solar declination, t represents the hour angle, and the respective calculation formulas are shown in the following formulas (3) and (4).
δ = 0.33281-22.984cos (ωJ)-0.34990cos (2ωJ)-0.13980cos (3ωJ)
+ 3.7872sin (ωJ) + 0.0325sin (2ωJ) + 0.07187sin (3ωJ)… (3)
t = 15 ° T-180 °… (4)
However, ω = 2π / 365 (in the case of leap years, ω = 2π / 366), and J = total number of days from the first day +0.5.
Here, T is true solar time, and the calculation formula is shown in the following formula (5).
T = Ts + (L-Ms) / 15 ° + e… (5)
Here, the current Ts is Central Standard Time, the latitude of the current position, and Ms is the standard meridian (135 ° in Japan). Further, e is a time difference, and the calculation formula is shown in the following formula (6).
e = 0.0072cos (ωJ)-0.0528cos (2ωJ)-0.0012cos (3ωJ)
-0.1229sin (ωJ)-0.1565sin (2ωJ)-0.0041sin (3ωJ)… (6)
However, ω = 2π / 365 (in the case of leap years, ω = 2π / 366), and J = total number of days from the first day +0.5.

〔自車影領域推定処理〕
図10は、実施例1の自車影領域推定処理の流れを示すフローチャートで、以下、各ステップについて説明する。
ステップS410では、太陽位置算出処理(ステップS300)で得られた太陽の高度hと方位角Aを読み込み、ステップS420へ移行する。
ステップS420では、カーナビゲーション装置400から提供される自車進行方向情報を取得し、ステップS430へ移行する。
ステップS430では、自車立体形状データベース160にあらかじめ自車立体形状データとして保存してある三次元座標VP[n]を読み込み、ステップS440へ移行する。
ステップS440では、ステップS410,S420,S430で取得した各情報に基づいて自車影が発生する推定領域を算出する。図11を用いて自車影推定領域3の算出方法を説明する。まず、太陽の高度hおよび方位角Aと、自車進行方向と、自車立体形状データとから、自車1の影が出現する方向の推定値θs^と、自車立体形状データに基づく各計測点VP[n]における影SP[n]の長さの推定値L^[n]を算出する。ここで、自車進行方向をθv、自車立体形状データに基づく各計測点の高さをH[n](= VP[n]→Z)とすると、自車影の方向の推定値θs^と、各計測点VP[n]における自車影の長さの推定値L^[n](= {(SP[n]→X)2 + (SP[n]→Y)2}1/2)は、下記の式(7),(8)で算出される。
θs^ = A -θv^ = sin-{(cos(δ)sin(t)) / cos(h)} -θv^ …(7)
L^[n] = H[n]cot(h) …(8)
上記式(7),(8)によって自車影SP[n]の点群を逐次算出し、これらの点群を統合することで、最終的に自車影推定領域3が算出される。
ステップS445では、ステップS440で算出された自車影推定領域が車両周辺撮像装置300の撮像範囲に入っているか否かを判定する。YESの場合にはステップS450へ移行し、NOの場合には自車影除去処理を終了する。
ステップS450では、車両周辺測距装置350で集約した各超音波センサ5a〜5jの計測値を車両周辺の距離情報として取得し、ステップS455へ移行する。
ステップS455では、ステップS455で取得した車両周辺の距離情報に基づき、自車影推定領域に所定以上の大きさの障害物(壁などの立体物)が存在するか否かを判定する。YESの場合にはステップS470へ移行し、NOの場合にはステップS460へ移行する。ここで、自車影推定領域に所定以上の大きさの障害物が存在する場合、自車影は路面上以外に、当該障害物にも投影していると推定できるため、ステップS460へと進み、自車影推定領域を補正する処理を行う必要がある。
[Self-vehicle shadow area estimation processing]
FIG. 10 is a flowchart showing the flow of the own vehicle shadow area estimation process according to the first embodiment. Each step will be described below.
In step S410, the solar altitude h and azimuth angle A obtained in the solar position calculation process (step S300) are read, and the process proceeds to step S420.
In step S420, own vehicle traveling direction information provided from car navigation device 400 is acquired, and the process proceeds to step S430.
In step S430, the three-dimensional coordinates VP [n] stored in advance in the vehicle three-dimensional shape database 160 as the vehicle three-dimensional shape data are read, and the process proceeds to step S440.
In step S440, an estimated region where the own vehicle shadow is generated is calculated based on each information acquired in steps S410, S420, and S430. A method of calculating the own vehicle shadow estimation area 3 will be described with reference to FIG. First, based on the altitude and azimuth A of the sun, the traveling direction of the host vehicle, and the three-dimensional shape data of the own vehicle, the estimated value θ s ^ of the direction in which the shadow of the own vehicle 1 appears and the three-dimensional shape data of the own vehicle An estimated value L ^ [n] of the length of the shadow SP [n] at each measurement point VP [n] is calculated. Here, if the traveling direction of the vehicle is θ v and the height of each measurement point based on the vehicle's solid shape data is H [n] (= VP [n] → Z), the estimated value θ of the vehicle shadow direction s ^ and the estimated value of the length of the vehicle shadow at each measurement point VP [n] L ^ [n] (= {(SP [n] → X) 2 + (SP [n] → Y) 2 } 1 / 2 ) is calculated by the following equations (7) and (8).
θ s ^ = A -θ v ^ = sin-{(cos (δ) sin (t)) / cos (h)} -θ v ^… (7)
L ^ [n] = H [n] cot (h)… (8)
By calculating the point cloud of the own vehicle shadow SP [n] by the above formulas (7) and (8) and integrating these point groups, the own vehicle shadow estimation region 3 is finally calculated.
In step S445, it is determined whether or not the own vehicle shadow estimation area calculated in step S440 is within the imaging range of the vehicle periphery imaging device 300. If YES, the process proceeds to step S450. If NO, the vehicle shadow removal process is terminated.
In step S450, the measurement values of the ultrasonic sensors 5a to 5j collected by the vehicle periphery ranging device 350 are acquired as distance information around the vehicle, and the process proceeds to step S455.
In step S455, based on the distance information around the vehicle acquired in step S455, it is determined whether or not an obstacle (a solid object such as a wall) having a size larger than a predetermined size exists in the own vehicle shadow estimation area. If YES, the process moves to step S470, and if NO, the process moves to step S460. Here, when there is an obstacle of a predetermined size or more in the own vehicle shadow estimation area, it can be estimated that the own vehicle shadow is projected on the obstacle other than on the road surface, so the process proceeds to step S460. It is necessary to perform processing for correcting the vehicle shadow estimation area.

ステップS460では、ステップS440で算出された自車影推定領域の座標系を画像座標系に変換し、ステップS480へ移行する。世界座標系の点から画像座標系に変換する方法を説明する。下記の式(9)に示すように、世界座標系の三次元点(X,Y,Z)は、投影された画像中の点(u,v)に射影される。式(9)において、λはスケール係数、Pは3行4列の射影行列である。なお、この射影行列Pは、カメラキャリブレーションによって事前に算出される。カメラキャリブレーションとは、世界座標と車両周辺撮像装置300のカメラ画像座標とを関係付けることをいう。

Figure 0005066558
次に、カメラを仮想的に移動させて、自車を真上から俯瞰する仮想カメラの射影変換行列をP'とすると、下記の式(10)に示すように、世界座標系の三次元点(X,Y,Z)は、俯瞰画像座標系(u',v')に射影される。
Figure 0005066558
上記式(10)によって、世界座標系の三次元点(X,Y,Z)が俯瞰変換画像座標系(u',v')に変換される。
ステップS470では、ステップS455により自車影が障害物にも投影していると推定されたため、自車影推定領域補正処理を実施し、ステップS460へ移行する。実施例1の自車影推定領域補正処理の流れを図12に示す。まず、ステップS471では、ステップS450で計測された障害物までの距離Dを取得し、続くステップS472では、障害物による自車影推定領域の変形量を算出し、変形量に応じて自車影推定領域を補正する。図13に示すように、自車1の側方に壁10が存在し、この壁10に自車影2が射影している場合、自車影2は路面領域7の自車影2aと壁領域の自車影2bに分類できる。今、自車立体形状データの代表点VPの高さをH、壁10が存在しない場合の自車影2の推定領域の長さをLとする。また、路面領域7と壁10との接点をSP(XSP,YSP,ZSP)、壁領域における自車影2bの点をSPW(XSPW,YSPW,ZSPW)とする。ステップS471で取得された自車1と壁10との距離がDの場合、点SPと点SPWはそれぞれ下記の式(11),(12)で表される。なお、便宜的に世界座標系の原点を点SPとしている。
Figure 0005066558
Figure 0005066558
ここで、式(12)におけるLは、壁10が存在しない場合の自車影2の推定領域の長さであるため、式(8)で置き換えることができ、下記の式(13)で表される。
Figure 0005066558
以上の計算式により、壁10に射影した自車影2bの点SPWを逐次演算することで、障害物がある場合は自車影推定領域が補正される。
ステップS480では、推定された自車影推定領域を自車影推定パターンとしてメモリに保存し、本制御を終了する。
以上のように、自車影領域推定処理では、太陽の高度hと方位角Aの情報、自車進行方向の情報、自車立体形状データに基づいて自車影推定領域を算出した後、撮像範囲に自車影が含まれると判断された場合、自車影推定領域を世界座標系から画像座標系に変換し、推定された領域の特徴を自車影推定パターンとして記憶する。このとき、自車影が障害物にも投影していると判断された場合、障害物による自車影の変形量に応じて自車影推定領域を補正した後、座標系の変換および自車影推定パターンの記憶を行う。 In step S460, the coordinate system of the own vehicle shadow estimation area calculated in step S440 is converted into an image coordinate system, and the process proceeds to step S480. A method of converting from a point in the world coordinate system to an image coordinate system will be described. As shown in the following equation (9), the three-dimensional point (X, Y, Z) in the world coordinate system is projected onto the point (u, v) in the projected image. In Equation (9), λ is a scale factor, and P is a projection matrix with 3 rows and 4 columns. The projection matrix P is calculated in advance by camera calibration. Camera calibration refers to associating world coordinates with the camera image coordinates of the vehicle periphery imaging device 300.
Figure 0005066558
Next, let P ′ be the projective transformation matrix of the virtual camera that virtually moves the camera and looks down on the vehicle from directly above, as shown in the following equation (10), a three-dimensional point in the world coordinate system (X, Y, Z) is projected onto the overhead image coordinate system (u ′, v ′).
Figure 0005066558
By the above equation (10), the three-dimensional point (X, Y, Z) in the world coordinate system is converted into the overhead view conversion image coordinate system (u ′, v ′).
In step S470, since it is estimated that the own vehicle shadow is also projected on the obstacle in step S455, the own vehicle shadow estimation area correction process is performed, and the process proceeds to step S460. FIG. 12 shows the flow of the vehicle shadow estimation area correction process according to the first embodiment. First, in step S471, the distance D to the obstacle measured in step S450 is acquired, and in the subsequent step S472, the deformation amount of the own vehicle shadow estimation area due to the obstacle is calculated, and the own vehicle shadow is calculated according to the deformation amount. Correct the estimated area. As shown in FIG. 13, when the wall 10 exists on the side of the vehicle 1 and the vehicle shadow 2 is projected on the wall 10, the vehicle shadow 2 is the same as the vehicle shadow 2 a of the road surface region 7 and the wall. The area can be classified as the own vehicle shadow 2b. Now, assume that the height of the representative point VP of the vehicle three-dimensional shape data is H, and the length of the estimated region of the vehicle shadow 2 when the wall 10 does not exist is L. Further, the contact point between the road surface region 7 and the wall 10 is SP (X SP , Y SP , Z SP ), and the point of the vehicle shadow 2b in the wall region is SPW (X SPW , Y SPW , Z SPW ). When the distance between the vehicle 1 and the wall 10 acquired in step S471 is D, the point SP and the point SPW are expressed by the following equations (11) and (12), respectively. For convenience, the origin of the world coordinate system is the point SP.
Figure 0005066558
Figure 0005066558
Here, L in Equation (12) is the length of the estimated region of the own vehicle shadow 2 when the wall 10 does not exist, so it can be replaced by Equation (8) and expressed by Equation (13) below. Is done.
Figure 0005066558
By calculating the point SPW of the vehicle shadow 2b projected onto the wall 10 by the above formula, the vehicle shadow estimation region is corrected when there is an obstacle.
In step S480, the estimated vehicle shadow estimation area is stored in the memory as a vehicle shadow estimation pattern, and this control is terminated.
As described above, in the own vehicle shadow region estimation process, after calculating the own vehicle shadow estimation region based on the information on the sun altitude h and the azimuth angle A, the information on the own vehicle traveling direction, and the own vehicle solid shape data, When it is determined that the vehicle shadow is included in the range, the vehicle shadow estimation area is converted from the world coordinate system to the image coordinate system, and the characteristics of the estimated area are stored as the vehicle shadow estimation pattern. At this time, if it is determined that the own vehicle shadow is also projected on the obstacle, after correcting the own vehicle shadow estimation area according to the deformation amount of the own vehicle shadow caused by the obstacle, the coordinate system conversion and the own vehicle are corrected. The shadow estimation pattern is stored.

〔自車影領域検出処理〕
図14は、実施例1の自車影領域検出処理の流れを示すフローチャートで、以下、各ステップについて説明する。
ステップS510では、車両周辺撮像装置300によって撮像された画像を画像メモリ150にキャプチャし、ステップS520へ移行する。
ステップS520では、ステップS400で計算した自車影推定パターンに基づき、自車影を探索する領域を設定し、ステップS530へ移行する。ここで、自車影を探索する領域は、ステップS400で計算された自車影推定パターンに比べて所定画素分だけ広い領域(例えば、5画素分だけ自車影推定パターンを膨張させた領域)に設定される。また、この自車影を探索する領域の設定値(膨張率等)は、各ステップにおける計算誤差やセンサの計測誤差等を考慮して可変としてもよい。これにより、ステップS400で計算された自車影推定パターンが種々の計算誤差によって実際の自車影領域に比べて狭い領域として推定された場合でも、自車影を含む領域に設定できる。また、自車影を探索する領域の設定値を可変にすることで、より確実に自車影を含む領域として設定できる。
ステップS530では、ステップS520で設定された探索領域に対して、輝度と形状の特徴を用いて自車影候補領域を抽出し、ステップS540へ移行する。ここでは、輝度の特徴として、自車影領域は周囲に比べて相対的に輝度が低くなっていることを利用する。また、形状特徴として、自車影領域は必ず自車と路面との接地面から伸びていることを利用する。これにより、自車影領域推定手段120(ステップS520)によって得られた自車影推定パターンの情報を用いて画像の探索領域を限定できるため、処理の高速化が期待できる。
ステップS540では、ステップS530で抽出された自車影候補領域と、ステップS400で算出された自車影推定パターンとのパターン照合を行い、ステップS550へ移行する。
ステップS550では、ステップS540のパターン照合の結果で算出された類似度が所定の閾値より大きいか否かを判定する。YESの場合にはステップS570へ移行し、NOの場合にはステップS560へ移行する。
ステップS560では、ステップS530で自車影候補領域の輝度、形状抽出を行う際の閾値をそれぞれ変更し、ステップS530へ移行する。
ステップS570では、自車影候補領域を自車影領域と確定し、本制御を終了する。
以上のように、自車影領域検出処理では、自車影推定パターンに基づいて自車影を探索する領域を設定し、設定した探索領域に対して自車影領域の輝度および形状の特徴を用いて自車影候補領域を抽出し、抽出した自車影候補領域と自車影推定パターンとの類似度が閾値を超えた場合、自車影候補領域を自車影領域と確定する。ここで、類似度が閾値以下であると判定された場合、自車影候補領域を抽出する際に用いる輝度および形状の閾値を変更する。
[Vehicle shadow area detection processing]
FIG. 14 is a flowchart showing the flow of the own vehicle shadow area detection process according to the first embodiment. Each step will be described below.
In step S510, the image captured by the vehicle periphery imaging device 300 is captured in the image memory 150, and the process proceeds to step S520.
In step S520, an area for searching for the own vehicle shadow is set based on the own vehicle shadow estimation pattern calculated in step S400, and the process proceeds to step S530. Here, the area for searching for the own vehicle shadow is an area wider than the own vehicle shadow estimation pattern calculated in step S400 by a predetermined pixel (for example, an area in which the own vehicle shadow estimation pattern is expanded by 5 pixels). Set to In addition, the set value (expansion rate or the like) of the area for searching for the own vehicle shadow may be variable in consideration of calculation errors in each step, sensor measurement errors, and the like. Thereby, even when the vehicle shadow estimation pattern calculated in step S400 is estimated as a narrower region than the actual vehicle shadow region due to various calculation errors, it can be set to a region including the vehicle shadow. In addition, by making the set value of the area for searching for the own vehicle shadow variable, it is possible to set the area including the own vehicle shadow more reliably.
In step S530, the vehicle shadow candidate region is extracted from the search region set in step S520 using the characteristics of luminance and shape, and the process proceeds to step S540. Here, as a feature of the brightness, the fact that the brightness of the own vehicle shadow area is relatively lower than the surrounding area is used. As a shape feature, the fact that the own vehicle shadow region always extends from the ground contact surface between the own vehicle and the road surface is used. As a result, the search area of the image can be limited by using the information of the own vehicle shadow estimation pattern obtained by the own vehicle shadow area estimating means 120 (step S520), so that the processing speed can be expected.
In step S540, pattern matching between the own vehicle shadow candidate area extracted in step S530 and the own vehicle shadow estimation pattern calculated in step S400 is performed, and the process proceeds to step S550.
In step S550, it is determined whether the similarity calculated as a result of pattern matching in step S540 is greater than a predetermined threshold. If YES, the process moves to step S570, and if NO, the process moves to step S560.
In step S560, the threshold values for extracting the brightness and shape of the vehicle shadow candidate region in step S530 are changed, and the process proceeds to step S530.
In step S570, the own vehicle shadow candidate area is determined as the own vehicle shadow area, and this control is terminated.
As described above, in the vehicle shadow area detection process, the area for searching for the vehicle shadow is set based on the vehicle shadow estimation pattern, and the luminance and shape characteristics of the vehicle shadow area are set with respect to the set search area. The vehicle shadow candidate region is extracted using the vehicle shadow candidate region, and when the similarity between the extracted vehicle shadow candidate region and the vehicle shadow estimation pattern exceeds a threshold, the vehicle shadow candidate region is determined as the vehicle shadow region. Here, when it is determined that the similarity is equal to or less than the threshold value, the luminance and shape threshold values used when extracting the own vehicle shadow candidate region are changed.

〔画像の輝度補正処理〕
図15は、実施例1の画像の輝度補正処理の流れを示すフローチャートで、以下、各ステップについて説明する。
ステップS610では、ステップS500によって確定された自車影領域の内側(内部)の平均輝度値Iavrsと、自車影領域の外側(外部)の日射領域の平均輝度値Iavrrを取得する。なお、図16(a)に示すように、日射領域6は、自車影領域4を所定の画素分だけ膨張させた領域(例えば、5画素分だけ自車影領域4を膨張させた領域)とする。日射領域6を自車影領域4よりも所定画素膨張させた領域とすることで、路面のペイントや汚れや路側の構造物、走行車両などのノイズの影響を軽減できるため、より確実に影領域の輝度を補正できる。
ステップS620では、ステップS610で算出された自車影領域4の平均輝度値Iavrsと日射領域6の平均輝度値Iavrrから自車影領域4の輝度補正パラメータαを下記の式(14)を用いて決定し、ステップS630へ移行する。
α = Iavrr / Iavrs …(14)
ステップS630では、ステップS620で算出された輝度補正パラメータαに基づき、自車影領域4の輝度を補正し、本制御を終了する。画像中の自車影領域の画素数をm、補正前における自車影領域の点iの輝度値をIs[i]とすると、補正後の輝度値Is'[i]は下記の式(15)で表される。
Is'[i] = αIs[i](i = 1,2,…,m) …(15)
以上のように、輝度補正処理では、自車影領域4の平均輝度値Iavrsと日射領域の平均輝度値Iavrrから自車影領域の輝度補正パラメータαを求め、輝度補正パラメータαを用いて自車影領域4を補正する。これにより、図16(a)に示すように、自車影領域4によって白線8の輝度値が低く見えづらい状況であっても、自車影領域4の視認性を向上できる(図16(b))。さらに、自車影領域4のみの輝度値を補正するため、日射状態にある路面領域7や白線8については補正前の輝度と同じであり、視認性を悪化させることもない。
[Image brightness correction processing]
FIG. 15 is a flowchart showing the flow of image brightness correction processing according to the first embodiment. Each step will be described below.
At step S610, the obtaining the average luminance value I AVRs inner ascertained vehicle shadow regions (internal) in step S500, the average luminance value I Avrr insolation region outside (external) of Jikurumakage region. As shown in FIG. 16 (a), the solar radiation area 6 is an area in which the vehicle shadow area 4 is expanded by a predetermined pixel (for example, an area in which the vehicle shadow area 4 is expanded by 5 pixels). And By making the solar radiation area 6 an area that is expanded by a predetermined number of pixels from the vehicle shadow area 4, it is possible to reduce the effects of road surface paint, dirt, roadside structures, traveling vehicles, etc. Can be corrected.
In step S620, the equation (14) from the average luminance value I Avrr the average luminance value I AVRs and solar radiation region 6 of the calculated vehicle shadow region 4 the luminance correction parameter α of the vehicle shadow region 4 below at step S610 The process proceeds to step S630.
α = I avrr / I avrs … (14)
In step S630, the brightness of the vehicle shadow area 4 is corrected based on the brightness correction parameter α calculated in step S620, and this control is terminated. Assuming that the number of pixels in the own vehicle shadow region in the image is m and the luminance value of the point i in the own vehicle shadow region before correction is I s [i], the corrected luminance value I s ' [i] is expressed by the following equation: It is expressed by (15).
I s ' [i] = αI s [i] (i = 1,2,…, m)… (15)
As described above, in the brightness correction process, the brightness correction parameter α of the own vehicle shadow area is obtained from the average brightness value I avrs of the own vehicle shadow area 4 and the average brightness value I avrr of the solar radiation area, and the brightness correction parameter α is used. The own vehicle shadow area 4 is corrected. As a result, as shown in FIG. 16 (a), the visibility of the own vehicle shadow region 4 can be improved even in a situation where the brightness value of the white line 8 is difficult to be seen due to the own vehicle shadow region 4 (see FIG. 16 (b)). )). Further, since the luminance value of only the own vehicle shadow region 4 is corrected, the road surface region 7 and the white line 8 in the solar radiation state are the same as the luminance before correction, and the visibility is not deteriorated.

次に、作用を説明する。
〔従来の自車影認識の問題点〕
これまでに、車両の後方にカメラを搭載し、車両後退時におけるユーザーの視界を補助する装置が実用化されている。さらに、近年では、車両に複数のカメラを搭載し、車両の後方だけでなく全周囲の視界を補助する装置も実用化させている。これらのシステムでは、ユーザーの視界を確保することが主目的であり、カーナビゲーションシステム等の画面に表示された映像をユーザーが直接目視して周囲の安全確認を行っている。また、カメラで撮像された画像から自動的に障害物を判断してユーザーに注意を促すシステムも考案されている。
以上のように、ユーザーが直接画像を目視して安全確認を行う場合でも、システムが自動的に障害物を認識する場合でも、判断元となる情報はカメラで撮影された画像である。つまり、両者とも撮像された画像の明るさやコントラスト等が視認性に大きく影響する。特に、車両に搭載されるカメラはコストを抑えるために輝度のダイナミックレンジが狭いものが多く、シーンによっては十分な視認性を確保することが困難である。例えば、日中の晴天時において、直射日光が当たっている路面と自車影により暗い領域とが存在する場合、カメラの露光制御は一般的に面積が大きい方の明るさを基準とするため、直射日光の当たっている路面を基準に輝度が補正される。この結果、自車影領域は輝度、コントラスト共に低い映像となり、視認性が低下してしまう。
このような課題に対して、これまでに自車影を認識する技術が考案されている。例えば、上記特許文献1記載の発明では、車載カメラの撮像画像に太陽が写ったときに発生するスミア(smear;CCDイメージセンサを用いたカメラで周囲より極端に明るい被写体を撮影した際に白飛びする現象)を利用して太陽の位置を推定し、自車影の位置を特定している。また、別の手段として、車両の現在位置の情報と、太陽の位置に関する情報を登録したデータベースと時刻の情報に基づいて自車影の位置を特定する技術も知られている。さらに、これらの手段で特定した自車影の位置に対応する部分の輝度を補正し、影のない画像を生成している。
Next, the operation will be described.
[Problems of conventional vehicle shadow recognition]
Until now, a device that has a camera mounted behind the vehicle and assists the user's field of view when the vehicle moves backward has been put into practical use. Furthermore, in recent years, a device in which a plurality of cameras are mounted on a vehicle and assists the entire field of view as well as the rear of the vehicle has been put into practical use. In these systems, the main purpose is to ensure the user's field of view, and the user directly checks the image displayed on the screen of a car navigation system or the like to confirm the safety of the surroundings. In addition, a system has been devised that automatically determines an obstacle from an image captured by a camera and alerts the user.
As described above, whether the user directly checks the image for safety confirmation or the system automatically recognizes an obstacle, the information that is the determination source is an image taken by the camera. That is, in both cases, the brightness, contrast, and the like of the captured images greatly affect the visibility. In particular, cameras mounted on vehicles often have a narrow dynamic range of luminance in order to reduce costs, and it is difficult to ensure sufficient visibility depending on the scene. For example, when there is a road area that is exposed to direct sunlight and a dark area due to the shadow of the vehicle, the camera exposure control is generally based on the brightness of the larger area. The brightness is corrected based on the road surface exposed to direct sunlight. As a result, the shadow area of the own vehicle becomes an image with low brightness and contrast, and visibility is lowered.
In order to solve such a problem, a technique for recognizing the shadow of the own vehicle has been devised. For example, in the invention described in Patent Document 1, smear (smear generated when the sun appears in an image captured by a vehicle-mounted camera) is used to capture a subject that is extremely bright from the surroundings with a camera using a CCD image sensor. The position of the vehicle shadow is specified by estimating the position of the sun using the phenomenon. As another means, a technique for identifying the position of the own vehicle shadow based on information on the current position of the vehicle, a database in which information on the position of the sun is registered, and time information is also known. Further, the brightness of the portion corresponding to the position of the own vehicle shadow specified by these means is corrected, and an image without a shadow is generated.

ところが、特許文献1記載の発明では、太陽の位置から自車に対して影ができる位置、すなわち、影ができる方向のみを推定するものであるため、自車以外(樹木、建物、人等)の影やその他のノイズ成分を自車影の一部と誤認識し、不必要な領域まで補正してしまう可能性がある。また、推定された自車影と類似する立体物が自車周辺に存在する場合、それを自車影と誤認識する可能性がある。また、狭い路地や駐車場などのシーンにおいて、自車影は路面だけではなく壁面などの構造物に射影することも考えられる。このようなシーンで自車影領域を推定する場合には、構造物までの距離を計測する必要があるため、特許文献1記載の方法では、自車影領域を正確に特定することが困難である。加えて、スミアを利用する方法では、CMOSセンサを用いたカメラではスミアが発生しないことから、太陽の位置を算出できない。また、太陽の高度が高く、カメラの撮像範囲に入らない場合、スミアが発生しないため、太陽の位置を算出できない。
一方、全国各地の太陽の位置(高度、方位角)情報をデータベース(離散化されたテーブルデータ)として保存し、時刻の情報に基づいて自車影の位置を特定するものでは、登録地点の数を減らすと情報量が抑えられるが、分解能が低下するため自車影領域の検出精度が低下する。逆に登録地点の数を増やすと、分解能は高くなるが、情報量が肥大化してコストアップを招く。
さらに、従来の自車影認識装置では、自車影の位置を特定する機能の起動・終了トリガがないため、夜間や天候不良等、影が発生しない状況でも実行されることが想定され、消費電力の増加につながる。
However, in the invention described in Patent Document 1, since only the position where the shadow is generated from the position of the sun, that is, the direction in which the shadow is generated is estimated, other than the own vehicle (tree, building, person, etc.) And other noise components may be misrecognized as part of the shadow of the vehicle and may be corrected to an unnecessary area. In addition, when a three-dimensional object similar to the estimated own vehicle shadow exists in the vicinity of the own vehicle, it may be erroneously recognized as the own vehicle shadow. Further, in a scene such as a narrow alley or a parking lot, it is conceivable that the shadow of the own vehicle is projected not only on the road surface but also on a structure such as a wall surface. When estimating the own vehicle shadow area in such a scene, it is necessary to measure the distance to the structure. Therefore, with the method described in Patent Document 1, it is difficult to accurately specify the own vehicle shadow area. is there. In addition, in the method using smear, the position of the sun cannot be calculated because smear does not occur in a camera using a CMOS sensor. In addition, when the altitude of the sun is high and does not fall within the imaging range of the camera, smear does not occur, so the position of the sun cannot be calculated.
On the other hand, in the case of storing the position (altitude, azimuth) information of the sun around the country as a database (discretized table data) and specifying the position of the own vehicle shadow based on the time information, the number of registration points If the amount is reduced, the amount of information can be reduced, but the resolution is lowered, so that the detection accuracy of the own vehicle shadow region is lowered. Conversely, when the number of registration points is increased, the resolution is increased, but the amount of information is enlarged, resulting in an increase in cost.
Furthermore, in the conventional vehicle shadow recognition device, since there is no start / end trigger for the function to identify the position of the vehicle shadow, it is assumed that it will be executed even in situations where no shadows occur, such as nighttime and bad weather. This leads to an increase in power.

〔自車影推定作用〕
これに対し、実施例1の自車影認識装置11は、太陽の高度hおよび方位角Aと、自車進行方向θvと、自車立体形状データ(影の外形の頂点座標)とに基づいて、自車影が出現する方向の推定値θs^と、自車立体形状データに基づく各計測点VP[n]における影SP[n]の長さの推定値L^[n]を算出し、これらの情報を統合して自車影推定領域を推定する自車影領域推定手段120を備える。つまり、影ができる方向だけでなく、自車立体形状データに基づいて自車影の形状を推定しているため、自車以外の影やその他のノイズ成分を自車影の一部と認識することがなく、自車影領域の推定精度を高めることができる。
〔自車影検出作用〕
また、自車影認識装置11は、車両周辺撮像装置300によって撮像された画像から自車影推定領域(自車影推定パターン)に基づいて自車影を探索する領域を設定し、当該領域に対して自車影領域の輝度と形状の特徴を用いて抽出した自車影候補領域を自車影推定パターンと比較して自車影領域を特定する自車影領域検出手段130を備える。つまり、精度の高い自車影推定領域に基づいて自車影領域を特定するため、他の構造物の影や路面の汚れなどのノイズに対してロバストであり、高精度に自車影領域を検出できる。
〔自車影領域除去作用〕
さらに、自車影認識装置11は、確定した自車影領域の外側(日射領域)の平均輝度値Iavrrと自車影領域の平均輝度値Iavrsとから輝度補正パラメータα(Iavrr / Iavrs)を算出し、自車影領域の各画素の輝度を輝度補正パラメータαにより補正する画像補正手段140を備える。よって、自車影領域の外側の視認性を悪化させることなく、自車影領域の輝度のみを自車影領域の外側の輝度に応じて明るくでき、自車影領域の視認性向上を図ることができる。
(Self-vehicle shadow estimation effect)
On the other hand, the own vehicle shadow recognition apparatus 11 according to the first embodiment is based on the sun altitude h and the azimuth A, the own vehicle traveling direction θ v, and the own vehicle solid shape data (vertex coordinates of the outline of the shadow). The estimated value θ s ^ for the direction in which the vehicle shadow appears and the estimated value L ^ [n] for the length of the shadow SP [n] at each measurement point VP [n] based on the vehicle's solid shape data Then, the vehicle shadow area estimation means 120 for integrating the information and estimating the vehicle shadow estimation area is provided. In other words, because the shape of the vehicle shadow is estimated based not only on the direction in which the shadow is generated but also on the vehicle's solid shape data, shadows other than the vehicle and other noise components are recognized as part of the vehicle shadow. In this way, the estimation accuracy of the vehicle shadow region can be improved.
[Self-vehicle shadow detection]
In addition, the vehicle shadow recognition device 11 sets a region for searching for the vehicle shadow from the image captured by the vehicle periphery imaging device 300 based on the vehicle shadow estimation region (vehicle shadow estimation pattern), and sets the region in the region. On the other hand, the vehicle shadow region detection means 130 for comparing the vehicle shadow candidate region extracted using the characteristics of the brightness and shape of the vehicle shadow region with the vehicle shadow estimation pattern and specifying the vehicle shadow region is provided. In other words, because the vehicle shadow area is specified based on the highly accurate vehicle shadow estimation area, the vehicle shadow area is robust against noise such as shadows of other structures and road surfaces. It can be detected.
(Self-vehicle shadow area removal action)
Furthermore, Jikurumakage recognition device 11, the luminance correction parameter from the average luminance value I AVRs the average luminance value I Avrr and Jikurumakage region of finalized outside of the vehicle shadow region (insolation region) α (I avrr / I avrs ) is calculated, and image correction means 140 is provided for correcting the luminance of each pixel in the own vehicle shadow region with the luminance correction parameter α. Therefore, only the luminance of the own vehicle shadow region can be increased according to the luminance outside the own vehicle shadow region without deteriorating the visibility outside the own vehicle shadow region, thereby improving the visibility of the own vehicle shadow region. Can do.

〔太陽位置算出作用〕
自車影認識装置11は、カーナビゲーション装置400から得られる自車の現在位置の緯度、経度、現在の日にちおよび現在の時刻と、自車の現在位置から決定される標準子午線との情報に基づいて、太陽の高度hと方位角Aを算出する太陽位置算出手段110を備える。よって、スミアを利用することなく太陽の位置を算出できるため、車両周辺撮像装置300として、CCDイメージセンサよりも低消費電力で小型化が容易なCMOSセンサを用いることができる。また、カメラの撮像範囲に太陽が入らない場合も太陽の位置を算出できる。さらに、自車の緯度および経度と太陽の位置との関係を保存するための離散化されたデータベースが不要であり、メモリ容量が少なく済むため、コストを抑制できる。
太陽位置算出手段110は、現在位置に対応した標準子午線を考慮して太陽の高度と方位角とを算出するため、全世界のいずれの位置でも自車影認識装置11による自車影認識システムを利用できる。さらに、カーナビゲーション装置400を用いることで、自車の現在位置の情報(緯度、経度)だけでなく、日にちや時刻の情報も同時に取得できる。加えて、一般的なカーナビゲーション装置が備えるマップマッチング機能とデッドレコニング機能から自車進行方向を取得できるため、自車進行方向を取得する装置を別途追加するコストを削減できる。
〔障害物との距離に基づく自車影推定領域補正作用〕
自車影認識装置11は、自車周辺に存在する立体物までの距離を計測する測距センサ(超音波センサ5a〜5j)を有する車両周辺測距装置350を備えるため、自車影の形状に影響を与える自車周辺の障害物までの距離を計測できる。そして、自車影領域推定手段120は、自車周辺に存在する立体物(障害物)による自車影の変形量を推定、変形量に応じて自車影推定領域を補正するため、自車影推定領域を高精度に推定できる。また、超音波センサ5a〜5jは安価であるため、車両周辺に複数装着でき、障害物検出の分解能を高めることができる。
〔システム起動判定作用〕
自車影認識装置11は、車載ネットワーク330から照度取得装置351等の情報を取得し、日の出後で自車影が発生すると判断されたとき、または、日の出後で降雨中ではなく、自車周囲が十分に明るいと判断されたとき、自車影除去処理を実行する。つまり、自車影が発生する状況であると判断した場合にのみ自車影認識システムを起動する。よって、システムを適切なタイミングで起動できると共に、夜間や天候不良等、影が発生しない状況ではシステムが起動しないため、不要な電力消費を抑制できる。また、自車影の有無にかかわらず、ユーザーが手動で自車影除去処理の実行の可否を設定するユーザーインターフェース320を備えるため、ユーザーの意思を優先して自車影除去処理の実行の可否を判定できる。
[Solar position calculation function]
The own vehicle shadow recognition device 11 is based on information on the latitude, longitude, current date and current time of the current position of the own vehicle obtained from the car navigation device 400, and the standard meridian determined from the current position of the own vehicle. And solar position calculating means 110 for calculating the solar altitude h and the azimuth angle A. Therefore, since the position of the sun can be calculated without using smear, a CMOS sensor that is lower in power consumption and easier to miniaturize than the CCD image sensor can be used as the vehicle periphery imaging device 300. Further, the position of the sun can be calculated even when the sun does not enter the imaging range of the camera. Furthermore, a discretized database for storing the relationship between the latitude and longitude of the vehicle and the position of the sun is not necessary, and the memory capacity can be reduced, so that the cost can be suppressed.
The sun position calculation means 110 calculates the sun's altitude and azimuth in consideration of the standard meridian corresponding to the current position. Available. Furthermore, by using the car navigation device 400, not only the current position information (latitude and longitude) of the host vehicle but also date and time information can be acquired simultaneously. In addition, since the vehicle traveling direction can be acquired from the map matching function and the dead reckoning function provided in a general car navigation device, the cost of separately adding a device for acquiring the vehicle traveling direction can be reduced.
[Car shadow estimation area correction based on distance to obstacle]
Since the own vehicle shadow recognition device 11 includes a vehicle peripheral distance measuring device 350 having a distance measuring sensor (ultrasonic sensors 5a to 5j) that measures a distance to a three-dimensional object existing around the own vehicle, the shape of the own vehicle shadow It is possible to measure the distance to obstacles around the vehicle that affect the vehicle. Then, the own vehicle shadow area estimation means 120 estimates the deformation amount of the own vehicle shadow due to a three-dimensional object (obstacle) existing around the own vehicle, and corrects the own vehicle shadow estimation area according to the deformation amount. The shadow estimation area can be estimated with high accuracy. In addition, since the ultrasonic sensors 5a to 5j are inexpensive, a plurality of ultrasonic sensors 5a to 5j can be mounted around the vehicle, and the resolution of obstacle detection can be increased.
[System startup judgment]
The own vehicle shadow recognition device 11 acquires information such as the illuminance acquisition device 351 from the in-vehicle network 330, and when it is determined that the own vehicle shadow will occur after sunrise, or is not raining after sunrise, the surroundings of the own vehicle When it is determined that is sufficiently bright, the vehicle shadow removal process is executed. That is, the own vehicle shadow recognition system is activated only when it is determined that the own vehicle shadow occurs. Accordingly, the system can be started at an appropriate timing, and unnecessary power consumption can be suppressed because the system does not start in a situation where no shadow occurs, such as at night or bad weather. The user interface 320 allows the user to manually set whether or not to execute the vehicle shadow removal process regardless of whether or not the vehicle shadow is present. Can be determined.

次に、効果を説明する。
実施例1の自車影認識装置11では、以下に列挙する効果を奏する。
(1) 自車が走行している路面を含む範囲を撮像する車両周辺撮像装置300と、自車の現在位置の情報と、現在の日時の情報とから太陽の位置を算出する太陽位置算出手段110と、太陽位置算出手段110で得られた太陽の位置情報と、自車の進行方位情報と、自車の立体形状データとから自車影が発生する領域を推定する自車影領域推定手段120と、自車影領域推定手段120から得られる座標情報に基づき、車両周辺撮像装置300で得られた画像の中から自車影領域を特定する自車影領域検出手段130と、を備えた。これにより、正確な太陽の位置から自車影領域を精度よく求めることができるため、画像の中から自車影領域を高精度に特定できる。
(2) 太陽位置算出手段110は、自車の現在位置に対応する標準子午線の情報から太陽の位置を算出するため、全世界のいずれの位置でも自車影認識システムを利用できる。
(3) 自車影領域内側の輝度情報と自車影領域外側の輝度情報とに基づいて、自車影領域の輝度を補正する画像補正手段140を備えたため、自車影領域の外側の視認性を悪化させることなく、自車影領域の輝度のみを補正でき、自車影領域の視認性向上を図ることができる。
(4) 画像補正手段140によって自車影領域の輝度を補正した画像を映像出力装置310に出力するため、視認性を向上させた自車周囲の映像をユーザーに提供できる。
(5) 自車周辺に存在する立体物までの距離を計測する車両周辺測距装置350を備え、自車影領域推定手段120は、車両周辺測距装置350からの情報を用いて、自車影領域を推定するため、立体物による自車影の変形量を考慮し、より正確な自車影推定領域を算出できる。
(6) 車両に搭載された照度取得装置351から得た情報によって、自車影領域を検出するための処理を起動するか否かを判断する起動判定手段(ステップS200)を備え、起動判定手段は、照度取得装置351からの照度の値が所定の閾値以下である場合、自車影領域を検出するための処理を実行しない。これにより、夜間や天候不良等、影が発生しない状況では自車影領域の検出が行われないため、不要な電力消費を抑制できる。
(7) ユーザーが自車影領域を検出するための処理を起動するか否かを設定できるユーザーインターフェース320を備えたため、ユーザーの意思を優先して自車影領域検出の可否を判定できる。
(8) 車両周辺撮像装置300は、自車の前後左右を撮像するため、自車全周の映像をユーザーに提供できる。
Next, the effect will be described.
The own vehicle shadow recognition apparatus 11 according to the first embodiment has the following effects.
(1) A vehicle position imaging device 300 that captures a range including a road surface on which the host vehicle is traveling, and a solar position calculating unit that calculates the position of the sun from information on the current position of the host vehicle and information on the current date and time 110, own vehicle shadow region estimation means for estimating a region where the own vehicle shadow is generated from the sun position information obtained by the sun position calculation means 110, the traveling direction information of the own vehicle, and the three-dimensional shape data of the own vehicle 120, and own vehicle shadow area detection means 130 for identifying the own vehicle shadow area from the image obtained by the vehicle periphery imaging device 300 based on the coordinate information obtained from the own vehicle shadow area estimation means 120. . Thereby, since the own vehicle shadow area | region can be calculated | required accurately from the exact position of the sun, the own vehicle shadow area | region can be specified from an image with high precision.
(2) Since the sun position calculation means 110 calculates the position of the sun from the standard meridian information corresponding to the current position of the own vehicle, the own vehicle shadow recognition system can be used at any position in the world.
(3) Since the image correction means 140 for correcting the luminance of the own vehicle shadow region based on the luminance information inside the own vehicle shadow region and the luminance information outside the own vehicle shadow region is provided, it is possible to visually recognize the outside of the own vehicle shadow region. Therefore, it is possible to correct only the luminance of the own vehicle shadow region without deteriorating the performance, and to improve the visibility of the own vehicle shadow region.
(4) Since the image in which the brightness of the own vehicle shadow area is corrected by the image correcting means 140 is output to the video output device 310, a video around the own vehicle with improved visibility can be provided to the user.
(5) The vehicle surrounding distance measuring device 350 that measures the distance to the three-dimensional object existing around the own vehicle is provided, and the own vehicle shadow region estimation means 120 uses the information from the vehicle surrounding distance measuring device 350 to Since the shadow area is estimated, a more accurate own vehicle shadow estimation area can be calculated in consideration of the deformation amount of the own car shadow by the three-dimensional object.
(6) Start determination means (step S200) that determines whether or not to start processing for detecting the own vehicle shadow region based on information obtained from the illuminance acquisition device 351 mounted on the vehicle, When the value of the illuminance from the illuminance acquisition device 351 is equal to or less than a predetermined threshold value, the process for detecting the own vehicle shadow region is not executed. As a result, in the situation where no shadow occurs, such as at night or in bad weather, the detection of the own vehicle shadow area is not performed, so that unnecessary power consumption can be suppressed.
(7) Since the user interface 320 that allows the user to set whether or not to start the process for detecting the own vehicle shadow area is provided, it is possible to determine whether or not the own vehicle shadow area can be detected with priority given to the user's intention.
(8) Since the vehicle periphery imaging device 300 captures the front, rear, left and right of the host vehicle, it can provide the user with images of the entire circumference of the host vehicle.

(実施例2)
図17は、実施例2の自車影認識装置12の構成図である。
実施例2の自車影認識装置12では、図1に示した構成に対し、カーナビゲーション装置400に代えて、GPS(Global Positioning System)機能を備えた現在位置取得装置200と、電気的に地磁気を計測する電子コンパスを備えた自車方位計測装置210を設けた点で異なる。また、標準子午線情報をカーナビゲーション装置400から取得する構成に代えて、標準子午線データを保存する標準子午線データベース170を自車影認識制御装置100内部に設けている。さらに、実施例2では、実施例1の照度取得装置351、障害物認識装置340および白線認識装置341を省略している。
他の構成は実施例1と同様であるため、説明を省略する。
次に、作用を説明する。
現在位置取得装置200は、カーナビゲーション装置と同等の情報を得ることができるため、カーナビゲーション装置が搭載されていない車両であっても自車影認識を行うことができる。また、自車方位計測装置210は、電子コンパスを利用しているため、カーナビゲーション装置のマップマッチングまたはデッドレコニングの精度が低下する状況や、GPSが受信できない状況でも、高精度に自車の方位角を計測できる。
さらに、実施例2では、標準子午線データベース170を自車影認識制御装置100の内部に記憶させる構成であるため、現在位置取得装置200から得られる情報から自車の現在位置に対応する標準子午線参照し、太陽の高度と方位角をそれぞれ算出できる。
実施例2では、実施例1のような照度取得装置351を搭載していない。つまり、車載ネットワーク330からワイパー信号やヘッドライト信号を取得し、自車影が発生する可能性を複合的に判断する。これにより、照度取得装置が搭載されていない車両でも自車影認識システムを適用できる。また、実施例1の障害物認識装置340および白線認識装置341を省略し、映像出力装置310のみに画像補正手段140の結果を出力している。これにより、認識処理を行うハードウェアが不要となるため、コストを抑えることができる。
その他の作用効果は実施例1と同様であるため、説明を省略する。
(Example 2)
FIG. 17 is a configuration diagram of the own vehicle shadow recognition apparatus 12 according to the second embodiment.
In the own vehicle shadow recognition device 12 of the second embodiment, a current position acquisition device 200 having a GPS (Global Positioning System) function is replaced with the configuration shown in FIG. The difference is that a vehicle direction measuring device 210 having an electronic compass for measuring the vehicle is provided. Further, instead of the configuration for obtaining the standard meridian information from the car navigation device 400, a standard meridian database 170 for storing standard meridian data is provided in the own vehicle shadow recognition control device 100. Further, in the second embodiment, the illuminance acquisition device 351, the obstacle recognition device 340, and the white line recognition device 341 of the first embodiment are omitted.
Since other configurations are the same as those of the first embodiment, the description thereof is omitted.
Next, the operation will be described.
Since the current position acquisition device 200 can obtain information equivalent to that of the car navigation device, the vehicle position recognition can be performed even if the vehicle is not equipped with the car navigation device. In addition, since the vehicle direction measuring device 210 uses an electronic compass, the direction of the vehicle is highly accurate even in situations where the accuracy of map matching or dead reckoning of the car navigation device is reduced or GPS is not received. Can measure corners.
Further, in the second embodiment, since the standard meridian database 170 is stored in the own vehicle shadow recognition control device 100, reference to the standard meridian corresponding to the current position of the own vehicle from the information obtained from the current position acquisition device 200 is referred. The sun's altitude and azimuth can be calculated respectively.
In the second embodiment, the illuminance acquisition device 351 as in the first embodiment is not installed. That is, a wiper signal and a headlight signal are acquired from the in-vehicle network 330, and the possibility that the vehicle shadow will occur is determined in a composite manner. Thereby, the own vehicle shadow recognition system can be applied even to a vehicle not equipped with the illuminance acquisition device. Further, the obstacle recognition device 340 and the white line recognition device 341 of the first embodiment are omitted, and the result of the image correction unit 140 is output only to the video output device 310. This eliminates the need for hardware for performing recognition processing, thereby reducing costs.
Other functions and effects are the same as those of the first embodiment, and thus description thereof is omitted.

(実施例3)
実施例3の自車影認識装置は、実施例1の構成に対し、最終的に検出された自車影の方位角に基づき、自車進行方向θvを補正する機能を追加したものである。以下、実施例1と異なる構成について説明する。
〔自車影除去処理〕
図18は、実施例3の自車影認識制御装置100で実行される自車影除去処理の流れを示すフローチャートで、図5に示した実施例1の処理と異なる処理を行うステップのみ説明する。
ステップS700では、自車進行方位補正処理を実施し、リターンへ移行する。自車進行方位補正処理では、自車影領域検出手段130において最終的に検出された自車影の方位角θcから、下記の式(16)に示す補正式を用いて、補正後の自車進行方向θv'を算出する。
θv' = A - (θc + 180) …(16)
ステップS700は、進行方位情報補正手段に相当する。
次に、作用を説明する。
〔自車進行方位補正作用〕
実施例3の自車影認識装置では、画像認識によって自車影の方位角を正確に求められることを利用し、カーナビゲーション装置400による自車進行方向の情報を補正する。これにより、自車影の方位角を利用してカーナビゲーション装置400の精度を向上できる。なお、実施例3の自車進行方位角の補正は、実施例2の構成にも適用でき、実施例3と同様の作用効果を奏する。つまり、自車影の方位角を利用して自車方位計測装置210の精度を向上できる。
(Example 3)
The own vehicle shadow recognition apparatus according to the third embodiment adds a function of correcting the own vehicle traveling direction θ v based on the azimuth angle of the finally detected own vehicle shadow to the configuration of the first embodiment. . Hereinafter, a configuration different from that of the first embodiment will be described.
[Self-vehicle shadow removal processing]
FIG. 18 is a flowchart showing the flow of the own vehicle shadow removal process executed by the own vehicle shadow recognition control apparatus 100 of the third embodiment, and only steps for performing processing different from the processing of the first embodiment shown in FIG. 5 will be described. .
In step S700, the host vehicle traveling direction correction process is performed, and the process proceeds to return. The own traveling direction correction processing, the final of the detected self Kurumakage azimuth angle theta c in Jikurumakage region detection unit 130, by using the correction equation shown by the following equation (16), the corrected self The vehicle traveling direction θ v ′ is calculated.
θ v '= A-(θ c + 180)… (16)
Step S700 corresponds to traveling direction information correction means.
Next, the operation will be described.
[Vehicle direction correction function]
In the own vehicle shadow recognition apparatus according to the third embodiment, the information on the traveling direction of the own vehicle by the car navigation apparatus 400 is corrected by using the fact that the azimuth angle of the own vehicle shadow is accurately obtained by image recognition. Thereby, the accuracy of the car navigation apparatus 400 can be improved by using the azimuth angle of the own vehicle shadow. Note that the correction of the traveling azimuth angle of the host vehicle according to the third embodiment can also be applied to the configuration of the second embodiment, and has the same effects as the third embodiment. That is, the accuracy of the vehicle direction measuring device 210 can be improved using the azimuth angle of the vehicle shadow.

次に、効果を説明する。
実施例3の自車影認識装置では、実施例1の効果(1)〜(8)に加え、以下の効果を奏する。
(9) 自車影領域検出手段130によって特定された自車影領域から、自車影の方向と大きさの情報を算出し、自車の進行方位情報を補正する進行方位情報補正手段(ステップS700)を備えた。これにより、カーナビゲーション装置400における自車の進行方位情報の精度を向上できる。
Next, the effect will be described.
In addition to the effects (1) to (8) of the first embodiment, the own vehicle shadow recognition apparatus of the third embodiment has the following effects.
(9) Information on the direction and size of the vehicle shadow is calculated from the vehicle shadow region specified by the vehicle shadow region detection unit 130, and the direction correction information correction unit (step S700). Thereby, the accuracy of the traveling direction information of the own vehicle in the car navigation device 400 can be improved.

(実施例4)
実施例4の自車影認識装置は、実施例1の構成に対し、自車立体形状データを補正する機能を追加した例である。以下、実施例1と異なる構成について説明する。
〔追加突起物影領域検出処理〕
図19は、実施例4の追加突起物影領域検出処理の流れを示すフローチャートで、以下、各ステップについて説明する。この処理は、図14に示した自車影領域検出処理において、ステップS550で自車影推定パターンと照合した際の類似度が閾値以下である状態が所定時間以上継続した場合(例えば、直進走行状態で30秒以上継続した場合)に実行される。
ステップS710では、車速が所定の閾値よりも大きいか否かを判定する。YESの場合にはステップS720へ移行し、NOの場合には本制御を終了する。ここで、閾値は、走行中と判断できる速度とする。
ステップS720では、操向輪の舵角が所定の閾値未満であるか否かを判定する。YESの場合にはステップS730へ移行し、NOの場合には本制御を終了する。ここで、閾値は、車両が直進状態であると判断できる舵角とする。
ステップS730では、画像I(t)をキャプチャし、ステップS740へ移行する。
ステップS740では、ステップS400で得られた自車影推定パターンの領域の輝度情報に基づき、ステップS730で取得した画像I(t)を二値化して二値画像Ib(t)を得る。また、二値化した際に、影領域以外の細かいノイズ成分を除去するために、抽出された領域に対して所定の面積以下の領域は除去するようなフィルタリング処理を行い、ステップS750へ移行する。この処理によって、画像中の影の候補領域のみが抽出される。
ステップS750では、二値画像Ib(t)とその前フレームの二値画像との論理積(AND)処理を行い、ステップS760へ移行する。
Example 4
The own vehicle shadow recognition apparatus according to the fourth embodiment is an example in which a function of correcting own vehicle solid shape data is added to the configuration of the first embodiment. Hereinafter, a configuration different from that of the first embodiment will be described.
[Additional protrusion shadow area detection processing]
FIG. 19 is a flowchart showing the flow of additional projection shadow region detection processing according to the fourth embodiment. Each step will be described below. This process is performed when the state in which the similarity when collated with the own vehicle shadow estimation pattern in step S550 is equal to or less than the threshold value continues for a predetermined time or longer in the own vehicle shadow area detection process shown in FIG. (If it continues for more than 30 seconds in the state).
In step S710, it is determined whether the vehicle speed is greater than a predetermined threshold. If YES, the process proceeds to step S720, and if NO, this control is terminated. Here, the threshold is a speed at which it can be determined that the vehicle is traveling.
In step S720, it is determined whether the steering angle of the steered wheels is less than a predetermined threshold. If YES, the process proceeds to step S730, and if NO, this control is terminated. Here, the threshold value is a rudder angle at which it can be determined that the vehicle is traveling straight.
In step S730, the image I (t) is captured, and the process proceeds to step S740.
In step S740, the image I (t) acquired in step S730 is binarized based on the luminance information of the area of the vehicle shadow estimation pattern obtained in step S400 to obtain a binary image I b (t). Further, when binarizing, in order to remove fine noise components other than the shadow region, a filtering process is performed so as to remove a region having a predetermined area or less from the extracted region, and the process proceeds to step S750. . By this processing, only the shadow candidate region in the image is extracted.
In step S750, a logical product (AND) process between the binary image I b (t) and the binary image of the previous frame is performed, and the process proceeds to step S760.

ステップS760では、ステップS710〜ステップS750が所定フレーム数n(例えば、100フレーム)実行されたか否かを判定する。YESの場合にはステップS790へ移行し、NOの場合にはステップS770へ移行する。これにより、路上構造物や対向車の影が除去され、追加突起物を含む自車影領域が抽出される。
ステップS770では、さらにステップS400で得られた自車影推定パターンとステップS750で得られたGb(n)との排他的論理和を算出し、ステップS780へ移行する。これにより、追加突起物影領域のみが抽出される。
ステップS780では、ステップS770で得られた二値画像の領域の座標データを追加突起物影領域として座標データをメモリに保存し、本制御を終了する。このステップでは、太陽高度の情報又は現在時刻とGPS情報も同時に記録し、データベースに蓄積する。この蓄積した複数の追加突起物影領域の座標情報に基づいて追加突起物の三次元形状を推定し、自車立体形状データに追加できる。これにより、追加突起物影領域検出処理(ステップS700)を毎回実行する必要がなくなる。なお、車両から追加突起物20が除去された場合は、ステップS550での類似度が低下するため、元の自車立体形状データが使用される。
ステップS790では、フレーム数nをインクリメントし、ステップS710へ移行する。
以上のように、追加突起物影領域検出処理では、図20に示すように、キャプチャした画像を二値化処理して得られた二値画像とその前のフレームの二値画像との論理積処理を所定フレーム数行うことで画像から追加突起物を含む自車影領域を抽出する。続いて、抽出した自車影領域と自車影推定パターンとの排他的論理和を算出することで追加突起物影領域を抽出し、自車立体形状データに追加する。
In step S760, it is determined whether or not steps S710 to S750 have been executed for a predetermined number of frames n (for example, 100 frames). If YES, the process moves to step S790, and if NO, the process moves to step S770. Thereby, the shadow of the road structure and the oncoming vehicle is removed, and the own vehicle shadow region including the additional protrusion is extracted.
In step S770, an exclusive OR of the own vehicle shadow estimation pattern obtained in step S400 and G b (n) obtained in step S750 is calculated, and the process proceeds to step S780. As a result, only the additional protrusion shadow region is extracted.
In step S780, the coordinate data of the region of the binary image obtained in step S770 is stored in the memory as the additional projection shadow region, and this control is terminated. In this step, solar altitude information or current time and GPS information are recorded simultaneously and stored in a database. The three-dimensional shape of the additional protrusion can be estimated based on the accumulated coordinate information of the plurality of additional protrusion shadow areas, and can be added to the vehicle three-dimensional shape data. This eliminates the need to execute the additional protrusion shadow region detection process (step S700) every time. Note that when the additional protrusion 20 is removed from the vehicle, the similarity in step S550 decreases, so the original three-dimensional shape data of the host vehicle is used.
In step S790, the frame number n is incremented, and the process proceeds to step S710.
As described above, in the additional protrusion shadow region detection process, as shown in FIG. 20, the logical product of the binary image obtained by binarizing the captured image and the binary image of the previous frame is obtained. By performing the processing for a predetermined number of frames, the vehicle shadow region including the additional protrusion is extracted from the image. Subsequently, by calculating an exclusive logical sum of the extracted vehicle shadow area and the vehicle shadow estimation pattern, an additional protrusion shadow area is extracted and added to the vehicle three-dimensional shape data.

次に、作用を説明する。
〔追加突起物影領域検出作用〕
例えば、図21(a)のように自車1にキャリアボックスなどの追加突起物20が付加された場合、追加突起物20のデータは自車立体形状データベース160に保存されていないため、図15に示した自車影領域4のみの輝度を補正する輝度補正(第1の輝度補正)では、追加突起物20の影領域21を除去できない(図21(b))。
そこで、実施例4では、第2の輝度補正として、追加突起物20を含む自車影領域と自車影推定パターンとの排他的論理和を算出して追加突起物影領域21を抽出するため、追加突起物影領域21を含む自車影領域4の輝度補正を行うことができ、追加突起物影領域21を除去できる。
ここで、実施例4では、自車1が走行状態でない場合、第2の輝度補正を実施しない。これは、自車1が停止している場合、自車周辺の立体物(樹木、建物、人等)の影が自車影と重なっている場合、所定フレーム数の二値画像の論理積処理により求めた自車影領域が、追加突起物の影を含むものであるのか、構造物の影を含むものであるのかの判定が困難だからである。自車1が走行状態である場合には、自車影領域と重なる立体物の影響を排除できるため、追加突起物影領域を含む自車影領域の輝度を精度よく補正できる。
また、実施例4では、自車1が直進状態でない場合にも、第2の輝度補正を実施しない。これは、直進状態でない場合、本来の自車影の形状が変化する可能性があり、追加突起物影領域を含む自車影領域の抽出精度が低下するおそれがあるからである。自車1が直進状態である場合には、本来の自車影の形状が変化しないため、追加突起物影領域を含む自車影領域を精度よく抽出できる。
Next, the operation will be described.
[Additional protrusion shadow area detection]
For example, when an additional protrusion 20 such as a carrier box is added to the own vehicle 1 as shown in FIG. 21A, the data of the additional protrusion 20 is not stored in the own vehicle three-dimensional shape database 160. In the brightness correction (first brightness correction) for correcting only the brightness of the own vehicle shadow area 4 shown in FIG. 5, the shadow area 21 of the additional protrusion 20 cannot be removed (FIG. 21B).
Therefore, in the fourth embodiment, as the second luminance correction, an exclusive logical sum of the own vehicle shadow area including the additional protrusion 20 and the own vehicle shadow estimation pattern is calculated and the additional protrusion shadow area 21 is extracted. The brightness correction of the vehicle shadow area 4 including the additional protrusion shadow area 21 can be performed, and the additional protrusion shadow area 21 can be removed.
Here, in Example 4, when the own vehicle 1 is not in the traveling state, the second luminance correction is not performed. This is the logical product processing of binary images of a predetermined number of frames when the own vehicle 1 is stopped, and the shadow of a three-dimensional object (tree, building, person, etc.) around the own vehicle overlaps the own vehicle shadow. This is because it is difficult to determine whether the own vehicle shadow area obtained by the above includes the shadow of the additional protrusion or the shadow of the structure. When the host vehicle 1 is in a traveling state, the influence of a three-dimensional object that overlaps the host vehicle shadow region can be eliminated, so that the brightness of the host vehicle shadow region including the additional protrusion shadow region can be accurately corrected.
Further, in the fourth embodiment, the second luminance correction is not performed even when the vehicle 1 is not in a straight traveling state. This is because when the vehicle is not in a straight traveling state, the shape of the original vehicle shadow may change, and the extraction accuracy of the vehicle shadow region including the additional protrusion shadow region may be reduced. When the vehicle 1 is in a straight traveling state, the shape of the original vehicle shadow does not change, and therefore the vehicle shadow region including the additional protrusion shadow region can be extracted with high accuracy.

(実施例5)
実施例5の自車影認識装置は、実施例1の構成に対し、最終的に検出された自車影の形状と方位角に基づき、車両周辺測距装置350の結果を補正する機能を追加したものである。以下、実施例1と異なる構成について説明する。
〔自車影除去処理〕
図22は、実施例5の自車影認識制御装置100で実行される自車影除去処理の流れを示すフローチャートで、図5に示した実施例1の処理と異なる処理を行うステップのみ説明する。
ステップS800では、距離測定結果補正処理を実施し、リターンへ移行する。なお、この処理は、図10に示した自車影領域推定処理において、ステップS455で肯定(YES)判定され、ステップS470で車両周辺測距装置350から取得した障害物までの距離Dを用いて自車影推定領域補正処理が実行された場合に実施し、ステップS455で否定(NO)判定された場合には実施しない。
この距離測定結果補正処理では、自車影領域検出手段130において最終的に検出された自車影の方位角と形状とから、図14に示した壁領域における自車影2bの点SPW'(XSPW',YSPW',ZSPW')を求め、これと車両周辺測距装置350から得られた距離Dに基づいて式(13)で算出したSPW(XSPW,YSPW,ZSPW)との差分を車両周辺測距装置350の測定誤差とし、当該誤差をなくすように距離Dを補正する。ステップS800は、距離補正手段に相当する。
(Example 5)
The own vehicle shadow recognition apparatus according to the fifth embodiment adds a function of correcting the result of the vehicle periphery ranging device 350 based on the shape and azimuth of the finally detected own vehicle shadow to the configuration of the first embodiment. It is a thing. Hereinafter, a configuration different from that of the first embodiment will be described.
[Self-vehicle shadow removal processing]
FIG. 22 is a flowchart showing the flow of the own vehicle shadow removal process executed by the own vehicle shadow recognition control apparatus 100 according to the fifth embodiment. Only steps for performing processing different from the processing of the first embodiment shown in FIG. 5 will be described. .
In step S800, distance measurement result correction processing is performed, and the process proceeds to return. Note that this process uses the distance D to the obstacle that is determined to be affirmative (YES) in step S455 and acquired from the vehicle peripheral distance measuring device 350 in step S470 in the own vehicle shadow area estimation process shown in FIG. This is performed when the vehicle shadow estimation area correction process is executed, and is not performed when a negative (NO) determination is made in step S455.
In this distance measurement result correction process, the point SPW ′ () of the own vehicle shadow 2b in the wall region shown in FIG. 14 is calculated from the azimuth angle and shape of the own vehicle shadow finally detected by the own vehicle shadow region detecting means 130. X SPW ', Y SPW ', Z SPW '), and the SPW (X SPW , Y SPW , Z SPW ) calculated by equation (13) based on this and the distance D obtained from the vehicle periphery ranging device 350 And the distance D is corrected so as to eliminate the error. Step S800 corresponds to distance correction means.

次に、作用を説明する。
〔距離測定結果補正作用〕
実施例5の自車影認識装置では、画像認識によって自車影の方位角および形状が正確に求められることを利用し、車両周辺測距装置350による自車周辺に存在する障害物までの距離Dを補正する。これにより、車両周辺測距装置350の精度を向上できる。
次に、効果を説明する。
実施例5の自車影認識装置では、実施例1の効果(1)〜(8)に加え、以下の効果を奏する。
(10) 自車影領域検出手段130によって特定された自車影領域に基づいて、自車影の方向と大きさの情報を算出し、車両周辺測距装置350の結果を補正する距離補正手段(ステップS800)を備えた。これにより、車両周辺測距装置350における障害物までの距離情報の精度を向上できる。
Next, the operation will be described.
[Distance measurement result correction]
In the own vehicle shadow recognition apparatus according to the fifth embodiment, the distance to the obstacle existing around the own vehicle by the vehicle peripheral distance measuring device 350 using the fact that the azimuth angle and shape of the own vehicle shadow are accurately obtained by image recognition. Correct D. Thereby, the accuracy of the vehicle periphery ranging device 350 can be improved.
Next, the effect will be described.
In addition to the effects (1) to (8) of the first embodiment, the own vehicle shadow recognition apparatus of the fifth embodiment has the following effects.
(10) Distance correction means for calculating information on the direction and size of the own vehicle shadow based on the own vehicle shadow area specified by the own vehicle shadow area detection means 130 and correcting the result of the vehicle periphery ranging device 350 (Step S800). Thereby, the accuracy of the distance information to the obstacle in the vehicle peripheral distance measuring device 350 can be improved.

(他の実施例)
以上、本発明を実施するための形態を、実施例に基づいて説明したが、本発明の具体的な構成は、実施例に示した構成に限定されるものではなく、発明の要旨を逸脱しない範囲の設計変更等があっても本発明に含まれる。
例えば、実施例では、測距センサとして超音波センサを用いた例を示したが、測距センサとしては、赤外線センサ、レーザレーダ、ミリ波レーダ等を用いてもよい。
実施例4では、操向輪の舵角から直進状態を判断したが、ステアリングホイールの角度から判断してもよい。
(Other examples)
As mentioned above, although the form for implementing this invention was demonstrated based on the Example, the specific structure of this invention is not limited to the structure shown in the Example, and does not deviate from the summary of invention. Any change in the design of the range is included in the present invention.
For example, in the embodiment, an example in which an ultrasonic sensor is used as a distance measuring sensor has been described, but an infrared sensor, a laser radar, a millimeter wave radar, or the like may be used as the distance measuring sensor.
In the fourth embodiment, the straight traveling state is determined from the steering angle of the steered wheel, but may be determined from the angle of the steering wheel.

実施例から把握される特許請求の範囲に記載した発明以外の技術的思想について以下に説明する。
(a) 自車の周囲の路面を撮像するカメラと、
自車の現在位置を算出する自車位置算出手段と、
現在の日時の情報に基づいて太陽の位置を算出する太陽位置算出手段と、
自車の立体形状に関連する情報である自車立体形状情報と、
前記自車立体形状情報と、前記算出された自車の現在位置および太陽の位置を用いて自車影領域を推定する自車影領域推定手段と、
前記カメラによって撮像されたデータの中から前記自車影領域推定手段により推定された自車影領域を特定する自車影領域検出手段と、
を備えたことを特徴とする自車影認識装置。
この発明によれば、正確な太陽の位置から自車影領域を精度よく求めることができるため、撮像されたデータの中から自車影領域を高精度に特定できる。
(b) (a)に記載の自車影認識装置において、
前記自車立体形状情報は、車両形状に関する三次元形状データであることを特徴とする自車影認識装置。
この発明によれば、三次元形状データに基づいて自車影領域を推定するため、自車影の形状を高精度に推定できる。
(c) (b)に記載の自車影認識装置において、
前記カメラによって撮像されたデータに基づいて自車の上空から見た俯瞰画像を作成する俯瞰画像作成手段を備え、
前記自車影領域検出手段は、作成された俯瞰画像の中から自車影領域を特定することを特徴とする自車影認識装置。
この発明によれば、ユーザーにとって理解しやすく視認性の高い自車周囲の映像を提供できる。
(d) (c)に記載の自車影認識装置において、
自車影領域内側の輝度情報と、自車影領域外側の輝度情報とに基づいて、自車影領域の輝度を補正する自車影領域輝度補正手段を備えたことを特徴とする自車影認識装置。
この発明によれば、自車影領域外側の輝度については補正前の輝度と同じであるため、自車影領域外側の視認性の悪化を防止しつつ、自車影領域の視認性を高めることができる。
The technical ideas other than the invention described in the scope of claims ascertained from the embodiments will be described below.
(a) a camera that images the road surface around the vehicle;
Own vehicle position calculating means for calculating the current position of the own vehicle;
Solar position calculating means for calculating the position of the sun based on the current date and time information;
3D shape information of the vehicle, which is information related to the 3D shape of the vehicle,
A vehicle shadow region estimation means for estimating the vehicle shadow region using the vehicle three-dimensional shape information and the calculated current position of the vehicle and the position of the sun;
Vehicle shadow area detection means for identifying the vehicle shadow area estimated by the vehicle shadow area estimation means from the data captured by the camera;
A vehicle shadow recognition device characterized by comprising:
According to this invention, since the own vehicle shadow area can be accurately obtained from the accurate sun position, the own vehicle shadow area can be specified with high accuracy from the captured data.
(b) In the vehicle shadow recognition device described in (a),
The own vehicle three-dimensional shape information is three-dimensional shape data relating to the vehicle shape, and the own vehicle shadow recognition device.
According to this invention, since the own vehicle shadow area is estimated based on the three-dimensional shape data, the shape of the own vehicle shadow can be estimated with high accuracy.
(c) In the vehicle shadow recognition device described in (b),
Comprising an overhead image creation means for creating an overhead image viewed from above the vehicle based on data captured by the camera;
The own vehicle shadow area detecting means identifies the own vehicle shadow area from the created overhead view image.
According to the present invention, it is possible to provide an image around the own vehicle that is easy for the user to understand and has high visibility.
(d) In the vehicle shadow recognition device described in (c),
A vehicle shadow comprising a vehicle shadow region luminance correction means for correcting the luminance of the vehicle shadow region based on luminance information inside the vehicle shadow region and luminance information outside the vehicle shadow region. Recognition device.
According to the present invention, the brightness outside the vehicle shadow area is the same as the brightness before correction, and thus the visibility of the vehicle shadow area is improved while preventing the deterioration of the visibility outside the vehicle shadow area. Can do.

(e) (d)に記載の自車影認識装置において、
前記自車影領域輝度補正手段によって自車影領域の輝度を補正した画像を車両表示装置に出力することを特徴とする自車影認識装置。
この発明によれば、視認性を向上させた自車周囲の映像をユーザーに提供できる。
(f) (e)に記載の自車影認識装置において、
前記自車領域輝度補正手段は、自車影領域の輝度を明るくし領域外の輝度と略同じ輝度に補正することを特徴とする自車影認識装置。
この発明によれば、自車影領域内側の輝度が低く見えづらい状況であっても、自車影領域の視認性を向上できる。
(g) (b)に記載の自車影認識装置において、
自車影領域内側の輝度情報と、自車影領域外側の輝度情報とに基づいて、自車影領域の輝度を補正する自車影領域輝度補正手段を備えたことを特徴とする自車影認識装置。
この発明によれば、自車影領域外側の輝度については補正前の輝度と同じであるため、自車影領域外側の視認性の悪化を防止しつつ、自車影領域の視認性を高めることができる。
(h) (g)に記載の自車影認識装置において、
前記自車領域輝度補正手段は、自車影領域の輝度を明るくし領域外の輝度と略同じ輝度に補正することを特徴とする自車影認識装置。
この発明によれば、自車影領域内側の輝度が低く見えづらい状況であっても、自車影領域の視認性を向上できる。
(i) カメラによって撮像されたデータを処理し車両表示装置に表示させる画像表示方法であって、
自車の現在位置と現在の太陽の位置を算出し、算出した両位置と自車の車両形状の三次元データとによって自車影領域を推定し、
推定した自車影領域の輝度を補正した後の画像を前記車両表示装置に表示させることを特徴とする画像表示方法。
この発明によれば、正確な太陽の位置から自車影領域を精度よく求めることができるため、撮像されたデータの中から自車影領域を高精度に特定でき、視認性を向上させた自車周囲の映像をユーザーに提供できる。
(j) (i)に記載の画像表示方法において、
自車影領域の輝度を自車影領域外側の輝度情報に基づいて補正することを特徴とする画像表示方法。
この発明によれば、自車影領域外側の輝度については補正前の輝度と同じであるため、自車影領域外側の視認性の悪化を防止しつつ、自車影領域の視認性を高めることができる。
(e) In the vehicle shadow recognition device described in (d),
An own vehicle shadow recognition device, wherein an image obtained by correcting the luminance of the own vehicle shadow region by the own vehicle shadow region luminance correction means is output to a vehicle display device.
According to the present invention, it is possible to provide a user with an image around the own vehicle with improved visibility.
(f) In the vehicle shadow recognition device described in (e),
The own vehicle area brightness correcting means increases the brightness of the own vehicle shadow area and corrects the brightness to substantially the same as the brightness outside the area.
According to the present invention, the visibility of the own vehicle shadow region can be improved even when the brightness inside the own vehicle shadow region is difficult to see.
(g) In the vehicle shadow recognition device described in (b),
A vehicle shadow comprising a vehicle shadow region luminance correction means for correcting the luminance of the vehicle shadow region based on luminance information inside the vehicle shadow region and luminance information outside the vehicle shadow region. Recognition device.
According to the present invention, the brightness outside the vehicle shadow area is the same as the brightness before correction, and thus the visibility of the vehicle shadow area is improved while preventing the deterioration of the visibility outside the vehicle shadow area. Can do.
(h) In the vehicle shadow recognition device described in (g),
The own vehicle area brightness correcting means increases the brightness of the own vehicle shadow area and corrects the brightness to substantially the same as the brightness outside the area.
According to the present invention, the visibility of the own vehicle shadow region can be improved even when the brightness inside the own vehicle shadow region is difficult to see.
(i) An image display method for processing data captured by a camera and displaying the data on a vehicle display device,
Calculate the current position of the vehicle and the current position of the sun, estimate the shadow area of the vehicle from both calculated positions and the 3D data of the vehicle shape of the vehicle,
An image display method, comprising: displaying an image after correcting the estimated brightness of the vehicle shadow region on the vehicle display device.
According to the present invention, the vehicle shadow region can be accurately obtained from the exact sun position. Therefore, the vehicle shadow region can be identified with high accuracy from the captured data, and the vehicle has improved visibility. It is possible to provide users with images around the car.
(j) In the image display method described in (i),
An image display method comprising correcting the luminance of the own vehicle shadow region based on luminance information outside the own vehicle shadow region.
According to the present invention, the brightness outside the vehicle shadow area is the same as the brightness before correction, and thus the visibility of the vehicle shadow area is improved while preventing the deterioration of the visibility outside the vehicle shadow area. Can do.

11 自車影認識装置
110 太陽位置算出手段
120 自車影領域推定手段
130 自車影領域検出手段
300 車両周辺撮像装置(自車周辺撮像装置)
11 Vehicle shadow recognition device
110 Solar position calculation means
120 Vehicle shadow area estimation means
130 Vehicle shadow area detection means
300 Vehicle periphery imaging device (Self-vehicle periphery imaging device)

Claims (7)

自車が走行している路面を含む範囲で自車の前後左右を撮像する自車周辺撮像装置と、
自車の現在位置の情報と、現在の日時の情報と、自車の現在位置に対応する標準子午線の情報から太陽の位置を算出する太陽位置算出手段と、
前記太陽位置算出手段で得られた太陽の位置情報と、自車の進行方位情報と、自車の立体形状情報とから自車影が発生する領域を推定する自車影領域推定手段と、
前記自車影領域推定手段から得られる座標情報に基づき、前記自車周辺撮像装置で得られた画像の中から自車影領域を特定する自車影領域検出手段と、
前記自車影領域検出手段によって特定された自車影領域から、自車影の方向と大きさの情報を算出し、自車の進行方位情報を補正する進行方位情報補正手段と、
を備えたことを特徴とする自車影認識装置。
A vehicle periphery imaging device that images front and rear, left and right of the vehicle within a range including a road surface on which the vehicle is traveling
Solar position calculating means for calculating the position of the sun from information on the current position of the own vehicle, information on the current date and time, and information on the standard meridian corresponding to the current position of the own vehicle ;
A vehicle shadow region estimation unit that estimates a region where the vehicle shadow is generated from the position information of the sun obtained by the sun position calculation unit, the traveling direction information of the host vehicle, and the three-dimensional shape information of the host vehicle;
Based on the coordinate information obtained from the vehicle shadow area estimation means, the vehicle shadow area detection means for identifying the vehicle shadow area from the image obtained by the vehicle periphery imaging device;
From the own vehicle shadow area specified by the own vehicle shadow area detecting means, calculating the direction and size information of the own vehicle shadow, and the traveling direction information correcting means for correcting the traveling direction information of the own vehicle,
A vehicle shadow recognition device characterized by comprising:
請求項1に記載の自車影認識装置において、
前記自車影領域内側の輝度情報と自車影領域外側の輝度情報とに基づいて、自車影領域の輝度を補正する自車影領域輝度補正手段を備えたことを特徴とする自車影認識装置。
The own vehicle shadow recognition device according to claim 1,
An own vehicle shadow comprising a own vehicle shadow region luminance correction means for correcting the luminance of the own vehicle shadow region based on the luminance information inside the own vehicle shadow region and the luminance information outside the own vehicle shadow region. Recognition device.
請求項に記載の自車影認識装置において、
前記自車影領域輝度補正手段によって自車影領域の輝度を補正した画像を車両表示装置に出力することを特徴とする自車影認識装置。
The own vehicle shadow recognition apparatus according to claim 2 ,
An own vehicle shadow recognition device, wherein an image obtained by correcting the luminance of the own vehicle shadow region by the own vehicle shadow region luminance correction means is output to a vehicle display device.
請求項1に記載の自車影認識装置において、
自車周辺に存在する立体物までの距離を計測する距離計測装置を備え、
前記自車影領域推定手段は、前記距離計測装置からの情報を用いて、自車影領域を推定することを特徴とする自車影認識装置。
The own vehicle shadow recognition device according to claim 1,
It is equipped with a distance measuring device that measures the distance to a three-dimensional object existing around the vehicle.
The own vehicle shadow recognition device, wherein the own vehicle shadow region estimation means estimates the own vehicle shadow region using information from the distance measuring device.
請求項に記載の自車影認識装置において、
前記自車影領域検出手段によって特定された自車影領域に基づいて、自車影の方向と大きさの情報を算出し、前記距離計測装置の結果を補正する距離補正手段を備えたことを特徴とする自車影認識装置。
In the own vehicle shadow recognition device according to claim 4 ,
Based on the own vehicle shadow area specified by the own vehicle shadow area detecting means, it comprises distance correction means for calculating information on the direction and size of the own vehicle shadow and correcting the result of the distance measuring device. A car shadow recognition device.
請求項1に記載の自車影認識装置において、
車両に搭載された照度センサから得た情報によって、自車影領域を検出するための処理を起動するか否かを判断する起動判定手段を備え、
前記起動判定手段は、前記照度センサからの照度の値が所定値以下である場合、自車影領域を検出するための処理を実行しないことを特徴とする自車影認識装置。
The own vehicle shadow recognition device according to claim 1,
An activation determining means for determining whether to activate a process for detecting the own vehicle shadow area based on information obtained from an illuminance sensor mounted on the vehicle;
The said vehicle determination part does not perform the process for detecting the own vehicle shadow area | region, when the value of the illumination intensity from the said illumination intensity sensor is below a predetermined value, The own vehicle shadow recognition apparatus characterized by the above-mentioned.
請求項1に記載の自車影認識装置において、
ユーザーが自車影領域を検出するための処理を起動するか否かを設定できるユーザーインターフェースを備えたことを特徴とする自車影認識装置。
The own vehicle shadow recognition device according to claim 1,
A host vehicle shadow recognition apparatus comprising a user interface that allows a user to set whether to activate a process for detecting a host vehicle shadow region.
JP2009215796A 2009-09-17 2009-09-17 Vehicle shadow recognition device Active JP5066558B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009215796A JP5066558B2 (en) 2009-09-17 2009-09-17 Vehicle shadow recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009215796A JP5066558B2 (en) 2009-09-17 2009-09-17 Vehicle shadow recognition device

Publications (2)

Publication Number Publication Date
JP2011065442A JP2011065442A (en) 2011-03-31
JP5066558B2 true JP5066558B2 (en) 2012-11-07

Family

ID=43951617

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009215796A Active JP5066558B2 (en) 2009-09-17 2009-09-17 Vehicle shadow recognition device

Country Status (1)

Country Link
JP (1) JP5066558B2 (en)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ITBO20120543A1 (en) * 2012-10-03 2014-04-04 Itata METHOD TO CHECK THE TRANSIT OF VEHICLES IN A ROAD TRAIL WITH AT LEAST ONE TRAIL, STURDY COMPARED TO THE FALSE TRANSITS DUE TO SHADOWS ON THE MOVE
JP5942771B2 (en) * 2012-10-18 2016-06-29 富士通株式会社 Image processing apparatus and image processing method
JP6169544B2 (en) * 2014-09-05 2017-07-26 本田技研工業株式会社 Driving support control device
KR102268645B1 (en) * 2014-11-11 2021-06-23 현대모비스 주식회사 Apparatus for image revision
JP6272572B1 (en) * 2017-02-03 2018-01-31 三菱電機株式会社 Display control apparatus and display control method
JP6720931B2 (en) 2017-07-14 2020-07-08 株式会社デンソー Vehicle surrounding recognition device
JP6405422B2 (en) * 2017-07-19 2018-10-17 日立建機株式会社 Work machine ambient monitoring device
CN113170057B (en) * 2018-12-12 2023-06-13 日立安斯泰莫株式会社 Imaging unit control device
JP7298436B2 (en) 2019-10-14 2023-06-27 株式会社デンソー Obstacle identification device and obstacle identification program
JP7310526B2 (en) 2019-10-14 2023-07-19 株式会社デンソー Obstacle identification device and obstacle identification program
US11070707B1 (en) 2020-01-06 2021-07-20 GM Global Technology Operations LLC System and method to remove a vehicle shadow from a video feed
JP7495178B2 (en) * 2020-04-14 2024-06-04 株式会社Subaru Vehicle driving support device
KR102567149B1 (en) * 2021-11-29 2023-08-25 주식회사 와이즈오토모티브 Device and method for generating image of around the vehicle

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0783494A (en) * 1993-09-16 1995-03-28 Itoki Crebio Corp Air conditioner panel device
JPH11271069A (en) * 1998-03-20 1999-10-05 Sony Corp Navigator
JP4296287B2 (en) * 2003-05-27 2009-07-15 日産自動車株式会社 Vehicle recognition device
JP4596566B2 (en) * 2005-03-31 2010-12-08 アイシン・エィ・ダブリュ株式会社 Self-vehicle information recognition device and self-vehicle information recognition method
US8229162B2 (en) * 2006-01-17 2012-07-24 Nec Corporation Graphic recognition device, graphic recognition method, and graphic recognition program
JP2007300559A (en) * 2006-05-02 2007-11-15 Alpine Electronics Inc Vehicle peripheral image providing device and shadow correcting method in vehicle peripheral image
JP4770572B2 (en) * 2006-05-09 2011-09-14 トヨタ自動車株式会社 COMMUNICATION DEVICE AND MOBILE BODY CONTROL SYSTEM
JP2007316000A (en) * 2006-05-29 2007-12-06 Denso Corp Vehicular annunciator apparatus

Also Published As

Publication number Publication date
JP2011065442A (en) 2011-03-31

Similar Documents

Publication Publication Date Title
JP5066558B2 (en) Vehicle shadow recognition device
CN109435942B (en) Information fusion-based parking space line and parking space recognition method and device
JP4871909B2 (en) Object recognition apparatus and object recognition method
EP3049285B1 (en) Driver assistance system for displaying surroundings of a vehicle
JP5157067B2 (en) Automatic travel map creation device and automatic travel device.
US9740942B2 (en) Moving object location/attitude angle estimation device and moving object location/attitude angle estimation method
TWI534764B (en) Apparatus and method for vehicle positioning
CN102458964B (en) Camera system for use in vehicle parking
WO2019007263A1 (en) Method and device for calibrating external parameters of vehicle-mounted sensor
US20130147661A1 (en) System and method for optical landmark identification for gps error correction
CN112740225B (en) Method and device for determining road surface elements
JP7072641B2 (en) Road surface detection device, image display device using road surface detection device, obstacle detection device using road surface detection device, road surface detection method, image display method using road surface detection method, and obstacle detection method using road surface detection method
JP2007228448A (en) Imaging environment recognition apparatus
JP2006279752A (en) Undervehicle image display controlling apparatus and its display controlling program
CN113212498A (en) Inter-vehicle distance measuring method, inter-vehicle distance measuring device, electronic apparatus, computer program, and computer-readable recording medium
JP2007102798A (en) Vehicle circumference monitoring system
JP4296287B2 (en) Vehicle recognition device
JP5910180B2 (en) Moving object position and orientation estimation apparatus and method
JP4720446B2 (en) Vehicle detection device and vehicle display device using the same
JP2018073275A (en) Image recognition device
JP2010226652A (en) Image processing apparatus, image processing method, and computer program
CN113997931A (en) Bird's-eye view image generation device, bird's-eye view image generation system, and automatic parking device
CN116892949A (en) Ground object detection device, ground object detection method, and computer program for ground object detection
KR101578434B1 (en) Apparatus for detecting lane and method thereof
JP2022002045A (en) Partial image generating device and computer program for partial image generation

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111221

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120807

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120813

R150 Certificate of patent or registration of utility model

Ref document number: 5066558

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150817

Year of fee payment: 3

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350