JP2021164116A - Imaging apparatus for vehicle, image processing method, and image processing program - Google Patents

Imaging apparatus for vehicle, image processing method, and image processing program Download PDF

Info

Publication number
JP2021164116A
JP2021164116A JP2020066899A JP2020066899A JP2021164116A JP 2021164116 A JP2021164116 A JP 2021164116A JP 2020066899 A JP2020066899 A JP 2020066899A JP 2020066899 A JP2020066899 A JP 2020066899A JP 2021164116 A JP2021164116 A JP 2021164116A
Authority
JP
Japan
Prior art keywords
image
exposure
vehicle
long
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020066899A
Other languages
Japanese (ja)
Other versions
JP7476627B2 (en
Inventor
聡隆 村田
Satotaka Murata
崇 日昔
Takashi Hiseki
優 北條
Yu Hojo
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2020066899A priority Critical patent/JP7476627B2/en
Publication of JP2021164116A publication Critical patent/JP2021164116A/en
Application granted granted Critical
Publication of JP7476627B2 publication Critical patent/JP7476627B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Abstract

To provide an imaging apparatus for a vehicle that can obtain appropriate front, rear, right-side, and left-side images according to a direction of sunlight incident on the vehicle.SOLUTION: A high-dynamic-range image synthesis unit 133 synthesizes a front image, a rear image, a right-side image, and a left-side image generated on the basis of a long-time exposure image and a front image, a rear image, a right-side image, and a left-side image generated on the basis of a short-time exposure image, respectively. A sunlight incident direction determination unit (image analysis unit 14) determines the direction of sunlight incident on an imaging apparatus 100 for a vehicle. The high-dynamic-range image synthesis unit 133 increases the proportion of a direction image based on the long-time exposure image selected according to the direction of sunlight incidence determined by the sunlight incident direction determination unit among the front image, the rear image, the right-side image, and the left-side image.SELECTED DRAWING: Figure 2

Description

本発明は、魚眼レンズを用いて車両の前後及び左右の360度の被写体を撮像する車両用撮像装置、画像処理方法、及び画像処理プログラムに関する。 The present invention relates to an image pickup device for a vehicle, an image processing method, and an image processing program for capturing a 360-degree subject in front, back, left, and right of the vehicle using a fisheye lens.

特許文献1には、魚眼レンズを用いて車両の前後及び左右の360度の被写体を撮像する車両用撮像装置(いわゆるドライブレコーダ)が記載されている。 Patent Document 1 describes a vehicle imaging device (so-called drive recorder) that uses a fisheye lens to image a 360-degree subject in the front-rear and left-right directions of the vehicle.

特開2018−195348号公報JP-A-2018-195348

上記のような車両用撮像装置は、360度の撮像画像を解析して車両の前後を判定し、前方画像領域、後方画像領域、左右の側方画像領域に相当する領域画像を抽出して、前方画像、後方画像、右側方画像、及び左側方画像の各方向画像を生成する。車両に対する太陽光の入射方向が異なると、車両の前方、後方、右側方、左側方で明るさが異なる。太陽光の入射方向にかかわらず、適切な各方向画像とすることが望まれる。 The vehicle image pickup device as described above analyzes a 360-degree captured image to determine the front and rear of the vehicle, and extracts region images corresponding to the front image region, the rear image region, and the left and right side image regions. Generates front image, rear image, right side image, and left side image in each direction. If the direction of sunlight incident on the vehicle is different, the brightness will be different on the front, rear, right side, and left side of the vehicle. It is desirable to obtain an appropriate image in each direction regardless of the incident direction of sunlight.

本発明は、車両に対する太陽光の入射方向に応じて適切な前方画像、後方画像、右側方画像、及び左側方画像の各方向画像を得ることができる車両用撮像装置、画像処理方法、及び画像処理プログラムを提供することを目的とする。 The present invention is a vehicle image pickup device, an image processing method, and an image capable of obtaining appropriate front image, rear image, right side image, and left side image according to the direction of sunlight incident on the vehicle. The purpose is to provide a processing program.

本発明は、車両内に取り付けられる車両用撮像装置であり、魚眼レンズを介して光が入射され、第1の露光時間で360度の被写体を撮像した長時間露光画像と、前記第1の露光時間より短い第2の露光時間で360度の被写体を撮像した短時間露光画像を生成する撮像部と、前記長時間露光画像及び前記短時間露光画像に基づいて、前記車両の前後及び左右を判定して、前記長時間露光画像及び前記短時間露光画像のうちの前方画像領域、後方画像領域、右側方画像領域、及び左側方画像領域の周方向の位置を決定する前後左右判定部と、前記長時間露光画像及び前記短時間露光画像のうち、前記前方画像領域、前記後方画像領域、前記右側方画像領域、及び前記左側方画像領域の各領域画像を抽出して、前方画像、後方画像、右側方画像、及び左側方画像の各方向画像を生成する画像抽出部と、前記画像抽出部が、前記長時間露光画像に基づいて生成した前方画像、後方画像、右側方画像、及び左側方画像と、前記画像抽出部が、前記短時間露光画像に基づいて生成した前方画像、後方画像、右側方画像、及び左側方画像とをそれぞれ合成するハイダイナミックレンジ画像合成部と、前記車両用撮像装置に入射する太陽光の入射方向を判定する太陽光入射方向判定部とを備え、前記ハイダイナミックレンジ画像合成部は、前記前方画像、前記後方画像、前記右側方画像、及び前記左側方画像のうち、前記太陽光入射方向判定部によって判定された太陽光の入射方向に応じて選択された前記長時間露光画像に基づく方向画像の割合を、非選択の前記長時間露光画像に基づく方向画像の割合よりも増加させる車両用撮像装置を提供する。 The present invention is a vehicle image pickup device mounted in a vehicle, in which a long-exposure image in which light is incident through a fisheye lens and a 360-degree subject is imaged in the first exposure time and the first exposure time are described. The front / rear and left / right sides of the vehicle are determined based on the imaging unit that generates a short-time exposure image of a 360-degree subject in a shorter second exposure time, the long-exposure image, and the short-time exposure image. The front / rear / left / right determination unit for determining the circumferential positions of the front image region, the rear image region, the right side image region, and the left side image region of the long-exposure image and the short-time exposure image, and the length. From the time-exposure image and the short-time exposure image, each region image of the front image region, the rear image region, the right side image region, and the left side image region is extracted, and the front image, the rear image, and the right side are extracted. An image extraction unit that generates a direction image of a square image and a left side image, and a front image, a rear image, a right side image, and a left side image that the image extraction unit generates based on the long-exposure image. The high dynamic range image synthesizing unit that the image extracting unit synthesizes the front image, the rear image, the right side image, and the left side image generated based on the short-time exposure image, and the vehicle imaging device. The high dynamic range image synthesizing unit includes a sunlight incident direction determining unit for determining the incident direction of incident sunlight, and the high dynamic range image synthesizing unit includes the front image, the rear image, the right side image, and the left side image. The ratio of the directional image based on the long-exposure image selected according to the incident direction of sunlight determined by the sunlight incident direction determination unit is calculated from the ratio of the directional image based on the non-selected long-exposure image. To provide a vehicle imaging device that also increases the number of images.

本発明は、車両内に取り付けられる車両用撮像装置の画像処理方法であり、魚眼レンズを介して光が入射される撮像部が、第1の露光時間で360度の被写体を撮像した長時間露光画像と、前記第1の露光時間より短い第2の露光時間で360度の被写体を撮像した短時間露光画像を生成し、前記長時間露光画像及び前記短時間露光画像に基づいて、前記車両の前後及び左右を判定して、前記長時間露光画像及び前記短時間露光画像のうちの前方画像領域、後方画像領域、右側方画像領域、及び左側方画像領域の周方向の位置を決定し、前記長時間露光画像及び前記短時間露光画像のうち、前記前方画像領域、前記後方画像領域、前記右側方画像領域、及び前記左側方画像領域の各領域画像を抽出して、前方画像、後方画像、右側方画像、及び左側方画像の各方向画像を生成し、前記長時間露光画像に基づいて生成した前方画像、後方画像、右側方画像、及び左側方画像と、前記短時間露光画像に基づいて生成した前方画像、後方画像、右側方画像、及び左側方画像とをそれぞれ合成してハイダイナミックレンジ合成画像を生成し、前記車両用撮像装置に入射する太陽光の入射方向を判定し、前記ハイダイナミックレンジ合成画像を生成するとき、前記前方画像、前記後方画像、前記右側方画像、及び前記左側方画像のうち、判定された太陽光の入射方向に応じて選択された前記長時間露光画像に基づく方向画像の割合を、非選択の前記長時間露光画像に基づく方向画像の割合よりも増加させる画像処理方法を提供する。 The present invention is an image processing method for an image pickup device for a vehicle mounted in a vehicle, and a long-exposure image in which an image pickup unit in which light is incident through a fisheye lens captures a 360-degree subject in a first exposure time. To generate a short-time exposure image of a 360-degree subject in a second exposure time shorter than the first exposure time, and based on the long-exposure image and the short-time exposure image, the front and rear of the vehicle. And left and right are determined, and the positions of the front image region, the rear image region, the right side image region, and the left side image region of the long exposure image and the short exposure image in the circumferential direction are determined, and the length is determined. From the time-exposure image and the short-exposure image, each region image of the front image region, the rear image region, the right side image region, and the left side image region is extracted, and the front image, the rear image, and the right side are extracted. Each direction image of the square image and the left side image is generated, and the front image, the rear image, the right side image, and the left side image generated based on the long exposure image are generated based on the short exposure image. A high dynamic range composite image is generated by synthesizing the front image, the rear image, the right side image, and the left side image, respectively, and the incident direction of the sunlight incident on the vehicle image pickup device is determined to determine the high dynamic range. When generating the range composite image, it is based on the long-exposure image selected according to the determined incident direction of sunlight among the front image, the rear image, the right side image, and the left side image. Provided is an image processing method for increasing the proportion of directional images to a proportion of directional images based on the unselected long-exposure image.

本発明は、車両内に取り付けられる車両用撮像装置に搭載されるコンピュータに、魚眼レンズを介して光が入射される撮像部によって、第1の露光時間で360度の被写体を撮像した長時間露光画像と、前記第1の露光時間より短い第2の露光時間で360度の被写体を撮像した短時間露光画像を生成するステップと、前記長時間露光画像及び前記短時間露光画像に基づいて、前記車両の前後及び左右を判定して、前記長時間露光画像及び前記短時間露光画像のうちの前方画像領域、後方画像領域、右側方画像領域、及び左側方画像領域の周方向の位置を決定するステップと、前記長時間露光画像及び前記短時間露光画像のうち、前記前方画像領域、前記後方画像領域、前記右側方画像領域、及び前記左側方画像領域の各領域画像を抽出して、前方画像、後方画像、右側方画像、及び左側方画像の各方向画像を生成するステップと、前記長時間露光画像に基づいて生成した前方画像、後方画像、右側方画像、及び左側方画像と、前記短時間露光画像に基づいて生成した前方画像、後方画像、右側方画像、及び左側方画像とをそれぞれ合成してハイダイナミックレンジ合成画像を生成するステップと、前記車両用撮像装置に入射する太陽光の入射方向を判定するステップと、前記ハイダイナミックレンジ合成画像を生成するとき、前記前方画像、前記後方画像、前記右側方画像、及び前記左側方画像のうち、判定された太陽光の入射方向に応じて選択された前記長時間露光画像に基づく方向画像の割合を、非選択の前記長時間露光画像に基づく方向画像の割合よりも増加させるステップとを実行させる画像処理プログラムを提供する。 The present invention is a long-exposure image in which a 360-degree subject is imaged in a first exposure time by an imaging unit in which light is incident on a computer mounted on a vehicle imaging device mounted in a vehicle through a fisheye lens. Based on the step of generating a short-exposure image in which a 360-degree subject is imaged in a second exposure time shorter than the first exposure time, and the long-exposure image and the short-exposure image, the vehicle. The step of determining the front, back, left and right of the long-exposure image and the short-exposure image to determine the circumferential positions of the front image region, the rear image region, the right image region, and the left image region. Then, from the long-exposure image and the short-exposure image, each region image of the front image region, the rear image region, the right side image region, and the left side image region is extracted to obtain a front image. The step of generating each direction image of the rear image, the right side image, and the left side image, the front image, the rear image, the right side image, and the left side image generated based on the long exposure image, and the short time. A step of combining the front image, the rear image, the right side image, and the left side image generated based on the exposed image to generate a high dynamic range composite image, and the incident of sunlight incident on the vehicle imaging device. When the step of determining the direction and the high dynamic range composite image are generated, depending on the incident direction of the determined sunlight among the front image, the rear image, the right side image, and the left side image. Provided is an image processing program that executes a step of increasing the proportion of directional images based on the selected long-exposure image from the proportion of directional images based on the unselected long-exposure image.

本発明の車両用撮像装置、画像処理方法、及び画像処理プログラムによれば、車両に対する太陽光の入射方向に応じて適切な前方画像、後方画像、右側方画像、及び左側方画像の各方向画像を得ることができる。 According to the vehicle image pickup device, the image processing method, and the image processing program of the present invention, each direction image of the front image, the rear image, the right side image, and the left side image suitable according to the direction of sunlight incident on the vehicle. Can be obtained.

各実施形態の車両用撮像装置が車内に取り付けられた車両の一例を示す斜視図である。It is a perspective view which shows an example of the vehicle in which the vehicle image pickup apparatus of each embodiment is installed in a vehicle. 各実施形態の車両用撮像装置の具体的な構成例を示すブロック図である。It is a block diagram which shows the specific configuration example of the vehicle image pickup apparatus of each embodiment. 各実施形態の車両用撮像装置の撮像部が生成する360度の撮像画像であって、車両の前方を正しく判定した状態を示す概念図である。It is a 360-degree image taken by the image pickup unit of the vehicle image pickup apparatus of each embodiment, and is a conceptual diagram which shows the state which correctly determined the front of the vehicle. 各実施形態の車両用撮像装置の撮像部が生成する360度の撮像画像であって、車両の前方を誤判定した状態の一例を示す概念図である。FIG. 5 is a conceptual diagram showing an example of a state in which the front of the vehicle is erroneously determined, which is a 360-degree captured image generated by the imaging unit of the vehicle imaging device of each embodiment. 図4に示す車両の前方を誤判定した状態の前方画像の一例を示す図である。It is a figure which shows an example of the front image of the state which erroneously determined the front of the vehicle shown in FIG. 図4に示す車両の前方を誤判定した状態の後方画像の一例を示す図である。It is a figure which shows an example of the rear image of the state which erroneously determined the front of the vehicle shown in FIG. 図4に示す車両の前方を誤判定した状態の右側方画像の一例を示す図である。It is a figure which shows an example of the right side image of the state which erroneously determined the front of the vehicle shown in FIG. 図4に示す車両の前方を誤判定した状態の左側方画像の一例を示す図である。It is a figure which shows an example of the left side image of the state which erroneously determined the front of the vehicle shown in FIG. 図3に示す車両の前方を正しく判定した状態で、前方画像、後方画像、右側方画像、左側方画像において検出される動きベクトルを示す図である。It is a figure which shows the motion vector detected in the front image, the rear image, the right side image, and the left side image in the state which correctly determined the front of the vehicle shown in FIG. 図4に示す車両の前方を誤判定した状態で、前方画像、後方画像、右側方画像、左側方画像において検出される動きベクトルを示す図である。It is a figure which shows the motion vector detected in the front image, the rear image, the right side image, and the left side image in the state where the front of the vehicle shown in FIG. 4 is erroneously determined. 第1実施形態で実行される処理を示すフローチャートである。It is a flowchart which shows the process executed in 1st Embodiment. 第1実施形態で図8に示すフローチャートに続けて実行される処理を示すフローチャートである。It is a flowchart which shows the process which is executed following the flowchart shown in FIG. 8 in 1st Embodiment. 前方画像の方向を車両の前方と一致させるよう調整した状態の前方画像の一例を示す図である。It is a figure which shows an example of the front image in the state which adjusted so that the direction of the front image is matched with the front of a vehicle. 前方画像の方向を車両の前方と一致させるよう調整した状態の後方画像の一例を示す図である。It is a figure which shows an example of the rear image in the state which adjusted so that the direction of the front image is matched with the front of a vehicle. 前方画像の方向を車両の前方と一致させるよう調整した状態の右側方画像の一例を示す図である。It is a figure which shows an example of the right side image in the state which adjusted so that the direction of the front image is matched with the front of a vehicle. 前方画像の方向を車両の前方と一致させるよう調整した状態の左側方画像の一例を示す図である。It is a figure which shows an example of the left side image in the state which adjusted so that the direction of the front image coincides with the front of a vehicle. 第2実施形態の車両用撮像装置において、右側方画像内または左側方画像内の被写体の画像のぶれを示す概念図である。FIG. 5 is a conceptual diagram showing blurring of an image of a subject in a right-side image or a left-side image in the vehicle image pickup device of the second embodiment. 第2実施形態の車両用撮像装置において、右側方画像内または左側方画像内の被写体の画像のぶれを補正した状態を示す概念図である。It is a conceptual diagram which shows the state which corrected the blur of the image of the subject in the right side image or the left side image in the vehicle image pickup apparatus of 2nd Embodiment. 第2実施形態で実行される処理を示すフローチャートである。It is a flowchart which shows the process executed in 2nd Embodiment. 第3実施形態の車両用撮像装置において、動きの方向が異なる複数の動きベクトルが検出される右側方画像の一例を示す図である。It is a figure which shows an example of the right-hand side image which detects a plurality of motion vectors which have different movement directions in the vehicle image pickup apparatus of 3rd Embodiment. 第3実施形態の車両用撮像装置において、単一の動きベクトルが検出される左側方画像の一例を示す図である。It is a figure which shows an example of the left side image in which a single motion vector is detected in the vehicle image pickup apparatus of 3rd Embodiment. 第3実施形態で実行される処理を示すフローチャートである。It is a flowchart which shows the process executed in 3rd Embodiment. 自車両の前方及び後方に車両が走行し、自車両が走行する車線の右車線及び左車線に車両が走行している状態で、太陽光が白抜き矢印の方向から各車両を照らしている状態を示す概念図である。A state in which the vehicle is traveling in front of and behind the own vehicle, the vehicle is traveling in the right and left lanes of the lane in which the own vehicle is traveling, and sunlight is illuminating each vehicle from the direction of the white arrow. It is a conceptual diagram which shows. 第4実施形態において太陽光の入射方向を8分割した状態を示す図である。It is a figure which shows the state which divided the incident direction of sunlight into 8 in 4th Embodiment. 第4実施形態で実行される処理を示す部分的なフローチャートである。It is a partial flowchart which shows the process executed in 4th Embodiment. 図18Aに続く、第4実施形態で実行される処理を示す部分的なフローチャートである。FIG. 18A is a partial flowchart showing the process executed in the fourth embodiment, following FIG. 18A. 車両がトンネルに接近し、トンネルに入ってトンネル内を走行し、トンネルから出た状態を示す概念図である。It is a conceptual diagram showing a state in which a vehicle approaches a tunnel, enters the tunnel, travels in the tunnel, and exits the tunnel. 第5実施形態で実行される処理を示す部分的なフローチャートである。It is a partial flowchart which shows the process executed in 5th Embodiment. 図20Aに続く、第5実施形態で実行される処理を示す部分的なフローチャートである。FIG. 20A is a partial flowchart showing the process executed in the fifth embodiment following FIG. 20A. 第6実施形態の車両用撮像装置の具体的な構成例を示すブロック図である。It is a block diagram which shows the specific configuration example of the vehicle image pickup apparatus of 6th Embodiment. 第6実施形態で実行される処理を示すフローチャートである。It is a flowchart which shows the process executed in 6th Embodiment. 第7実施形態において車内画像領域に設定されるインストルメントパネル領域及び非インストルメントパネル領域を示す概念図である。It is a conceptual diagram which shows the instrument panel area and the non-instrument panel area set in the vehicle interior image area in 7th Embodiment. 第7実施形態で実行される処理を示すフローチャートである。It is a flowchart which shows the process executed in 7th Embodiment. 長時間露光画像を生成する際の第1の露光時間と短時間露光画像を生成する際の第2の露光時間とを示す概念図である。It is a conceptual diagram which shows the 1st exposure time when generating a long-exposure image and the 2nd exposure time when generating a short-exposure image.

以下、各実施形態の車両用撮像装置、画像処理方法、及び画像処理プログラムについて、添付図面を参照して説明する。 Hereinafter, the vehicle imaging device, the image processing method, and the image processing program of each embodiment will be described with reference to the accompanying drawings.

<第1実施形態>
図1において、車両200内のフロントガラス201の上部には、車両用撮像装置100が取り付けられている。車両用撮像装置100はいわゆるドライブレコーダである。車両用撮像装置100の取り付け位置はフロントガラス201に限定されない。車両用撮像装置100は魚眼レンズ11を備え、車内の上方から見た車内を含む車両200の前後及び左右の360度を撮像する。
<First Embodiment>
In FIG. 1, a vehicle imaging device 100 is attached to the upper part of the windshield 201 in the vehicle 200. The vehicle image pickup device 100 is a so-called drive recorder. The mounting position of the vehicle image pickup device 100 is not limited to the windshield 201. The vehicle image pickup device 100 includes a fisheye lens 11 and images 360 degrees of the front and rear and left and right of the vehicle 200 including the inside of the vehicle as viewed from above.

図2は、車両用撮像装置100の具体的な構成例を示す。車両用撮像装置100は、魚眼レンズ11、撮像部12、画像処理部13、画像解析部14、通信部15、制御部16、記録再生部17、モニタ18を備え、撮像部12〜モニタ18はバス19で接続されている。 FIG. 2 shows a specific configuration example of the vehicle imaging device 100. The vehicle imaging device 100 includes a fisheye lens 11, an imaging unit 12, an image processing unit 13, an image analysis unit 14, a communication unit 15, a control unit 16, a recording / playback unit 17, and a monitor 18, and the imaging units 12 to 18 are buses. It is connected at 19.

画像処理部13は、画像回転部131、画像抽出部132、ハイダイナミックレンジ画像合成部133を備える。以下、ハイダイナミックレンジをHDRと略記する。画像解析部14は、動きベクトル検出部141と前後左右判定部142を備える。制御部16は、計測部161を備える。記録再生部17は、記録媒体(記憶媒体)として着脱自在のメモリカード170を有する。記録媒体はメモリカードに限定されない。 The image processing unit 13 includes an image rotation unit 131, an image extraction unit 132, and a high dynamic range image composition unit 133. Hereinafter, the high dynamic range is abbreviated as HDR. The image analysis unit 14 includes a motion vector detection unit 141 and a front / rear / left / right determination unit 142. The control unit 16 includes a measurement unit 161. The recording / reproducing unit 17 has a removable memory card 170 as a recording medium (storage medium). The recording medium is not limited to the memory card.

撮像部12は、CCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)である撮像素子を備える。撮像部12は、魚眼レンズ11を介して入射された被写体からの一点鎖線で示す光によって360度の被写体を撮像した撮像画像(全周画像)を生成する。 The image pickup unit 12 includes an image pickup device that is a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor). The imaging unit 12 generates an image (all-around image) in which a 360-degree subject is imaged by light indicated by a dashed-dotted line from the subject incident through the fisheye lens 11.

車両用撮像装置100が60フレーム/秒の撮像画像を生成する場合を例とすると、撮像部12は120フレーム/秒で被写体を撮像する。このとき、撮像部12は、隣接する2フレームのうちの一方を第1の露光時間(長時間)で露光し、他方を第1の時間より短い第2の露光時間(短時間)で露光する。撮像部12は電子シャッタを備え、制御部16による制御によって露光時間を任意に可変することができる。撮像部12は、360度の撮像画像として、長時間露光画像と短時間露光画像とを生成する。 Taking the case where the vehicle image pickup device 100 generates a captured image at 60 frames / second as an example, the imaging unit 12 images a subject at 120 frames / second. At this time, the imaging unit 12 exposes one of the two adjacent frames with the first exposure time (long time) and the other with the second exposure time (short time) shorter than the first time. .. The imaging unit 12 includes an electronic shutter, and the exposure time can be arbitrarily changed by being controlled by the control unit 16. The imaging unit 12 generates a long-exposure image and a short-exposure image as a 360-degree image.

撮像部12が生成した360度の長時間露光画像及び短時間露光画像は画像処理部13及び画像解析部14に供給される。 The 360-degree long-exposure image and the short-exposure image generated by the imaging unit 12 are supplied to the image processing unit 13 and the image analysis unit 14.

図3に概念的に示すように、撮像部12が生成する360度の撮像画像は、撮像素子の矩形状の画素領域のうちの一部の円形の画素領域によって生成される。円形の画素領域によって生成される撮像画像は、車両200の車内の上方から見た車内画像領域と、車内画像領域の周囲の前方画像領域、後方画像領域、右側方画像領域、左側方画像領域とを含む。360度の撮像画像は撮像部12が魚眼レンズ11を介して被写体を撮像した撮像画像であるから、前方画像領域、後方画像領域、右側方画像領域、左側方画像領域における画像は大きく歪んでいる。 As conceptually shown in FIG. 3, the 360-degree captured image generated by the image pickup unit 12 is generated by a circular pixel region of a part of the rectangular pixel region of the image pickup device. The captured image generated by the circular pixel region includes an in-vehicle image area viewed from above inside the vehicle 200, a front image area around the in-vehicle image area, a rear image area, a right side image area, and a left side image area. including. Since the 360-degree captured image is an captured image obtained by the imaging unit 12 capturing the subject through the fisheye lens 11, the images in the front image region, the rear image region, the right side image region, and the left side image region are greatly distorted.

図3に示す前方画像領域、後方画像領域、右側方画像領域、左側方画像領域の周方向の位置は単なる一例である。周方向のどの位置を前方画像領域、後方画像領域、右側方画像領域、左側方画像領域とするかは、動きベクトル検出部141によって検出される動きベクトル及び前後左右判定部142による判定に基づいて最終的に決定される。図3に示す前方画像領域は、車両200の前方が正しく判定されて、車両200のフロントガラス201の方向である破線の矩形で示す実際の前方を示す画像であるとする。 The positions of the front image area, the rear image area, the right side image area, and the left side image area shown in FIG. 3 in the circumferential direction are merely examples. Which position in the circumferential direction is to be the front image area, the rear image area, the right side image area, or the left side image area is based on the motion vector detected by the motion vector detection unit 141 and the determination by the front / rear / left / right determination unit 142. It will be finally decided. It is assumed that the front image area shown in FIG. 3 is an image showing the actual front of the vehicle 200, which is correctly determined and is indicated by a broken line rectangle in the direction of the windshield 201 of the vehicle 200.

車両用撮像装置100を最初に起動させたとき、HDR画像合成部133は長時間露光画像と短時間露光画像の360度の撮像画像を合成して、ダイナミックレンジを拡大した60フレーム/秒の合成画像(HDR合成画像)を生成する。HDR画像合成部133は、制御部16による制御に基づき、画像解析部14によって解析された画像の明るさに応じて、長時間露光画像と短時間露光画像とを所定の割合で混合する。但し、第1実施形態においては、HDR画像合成部133は省略されてもよい。 When the vehicle imaging device 100 is first activated, the HDR image compositing unit 133 synthesizes a 360-degree captured image of a long-exposure image and a short-exposure image, and synthesizes 60 frames / sec with an expanded dynamic range. Generate an image (HDR composite image). The HDR image synthesis unit 133 mixes the long-exposure image and the short-exposure image at a predetermined ratio according to the brightness of the image analyzed by the image analysis unit 14 under the control of the control unit 16. However, in the first embodiment, the HDR image compositing unit 133 may be omitted.

前後左右判定部142は、制御部16による制御に基づき、HDR画像合成部133によって生成された合成画像に基づいて車両200の前後及び左右を判定して、前方画像領域、後方画像領域、右側方画像領域、左側方画像領域の周方向の位置を仮判定する。前後左右の方向は後述の処理によって修正されることがあるから、ここでは前後左右の方向の仮判定とする。 The front / rear / left / right determination unit 142 determines the front / rear and left / right of the vehicle 200 based on the composite image generated by the HDR image composition unit 133 based on the control by the control unit 16, and determines the front / rear image area, the rear image area, and the right side. Temporarily determine the position of the image area and the left image area in the circumferential direction. Since the front-back, left-right directions may be corrected by the processing described later, the front-back, left-right directions are tentatively determined here.

前後左右判定部142は、例えば、車両200のステアリングホイール202の画像に基づいて車両200の前方を判定する。ところが、車両用撮像装置100の取り付け位置、取り付け角度、向きによってステアリングホイール202の画像の状態が変化する。取り付け位置とは、車両用撮像装置100がステアリングホイール202のよりも前方に取り付けられているのか、後方に取り付けられているのかということである。取り付け角度とは、車両用撮像装置100の撮像中心が鉛直方向に対してどのような角度であるのかということである。向きとは、車両用撮像装置100を周方向のどのような方向に取り付けたかということである。 The front / rear / left / right determination unit 142 determines the front of the vehicle 200 based on, for example, an image of the steering wheel 202 of the vehicle 200. However, the state of the image of the steering wheel 202 changes depending on the mounting position, mounting angle, and orientation of the vehicle imaging device 100. The mounting position is whether the vehicle image pickup device 100 is mounted in front of the steering wheel 202 or is mounted in the rear. The mounting angle is what kind of angle the image pickup center of the vehicle image pickup device 100 is with respect to the vertical direction. The orientation is the direction in which the vehicle imaging device 100 is mounted in the circumferential direction.

前後左右判定部142は、ステアリングホイール202の画像の状態によっては、車両200の前方を誤判定することがある。前後左右判定部142は、車両200のステアリングホイール202以外の画像に基づいて車両200の前方を判定してもよい。この場合も、前後左右判定部142は、車両200の前方を誤判定することがある。 The front / rear / left / right determination unit 142 may erroneously determine the front of the vehicle 200 depending on the state of the image of the steering wheel 202. The front / rear / left / right determination unit 142 may determine the front of the vehicle 200 based on an image other than the steering wheel 202 of the vehicle 200. In this case as well, the front / rear / left / right determination unit 142 may erroneously determine the front of the vehicle 200.

図4に示すように、前後左右判定部142が、車両200の進行方向から左方向に所定の角度だけずれた方向を前方と誤判定したとする。この場合、前後左右判定部142が前方画像領域、後方画像領域、右側方画像領域、左側方画像領域の周方向の位置を決定すると、前方画像領域は、破線の矩形で示す実際の車両200の前方を示す画像とは一致しない。 As shown in FIG. 4, it is assumed that the front / rear / left / right determination unit 142 erroneously determines that the direction deviated from the traveling direction of the vehicle 200 to the left by a predetermined angle is forward. In this case, when the front / rear / left / right determination unit 142 determines the positions of the front image area, the rear image area, the right side image area, and the left side image area in the circumferential direction, the front image area is the actual vehicle 200 shown by the broken line rectangle. It does not match the image showing the front.

ここでは、前方画像領域が車両200の進行方向から左方向に所定の角度だけずれた場合を示している。車両用撮像装置100の取り付け位置によっては、車両200の後方を前方と誤判定したり、右側方または左側方を前方と誤判定したりして、車両200の前方とは完全に異なる周方向の位置を前方画像領域と誤って決定する可能性もある。 Here, the case where the front image region is deviated by a predetermined angle from the traveling direction of the vehicle 200 to the left is shown. Depending on the mounting position of the vehicle image pickup device 100, the rear of the vehicle 200 may be erroneously determined to be the front, or the right side or the left side may be erroneously determined to be the front. It is also possible to mistakenly determine the position as the forward image area.

画像処理部13の画像回転部131は、後述するように、制御部16による制御に基づき、360度の撮像画像を回転することがある。画像抽出部132は、制御部16による制御に基づき、前後左右判定部142が周方向の位置を決定した前方画像領域、後方画像領域、右側方画像領域、左側方画像領域に基づいて各領域画像を抽出する。画像抽出部132は、人が車両200の前方、後方、左側方、右側方を通常見ている状態に近付けるように、抽出した大きく歪んだ前方画像領域、後方画像領域、右側方画像領域、左側方画像領域の各領域画像の魚眼レンズ11による歪を補正する。 As will be described later, the image rotation unit 131 of the image processing unit 13 may rotate the captured image at 360 degrees based on the control by the control unit 16. The image extraction unit 132 has each area image based on the front image area, the rear image area, the right side image area, and the left side image area in which the front / rear / left / right determination unit 142 determines the position in the circumferential direction based on the control by the control unit 16. Is extracted. The image extraction unit 132 extracts a greatly distorted front image area, a rear image area, a right side image area, and a left side so that a person approaches the state in which the front, rear, left side, and right side of the vehicle 200 are normally viewed. The distortion caused by the fisheye lens 11 of each region image of the square image region is corrected.

図5A〜図5Dは、画像抽出部132が各領域画像を抽出して歪を補正した状態の前方画像20F、後方画像20B、右側方画像20R、左側方画像20Lの一例を概念的に示している。図5A〜図5Dは、前後左右判定部142が車両200の進行方向から左方向に所定の角度だけずれた方向を前方と誤判定して、角度のずれを補正していない状態を示している。 5A to 5D conceptually show an example of a front image 20F, a rear image 20B, a right side image 20R, and a left side image 20L in a state where the image extraction unit 132 extracts each region image and corrects distortion. There is. 5A to 5D show a state in which the front / rear / left / right determination unit 142 erroneously determines that the direction deviated from the traveling direction of the vehicle 200 to the left by a predetermined angle is forward, and does not correct the angle deviation. ..

図5Aに示すように、前方画像20Fは左側のAピラー203AL側にずれている。図5Bに示すように、後方画像20Bは運転者300を含み、車両200の右側にずれている。図5Cに示すように、右側方画像20Rは前方側にずれている。図5Dに示すように、左側方画像20Lは、後方側にずれている。 As shown in FIG. 5A, the front image 20F is shifted to the left A pillar 203AL side. As shown in FIG. 5B, the rear image 20B includes the driver 300 and is offset to the right of the vehicle 200. As shown in FIG. 5C, the right side image 20R is shifted to the front side. As shown in FIG. 5D, the left side image 20L is shifted to the rear side.

動きベクトル検出部141は、前方画像領域、後方画像領域、右側方画像領域、左側方画像領域それぞれの動きベクトルを検出する。動きベクトル検出部141は、基本的には短時間露光画像に基づいて動きベクトルを検出する。動きベクトル検出部141は、短時間露光画像に基づいて動きベクトルを検出できないとき、または検出しにくいときに、長時間露光画像に基づいて動きベクトルを検出する。前方画像領域、後方画像領域、右側方画像領域、左側方画像領域の動きベクトルを、それぞれ、MVF、MVB、MVR、MVLと称することとする。 The motion vector detection unit 141 detects motion vectors of each of the front image region, the rear image region, the right image region, and the left image region. The motion vector detection unit 141 basically detects the motion vector based on the short-exposure image. The motion vector detection unit 141 detects the motion vector based on the long-exposure image when the motion vector cannot be detected based on the short-exposure image or when it is difficult to detect the motion vector. The motion vectors of the front image area, the rear image area, the right side image area, and the left side image area are referred to as MVF, MVB, MVR, and MVL, respectively.

図6は、図3に示すように車両200の前方が正しく判定されて、前方画像20Fが実際の車両200の前方と一致した状態の動きベクトルMVF、MVB、MVR、MVLを示している。図6及び後述する図7においては、右側方画像20R及び左側方画像20Lを90度回転させた状態としている。前方画像20F内の動きベクトルMVFは、発散を開始する一点を消失点Pv1として放射状に発散する。後方画像20B内の動きベクトルMVBは、収束する一点を消失点Pv2として収束する。右側方画像20Rの動きベクトルMVR及び左側方画像20Lの動きベクトルMVLは、前方から後方へと向かう。 FIG. 6 shows motion vectors MVF, MVB, MVR, and MVL in a state where the front of the vehicle 200 is correctly determined as shown in FIG. 3 and the front image 20F coincides with the front of the actual vehicle 200. In FIG. 6 and FIG. 7 described later, the right-angled image 20R and the left-sided image 20L are rotated by 90 degrees. The motion vector MVF in the forward image 20F diverges radially with one point at which divergence starts as a vanishing point Pv1. The motion vector MVB in the rear image 20B converges with one point that converges as a vanishing point Pv2. The motion vector MVR of the right image 20R and the motion vector MVL of the left image 20L go from the front to the rear.

前方画像20Fが実際の車両200の前方と一致していれば、前方画像20Fの消失点Pv1は、前方画像20Fの左右方向のほぼ中央Hctrに位置する。 If the front image 20F coincides with the front of the actual vehicle 200, the vanishing point Pv1 of the front image 20F is located at approximately the center Hctr in the left-right direction of the front image 20F.

図7は、図4に示すように車両200の前方が誤判定されて、前方画像20Fが実際の車両前方よりも左方向に所定の角度だけずれた状態の動きベクトルMVF、MVB、MVR、MVLを示している。前方画像20Fが実際の車両200の前方と一致しておらず、左方向に所定の角度だけずれているので、前方画像20Fの消失点Pv1は、前方画像20Fの左右方向のほぼ中央Hctrよりも右側に位置する。 In FIG. 7, as shown in FIG. 4, the front of the vehicle 200 is erroneously determined, and the motion vectors MVF, MVB, MVR, and MVL in a state where the front image 20F is shifted to the left by a predetermined angle from the actual front of the vehicle. Is shown. Since the front image 20F does not match the front of the actual vehicle 200 and is shifted to the left by a predetermined angle, the vanishing point Pv1 of the front image 20F is larger than the substantially central Hctr in the left-right direction of the front image 20F. Located on the right side.

第1実施形態の車両用撮像装置100において、画像回転部131は、前方画像20Fと実際の車両前方とのずれを解消するために、消失点Pv1を中央Hctrに一致させるように、図4に示す360度の撮像画像を右方向に回転させる。すると、図3のように、前方画像領域は破線の矩形で示す実際の車両200の前方と一致した状態となり、前方画像20Fは車両200の前方を示す画像となる。 In the vehicle imaging device 100 of the first embodiment, FIG. 4 shows the image rotating unit 131 so that the vanishing point Pv1 coincides with the central Hctr in order to eliminate the deviation between the front image 20F and the actual vehicle front. The 360-degree captured image shown is rotated to the right. Then, as shown in FIG. 3, the front image area coincides with the front of the actual vehicle 200 shown by the broken line rectangle, and the front image 20F is an image showing the front of the vehicle 200.

画像抽出部132は、前方画像20Fと実際の車両前方とのずれが解消された状態で、前方画像領域、後方画像領域、右側方画像領域、左側方画像領域の各領域画像を抽出して、歪を補正した前方画像20F、後方画像20B、右側方画像20R、左側方画像20Lを生成する。 The image extraction unit 132 extracts each area image of the front image area, the rear image area, the right side image area, and the left side image area in a state where the deviation between the front image 20F and the actual vehicle front is eliminated. A front image 20F, a rear image 20B, a right side image 20R, and a left side image 20L with distortion corrected are generated.

前方画像20Fと実際の車両前方とのずれを解消すると、前方画像20F、後方画像20B、右側方画像20R、左側方画像20Lは、車両200の前方が正しく判定された図6と等価の状態となる。 When the deviation between the front image 20F and the actual vehicle front is eliminated, the front image 20F, the rear image 20B, the right image 20R, and the left image 20L are in a state equivalent to that in FIG. 6 in which the front of the vehicle 200 is correctly determined. Become.

ここでは、前方画像20Fが車両200の進行方向から左方向に所定の角度だけずれた状態で画像回転部131がずれを解消して、画像抽出部132が各領域画像を抽出した場合を例としている。上記のように、車両200の前方とは完全に異なる周方向の位置を前方画像領域と誤って決定することがある。この場合、誤った前方画像領域に基づいて抽出した前方画像20F内には消失点Pv1は存在しない。前方画像20F内に消失点Pv1は存在しない場合であっても、画像回転部131は、消失点Pv1を前方画像20Fの中央Hctrに一致させるように、360度の撮像画像を回転させればよい。 Here, as an example, the image rotating unit 131 eliminates the deviation in a state where the front image 20F is displaced from the traveling direction of the vehicle 200 to the left by a predetermined angle, and the image extracting unit 132 extracts each region image. There is. As described above, a position in the circumferential direction completely different from the front of the vehicle 200 may be erroneously determined as the front image area. In this case, the vanishing point Pv1 does not exist in the front image 20F extracted based on the erroneous front image region. Even if the vanishing point Pv1 does not exist in the front image 20F, the image rotating unit 131 may rotate the captured image at 360 degrees so that the vanishing point Pv1 coincides with the central Hctr of the front image 20F. ..

以上のようにして、画像回転部131が360度の撮像画像を回転させて前方画像20Fと実際の車両前方とのずれを解消し、画像抽出部132が各領域画像を抽出して歪を補正する。HDR画像合成部133は、長時間露光画像と短時間露光画像の歪が補正された前方画像20F、後方画像20B、右側方画像20R、左側方画像20Lを画像合成する。 As described above, the image rotating unit 131 rotates the captured image of 360 degrees to eliminate the deviation between the front image 20F and the actual vehicle front, and the image extracting unit 132 extracts each region image and corrects the distortion. do. The HDR image compositing unit 133 synthesizes the front image 20F, the rear image 20B, the right side image 20R, and the left side image 20L in which the distortion of the long exposure image and the short exposure image is corrected.

制御部16は、HDR画像合成部133による画像合成後の前方画像20F、後方画像20B、右側方画像20R、左側方画像20Lをメモリカード170に記録するよう制御する。制御部16は、図4に示すような撮像部12が生成する長時間露光画像及び短時間露光画像の360度の撮像画像を長時間露光画像と短時間露光画像に記録するよう制御してもよい。制御部16は、前方画像20F、後方画像20B、右側方画像20R、左側方画像20Lと、360度の撮像画像との双方を記録するよう制御するのがよい。 The control unit 16 controls to record the front image 20F, the rear image 20B, the right side image 20R, and the left side image 20L after the image composition by the HDR image composition unit 133 on the memory card 170. Even if the control unit 16 controls to record the 360-degree captured image of the long-exposure image and the short-exposure image generated by the imaging unit 12 as shown in FIG. 4 in the long-exposure image and the short-exposure image. good. The control unit 16 may control to record both the front image 20F, the rear image 20B, the right side image 20R, the left side image 20L, and the 360-degree captured image.

制御部16は、モニタ18に、フレーム内に前方画像20F、後方画像20B、右側方画像20R、左側方画像20Lを配置した4分割画像を表示するよう制御してもよい。制御部16は、モニタ18に、フレーム内に後方画像20B及び右側方画像20Rを配置した2分割画像を表示するよう制御してもよい。制御部16は、モニタ18に、前方画像20F、後方画像20B、右側方画像20R、左側方画像20Lのうちの選択した1つの画像(例えば前方画像20F)のみ表示するよう制御してもよい。 The control unit 16 may control the monitor 18 to display a quadrant image in which the front image 20F, the rear image 20B, the right side image 20R, and the left side image 20L are arranged in the frame. The control unit 16 may control the monitor 18 to display a two-divided image in which the rear image 20B and the right side image 20R are arranged in the frame. The control unit 16 may control the monitor 18 to display only one selected image (for example, the front image 20F) of the front image 20F, the rear image 20B, the right side image 20R, and the left side image 20L.

通信部15は、制御部16による制御に基づき、車両用撮像装置100が撮像している画像を、または記録再生部17に記録した画像を外部に送信してもよい。通信部15は省略されてもよい。 The communication unit 15 may transmit the image captured by the vehicle imaging device 100 or the image recorded by the recording / reproducing unit 17 to the outside based on the control by the control unit 16. The communication unit 15 may be omitted.

図8及び図9に示すフローチャートを用いて、画像処理部13、画像解析部14、または制御部16が実行する処理を説明する。図8において、処理が開始されると、前後左右判定部142は、ステップS1にて、撮像画像(HDR画像合成部133より出力された合成画像)に基づいて前後左右の方向を仮判定する。 The processing executed by the image processing unit 13, the image analysis unit 14, or the control unit 16 will be described with reference to the flowcharts shown in FIGS. 8 and 9. In FIG. 8, when the process is started, the front / rear / left / right determination unit 142 tentatively determines the front / rear / left / right directions based on the captured image (composite image output from the HDR image composition unit 133) in step S1.

画像解析部14は、ステップS2にて、車両200が移動したか否かを判定する。画像解析部14は、動きベクトル検出部141が動きベクトルを検出したら、車両200が移動したと判定することができる。制御部16が、車両200のCAN(Controller Area Network)から供給される情報に基づいて車両200が移動したか否かを判定してもよい。 In step S2, the image analysis unit 14 determines whether or not the vehicle 200 has moved. The image analysis unit 14 can determine that the vehicle 200 has moved when the motion vector detection unit 141 detects the motion vector. The control unit 16 may determine whether or not the vehicle 200 has moved based on the information supplied from the CAN (Controller Area Network) of the vehicle 200.

車両200が移動しなければ(NO)、画像解析部14(または制御部16)はステップS2の処理を繰り返す。車両200が移動すれば(YES)、画像回転部131は、ステップS3にて、発散する動きベクトルの消失点Pv1に基づいて360度の撮像画像を回転させて、前方画像20Fの方向を調整して、処理を一旦終了させる。 If the vehicle 200 does not move (NO), the image analysis unit 14 (or control unit 16) repeats the process of step S2. If the vehicle 200 moves (YES), the image rotating unit 131 rotates the captured image of 360 degrees based on the vanishing point Pv1 of the diverging motion vector in step S3 to adjust the direction of the front image 20F. And end the process once.

図9において、処理が開始されると、動きベクトル検出部141は、ステップS11にて、発散する動きベクトルの消失点Pv1と、収束する動きベクトルの消失点Pv2を検出する。計測部161は、ステップS12にて、前方画像20F内に位置する消失点Pv1の発生時間と消失点Pv2の発生時間を測定する。 In FIG. 9, when the process is started, the motion vector detection unit 141 detects the vanishing point Pv1 of the diverging motion vector and the vanishing point Pv2 of the converging motion vector in step S11. In step S12, the measuring unit 161 measures the generation time of the vanishing point Pv1 and the generation time of the vanishing point Pv2 located in the front image 20F.

制御部16は、ステップS13にて、所定時間経過したか否かを判定する。所定時間は例えば10分間である。所定時間経過していなければ(NO)、制御部16はステップS13の処理を繰り返す。所定時間経過していれば(YES)、制御部16は、ステップS14にて、消失点Pv1の発生時間が消失点Pv2の発生時間より長いか否かを判定する。発生時間とは所定時間内での延べ発生時間である。 In step S13, the control unit 16 determines whether or not a predetermined time has elapsed. The predetermined time is, for example, 10 minutes. If the predetermined time has not elapsed (NO), the control unit 16 repeats the process of step S13. If the predetermined time has elapsed (YES), the control unit 16 determines in step S14 whether or not the generation time of the vanishing point Pv1 is longer than the generation time of the vanishing point Pv2. The occurrence time is the total occurrence time within a predetermined time.

ステップS14にて消失点Pv1の発生時間が消失点Pv2の発生時間より長ければ(YES)、図8のステップS3にて方向を調整した前方画像20Fは、実際の車両200の前方と一致していると判定される。そこで、制御部16、画像処理部13、及び画像解析部14は、そのまま処理を終了させる。 If the occurrence time of the vanishing point Pv1 is longer than the occurrence time of the vanishing point Pv2 in step S14 (YES), the front image 20F whose direction is adjusted in step S3 of FIG. 8 coincides with the front of the actual vehicle 200. It is determined that there is. Therefore, the control unit 16, the image processing unit 13, and the image analysis unit 14 end the processing as they are.

この場合、HDR画像合成部133は、ステップS3にて方向を調整した長時間露光画像と短時間露光画像の前方画像20F、後方画像20B、右側方画像20R、左側方画像20Lを画像合成して出力する。 In this case, the HDR image compositing unit 133 synthesizes the front image 20F, the rear image 20B, the right side image 20R, and the left side image 20L of the long-exposure image and the short-time exposure image whose directions are adjusted in step S3. Output.

ステップS14にて消失点Pv1の発生時間が消失点Pv2の発生時間より長くなければ(NO)、図8のステップS3にて方向を調整した前方画像20Fは、実際の車両200の前方ではなく、後方であると判定される。これは、図8のステップS2にて車両200が後退して、車両200の後方の画像内に一時的に発生した消失点Pv1に基づいて前方画像20Fの方向を調整したことによる。 If the occurrence time of the vanishing point Pv1 is not longer than the occurrence time of the vanishing point Pv2 in step S14 (NO), the front image 20F whose direction is adjusted in step S3 of FIG. 8 is not in front of the actual vehicle 200. It is determined to be backward. This is because the vehicle 200 retracted in step S2 of FIG. 8 and the direction of the front image 20F was adjusted based on the vanishing point Pv1 temporarily generated in the image behind the vehicle 200.

そこで、ステップS14にて消失点Pv1の発生時間が消失点Pv2の発生時間より長くなければ、前後左右判定部142は、ステップS15にて、前後方向を反転させる。即ち、前後左右判定部142は、前方画像領域と後方画像領域とを反転し、右側方画像領域と左側方画像領域とを反転する。画像回転部131は、ステップS16にて、消失点Pv1に基づいて360度の撮像画像を回転させて、前方画像20Fの方向を調整して、処理を終了させる。 Therefore, if the generation time of the vanishing point Pv1 is not longer than the generation time of the vanishing point Pv2 in step S14, the front-rear / left-right determination unit 142 reverses the front-rear direction in step S15. That is, the front / rear / left / right determination unit 142 inverts the front image area and the rear image area, and inverts the right side image area and the left side image area. In step S16, the image rotation unit 131 rotates the captured image at 360 degrees based on the vanishing point Pv1, adjusts the direction of the front image 20F, and ends the process.

この場合、HDR画像合成部133は、ステップS15にて前後方向を反転してステップS16にて方向を調整した長時間露光画像と短時間露光画像の前方画像20F、後方画像20B、右側方画像20R、左側方画像20Lを画像合成して出力する。 In this case, the HDR image synthesizing unit 133 reverses the front-back direction in step S15 and adjusts the direction in step S16. , The left side image 20L is image-combined and output.

ステップS16の処理を設けることは必須ではないが、設けることが好ましい。 It is not essential to provide the process of step S16, but it is preferable to provide it.

図10A〜図10Dは、以上の処理によって、前方画像20Fの方向を車両200の前方と一致させるように調整した状態の、前方画像20F、後方画像20B、右側方画像20R、左側方画像20Lの一例を概念的に示している。図10Aに示すように、前方画像20Fの左側のAピラー203AL側へのずれが解消されている。図10Bに示すように、後方画像20Bの車両200の右側へのずれが解消されている。図10Cに示すように、右側方画像20Rの前方側へのずれが解消されている。図10Dに示すように、左側方画像20Lの後方側へのずれが解消されている。 10A to 10D show the front image 20F, the rear image 20B, the right side image 20R, and the left side image 20L in a state where the direction of the front image 20F is adjusted to match the front of the vehicle 200 by the above processing. An example is conceptually shown. As shown in FIG. 10A, the deviation of the front image 20F toward the A pillar 203AL on the left side has been eliminated. As shown in FIG. 10B, the deviation of the rear image 20B to the right side of the vehicle 200 has been eliminated. As shown in FIG. 10C, the deviation of the right side image 20R toward the front side is eliminated. As shown in FIG. 10D, the shift of the left side image 20L to the rear side is eliminated.

第1実施形態において、右側方画像20R及び左側方画像20Lの生成を省略して、前方画像20F及び後方画像20Bのみを生成してもよい。 In the first embodiment, the generation of the right side image 20R and the left side image 20L may be omitted, and only the front image 20F and the rear image 20B may be generated.

以上のように、第1実施形態の車両用撮像装置100は、画像回転部131、画像抽出部132、前後左右判定部142、動きベクトル検出部141、計測部161を備える。動きベクトル検出部141は、撮像部12が360度の被写体を撮像した撮像画像の動きベクトルを検出する。前後左右判定部142は、撮像画像に基づいて、車両200の前後及び左右を判定して、撮像画像のうちの少なくとも前方画像領域及び後方画像領域の周方向の位置を決定する。 As described above, the vehicle image pickup device 100 of the first embodiment includes an image rotation unit 131, an image extraction unit 132, a front / rear / left / right determination unit 142, a motion vector detection unit 141, and a measurement unit 161. The motion vector detection unit 141 detects the motion vector of the captured image obtained by the imaging unit 12 capturing a 360-degree subject. The front / rear / left / right determination unit 142 determines the front / rear and left / right of the vehicle 200 based on the captured image, and determines the positions of at least the front image region and the rear image region of the captured image in the circumferential direction.

画像回転部131は、車両200が移動を開始した直後に動きベクトル検出部141によって検出される動きベクトルのうち、放射状に発散する複数の動きベクトルの消失点Pv1(第1の消失点)に基づいて撮像画像を回転させる。これによって、画像回転部131は、前方画像領域及び後方画像領域の周方向の位置を調整する。 The image rotation unit 131 is based on the vanishing point Pv1 (first vanishing point) of a plurality of motion vectors diverging radially among the motion vectors detected by the motion vector detection unit 141 immediately after the vehicle 200 starts moving. And rotate the captured image. As a result, the image rotating unit 131 adjusts the positions of the front image region and the rear image region in the circumferential direction.

計測部161は、画像回転部131が前方画像領域及び後方画像領域の周方向の位置を調整した状態で、所定時間内に、前方画像領域に発生する消失点Pv1の第1の発生時間を計測する。また、計測部161は、その所定時間内に、前方画像領域に発生する、収束する複数の動きベクトルの消失点Pv2(第2の消失点)の第2の発生時間を計測する。 The measurement unit 161 measures the first occurrence time of the vanishing point Pv1 generated in the front image region within a predetermined time in a state where the image rotation unit 131 adjusts the positions of the front image region and the rear image region in the circumferential direction. do. Further, the measurement unit 161 measures the second generation time of the vanishing point Pv2 (second vanishing point) of the plurality of converging motion vectors that occurs in the front image region within the predetermined time.

画像回転部131は、計測部161によって、第1の発生時間が第2の発生時間より長く計測されたとき、前方画像領域及び後方画像領域の周方向の位置を維持する。画像回転部131は、計測部161によって、第1の発生時間が第2の発生時間より長く計測されなかったとき、前方画像領域と後方画像領域とを反転するよう撮像画像を回転させる。 The image rotation unit 131 maintains the positions of the front image region and the rear image region in the circumferential direction when the first generation time is measured longer than the second generation time by the measurement unit 161. The image rotation unit 131 rotates the captured image so that the front image region and the rear image region are inverted when the first generation time is not measured longer than the second generation time by the measurement unit 161.

画像抽出部132は、撮像画像のうち、画像回転部131によって維持された、または反転された、前方画像領域及び後方画像領域の各領域画像を抽出して、前方画像20F及び後方画像20Bを生成する。 The image extraction unit 132 extracts each region image of the front image region and the rear image region maintained or inverted by the image rotation unit 131 from the captured images to generate the front image 20F and the rear image 20B. do.

以上のようにして、第1実施形態の車両用撮像装置100によれば、360度の撮像画像から車両の前方画像領域及び後方画像領域を正しく抽出して、前方画像20F及び後方画像20Bを生成することができる。 As described above, according to the vehicle imaging device 100 of the first embodiment, the front image region and the rear image region of the vehicle are correctly extracted from the 360-degree captured image, and the front image 20F and the rear image 20B are generated. can do.

画像回転部131は、前方画像領域と後方画像領域とを反転するよう撮像画像を回転した後、新たに前方画像領域とされた領域画像内に発生する消失点Pv1に基づいて撮像画像を回転させて、前方画像領域及び後方画像領域の周方向の位置を調整することが好ましい。 The image rotation unit 131 rotates the captured image so as to invert the front image region and the rear image region, and then rotates the captured image based on the vanishing point Pv1 generated in the region image newly set as the front image region. Therefore, it is preferable to adjust the positions of the front image region and the rear image region in the circumferential direction.

画像抽出部132は、人が車両200の前方及び後方を見ている状態に近付けるよう、抽出した前方画像領域及び後方画像領域の歪を補正して、前方画像20F及び後方画像20Bを生成することが好ましい。 The image extraction unit 132 corrects the distortion of the extracted front image area and the rear image area so as to bring the person closer to the state of looking at the front and the rear of the vehicle 200, and generates the front image 20F and the rear image 20B. Is preferable.

前後左右判定部142は、前方画像領域及び後方画像領域に加えて、撮像画像のうちの右側方画像領域及び左側方画像領域の周方向の位置を決定することが好ましい。画像回転部131は、前方画像領域及び後方画像領域に加えて、右側方画像領域及び左側方画像領域の周方向の位置を調整することが好ましい。画像抽出部132は、前方画像領域及び後方画像領域に加えて、撮像画像のうち、右側方画像領域及び左側方画像領域の各領域画像を抽出して、右側方画像20R及び左側方画像20Lを生成することが好ましい。 The front / rear / left / right determination unit 142 preferably determines the positions of the right side image area and the left side image area of the captured image in the circumferential direction in addition to the front image area and the rear image area. It is preferable that the image rotating unit 131 adjusts the positions of the right side image area and the left side image area in the circumferential direction in addition to the front image area and the rear image area. In addition to the front image area and the rear image area, the image extraction unit 132 extracts each area image of the right side image area and the left side image area from the captured images, and obtains the right side image 20R and the left side image 20L. It is preferable to generate.

<第2実施形態>
第2実施形態は、車両用撮像装置100が撮像する被写体の画像のぶれをどのように補正すべきかを検討し、画像のぶれを適切に補正することができる車両用撮像装置100を提供する。第2実施形態において、第1実施形態と共通部分の説明を省略する。第2実施形態の車両用撮像装置100の具体的な構成は、図2と同様である。
<Second Embodiment>
A second embodiment provides a vehicle image pickup device 100 capable of examining how the blur of an image of a subject imaged by the vehicle image pickup device 100 should be corrected and appropriately correcting the blur of the image. In the second embodiment, the description of the common parts with the first embodiment will be omitted. The specific configuration of the vehicle imaging device 100 of the second embodiment is the same as that shown in FIG.

図11は、標識等の被写体が車両200の前方にあり、車両200の移動に伴って被写体に近付いて被写体の横を通過し、相対的に被写体が後方に移動していく状態を概念的に示している。標識等の被写体が前方画像20F、右側方画像20R、及び後方画像20Bに同時に現れているのではなく、相対的に位置が変化する被写体を前方画像20F、右側方画像20R、及び後方画像20Bに同時に示している。 FIG. 11 conceptually shows a state in which a subject such as a sign is in front of the vehicle 200, approaches the subject as the vehicle 200 moves, passes by the side of the subject, and the subject moves relatively backward. Shown. A subject such as a sign does not appear in the front image 20F, the right side image 20R, and the rear image 20B at the same time, but a subject whose position changes relatively is shown in the front image 20F, the right side image 20R, and the rear image 20B. It is shown at the same time.

前方画像20F及び後方画像20Bにおいては、被写体の時間的な変化が少ないため、物体の長時間露光画像21Lと短時間露光画像21Sとの位置はほとんどずれず、被写体の画像はぶれない。ところが、右側方画像20R及び左側方画像20Lにおいては、車両200の近くに位置する被写体の撮像画像の時間的な変化が大きいため、撮像タイミングのずれに伴って長時間露光画像21Lと短時間露光画像21Sとの位置がずれ、被写体の画像がぶれる。 In the front image 20F and the rear image 20B, since the subject does not change much with time, the positions of the long-exposure image 21L and the short-exposure image 21S of the object hardly deviate from each other, and the image of the subject does not blur. However, in the right-side image 20R and the left-side image 20L, since the captured image of the subject located near the vehicle 200 changes significantly with time, the long-exposure image 21L and the short-time exposure are caused by the deviation of the imaging timing. The position is shifted from the image 21S, and the image of the subject is blurred.

このように、右側方画像20R及び左側方画像20Lにおける被写体の画像は、前方画像20F及び後方画像20Bにおける被写体の画像よりぶれやすい。そこで、第2実施形態においては、次のようにして右側方画像20R及び左側方画像20Lにおける被写体の画像のみ、ぶれを補正する。 As described above, the image of the subject in the right side image 20R and the left side image 20L is more likely to be blurred than the image of the subject in the front image 20F and the rear image 20B. Therefore, in the second embodiment, blurring is corrected only for the image of the subject in the right side image 20R and the left side image 20L as follows.

図11に示す例では、HDR画像合成部133は、右側方画像20Rにおいて、動きベクトルに基づいて先に得られている長時間露光画像21Lを短時間露光画像21Sの位置に一致させるようずらした上で、長時間露光画像21Lと短時間露光画像21Sとを合成する。図11では、撮長時間露光を先に短時間露光を後にしている例を示しているが、逆であってもよい。 In the example shown in FIG. 11, the HDR image synthesizing unit 133 shifts the long-exposure image 21L previously obtained based on the motion vector in the right-side image 20R so as to match the position of the short-exposure image 21S. Above, the long-exposure image 21L and the short-exposure image 21S are combined. FIG. 11 shows an example in which the short exposure is given first and the short exposure is given after the long exposure, but the reverse may be true.

図12に示すように、HDR画像合成部133による画像のぶれを補正する処理によって、右側方画像20Rにおいて画像のぶれが補正された被写体の画像21が得られる。前方画像20F及び後方画像20Bにおいては、被写体の時間的な変化が少ないため、HDR画像合成部133による画像のぶれを補正する処理を実行しなくても、ぶれていない画像21が得られる。 As shown in FIG. 12, by the process of correcting the image blurring by the HDR image synthesizing unit 133, the image 21 of the subject in which the image blurring is corrected in the right side image 20R is obtained. In the front image 20F and the rear image 20B, since the subject does not change much with time, the image 21 without blurring can be obtained without executing the process of correcting the blurring of the image by the HDR image compositing unit 133.

図13に示すフローチャートを用いて、第2実施形態において、画像処理部13または制御部16が実行する処理を説明する。処理が開始されると、画像抽出部132は、ステップS21にて、右側方画像領域及び左側方画像領域を抽出する。ステップS21は、第1実施形態と同様に、前方画像領域、後方画像領域、右側方画像領域、左側方画像領域を抽出する処理であってもよい。 The process executed by the image processing unit 13 or the control unit 16 in the second embodiment will be described with reference to the flowchart shown in FIG. When the process is started, the image extraction unit 132 extracts the right side image area and the left side image area in step S21. Step S21 may be a process of extracting the front image area, the rear image area, the right side image area, and the left side image area as in the first embodiment.

HDR画像合成部133は、ステップS22にて、右側方画像領域及び左側方画像領域における長時間露光画像と短時間露光画像とを動きベクトルを参照して合成する。これによって、長時間露光画像21Lに基づく右側方画像または左側方画像に含まれている所定の被写体と短時間露光画像21Sに基づく右側方画像及び左側方画像に含まれているその所定の被写体との撮像タイミングのずれに伴う画像のぶれが補正される。 In step S22, the HDR image synthesizing unit 133 synthesizes the long-exposure image and the short-exposure image in the right-side image region and the left-side image region with reference to the motion vector. As a result, the predetermined subject included in the right-side image or the left-side image based on the long-exposure image 21L and the predetermined subject included in the right-side image and the left-side image based on the short-exposure image 21S. The blurring of the image due to the deviation of the imaging timing of the image is corrected.

制御部16は、ステップS23にて、車両用撮像装置100の電源がオフされたか否かを判定する。車両用撮像装置100の電源がオフされなければ(NO)、制御部16及び画像処理部13はステップS21〜S23の処理を繰り返す。車両用撮像装置100の電源がオフされれば(YES)、制御部16は処理を終了させる。 In step S23, the control unit 16 determines whether or not the power of the vehicle imaging device 100 has been turned off. Unless the power of the vehicle image pickup apparatus 100 is turned off (NO), the control unit 16 and the image processing unit 13 repeat the processes of steps S21 to S23. When the power of the vehicle imaging device 100 is turned off (YES), the control unit 16 ends the process.

第2実施形態の車両用撮像装置100の構成及び動作は次のとおりである。第2実施形態の車両用撮像装置100における撮像部12は、第1の露光時間で被写体を撮像した長時間露光画像と、第2の露光時間で前記被写体を撮像した短時間露光画像を生成する。第2実施形態の車両用撮像装置100は、画像抽出部132、HDR画像合成部133、動きベクトル検出部141、前後左右判定部142を備える。 The configuration and operation of the vehicle imaging device 100 of the second embodiment are as follows. The imaging unit 12 in the vehicle imaging device 100 of the second embodiment generates a long-exposure image in which the subject is imaged in the first exposure time and a short-time exposure image in which the subject is imaged in the second exposure time. .. The vehicle imaging device 100 of the second embodiment includes an image extraction unit 132, an HDR image composition unit 133, a motion vector detection unit 141, and a front-rear / left-right determination unit 142.

動きベクトル検出部141は、撮像画像の動きベクトルを検出する。前後左右判定部142は、撮像画像のうちの少なくとも右側方画像領域及び左側方画像領域の周方向の位置を決定する。画像抽出部132は、撮像画像のうち、右側方画像領域及び左側方画像領域の各領域画像を抽出して、右側方画像20R及び左側方画像20Lを生成する。 The motion vector detection unit 141 detects the motion vector of the captured image. The front / rear / left / right determination unit 142 determines the positions of at least the right side image region and the left side image region of the captured image in the circumferential direction. The image extraction unit 132 extracts each region image of the right side image region and the left side image region from the captured images to generate the right side image 20R and the left side image 20L.

HDR画像合成部133は、画像抽出部132が長時間露光画像に基づいて生成した右側方画像20R及び左側方画像20Lと短時間露光画像に基づいて生成した右側方画像20R及び左側方画像20Lとをそれぞれ合成する。このとき、HDR画像合成部133は、動きベクトル検出部141が右側方画像領域または左側方画像領域において検出した動きベクトルを参照する。これによって、右側方画像20Rまたは左側方画像20Lはダイナミックレンジが拡大され、かつ、右側方画像20Rまたは左側方画像20Lに含まれている被写体の画像のぶれが補正される。 The HDR image compositing unit 133 includes a right-side image 20R and a left-side image 20L generated by the image extraction unit 132 based on the long-exposure image, and a right-side image 20R and a left-side image 20L generated based on the short-time exposure image. Are synthesized respectively. At this time, the HDR image synthesis unit 133 refers to the motion vector detected by the motion vector detection unit 141 in the right side image area or the left side image area. As a result, the dynamic range of the right side image 20R or the left side image 20L is expanded, and the blurring of the subject image included in the right side image 20R or the left side image 20L is corrected.

以上のようにして、第2実施形態の車両用撮像装置100によれば、画像のぶれを適切に補正することができる。 As described above, according to the vehicle imaging device 100 of the second embodiment, the blurring of the image can be appropriately corrected.

前後左右判定部142は、右側方画像領域及び左側方画像領域に加えて、撮像画像のうちの前方画像領域及び後方画像領域の周方向の位置を決定することが好ましい。画像抽出部132は、右側方画像領域及び左側方画像領域に加えて、撮像画像のうち、前方画像領域及び後方画像領域の各領域画像を抽出して、前方画像20F及び後方画像20Bを生成することが好ましい。 The front / rear / left / right determination unit 142 preferably determines the positions of the front image region and the rear image region of the captured image in the circumferential direction in addition to the right image region and the left image region. In addition to the right side image area and the left side image area, the image extraction unit 132 extracts each area image of the front image area and the rear image area from the captured images to generate the front image 20F and the rear image 20B. Is preferable.

HDR画像合成部133は、動きベクトル検出部141が検出した動きベクトルを参照することなく、画像抽出部132が長時間露光画像に基づいて生成した前方画像20F及び後方画像20Bと、短時間露光画像に基づいて生成した前方画像20F及び後方画像20Bとをそれぞれ合成することが好ましい。これによって、前方画像20F及び後方画像20Bはダイナミックレンジが拡大される。なお、第2実施形態においては、画像回転部131は省略されてもよいが、画像回転部131を備えることが好ましい。 The HDR image synthesizing unit 133 includes the front image 20F and the rear image 20B generated by the image extraction unit 132 based on the long exposure image without referring to the motion vector detected by the motion vector detection unit 141, and the short exposure image. It is preferable to synthesize the front image 20F and the rear image 20B generated based on the above. As a result, the dynamic range of the front image 20F and the rear image 20B is expanded. In the second embodiment, the image rotation unit 131 may be omitted, but it is preferable to include the image rotation unit 131.

<第3実施形態>
第3実施形態は、第2実施形態を発展させた実施形態である。第3実施形態は、車両用撮像装置100が生成する画像に含まれている被写体のうち、画像のぶれを補正する対象をどのように選択すべきかを検討し、選択した被写体の画像のぶれを適切に補正することができる車両用撮像装置100を提供する。第3実施形態において、第2実施形態と共通部分の説明を省略する。第3実施形態の車両用撮像装置100の具体的な構成は、図2と同様である。
<Third Embodiment>
The third embodiment is an embodiment developed from the second embodiment. In the third embodiment, it is examined how to select the target for correcting the blur of the image among the subjects included in the image generated by the vehicle imaging device 100, and the blur of the image of the selected subject is determined. Provided is an image pickup device 100 for a vehicle that can be appropriately corrected. In the third embodiment, the description of the common parts with the second embodiment will be omitted. The specific configuration of the vehicle imaging device 100 of the third embodiment is the same as that of FIG.

図14A及び図14Bは、それぞれ右側方画像20R及び左側方画像20Lの一例を示している。図14Aに示すように、右側方画像20Rは、被写体として、ここでは図示されていない自車両である車両200の右隣の車線を走行する車両230と、標識31を含む。車両230は車両200よりも高速で走行しており、相対的に右側方画像20Rの左方向(車両200の前方)へと移動する。標識31は相対的に右側方画像20Rの右方向(車両200の後方)へと移動する。左側方画像20Lは、被写体として標識32を含む。標識32は、相対的に左側方画像20Lの左方向(車両200の後方)へと移動する。 14A and 14B show an example of the right side image 20R and the left side image 20L, respectively. As shown in FIG. 14A, the right-side image 20R includes, as subjects, a vehicle 230 traveling in the lane to the right of the vehicle 200, which is the own vehicle (not shown here), and a sign 31. The vehicle 230 is traveling at a higher speed than the vehicle 200, and relatively moves to the left of the image 20R on the right side (in front of the vehicle 200). The sign 31 moves relatively to the right of the right side image 20R (behind the vehicle 200). The left side image 20L includes a sign 32 as a subject. The sign 32 moves relatively to the left of the left image 20L (behind the vehicle 200).

制御部16には、動きの方向が異なる複数の動きベクトルが検出された場合に、HDR画像合成部133が画像のぶれを優先的に補正する際の補正モードとして、次のいずれかの選択肢が設定されている。動きの方向が異なる複数の動きベクトルとは、互いに逆方向の2つの動きベクトルであってもよい。運転者300等の車両用撮像装置100のユーザが、図示していない操作部によっていずれかの補正モードを選択して、選択された補正モードが制御部16に設定される。 The control unit 16 has one of the following options as a correction mode when the HDR image composition unit 133 preferentially corrects image blur when a plurality of motion vectors having different movement directions are detected. It is set. The plurality of motion vectors having different directions of motion may be two motion vectors in opposite directions. A user of the vehicle imaging device 100, such as the driver 300, selects one of the correction modes by an operation unit (not shown), and the selected correction mode is set in the control unit 16.

補正モード1は、車両200の後方に移動する被写体のぶれを補正する補正モードである。補正モード2は、車両200の前方に移動する被写体のぶれを補正する補正モードである。補正モード3は、車両200により近い方の被写体のぶれを補正する補正モードである。補正モード4は、右側方画像20Rまたは左側方画像20L内で、車両200の前方に移動する被写体の面積が所定の割合以上であるときに、前方に移動する被写体のぶれを補正する補正モードである。所定の割合は例えば20%である。 The correction mode 1 is a correction mode for correcting the blurring of a subject moving behind the vehicle 200. The correction mode 2 is a correction mode for correcting the blurring of a subject moving in front of the vehicle 200. The correction mode 3 is a correction mode for correcting the blurring of the subject closer to the vehicle 200. The correction mode 4 is a correction mode for correcting the blurring of a subject moving forward when the area of the subject moving forward of the vehicle 200 is equal to or larger than a predetermined ratio in the right side image 20R or the left side image 20L. be. The predetermined ratio is, for example, 20%.

補正モード3に関して、被写体が静止物体であれば、車両200から遠い被写体ほど低速で相対的に移動し、車両200に近いほど高速で相対的に移動する。制御部16は、動きベクトルに基づいて車両200により近い方の被写体を特定することができる。画像解析部14が画像解析することによって、車両200により近い方の被写体を抽出してもよい。この場合、制御部16は、画像解析部14による画像解析結果に基づいて車両200により近い方の被写体のぶれを補正するよう、HDR画像合成部133を制御すればよい。 Regarding the correction mode 3, if the subject is a stationary object, the subject farther from the vehicle 200 moves relatively at a low speed, and the subject closer to the vehicle 200 moves relatively at a high speed. The control unit 16 can identify the subject closer to the vehicle 200 based on the motion vector. The subject closer to the vehicle 200 may be extracted by the image analysis unit 14 performing image analysis. In this case, the control unit 16 may control the HDR image composition unit 133 so as to correct the blurring of the subject closer to the vehicle 200 based on the image analysis result by the image analysis unit 14.

制御部16は、右側方画像20Rと左側方画像20Lとで個別に、補正モード1〜4のうちのいずれかの補正モードを設定するのがよい。 The control unit 16 may individually set any of the correction modes 1 to 4 for the right side image 20R and the left side image 20L.

図14Aにおいて、補正モード1が設定されていれば、図11及び図12と同様にして、標識31の画像のぶれがHDR画像合成部133によって補正される。補正モード2が設定されていれば、車両230の画像のぶれがHDR画像合成部133によって補正される。補正モード3が設定されていれば、車両230が標識31よりも車両200に近いため、車両230の画像のぶれがHDR画像合成部133によって補正される。 In FIG. 14A, if the correction mode 1 is set, the blur of the image of the marker 31 is corrected by the HDR image compositing unit 133 in the same manner as in FIGS. 11 and 12. If the correction mode 2 is set, the blur of the image of the vehicle 230 is corrected by the HDR image compositing unit 133. If the correction mode 3 is set, since the vehicle 230 is closer to the vehicle 200 than the sign 31, the blurring of the image of the vehicle 230 is corrected by the HDR image compositing unit 133.

図14Aにおいて、補正モード4が設定されていれば、相対的に車両200の前方に移動する車両230の画像の面積は右側方画像20R内で20%以上であるため、車両230の画像のぶれがHDR画像合成部133によって補正される。 In FIG. 14A, if the correction mode 4 is set, the area of the image of the vehicle 230 moving relatively forward of the vehicle 200 is 20% or more in the right side image 20R, so that the image of the vehicle 230 is blurred. Is corrected by the HDR image compositing unit 133.

図14Bにおいては、標識32が左方向へと移動する動きベクトルしか存在しない。よって、制御部16は、補正モードの設定にかかわらず、標識32が移動する動きベクトルを参照して標識32の画像のぶれを補正するよう、HDR画像合成部133を制御する。 In FIG. 14B, there is only a motion vector in which the sign 32 moves to the left. Therefore, the control unit 16 controls the HDR image synthesis unit 133 so as to correct the blurring of the image of the sign 32 by referring to the motion vector in which the sign 32 moves, regardless of the setting of the correction mode.

図15に示すフローチャートを用いて、第3実施形態において、画像処理部13または制御部16が実行する処理を説明する。図15においては、処理が開始された後に、互いに逆方向の2つの動きベクトルが存在すると判定された場合を例とする。 The process executed by the image processing unit 13 or the control unit 16 in the third embodiment will be described with reference to the flowchart shown in FIG. In FIG. 15, an example is taken when it is determined that two motion vectors in opposite directions exist after the processing is started.

図15において、画像抽出部132は、ステップS31にて、右側方画像領域及び左側方画像領域を抽出する。ステップS31は、第1実施形態と同様に、前方画像領域、後方画像領域、右側方画像領域、左側方画像領域を抽出する処理であってもよい。制御部16は、ステップS32にて、車両200の後方に移動する被写体のぶれを優先的に補正する補正モード1に設定されているか否かを判定する。補正モード1に設定されていれば(YES)、HDR画像合成部133は、ステップS33にて、後方への動きベクトルを参照して後方に移動する被写体の画像のぶれを補正して、処理をステップS39に移行させる。 In FIG. 15, the image extraction unit 132 extracts the right side image area and the left side image area in step S31. Step S31 may be a process of extracting the front image area, the rear image area, the right side image area, and the left side image area as in the first embodiment. In step S32, the control unit 16 determines whether or not the correction mode 1 is set to preferentially correct the blurring of the subject moving behind the vehicle 200. If the correction mode 1 is set (YES), the HDR image compositing unit 133 corrects the blurring of the image of the subject moving backward by referring to the backward movement vector in step S33, and performs the process. The process proceeds to step S39.

ステップS32にて補正モード1に設定されていなければ(NO)、制御部16は、ステップS34にて、車両200の前方に移動する被写体のぶれを優先的に補正する補正モード2に設定されているか否かを判定する。補正モード2に設定されていれば(YES)、HDR画像合成部133は、ステップS35にて、前方への動きベクトルを参照して前方に移動する被写体の画像のぶれを補正して、処理をステップS39に移行させる。 If the correction mode 1 is not set in step S32 (NO), the control unit 16 is set to the correction mode 2 in step S34 to preferentially correct the blurring of the subject moving in front of the vehicle 200. Judge whether or not. If the correction mode 2 is set (YES), the HDR image compositing unit 133 corrects the blurring of the image of the subject moving forward by referring to the forward motion vector in step S35, and performs the process. The process proceeds to step S39.

ステップS34にて補正モード2に設定されていなければ(NO)、制御部16は、ステップS36にて、車両200のより近くに位置する被写体のぶれを優先的に補正する補正モード3に設定されているか否かを判定する。補正モード3に設定されていれば(YES)、HDR画像合成部133は、ステップS37にて、より近くに位置している被写体の動きベクトルを参照してより近くに位置している被写体の画像のぶれを補正して、処理をステップS39に移行させる。 If it is not set to the correction mode 2 in step S34 (NO), the control unit 16 is set to the correction mode 3 in step S36 to preferentially correct the blurring of the subject located closer to the vehicle 200. Determine if it is. If the correction mode 3 is set (YES), the HDR image compositing unit 133 refers to the motion vector of the subject located closer to the image of the subject located closer in step S37. The blurring is corrected, and the process shifts to step S39.

ステップS36にて補正モード3に設定されていなければ(NO)、補正モード4に設定されているということである。制御部16は、ステップS38にて、車両200の前方に移動する被写体の面積が所定の割合以上であるか否かを判定する。車両200の前方に移動する被写体の面積が所定の割合以上でなければ(NO)、HDR画像合成部133は、ステップS33にて、後方への動きベクトルを参照して後方に移動する被写体の画像のぶれを補正して、処理をステップS39に移行させる。 If the correction mode 3 is not set in step S36 (NO), it means that the correction mode 4 is set. In step S38, the control unit 16 determines whether or not the area of the subject moving in front of the vehicle 200 is equal to or larger than a predetermined ratio. If the area of the subject moving in front of the vehicle 200 is not equal to or larger than a predetermined ratio (NO), the HDR image compositing unit 133 refers to the backward motion vector in step S33 to image the subject moving backward. The blurring is corrected, and the process shifts to step S39.

ステップS38にて車両200の前方に移動する被写体の面積が所定の割合以上であれば(YES)、HDR画像合成部133は、ステップS35にて、前方への動きベクトルを参照して前方に移動する被写体の画像のぶれを補正して、処理をステップS39に移行させる。 If the area of the subject moving forward of the vehicle 200 in step S38 is equal to or larger than a predetermined ratio (YES), the HDR image compositing unit 133 moves forward with reference to the forward motion vector in step S35. The blurring of the image of the subject to be performed is corrected, and the process shifts to step S39.

制御部16は、ステップS39にて、車両用撮像装置100の電源がオフされたか否かを判定する。車両用撮像装置100の電源がオフされなければ(NO)、制御部16及び画像処理部13はステップS31〜S39の処理を繰り返す。車両用撮像装置100の電源がオフされれば(YES)、制御部16は処理を終了させる。 In step S39, the control unit 16 determines whether or not the power of the vehicle imaging device 100 has been turned off. Unless the power of the vehicle image pickup apparatus 100 is turned off (NO), the control unit 16 and the image processing unit 13 repeat the processes of steps S31 to S39. When the power of the vehicle imaging device 100 is turned off (YES), the control unit 16 ends the process.

第3実施形態の車両用撮像装置100の構成及び動作は次のとおりである。第3実施形態の車両用撮像装置100における撮像部12は、第1の露光時間で被写体を撮像した長時間露光画像と、第2の露光時間で前記被写体を撮像した短時間露光画像を生成する。第3実施形態の車両用撮像装置100は、画像抽出部132、HDR画像合成部133、2動きベクトル検出部141、前後左右判定部142を備える。 The configuration and operation of the vehicle imaging device 100 of the third embodiment are as follows. The imaging unit 12 in the vehicle imaging device 100 of the third embodiment generates a long-exposure image in which the subject is imaged in the first exposure time and a short-time exposure image in which the subject is imaged in the second exposure time. .. The vehicle imaging device 100 of the third embodiment includes an image extraction unit 132, an HDR image composition unit 133, a motion vector detection unit 141, and a front-rear / left-right determination unit 142.

動きベクトル検出部141は、撮像画像の動きベクトルを検出する。前後左右判定部142は、撮像画像のうちの少なくとも右側方画像領域及び左側方画像領域の周方向の位置を決定する。画像抽出部132は、撮像画像のうち、右側方画像領域及び左側方画像領域の各領域画像を抽出して、右側方画像20R及び左側方画像20Lを生成する。 The motion vector detection unit 141 detects the motion vector of the captured image. The front / rear / left / right determination unit 142 determines the positions of at least the right side image region and the left side image region of the captured image in the circumferential direction. The image extraction unit 132 extracts each region image of the right side image region and the left side image region from the captured images to generate the right side image 20R and the left side image 20L.

HDR画像合成部133は、画像抽出部132が長時間露光画像に基づいて生成した右側方画像20R及び左側方画像20Lと短時間露光画像に基づいて生成した右側方画像20R及び左側方画像20Lとをそれぞれ合成する。このとき、HDR画像合成部133は、動きベクトル検出部141が右側方画像領域または左側方画像領域において検出した動きベクトルを参照する。 The HDR image compositing unit 133 includes a right-side image 20R and a left-side image 20L generated by the image extraction unit 132 based on the long-exposure image, and a right-side image 20R and a left-side image 20L generated based on the short-time exposure image. Are synthesized respectively. At this time, the HDR image synthesis unit 133 refers to the motion vector detected by the motion vector detection unit 141 in the right side image area or the left side image area.

動きベクトル検出部141が右側方画像領域または左側方画像領域において互いに異なる複数の動きベクトルを検出することがある。HDR画像合成部133は、右側方画像20Rまたは左側方画像20Lに含まれている、予め設定された補正モードに応じて補正対象の被写体と決定される被写体の画像のぶれを補正するよう、補正対象の被写体の動きベクトルを参照する。 The motion vector detection unit 141 may detect a plurality of motion vectors different from each other in the right side image area or the left side image area. The HDR image compositing unit 133 corrects the blurring of the image of the subject determined to be the subject to be corrected according to the preset correction mode included in the right side image 20R or the left side image 20L. Refer to the motion vector of the target subject.

よって、第3実施形態の車両用撮像装置100によれば、選択した被写体の画像のぶれを適切に補正することができる。 Therefore, according to the vehicle imaging device 100 of the third embodiment, it is possible to appropriately correct the blurring of the image of the selected subject.

互いに異なる複数の動きベクトルは、車両2000の後方への第1の動きベクトルと車両200の前方への第2の動きベクトルであることがある。補正モードとして、相対的に車両200の後方に移動する被写体を補正対象の被写体とすることができる。この場合、HDR画像合成部133は、第1の動きベクトルを参照して、長時間露光画像に基づいて生成した右側方画像20Rまたは左側方画像20Lと短時間露光画像に基づいて生成した右側方画像20Rまたは左側方画像20Lとを合成する。 The plurality of motion vectors that are different from each other may be a first motion vector to the rear of the vehicle 2000 and a second motion vector to the front of the vehicle 200. As the correction mode, a subject that moves relatively behind the vehicle 200 can be a subject to be corrected. In this case, the HDR image compositing unit 133 refers to the first motion vector and refers to the right side image 20R or the left side image 20L generated based on the long exposure image and the right side generated based on the short exposure image. Combine with image 20R or left side image 20L.

補正モードとして、相対的に車両200の前方に移動する被写体を補正対象の被写体とすることができる。この場合、HDR画像合成部133は、第2の動きベクトルを参照して、長時間露光画像に基づいて生成した右側方画像20Rまたは左側方画像と短時間露光画像に基づいて生成した右側方画像20Rまたは左側方画像20Lとを合成する。 As the correction mode, a subject relatively moving in front of the vehicle 200 can be set as a subject to be corrected. In this case, the HDR image compositing unit 133 refers to the second motion vector and refers to the right side image 20R generated based on the long exposure image or the right side image generated based on the left side image and the short exposure image. Combine with 20R or left side image 20L.

右側方画像20R内または左側方画像20L内に複数の被写体が存在するとき、上記の2つの補正モードに加えて、補正モードとして、車両200により近くに位置する被写体を補正対象の被写体としてもよい。HDR画像合成部133は、より近くに位置する被写体が移動する方向である第1または第2の動きベクトルを参照して、長時間露光画像及び短時間露光画像に基づく右側方画像20Rまたは左側方画像20Lを合成する。 When there are a plurality of subjects in the right side image 20R or the left side image 20L, in addition to the above two correction modes, as a correction mode, a subject located closer to the vehicle 200 may be a subject to be corrected. .. The HDR image compositing unit 133 refers to the first or second motion vector in which the subject located closer to the subject moves, and refers to the right side image 20R or the left side based on the long-exposure image and the short-exposure image. Image 20L is combined.

右側方画像20R内または左側方画像20L内に、相対的に車両200の後方に移動する第1の被写体と相対的に車両200の前方に移動する第2の被写体とが存在することがある。このとき、上記の2つまたは3つの補正モードに加えて、補正モードとして、右側方画像20Rまたは左側方画像20Lのうちの第2の被写体の面積の割合に応じて補正対象の被写体を決定してもよい。 In the right-side image 20R or the left-side image 20L, there may be a first subject that moves relatively behind the vehicle 200 and a second subject that moves relatively in front of the vehicle 200. At this time, in addition to the above two or three correction modes, as the correction mode, the subject to be corrected is determined according to the ratio of the area of the second subject in the right side image 20R or the left side image 20L. You may.

HDR画像合成部133は、第2の被写体の面積の割合が右側方画像20Rまたは左側方画像20Lのうちの所定の割合以上でければ、第1の動きベクトルを参照して、長時間露光画像及び短時間露光画像に基づく右側方画像20Rまたは左側方画像20Lを合成する。HDR画像合成部133は、第2の被写体の面積が右側方画像20Rまたは左側方画像20Lのうちの所定の割合以上であれば、第2の動きベクトルを参照して、長時間露光画像及び短時間露光画像に基づく右側方画像20Rまたは左側方画像20Lを合成する。 If the ratio of the area of the second subject is equal to or more than a predetermined ratio of the right side image 20R or the left side image 20L, the HDR image compositing unit 133 refers to the first motion vector and refers to the long exposure image. And the right side image 20R or the left side image 20L based on the short exposure image is combined. If the area of the second subject is equal to or greater than a predetermined ratio of the right side image 20R or the left side image 20L, the HDR image synthesizing unit 133 refers to the second motion vector and refers to the long exposure image and the short exposure image. The right side image 20R or the left side image 20L based on the time-exposure image is combined.

<第4実施形態>
第4実施形態は、太陽光の入射方向に応じて適切な前方画像20F、後方画像20B、右側方画像20R、及び左側方画像20Lを得ることができる車両用撮像装置100を提供する。第4実施形態において、第1実施形態と共通部分の説明を省略する。第4実施形態の車両用撮像装置100の具体的な構成は、図2と同様である。
<Fourth Embodiment>
A fourth embodiment provides a vehicle imaging device 100 capable of obtaining an appropriate front image 20F, rear image 20B, right side image 20R, and left side image 20L according to the incident direction of sunlight. In the fourth embodiment, the description of the common parts with the first embodiment will be omitted. The specific configuration of the vehicle imaging device 100 of the fourth embodiment is the same as that of FIG.

図16において、自車両である車両200が走行する車線の前方には車両241、後方には車両242が走行している。車両200が走行する車線の右車線には車両243が走行し、左車線には車両244が走行している。太陽光が白抜き矢印の方向から車両200及び241〜244を照らすとすると、車両200及び241〜244には、ハッチングを付していない明るい部分とハッチングを付した暗い部分とが形成される。このように、太陽光が被写体を照らす際の太陽光の入射方向によって明るい部分と暗い部分とが形成される。 In FIG. 16, the vehicle 241 is traveling in front of the lane in which the vehicle 200, which is the own vehicle, is traveling, and the vehicle 242 is traveling behind. The vehicle 243 is running in the right lane of the lane in which the vehicle 200 is running, and the vehicle 244 is running in the left lane. Assuming that sunlight illuminates the vehicles 200 and 241 to 244 from the direction of the white arrow, the vehicles 200 and 241 to 244 are formed with a bright portion without hatching and a dark portion with hatching. In this way, a bright portion and a dark portion are formed depending on the incident direction of the sunlight when the sunlight illuminates the subject.

第4実施形態において、車両用撮像装置100は、太陽光の入射方向に応じてHDR画像合成部133における長時間露光画像と短時間露光画像との合成の仕方を異ならせる。 In the fourth embodiment, the vehicle imaging device 100 makes the method of synthesizing the long-exposure image and the short-exposure image in the HDR image synthesizing unit 133 different depending on the incident direction of sunlight.

図17に示すように、制御部16は、一例として、車両用撮像装置100が撮像する360度の方向を45度ずつの8つの方向に分割する。制御部16は、太陽光の入射方向が8つの方向のうちのいずれの方向であるかに応じて、長時間露光画像と短時間露光画像との合成の仕方を異ならせるようHDR画像合成部133を制御する。8つの方向を、前、右前、右、右後、後、左後、左、左前の各方向とする。なお、画像解析部14が撮像画像を解析することによって太陽光の入射方向を判定することができる。画像解析部14は、太陽光の入射方向を判定する太陽光入射方向判定部として機能する。 As shown in FIG. 17, as an example, the control unit 16 divides the 360-degree direction imaged by the vehicle imaging device 100 into eight directions of 45 degrees each. The control unit 16 has the HDR image synthesizing unit 133 so as to make the method of synthesizing the long-exposure image and the short-exposure image different depending on which of the eight directions the sunlight is incident on. To control. The eight directions are front, front right, right, rear right, rear, rear left, left, and front left. The image analysis unit 14 can determine the incident direction of sunlight by analyzing the captured image. The image analysis unit 14 functions as a sunlight incident direction determining unit that determines the incident direction of sunlight.

図18A及び図18Bに示すフローチャートを用いて、第4実施形態において、画像処理部13、画像解析部14、または制御部16が実行する処理を説明する。図18Aにおいて、処理が開始されると、画像解析部14は、ステップS401にて、太陽光の入射方向を判定する。制御部16は、ステップS402にて、太陽光の入射方向が画像解析部14によって前方向と判定されたか否かを判定する。 The process executed by the image processing unit 13, the image analysis unit 14, or the control unit 16 in the fourth embodiment will be described with reference to the flowcharts shown in FIGS. 18A and 18B. In FIG. 18A, when the process is started, the image analysis unit 14 determines the incident direction of sunlight in step S401. In step S402, the control unit 16 determines whether or not the incident direction of sunlight is determined to be the forward direction by the image analysis unit 14.

ステップS402にて太陽光の入射方向が前方向と判定されれば(YES)、制御部16は、ステップS403にて、前方画像20Fにおける長時間露光画像の割合を、後方画像20B、右側方画像20R、及び左側方画像20Lにおける長時間露光画像の割合よりも増加させるようHDR画像合成部133を制御する。これは、車両200の前方に位置する車両241の後方が影となり、車両用撮像装置100が車両241の後方を撮像するからである。制御部16は、ステップS403に続けて処理をステップS418に移行させる。 If the incident direction of sunlight is determined to be the front direction in step S402 (YES), the control unit 16 determines the proportion of the long-exposure image in the front image 20F in step S403, the rear image 20B, and the right side image. The HDR image compositing unit 133 is controlled so as to increase the ratio of the long-exposure image in the 20R and the left side image 20L. This is because the rear of the vehicle 241 located in front of the vehicle 200 becomes a shadow, and the vehicle imaging device 100 images the rear of the vehicle 241. The control unit 16 shifts the process to step S418 following step S403.

一例として、後方画像20B、右側方画像20R、及び左側方画像20Lにおける長時間露光画像と短時間露光画像との比が4:6であるとき、制御部16は、ステップS403にて、前方画像20Fにおける長時間露光画像と短時間露光画像との比を9:1とするようHDR画像合成部133を制御する。 As an example, when the ratio of the long-exposure image to the short-exposure image in the rear image 20B, the right side image 20R, and the left side image 20L is 4: 6, the control unit 16 controls the front image in step S403. The HDR image compositing unit 133 is controlled so that the ratio of the long-exposure image to the short-exposure image at 20F is 9: 1.

ステップS402にて太陽光の入射方向が前方向と判定されなければ(NO)、制御部16は、ステップS404にて、太陽光の入射方向が右前方向と判定されたか否かを判定する。太陽光の入射方向が右前方向と判定されれば(YES)、制御部16は、ステップS405にて、前方画像20F及び右側方画像20Rにおける長時間露光画像の割合を、後方画像20B及び左側方画像20Lにおける長時間露光画像の割合よりも増加させるようHDR画像合成部133を制御する。制御部16は、ステップS405に続けて処理をステップS418に移行させる。 If the incident direction of sunlight is not determined to be the forward direction in step S402 (NO), the control unit 16 determines in step S404 whether or not the incident direction of sunlight is determined to be the right front direction. If the incident direction of sunlight is determined to be the front right direction (YES), the control unit 16 determines the ratio of the long-exposure image in the front image 20F and the right side image 20R in step S405 to the rear image 20B and the left side. The HDR image compositing unit 133 is controlled so as to increase the ratio of the long-exposure image in the image 20L. The control unit 16 shifts the process to step S418 following step S405.

一例として、後方画像20B及び左側方画像20Lにおける長時間露光画像と短時間露光画像との比が4:6であるとき、制御部16は、前方画像20F及び右側方画像20Rにおける長時間露光画像と短時間露光画像との比を9:1とするようHDR画像合成部133を制御する。 As an example, when the ratio of the long-exposure image to the short-exposure image in the rear image 20B and the left-side image 20L is 4: 6, the control unit 16 controls the long-exposure image in the front image 20F and the right-side image 20R. The HDR image compositing unit 133 is controlled so that the ratio between the image and the short-exposure image is 9: 1.

ステップS404にて太陽光の入射方向が右前方向と判定されなければ(NO)、制御部16は、ステップS406にて、太陽光の入射方向が右方向と判定されたか否かを判定する。太陽光の入射方向が右方向と判定されれば(YES)、制御部16は、ステップS407にて、前方画像20Fにおける長時間露光画像の割合を、後方画像20B、右側方画像20R、及び左側方画像20Lにおける長時間露光画像の割合よりも増加させるようHDR画像合成部133を制御する。長時間露光画像の割合の増加のさせ方はステップS405と同様である。制御部16は、ステップS407に続けて処理をステップS418に移行させる。 If the incident direction of sunlight is not determined to be the front right direction in step S404 (NO), the control unit 16 determines in step S406 whether or not the incident direction of sunlight is determined to be the right direction. If it is determined that the incident direction of sunlight is to the right (YES), the control unit 16 determines the ratio of the long-exposure image in the front image 20F in step S407 to the rear image 20B, the right image 20R, and the left side. The HDR image compositing unit 133 is controlled so as to increase the ratio of the long-exposure image in the square image 20L. The method of increasing the proportion of the long-exposure image is the same as in step S405. The control unit 16 shifts the process to step S418 following step S407.

ステップS406にて太陽光の入射方向が右方向と判定されなければ(NO)、制御部16は、ステップS408にて、太陽光の入射方向が右後方向と判定されたか否かを判定する。太陽光の入射方向が右後方向と判定されれば(YES)、制御部16は、ステップS409にて、後方画像20B及び右側方画像20Rにおける長時間露光画像の割合を、前方画像20F及び左側方画像20Lにおける長時間露光画像の割合よりも増加させるようHDR画像合成部133を制御する。長時間露光画像の割合の増加のさせ方はステップS405と同様である。制御部16は、ステップS409に続けて処理をステップS418に移行させる。 If the incident direction of sunlight is not determined to be the right direction in step S406 (NO), the control unit 16 determines in step S408 whether or not the incident direction of sunlight is determined to be the rear right direction. If it is determined that the incident direction of sunlight is the right rear direction (YES), the control unit 16 determines the ratio of the long-exposure image in the rear image 20B and the right side image 20R in step S409 in the front image 20F and the left side. The HDR image compositing unit 133 is controlled so as to increase the ratio of the long-exposure image in the square image 20L. The method of increasing the proportion of the long-exposure image is the same as in step S405. The control unit 16 shifts the process to step S418 following step S409.

ステップS408にて太陽光の入射方向が右後方向と判定されなければ(NO)、制御部16は、図18BのステップS410にて、太陽光の入射方向が後方向と判定されたか否かを判定する。太陽光の入射方向が後方向と判定されれば(YES)、制御部16は、ステップS411にて、後方画像20Bにおける長時間露光画像の割合を、前方画像20F、右側方画像20R、及び左側方画像20Lにおける長時間露光画像の割合よりも増加させるようHDR画像合成部133を制御する。長時間露光画像の割合の増加のさせ方はステップS405と同様である。制御部16は、ステップS411に続けて処理をステップS418に移行させる。 If the incident direction of sunlight is not determined to be the rear right direction in step S408 (NO), the control unit 16 determines whether or not the incident direction of sunlight is determined to be the rear direction in step S410 of FIG. 18B. judge. If it is determined that the incident direction of sunlight is the rear direction (YES), the control unit 16 determines the ratio of the long-exposure image in the rear image 20B in step S411 to the front image 20F, the right side image 20R, and the left side. The HDR image compositing unit 133 is controlled so as to increase the ratio of the long-exposure image in the square image 20L. The method of increasing the proportion of the long-exposure image is the same as in step S405. The control unit 16 shifts the process to step S418 following step S411.

ステップS410にて太陽光の入射方向が後方向と判定されなければ(NO)、制御部16は、ステップS412にて、太陽光の入射方向が左後方向と判定されたか否かを判定する。太陽光の入射方向が左後方向と判定されれば(YES)、制御部16は、ステップS413にて、後方画像20B及び左側方画像20Lにおける長時間露光画像の割合を、前方画像20F及び右側方画像20Rにおける長時間露光画像の割合よりも増加させるようHDR画像合成部133を制御する。長時間露光画像の割合の増加のさせ方はステップS405と同様である。制御部16は、ステップS413に続けて処理をステップS418に移行させる。 If the incident direction of sunlight is not determined to be the rear direction in step S410 (NO), the control unit 16 determines in step S412 whether or not the incident direction of sunlight is determined to be the rear left direction. If it is determined that the incident direction of sunlight is the left rear direction (YES), the control unit 16 determines the ratio of the long-exposure image in the rear image 20B and the left image 20L in step S413 to the front image 20F and the right side. The HDR image compositing unit 133 is controlled so as to increase the ratio of the long-exposure image in the square image 20R. The method of increasing the proportion of the long-exposure image is the same as in step S405. The control unit 16 shifts the process to step S418 following step S413.

ステップS412にて太陽光の入射方向が左後方向と判定されなければ(NO)、制御部16は、ステップS414にて、太陽光の入射方向が左方向と判定されたか否かを判定する。太陽光の入射方向が左方向と判定されれば(YES)、制御部16は、ステップS415にて、左側方画像20Lにおける長時間露光画像の割合を、前方画像20F、後方画像20B、及び右側方画像20Rにおける長時間露光画像の割合よりも増加させるようHDR画像合成部133を制御する。長時間露光画像の割合の増加のさせ方はステップS405と同様である。制御部16は、ステップS415に続けて処理をステップS418に移行させる。 If the incident direction of sunlight is not determined to be the left rear direction in step S412 (NO), the control unit 16 determines in step S414 whether or not the incident direction of sunlight is determined to be the left direction. If it is determined that the incident direction of sunlight is the left direction (YES), the control unit 16 determines the ratio of the long-exposure image in the left side image 20L in step S415 to the front image 20F, the rear image 20B, and the right side. The HDR image compositing unit 133 is controlled so as to increase the ratio of the long-exposure image in the square image 20R. The method of increasing the proportion of the long-exposure image is the same as in step S405. The control unit 16 shifts the process to step S418 following step S415.

ステップS414にて太陽光の入射方向が左方向と判定されなければ(NO)、制御部16は、ステップS416にて、太陽光の入射方向が左前方向と判定されたか否かを判定する。太陽光の入射方向が左前方向と判定されれば(YES)、制御部16は、ステップS417にて、前方画像20F及び左側方画像20Lにおける長時間露光画像の割合を、後方画像20B及び右側方画像20Rにおける長時間露光画像の割合よりも増加させるようHDR画像合成部133を制御する。長時間露光画像の割合の増加のさせ方はステップS405と同様である。制御部16は、ステップS417に続けて処理をステップS418に移行させる。 If the incident direction of sunlight is not determined to be the left direction in step S414 (NO), the control unit 16 determines whether or not the incident direction of sunlight is determined to be the front left direction in step S416. If it is determined that the incident direction of sunlight is the left front direction (YES), the control unit 16 determines the ratio of the long-exposure image in the front image 20F and the left side image 20L in step S417 to the rear image 20B and the right side. The HDR image compositing unit 133 is controlled so as to increase the ratio of the long-exposure image in the image 20R. The method of increasing the proportion of the long-exposure image is the same as in step S405. The control unit 16 shifts the process to step S418 following step S417.

ステップS416にて太陽光の入射方向が左前方向と判定されなければ(NO)、制御部16は処理をステップS418に移行させる。 If the incident direction of sunlight is not determined to be the left front direction in step S416 (NO), the control unit 16 shifts the process to step S418.

制御部16は、ステップS418にて、車両用撮像装置100の電源がオフされたか否かを判定する。車両用撮像装置100の電源がオフされなければ(NO)、画像処理部13、画像解析部14、または制御部16はステップS401〜S418の処理を繰り返す。車両用撮像装置100の電源がオフされれば(YES)、制御部16は処理を終了させる。 In step S418, the control unit 16 determines whether or not the power of the vehicle imaging device 100 has been turned off. Unless the power of the vehicle imaging device 100 is turned off (NO), the image processing unit 13, the image analysis unit 14, or the control unit 16 repeats the processes of steps S401 to S418. When the power of the vehicle imaging device 100 is turned off (YES), the control unit 16 ends the process.

第4実施形態の車両用撮像装置100の構成及び動作は次のとおりである。第4実施形態の車両用撮像装置100における撮像部12は、第1の露光時間で被写体を撮像した長時間露光画像と、第2の露光時間で前記被写体を撮像した短時間露光画像を生成する。第4実施形態の車両用撮像装置100は、太陽光入射方向判定部(画像解析部14)、画像抽出部132、HDR画像合成部133、前後左右判定部142を備える。 The configuration and operation of the vehicle imaging device 100 of the fourth embodiment are as follows. The imaging unit 12 in the vehicle imaging device 100 of the fourth embodiment generates a long-exposure image in which the subject is imaged in the first exposure time and a short-time exposure image in which the subject is imaged in the second exposure time. .. The vehicle imaging device 100 of the fourth embodiment includes a sunlight incident direction determination unit (image analysis unit 14), an image extraction unit 132, an HDR image composition unit 133, and a front / rear / left / right determination unit 142.

前後左右判定部142は、撮像画像のうちの前方画像領域、後方画像領域、右側方画像領域、及び左側方画像領域の周方向の位置を決定する。画像抽出部132は、撮像画像のうち、前方画像領域、後方画像領域、右側方画像領域、及び左側方画像領域の各領域画像を抽出して、前方画像20F、後方画像20B、右側方画像20R、及び左側方画像20Lの各方向画像を生成する。 The front / rear / left / right determination unit 142 determines the positions of the front image region, the rear image region, the right side image region, and the left side image region of the captured image in the circumferential direction. The image extraction unit 132 extracts each region image of the front image region, the rear image region, the right side image region, and the left side image region from the captured images, and extracts the front image 20F, the rear image 20B, and the right side image 20R. , And each direction image of the left side image 20L is generated.

HDR画像合成部133は、長時間露光画像に基づいて生成した前方画像20F、後方画像20B、右側方画像20R、及び左側方画像20Lと、短時間露光画像に基づいて生成した前方画像20F、後方画像20B、右側方画像20R、及び左側方画像20Lとをそれぞれ合成する。 The HDR image compositing unit 133 includes a front image 20F, a rear image 20B, a right side image 20R, and a left side image 20L generated based on a long-exposure image, and a front image 20F and a rear image 20F generated based on a short-time exposure image. The image 20B, the right side image 20R, and the left side image 20L are combined.

HDR画像合成部133は、前方画像20F、後方画像20B、右側方画像20R、及び左側方画像20Lのうち、太陽光入射方向判定部によって判定された太陽光の入射方向に応じて選択された長時間露光画像に基づく方向画像の割合を、非選択の長時間露光画像に基づく方向画像の割合よりも増加させる。 The HDR image synthesizing unit 133 has a length selected from the front image 20F, the rear image 20B, the right side image 20R, and the left side image 20L according to the incident direction of sunlight determined by the sunlight incident direction determining unit. The proportion of directional images based on time-exposed images is increased over the proportion of directional images based on unselected long-exposure images.

第4実施形態の車両用撮像装置100によれば、太陽光の入射方向に応じて適切な前方画像20F、後方画像20B、右側方画像20R、及び左側方画像20Lを得ることができる。 According to the vehicle imaging device 100 of the fourth embodiment, it is possible to obtain an appropriate front image 20F, rear image 20B, right side image 20R, and left side image 20L according to the incident direction of sunlight.

太陽光入射方向判定部は、車両用撮像装置100が撮像する360度の方向を少なくとも前方向、後方向、右方向、左方向を含む複数の方向に分割して、太陽光の入射方向がいずれの方向であるかを判定すればよい。 The sunlight incident direction determination unit divides the 360-degree direction imaged by the vehicle imaging device 100 into a plurality of directions including at least the front direction, the rear direction, the right direction, and the left direction, and the direction of the sunlight incident is any one. It suffices to judge whether it is the direction of.

HDR画像合成部133は、太陽光の入射方向が前方向であるとき、長時間露光画像に基づく前方画像の割合を増加させ、太陽光の入射方向が後方向であるとき、長時間露光画像に基づく後方画像の割合を増加させるのがよい。HDR画像合成部133は、太陽光の入射方向が右方向であるとき、長時間露光画像に基づく右側方画像の割合を増加させ、太陽光の入射方向が左方向であるとき、長時間露光画像に基づく左側方画像の割合を増加させるのがよい。 The HDR image compositing unit 133 increases the proportion of the front image based on the long-exposure image when the incident direction of sunlight is the front direction, and makes the long-exposure image when the incident direction of sunlight is the rear direction. It is better to increase the proportion of the underlying posterior image. The HDR image compositing unit 133 increases the proportion of the right side image based on the long-exposure image when the incident direction of sunlight is to the right, and the long-exposure image when the incident direction of sunlight is to the left. It is better to increase the proportion of the left side image based on.

太陽光入射方向判定部は、車両用撮像装置100が撮像する360度の方向を、前方向、後方向、右方向、左方向に加えて、右前方向、右後方向、左後方向、左前方向を含む複数の方向に分割して、太陽光の入射方向がいずれの方向であるかを判定することが好ましい。 The sunlight incident direction determination unit adds the 360-degree direction imaged by the vehicle imaging device 100 to the front direction, the rear direction, the right direction, and the left direction, as well as the right front direction, the right rear direction, the left rear direction, and the left front direction. It is preferable to divide into a plurality of directions including the above to determine which direction the sunlight is incident on.

HDR画像合成部133は、太陽光の入射方向が右前方向であるとき、長時間露光画像に基づく前方画像及び右側方画像の割合を増加させ、太陽光の入射方向が右後方向であるとき、長時間露光画像に基づく後方画像及び右側方画像の割合を増加させるのがよい。HDR画像合成部133は、太陽光の入射方向が左後方向であるとき、長時間露光画像に基づく後方画像及び左側方画像の割合を増加させ、太陽光の入射方向が左前方向であるとき、長時間露光画像に基づく前方画像及び左側方画像の割合を増加させるのがよい。 The HDR image compositing unit 133 increases the ratio of the front image and the right side image based on the long-exposure image when the incident direction of sunlight is the right front direction, and when the incident direction of sunlight is the right rear direction, It is preferable to increase the proportion of the rear image and the right side image based on the long exposure image. The HDR image compositing unit 133 increases the ratio of the rear image and the left side image based on the long-exposure image when the incident direction of sunlight is the left rear direction, and when the incident direction of sunlight is the left front direction. It is preferable to increase the proportion of the front image and the left image based on the long exposure image.

<第5実施形態>
第5実施形態は、車両200が走行している際に、トンネルに入る前からトンネル内を走行してトンネルから出た後までの車両200位置に応じて、適切な前方画像20F、後方画像20B、右側方画像20R、及び左側方画像20Lを得ることができる車両用撮像装置100を提供する。第5実施形態において、第1実施形態と共通部分の説明を省略する。第5実施形態の車両用撮像装置100の具体的な構成は、図2と同様である。
<Fifth Embodiment>
In the fifth embodiment, when the vehicle 200 is traveling, the front image 20F and the rear image 20B are appropriate according to the position of the vehicle 200 from before entering the tunnel to after traveling in the tunnel and exiting the tunnel. , A vehicle imaging device 100 capable of obtaining a right side image 20R and a left side image 20L. In the fifth embodiment, the description of the common parts with the first embodiment will be omitted. The specific configuration of the vehicle imaging device 100 of the fifth embodiment is the same as that of FIG.

図19において、道路を走行している車両200はトンネル50に接近して、領域R51を走行する。このとき、前方画像20Fに含まれているトンネル50の内部の画像が所定の割合以上となる。トンネル50の内部の画像が明瞭に視認できるように、制御部16は、HDR画像合成部133が前方画像20Fにおける長時間露光画像と短時間露光画像とを合成する際の長時間露光画像の割合を大きくするようHDR画像合成部133を制御するのがよい。 In FIG. 19, the vehicle 200 traveling on the road approaches the tunnel 50 and travels in the area R51. At this time, the image of the inside of the tunnel 50 included in the front image 20F becomes a predetermined ratio or more. The control unit 16 controls the ratio of the long-exposure image when the HDR image composition unit 133 combines the long-exposure image and the short-exposure image in the front image 20F so that the image inside the tunnel 50 can be clearly seen. It is preferable to control the HDR image compositing unit 133 so as to increase the size.

一例として、車両200が領域R51に到達する前で撮像画像にトンネル50の内部の画像が含まれていない状態で、長時間露光画像と短時間露光画像との比が4:6であるとき、制御部16は、前方画像20Fにおける長時間露光画像と短時間露光画像との比を8:2とする。 As an example, when the ratio of the long-exposure image to the short-exposure image is 4: 6 in a state where the captured image does not include the image inside the tunnel 50 before the vehicle 200 reaches the region R51. The control unit 16 sets the ratio of the long-exposure image to the short-exposure image in the front image 20F to 8: 2.

車両200はさらにトンネル50の入口50inに近付き、車両200の一部がトンネル50内に侵入する領域R52に到達する。このとき、制御部16は、右側方画像20R及び左側方画像20Lにおける長時間露光画像と短時間露光画像とを合成する際の長時間露光画像の割合を大きくするようHDR画像合成部133を制御するのがよい。 The vehicle 200 further approaches the entrance 50in of the tunnel 50, and reaches the area R52 where a part of the vehicle 200 enters the tunnel 50. At this time, the control unit 16 controls the HDR image synthesis unit 133 so as to increase the ratio of the long-exposure image when combining the long-exposure image and the short-exposure image in the right-side image 20R and the left-side image 20L. It is better to do it.

一例として、車両200が領域R51を走行しているときに右側方画像20R及び左側方画像20Lにおける長時間露光画像と短時間露光画像との比が4:6であるとき、制御部16は、右側方画像20R及び左側方画像20Lにおける長時間露光画像と短時間露光画像との比を8:2とする。 As an example, when the ratio of the long-exposure image to the short-exposure image in the right-side image 20R and the left-side image 20L is 4: 6 when the vehicle 200 is traveling in the region R51, the control unit 16 determines. The ratio of the long-exposure image to the short-exposure image in the right-side image 20R and the left-side image 20L is 8: 2.

車両200はさらにトンネル50内を走行し、領域R53に到達する。このとき、後方画像20Bに含まれているトンネル50の入口50in側のトンネル50以外の画像が所定の割合以下となる。制御部16は、後方画像20Bにおける長時間露光画像と短時間露光画像とを合成する際の長時間露光画像の割合を大きくするようHDR画像合成部133を制御するのがよい。 The vehicle 200 further travels in the tunnel 50 and reaches the area R53. At this time, the images other than the tunnel 50 on the entrance 50in side of the tunnel 50 included in the rear image 20B are at a predetermined ratio or less. The control unit 16 preferably controls the HDR image compositing unit 133 so as to increase the ratio of the long-exposure image when composing the long-exposure image and the short-exposure image in the rear image 20B.

一例として、車両200が領域R51及びR52を走行しているときに後方画像20Bにおける長時間露光画像と短時間露光画像との比が4:6であるとき、制御部16は、後方画像20Bにおける長時間露光画像と短時間露光画像との比を8:2とする。 As an example, when the vehicle 200 is traveling in the regions R51 and R52 and the ratio of the long-exposure image to the short-exposure image in the rear image 20B is 4: 6, the control unit 16 controls the rear image 20B. The ratio of the long-exposure image to the short-exposure image is 8: 2.

車両200はさらにトンネル50内を走行し、トンネル50の出口50outに近付いた領域R54に到達する。このとき、前方画像20Fに含まれているトンネル50の出口50out側のトンネル50以外の画像が所定の割合以上となる。トンネル50の外部の画像が明瞭に視認できるように、制御部16は、前方画像20Fにおける長時間露光画像と短時間露光画像とを合成する際の長時間露光画像の割合を小さくするようHDR画像合成部133を制御するのがよい。 The vehicle 200 further travels in the tunnel 50 and reaches the region R54 approaching the exit 50out of the tunnel 50. At this time, the images other than the tunnel 50 on the exit 50out side of the tunnel 50 included in the front image 20F have a predetermined ratio or more. The control unit 16 reduces the ratio of the long-exposure image when combining the long-exposure image and the short-exposure image in the front image 20F so that the image outside the tunnel 50 can be clearly seen. It is preferable to control the synthesis unit 133.

一例として、車両200が領域R54に到達する直前まで前方画像20Fにおける長時間露光画像と短時間露光画像との比が8:2であるので、領域R54に到達したら長時間露光画像と短時間露光画像との比を4:6とする。 As an example, the ratio of the long-exposure image to the short-exposure image in the front image 20F is 8: 2 until just before the vehicle 200 reaches the region R54. Therefore, when the vehicle 200 reaches the region R54, the long-exposure image and the short-time exposure are exposed. The ratio to the image is 4: 6.

車両200はさらにトンネル50内を走行し、車両200の一部がトンネル50の出口50outに出る領域R55に到達する。このとき、制御部16は、右側方画像20R及び左側方画像20Lにおける長時間露光画像と短時間露光画像とを合成する際の長時間露光画像の割合を小さくするようHDR画像合成部133を制御するのがよい。 The vehicle 200 further travels in the tunnel 50 and reaches the area R55 where a part of the vehicle 200 exits the exit 50out of the tunnel 50. At this time, the control unit 16 controls the HDR image synthesis unit 133 so as to reduce the ratio of the long-exposure image when combining the long-exposure image and the short-exposure image in the right-side image 20R and the left-side image 20L. It is better to do it.

一例として、車両200が領域R55に到達する直前まで右側方画像20R及び左側方画像20Lにおける長時間露光画像と短時間露光画像との比が8:2であるので、領域R55に到達したら長時間露光画像と短時間露光画像との比を4:6とする。 As an example, since the ratio of the long-exposure image to the short-exposure image in the right-side image 20R and the left-side image 20L is 8: 2 until just before the vehicle 200 reaches the region R55, it takes a long time after reaching the region R55. The ratio of the exposed image to the short-exposure image is 4: 6.

車両200が完全にトンネル50の外に出て領域R56に到達すると、後方画像20Bに含まれているトンネル50の内部の画像が所定の割合以下となる。制御部16は、HDR画像合成部133が後方画像20Bにおける長時間露光画像と短時間露光画像とを合成する際の長時間露光画像の割合を小さくするようHDR画像合成部133を制御するのがよい。 When the vehicle 200 completely goes out of the tunnel 50 and reaches the area R56, the image of the inside of the tunnel 50 included in the rear image 20B becomes a predetermined ratio or less. The control unit 16 controls the HDR image compositing unit 133 so that the HDR image compositing unit 133 reduces the ratio of the long-exposure image when the long-exposure image and the short-exposure image are combined in the rear image 20B. good.

一例として、車両200が領域R56に到達する直前まで後方画像20Bにおける長時間露光画像と短時間露光画像との比が8:2であるので、領域R56に到達したら長時間露光画像と短時間露光画像との比を4:6とする。 As an example, since the ratio of the long-exposure image to the short-exposure image in the rear image 20B is 8: 2 until just before the vehicle 200 reaches the region R56, the long-exposure image and the short-time exposure when the vehicle 200 reaches the region R56. The ratio to the image is 4: 6.

車両200が図19に示す領域R51〜R56のどこを走行しているかは、画像解析部14が撮像画像に基づいて判定することができる。画像解析部14は、トンネル走行判定部として機能する。 The image analysis unit 14 can determine where the vehicle 200 is traveling in the regions R51 to R56 shown in FIG. 19 based on the captured image. The image analysis unit 14 functions as a tunnel travel determination unit.

車両用撮像装置100がGPS(Global Positioning System)等の全地球航法衛星システム(Global Navigation Satellite System: GNSS)用の衛星からの電波を受信するGNSS受信部と地図情報を備える場合には、制御部16が、GNSS受信部が受信したGNSS信号と地図情報に基づいて車両200のトンネル50内外の位置を検出してもよい。この場合、制御部16がトンネル走行判定部として機能する。 When the vehicle imaging device 100 includes a GNSS receiving unit that receives radio waves from satellites for a global navigation satellite system (GNSS) such as GPS (Global Positioning System) and map information, a control unit. 16 may detect the position inside and outside the tunnel 50 of the vehicle 200 based on the GNSS signal received by the GNSS receiving unit and the map information. In this case, the control unit 16 functions as a tunnel travel determination unit.

図20A及び図20Bに示すフローチャートを用いて、第5実施形態において、画像処理部13、トンネル走行判定部(画像解析部14)、または制御部16が実行する処理を説明する。図20Aにおいて、処理が開始されると、トンネル走行判定部は、ステップS501にて、車両200の前方にトンネルを認識して、トンネル50の内部の画像が所定の割合以上となったか否かを判定する。 The process executed by the image processing unit 13, the tunnel traveling determination unit (image analysis unit 14), or the control unit 16 will be described with reference to the flowcharts shown in FIGS. 20A and 20B in the fifth embodiment. In FIG. 20A, when the process is started, the tunnel travel determination unit recognizes the tunnel in front of the vehicle 200 in step S501, and determines whether or not the image inside the tunnel 50 has a predetermined ratio or more. judge.

ステップS501にてトンネル50の内部の画像が所定の割合以上となったと判定されれば(YES)、制御部16は、ステップS502にて、前方画像20Fにおける長時間露光画像の割合を増加させるようHDR画像合成部133を制御して、処理をステップS513に移行させる。ステップS501にてトンネル50の内部の画像が所定の割合以上となったと判定されなければ(NO)、トンネル走行判定部は、ステップS503にて、車両200がトンネル50に侵入しているか否かを判定する。 If it is determined in step S501 that the image inside the tunnel 50 exceeds a predetermined ratio (YES), the control unit 16 increases the ratio of the long-exposure image in the front image 20F in step S502. The HDR image compositing unit 133 is controlled to shift the process to step S513. If it is not determined in step S501 that the image of the inside of the tunnel 50 is equal to or greater than a predetermined ratio (NO), the tunnel traveling determination unit determines in step S503 whether or not the vehicle 200 has entered the tunnel 50. judge.

ステップS503にて車両200がトンネル50に侵入したと判定されれば(YES)、制御部16は、ステップS504にて、右側方画像20R及び左側方画像20Lにおける長時間露光画像の割合を増加させるようHDR画像合成部133を制御して、処理をステップS513に移行させる。ステップS503にて車両200がトンネル50に侵入したと判定されなければ(NO)、トンネル走行判定部は、ステップS505にて、後方画像20Bに含まれているトンネル50の入口50in側のトンネル50以外の画像が所定の割合以下であるか否かを判定する。 If it is determined in step S503 that the vehicle 200 has entered the tunnel 50 (YES), the control unit 16 increases the proportion of the long-exposure image in the right-side image 20R and the left-side image 20L in step S504. The HDR image compositing unit 133 is controlled so that the process shifts to step S513. If it is not determined in step S503 that the vehicle 200 has entered the tunnel 50 (NO), the tunnel traveling determination unit is other than the tunnel 50 on the entrance 50in side of the tunnel 50 included in the rear image 20B in step S505. It is determined whether or not the image of is equal to or less than a predetermined ratio.

ステップS505にてトンネル50の入口50in側のトンネル50以外の画像が所定の割合以下であると判定されれば(YES)、制御部16は、ステップS506にて、後方画像20Bにおける長時間露光画像の割合を増加させるようHDR画像合成部133を制御して、処理をステップS513に移行させる。ステップS505にてトンネル50の入口50in側のトンネル50以外の画像が所定の割合以下であると判定されなければ(NO)、トンネル走行判定部は、図20BのステップS507にて、前方画像20Fに含まれているトンネル50の出口50out側のトンネル50以外の画像が所定の割合以上であるか否かを判定する。 If it is determined in step S505 that the image other than the tunnel 50 on the entrance 50in side of the tunnel 50 is equal to or less than a predetermined ratio (YES), the control unit 16 determines in step S506 the long-exposure image in the rear image 20B. The HDR image compositing unit 133 is controlled so as to increase the ratio of the above, and the process shifts to step S513. If it is not determined in step S505 that the image other than the tunnel 50 on the entrance 50in side of the tunnel 50 is less than or equal to the predetermined ratio (NO), the tunnel traveling determination unit is displayed on the front image 20F in step S507 of FIG. 20B. It is determined whether or not the images other than the tunnel 50 on the exit 50 out side of the included tunnel 50 are at least a predetermined ratio.

ステップS507にてトンネル50の出口50out側のトンネル50以外の画像が所定の割合以上であると判定されれば(YES)、制御部16は、ステップS508にて、前方画像20Fにおける長時間露光画像の割合を減少させるようHDR画像合成部133を制御して、処理をステップS513に移行させる。ステップS507にてトンネル50の出口50out側のトンネル50以外の画像が所定の割合以上であると判定されなければ(NO)、トンネル走行判定部は、ステップS509にて、車両200の一部がトンネル50の外へと移動したか否かを判定する。 If it is determined in step S507 that the image other than the tunnel 50 on the exit 50 out side of the tunnel 50 is equal to or greater than a predetermined ratio (YES), the control unit 16 determines in step S508 the long-exposure image in the front image 20F. The HDR image compositing unit 133 is controlled so as to reduce the ratio of the above, and the process shifts to step S513. If it is not determined in step S507 that the images other than the tunnel 50 on the exit 50 out side of the tunnel 50 are equal to or greater than the predetermined ratio (NO), the tunnel traveling determination unit determines in step S509 that a part of the vehicle 200 is tunneled. Determine if it has moved out of 50.

ステップS509にて車両200の一部がトンネル50の外へと移動したと判定されれば(YES)、制御部16は、ステップS510にて、右側方画像20R及び左側方画像20Lにおける長時間露光画像の割合を減少させるようHDR画像合成部133を制御して、処理をステップS513に移行させる。ステップS509にて車両200の一部がトンネル50の外へと移動したと判定されなければ(NO)、トンネル走行判定部は、ステップS511にて、車両200がトンネル50の外へと移動して、後方画像20Bに含まれているトンネル50の内部の画像が所定の割合以下であるか否かを判定する。 If it is determined in step S509 that a part of the vehicle 200 has moved out of the tunnel 50 (YES), the control unit 16 exposes the right side image 20R and the left side image 20L for a long time in step S510. The HDR image compositing unit 133 is controlled so as to reduce the proportion of the image, and the process shifts to step S513. If it is not determined in step S509 that a part of the vehicle 200 has moved out of the tunnel 50 (NO), the tunnel travel determination unit determines that the vehicle 200 has moved out of the tunnel 50 in step S511. , It is determined whether or not the image of the inside of the tunnel 50 included in the rear image 20B is equal to or less than a predetermined ratio.

ステップS511にてトンネル50の内部の画像が所定の割合以下であると判定されれば(YES)、制御部16は、ステップS512にて、後方画像20Bにおける長時間露光画像の割合を減少させるようHDR画像合成部133を制御して、処理をステップS513に移行させる。ステップS511にてトンネル50の内部の画像が所定の割合以下であると判定されなければ(NO)、制御部16は処理をステップS513に移行させる。 If it is determined in step S511 that the image inside the tunnel 50 is less than or equal to a predetermined ratio (YES), the control unit 16 reduces the ratio of the long-exposure image in the rear image 20B in step S512. The HDR image compositing unit 133 is controlled to shift the process to step S513. If it is not determined in step S511 that the image inside the tunnel 50 is equal to or less than a predetermined ratio (NO), the control unit 16 shifts the process to step S513.

制御部16は、ステップS513にて、車両用撮像装置100の電源がオフされたか否かを判定する。車両用撮像装置100の電源がオフされなければ(NO)、画像処理部13、トンネル走行判定部、または制御部16はステップS501〜S513の処理を繰り返す。車両用撮像装置100の電源がオフされれば(YES)、制御部16は処理を終了させる。 In step S513, the control unit 16 determines whether or not the power of the vehicle imaging device 100 has been turned off. Unless the power of the vehicle imaging device 100 is turned off (NO), the image processing unit 13, the tunnel travel determination unit, or the control unit 16 repeats the processes of steps S501 to S513. When the power of the vehicle imaging device 100 is turned off (YES), the control unit 16 ends the process.

第5実施形態の車両用撮像装置100の構成及び動作は次のとおりである。第5実施形態の車両用撮像装置100における撮像部12は、第1の露光時間で被写体を撮像した長時間露光画像と、第2の露光時間で前記被写体を撮像した短時間露光画像を生成する。第5実施形態の車両用撮像装置100は、トンネル走行判定部(画像解析部14)、画像抽出部132、HDR画像合成部133、前後左右判定部142を備える。 The configuration and operation of the vehicle imaging device 100 of the fifth embodiment are as follows. The imaging unit 12 in the vehicle imaging device 100 of the fifth embodiment generates a long-exposure image in which the subject is imaged in the first exposure time and a short-time exposure image in which the subject is imaged in the second exposure time. .. The vehicle imaging device 100 of the fifth embodiment includes a tunnel traveling determination unit (image analysis unit 14), an image extraction unit 132, an HDR image composition unit 133, and a front / rear / left / right determination unit 142.

前後左右判定部142は、撮像画像のうちの前方画像領域、後方画像領域、右側方画像領域、及び左側方画像領域の周方向の位置を決定する。画像抽出部132は、撮像画像のうち、前方画像領域、後方画像領域、右側方画像領域、及び左側方画像領域の各領域画像を抽出して、前方画像20F、後方画像20B、右側方画像20R、及び左側方画像20Lの各方向画像を生成する。 The front / rear / left / right determination unit 142 determines the positions of the front image region, the rear image region, the right side image region, and the left side image region of the captured image in the circumferential direction. The image extraction unit 132 extracts each region image of the front image region, the rear image region, the right side image region, and the left side image region from the captured images, and extracts the front image 20F, the rear image 20B, and the right side image 20R. , And each direction image of the left side image 20L is generated.

HDR画像合成部133は、長時間露光画像に基づいて生成した前方画像20F、後方画像20B、右側方画像20R、及び左側方画像20Lと、短時間露光画像に基づいて生成した前方画像20F、後方画像20B、右側方画像20R、及び左側方画像20Lとをそれぞれ合成する。 The HDR image compositing unit 133 includes a front image 20F, a rear image 20B, a right side image 20R, and a left side image 20L generated based on a long-exposure image, and a front image 20F and a rear image 20F generated based on a short-time exposure image. The image 20B, the right side image 20R, and the left side image 20L are combined.

トンネル走行判定部は、走行している車両200がトンネル50に接近し、トンネル50に入ってトンネル50内を走行し、トンネル50から出た状態を判定する。 The tunnel travel determination unit determines a state in which the traveling vehicle 200 approaches the tunnel 50, enters the tunnel 50, travels in the tunnel 50, and exits the tunnel 50.

HDR画像合成部133は、前方画像20F、後方画像20B、右側方画像20R、及び左側方画像20Lのうちの選択された方向画像の長時間露光画像に基づく方向画像の割合または短時間露光画像に基づく方向画像の割合を調整する。HDR画像合成部133は、トンネル走行判定部による判定に基づいて、車両200がトンネル50に入る前からトンネル50内を走行してトンネル50から出た後までの車両200の位置に応じて割合を調整する。 The HDR image compositing unit 133 sets the ratio of the directional image based on the long-exposure image of the selected directional image among the front image 20F, the rear image 20B, the right side image 20R, and the left side image 20L, or the short-time exposure image. Adjust the proportion of directional images based on. The HDR image synthesizing unit 133 determines the ratio according to the position of the vehicle 200 from before the vehicle 200 enters the tunnel 50 to after traveling in the tunnel 50 and exiting the tunnel 50, based on the determination by the tunnel traveling determination unit. adjust.

具体的には、HDR画像合成部133は車両200の位置に応じて次のように割合を調整するのがよい。 Specifically, the HDR image compositing unit 133 may adjust the ratio as follows according to the position of the vehicle 200.

トンネル走行判定部が、車両200がトンネル50に接近して、トンネル50の内部の画像が前方画像20Fのうちの所定の割合以上となったと判定したとき、HDR画像合成部133は、長時間露光画像に基づく前方画像20Fの割合を増加させるのがよい。 When the tunnel traveling determination unit determines that the vehicle 200 approaches the tunnel 50 and the image inside the tunnel 50 is equal to or more than a predetermined ratio of the front image 20F, the HDR image composition unit 133 is exposed for a long time. It is preferable to increase the proportion of the front image 20F based on the image.

トンネル走行判定部が、車両200がトンネル50に侵入したと判定したとき、HDR画像合成部133は、長時間露光画像に基づく右側方画像20R及び左側方画像20Lの割合を増加させるのがよい。 When the tunnel traveling determination unit determines that the vehicle 200 has entered the tunnel 50, the HDR image composition unit 133 preferably increases the ratio of the right side image 20R and the left side image 20L based on the long exposure image.

トンネル走行判定部が、車両200がトンネル50に侵入した後にトンネル50の入口50in側のトンネル50以外の画像が後方画像20Bのうちの所定の割合以下になったと判定したとき、HDR画像合成部133は、長時間露光画像に基づく後方画像20Bの割合を増加させるのがよい。 When the tunnel running determination unit determines that the images other than the tunnel 50 on the entrance 50in side of the tunnel 50 are less than or equal to a predetermined ratio of the rear image 20B after the vehicle 200 has entered the tunnel 50, the HDR image composition unit 133 It is preferable to increase the proportion of the rear image 20B based on the long-exposure image.

トンネル走行判定部が、車両200がトンネル50の出口50outに接近して、出口50out側のトンネル50以外の画像が前方画像20Fのうちの所定の割合以上になったと判定したとき、HDR画像合成部133は、長時間露光画像に基づく前方画像20Fの割合を減少させるのがよい。即ち、上記のように車両200がトンネル50に接近した時点で増加させた長時間露光画像に基づく前方画像20Fの割合を元の割合に戻す。 When the tunnel traveling determination unit determines that the vehicle 200 approaches the exit 50out of the tunnel 50 and the image other than the tunnel 50 on the exit 50out side becomes a predetermined ratio or more of the front image 20F, the HDR image composition unit For 133, it is preferable to reduce the proportion of the front image 20F based on the long-exposure image. That is, the ratio of the front image 20F based on the long-exposure image increased when the vehicle 200 approaches the tunnel 50 as described above is returned to the original ratio.

トンネル走行判定部が、車両200がトンネル50の外に出たと判定したとき、HDR画像合成部133は、長時間露光画像に基づく右側方画像20R及び左側方画像20Lの割合を減少させるのがよい。即ち、上記のように車両200がトンネル50に侵入した時点で増加させた長時間露光画像に基づく右側方画像20R及び左側方画像20Lの割合を元の割合に戻す。 When the tunnel traveling determination unit determines that the vehicle 200 has gone out of the tunnel 50, the HDR image composition unit 133 preferably reduces the ratio of the right side image 20R and the left side image 20L based on the long exposure image. .. That is, the ratio of the right side image 20R and the left side image 20L based on the long-exposure image increased when the vehicle 200 enters the tunnel 50 as described above is returned to the original ratio.

トンネル走行判定部が、車両200がトンネル50の外に出て、トンネル50の内部の画像が後方画像20Bのうちの所定の割合以下になったと判定したとき、HDR画像合成部133は、長時間露光画像に基づく後方画像20Bの割合を減少させるのがよい。即ち、トンネル50の入口50in側のトンネル50以外の画像が後方画像20Bのうちの所定の割合以下になった時点で増加させた長時間露光画像に基づく後方画像20Bの割合を元の割合に戻す。 When the tunnel traveling determination unit determines that the vehicle 200 has gone out of the tunnel 50 and the image inside the tunnel 50 is less than or equal to a predetermined ratio of the rear image 20B, the HDR image composition unit 133 has a long time. It is preferable to reduce the proportion of the rear image 20B based on the exposed image. That is, the ratio of the rear image 20B based on the long-exposure image increased when the image other than the tunnel 50 on the entrance 50in side of the tunnel 50 becomes equal to or less than a predetermined ratio of the rear image 20B is returned to the original ratio. ..

以上のようにして、第5実施形態の車両用撮像装置100によれば、車両200がトンネル50に入る前からトンネル50から出た後までの車両200位置に応じて、適切な前方画像20F、後方画像20B、右側方画像20R、及び左側方画像20Lを得ることができる。 As described above, according to the vehicle imaging device 100 of the fifth embodiment, an appropriate front image 20F, depending on the position of the vehicle 200 from before the vehicle 200 enters the tunnel 50 to after the vehicle exits the tunnel 50, A rear image 20B, a right side image 20R, and a left side image 20L can be obtained.

<第6実施形態>
第6実施形態は、車両200に事故等のイベントが発生したときにぶれの少ない撮像画像を保存することができる車両用撮像装置100を提供する。第6実施形態において、第1実施形態と共通部分の説明を省略する。
<Sixth Embodiment>
A sixth embodiment provides a vehicle image pickup device 100 capable of storing a captured image with less blurring when an event such as an accident occurs in the vehicle 200. In the sixth embodiment, the description of the common parts with the first embodiment will be omitted.

図21に示すように、第6実施形態の車両用撮像装置100は、バス19に接続された加速度センサ60を備える。加速度センサ60は、車両200にイベントが発生したか否かを判定するイベント検出センサの一例である。記録再生部17は、メモリカード170とリングバッファ171とを有する。リングバッファ171は車両用撮像装置100が備える非着脱自在の本体メモリである。メモリカード170には、イベント記録領域172と通常記録領域173とが設けられている。イベント記録領域172自動的にはデータが上書きされない記録領域である。 As shown in FIG. 21, the vehicle imaging device 100 of the sixth embodiment includes an acceleration sensor 60 connected to the bus 19. The acceleration sensor 60 is an example of an event detection sensor that determines whether or not an event has occurred in the vehicle 200. The recording / playback unit 17 has a memory card 170 and a ring buffer 171. The ring buffer 171 is a non-detachable main body memory included in the vehicle imaging device 100. The memory card 170 is provided with an event recording area 172 and a normal recording area 173. Event recording area 172 This is a recording area in which data is not automatically overwritten.

イベント記録領域172及び通常記録領域173はメモリカード170に設けられることに限定されない。イベント記録領域172が本体メモリに設けられてもよい。通常記録領域173が本体メモリに設けられてもよい。イベント記録領域172及び通常記録領域173が本体メモリに設けられてもよい。 The event recording area 172 and the normal recording area 173 are not limited to being provided in the memory card 170. The event recording area 172 may be provided in the main body memory. The normal recording area 173 may be provided in the main body memory. The event recording area 172 and the normal recording area 173 may be provided in the main body memory.

リングバッファ171は、長時間露光画像と短時間露光画像の360度の撮像画像の撮像画像データを所定時間分だけ記録する容量を有し、撮像画像データはリングバッファ171に循環的に記憶される。即ち、リングバッファ171の全ての容量に撮像画像データが記憶されたら、最も古い撮像画像データが最新の撮像画像データへと書き換えられ、撮像画像データを更新する動作が繰り返される。 The ring buffer 171 has a capacity for recording captured image data of a 360-degree captured image of a long-exposure image and a short-exposure image for a predetermined time, and the captured image data is cyclically stored in the ring buffer 171. .. That is, when the captured image data is stored in all the capacities of the ring buffer 171, the oldest captured image data is rewritten to the latest captured image data, and the operation of updating the captured image data is repeated.

HDR画像合成部133によって画像合成された前方画像20F、後方画像20B、右側方画像20R、及び左側方画像20Lは、リングバッファ171に一時的に記録されることなく通常記録領域173に記録される。 The front image 20F, the rear image 20B, the right side image 20R, and the left side image 20L image-combined by the HDR image compositing unit 133 are recorded in the normal recording area 173 without being temporarily recorded in the ring buffer 171. ..

図22に示すフローチャートを用いて、第6実施形態において制御部16が実行する処理を説明する。処理が開始されると、制御部16は、ステップS61にて、撮像画像データを所定時間分だけリングバッファ171に記憶させる。上記のように、撮像画像データとは、長時間露光画像と短時間露光画像の360度の撮像画像の撮像画像データである。 The process executed by the control unit 16 in the sixth embodiment will be described with reference to the flowchart shown in FIG. When the process is started, the control unit 16 stores the captured image data in the ring buffer 171 for a predetermined time in step S61. As described above, the captured image data is the captured image data of the 360-degree captured image of the long-exposure image and the short-exposure image.

制御部16は、ステップS62にて、加速度センサ60が検出した加速度の変化に基づいて、イベントが発生したか否かを判定する。制御部16は、加速度が急増したり急減したりした場合にイベントが発生したと判定する。 In step S62, the control unit 16 determines whether or not an event has occurred based on the change in acceleration detected by the acceleration sensor 60. The control unit 16 determines that an event has occurred when the acceleration suddenly increases or decreases.

ステップS62にてイベントが発生したと判定されなければ(NO)、制御部16はステップS61及びS62の処理を繰り返す。ステップS62にてイベントが発生したと判定されれば(YES)、制御部16は処理をステップS63に移行させる。制御部16は、ステップS63にて、リングバッファ171に記憶されている撮像画像データをイベント記録領域172にコピーして、処理を終了させる。 If it is not determined in step S62 that an event has occurred (NO), the control unit 16 repeats the processes of steps S61 and S62. If it is determined in step S62 that an event has occurred (YES), the control unit 16 shifts the process to step S63. In step S63, the control unit 16 copies the captured image data stored in the ring buffer 171 to the event recording area 172, and ends the process.

イベント発生時に、画像のぶれがなく通常記録領域173に記録されていることが望まれる被写体がぶれた状態で記録されてしまうことがある。具体的には、一例として次のような場合に画像のぶれが大きい状態で通常記録領域173に記録されてしまう。 When an event occurs, the subject that is desired to be recorded in the normal recording area 173 without blurring of the image may be recorded in a blurred state. Specifically, as an example, in the following cases, the image is recorded in the normal recording area 173 with a large amount of blurring.

図14Aにおいて、右側方画像20Rのうちの車両230の面積が20%未満であったとする。この場合、右側方画像20Rにおいて相対的に後方に移動する標識31の画像のぶれがHDR画像合成部133によって補正される。この状態で、車両200と車両230との間で事故が発生すると、車両230の画像のぶれはHDR画像合成部133によって補正されないため、画像のぶれが大きい状態で通常記録領域173に記録される。 In FIG. 14A, it is assumed that the area of the vehicle 230 in the right side image 20R is less than 20%. In this case, the HDR image compositing unit 133 corrects the blurring of the image of the sign 31 that moves relatively backward in the right side image 20R. If an accident occurs between the vehicle 200 and the vehicle 230 in this state, the image blur of the vehicle 230 is not corrected by the HDR image compositing unit 133, so that the image is recorded in the normal recording area 173 in a state where the image blur is large. ..

そこで、イベント発生時には、HDR画像合成部133による長時間露光画像と短時間露光画像との合成画像を通常記録領域173に保存するだけでは不十分である。イベント発生時には、HDR画像合成部133で画像合成される前の長時間露光画像と短時間露光画像の360度の撮像画像の撮像画像データをイベント記録領域172にコピーして保存することが好ましい。第6実施形態によれば、車両200に事故等のイベントが発生したときにぶれの少ない撮像画像を保存することができる。 Therefore, when an event occurs, it is not sufficient to simply store the composite image of the long-exposure image and the short-exposure image by the HDR image compositing unit 133 in the normal recording area 173. When an event occurs, it is preferable to copy and save the captured image data of the 360-degree captured image of the long-exposure image and the short-exposure image before the image is synthesized by the HDR image compositing unit 133 in the event recording area 172. According to the sixth embodiment, when an event such as an accident occurs in the vehicle 200, a captured image with less blurring can be stored.

第6実施形態の車両用撮像装置100において、HDR画像合成部133によって画像合成された各方向画像の画像データもリングバッファ171に記憶して、イベント発生時にイベント記録領域172にコピーして保存するようにしてもよい。また、第6実施形態の車両用撮像装置100において、HDR画像合成部133によって画像合成された各方向画像をリングバッファ171または通常記録領域173に記録しないように構成してもよい。 In the vehicle image pickup apparatus 100 of the sixth embodiment, the image data of each direction image synthesized by the HDR image synthesis unit 133 is also stored in the ring buffer 171 and copied and saved in the event recording area 172 when an event occurs. You may do so. Further, in the vehicle image pickup apparatus 100 of the sixth embodiment, each direction image synthesized by the HDR image synthesis unit 133 may be configured not to be recorded in the ring buffer 171 or the normal recording area 173.

以上のように、第6実施形態の車両用撮像装置100において、撮像部12は長時間露光画像と短時間露光画像とを生成する。第6実施形態の車両用撮像装置100は、画像抽出部132とHDR画像合成部133とを備える。画像抽出部132は、長時間露光画像に及び短時間露光画像に基づいて、前方画像、後方画像、右側方画像、及び左側方画像を生成する。HDR画像合成部133は、長時間露光画像に及び短時間露光画像に基づく前方画像20F、後方画像20B、右側方画像20R、及び左側方画像20Lを合成する。 As described above, in the vehicle imaging device 100 of the sixth embodiment, the imaging unit 12 generates a long-exposure image and a short-exposure image. The vehicle imaging device 100 of the sixth embodiment includes an image extraction unit 132 and an HDR image composition unit 133. The image extraction unit 132 generates a front image, a rear image, a right side image, and a left side image based on the long exposure image and the short exposure image. The HDR image compositing unit 133 synthesizes the front image 20F, the rear image 20B, the right side image 20R, and the left side image 20L based on the long exposure image and the short exposure image.

また、第6実施形態の車両用撮像装置100は、リングバッファ171とイベント検出センサ(加速度センサ60)とを備える。リングバッファ171は、長時間露光画像及び短時間露光画像を循環的に記憶する。イベント検出センサは、車両200にイベントが発生したか否かを判定する。制御部16は、イベント検出センサによって車両200にイベントが発生したと判定されたとき、リングバッファ171に記憶されている長時間露光画像及び短時間露光画像をイベント記録領域172にコピーして保存するよう制御する。 Further, the vehicle imaging device 100 of the sixth embodiment includes a ring buffer 171 and an event detection sensor (accelerometer 60). The ring buffer 171 periodically stores the long-exposure image and the short-exposure image. The event detection sensor determines whether or not an event has occurred in the vehicle 200. When the event detection sensor determines that an event has occurred in the vehicle 200, the control unit 16 copies and saves the long-exposure image and the short-time exposure image stored in the ring buffer 171 in the event recording area 172. To control.

第6実施形態の車両用撮像装置100によれば、車両200に事故等のイベントが発生したときにぶれの少ない撮像画像を保存することができる。 According to the vehicle imaging device 100 of the sixth embodiment, it is possible to store an captured image with less blurring when an event such as an accident occurs in the vehicle 200.

<第7実施形態>
第7実施形態は、適切な車内画像を生成することができる車両用撮像装置100を提供する。図23は、図8及び図9に示す処理によって前方画像20Fの方向を車両200の前方に正しく調整した状態で、撮像部12が生成する360度の撮像画像を示している。車内画像領域には、計器類を有するインストルメントパネルが含まれている。インストルメントパネル付近の画像が車内画像領域の中で重要である。そこで、第7実施形態の車両用撮像装置100は、図24に示す処理を実行させる。
<7th Embodiment>
A seventh embodiment provides a vehicle imaging device 100 capable of generating an appropriate in-vehicle image. FIG. 23 shows a 360-degree captured image generated by the imaging unit 12 in a state where the direction of the front image 20F is correctly adjusted to the front of the vehicle 200 by the processes shown in FIGS. 8 and 9. The in-vehicle image area includes an instrument panel with instruments. The image near the instrument panel is important in the in-vehicle image area. Therefore, the vehicle imaging device 100 of the seventh embodiment executes the process shown in FIG. 24.

制御部16は、ステップS71にて、車両用撮像装置100(車両200)の前後方向が決定済みで、前方画像20F及び後方画像20Bの方向が調整済みであるか否かを判定する。前後方向が決定済みと判定されなければ(NO)、制御部16は、第1実施形態の図8及び図9に示す処理が完了するまで、ステップS71の処理を繰り返す。 In step S71, the control unit 16 determines whether or not the front-rear direction of the vehicle image pickup device 100 (vehicle 200) has been determined and the directions of the front image 20F and the rear image 20B have been adjusted. If it is not determined that the front-rear direction has been determined (NO), the control unit 16 repeats the process of step S71 until the processes shown in FIGS. 8 and 9 of the first embodiment are completed.

ステップS71にて前後方向が決定済みと判定されれば(YES)、制御部16は、ステップS72にて、図23に示すように、車内画像領域の前方にインストルメントパネル領域71を設定する。制御部16は、車内画像領域のうちの前方の所定の領域をインストルメントパネル領域71と設定することができる。画像解析部14が画像解析によってインストルメントパネルを検出して、制御部16が画像解析部14による検出結果に基づいてインストルメントパネル領域71と設定してもよい。 If it is determined in step S71 that the front-rear direction has been determined (YES), the control unit 16 sets the instrument panel area 71 in front of the vehicle interior image area as shown in FIG. 23 in step S72. The control unit 16 can set a predetermined area in front of the vehicle interior image area as the instrument panel area 71. The image analysis unit 14 may detect the instrument panel by image analysis, and the control unit 16 may set the instrument panel area 71 based on the detection result by the image analysis unit 14.

制御部16は、長時間露光画像及び短時間露光画像における車内画像領域内に、インストルメントパネル領域71と、インストルメントパネル領域71以外の領域である非インストルメントパネル領域72とを設定する領域設定部として機能する。 The control unit 16 sets an area for setting the instrument panel area 71 and the non-instrument panel area 72, which is an area other than the instrument panel area 71, in the vehicle interior image area in the long-exposure image and the short-time exposure image. Functions as a department.

制御部16は、ステップS73にて、インストルメントパネル領域71が明瞭に撮像されるように車内画像を最適化する。具体的には、制御部16は、インストルメントパネル領域71内のLED等で表示された高輝度の画像が白飛びの状態で撮像されないよう、長時間露光画像と短時間露光画像を生成する際の露光時間を最適化するよう撮像部12を制御する。 In step S73, the control unit 16 optimizes the vehicle interior image so that the instrument panel region 71 is clearly captured. Specifically, when the control unit 16 generates a long-exposure image and a short-exposure image so that the high-brightness image displayed by the LED or the like in the instrument panel area 71 is not captured in an overexposed state. The imaging unit 12 is controlled so as to optimize the exposure time of the image.

長時間露光画像を生成する際の第1の露光時間と、短時間露光画像を生成する際の第2の露光時間とは次のように設定される。第1及び第2の露光時間には最長時間と最短時間とがあり、第1及び第2の露光時間は画像の明るさに応じて決まる最長時間と最短時間との間の時間に設定される。 The first exposure time when generating a long-exposure image and the second exposure time when generating a short-exposure image are set as follows. The first and second exposure times have a maximum time and a minimum time, and the first and second exposure times are set to a time between the maximum time and the shortest time determined according to the brightness of the image. ..

図25の(a)に示すように、長時間露光の第1の露光時間と短時間露光の第2の露光時間との比が例えば10:1であるとする。車両200の車内が暗く、非インストルメントパネル領域72における最適な露光時間の割合が図25の(b)に示すように最長時間の100%であるとする。インストルメントパネル領域71は非インストルメントパネル領域72よりも明るく、インストルメントパネル領域71における最適な露光時間の割合が図25の(c)に示すように最長時間の50%であるとする。 As shown in FIG. 25 (a), it is assumed that the ratio of the first exposure time of the long exposure to the second exposure time of the short exposure is, for example, 10: 1. It is assumed that the interior of the vehicle 200 is dark and the ratio of the optimum exposure time in the non-instrument panel region 72 is 100% of the maximum time as shown in FIG. 25 (b). It is assumed that the instrument panel region 71 is brighter than the non-instrument panel region 72, and the ratio of the optimum exposure time in the instrument panel region 71 is 50% of the maximum time as shown in FIG. 25 (c).

通常、1つの画像領域内に明るい領域と暗い領域とが存在する場合、最適な露光時間の割合は明るい領域の面積と暗い領域の面積とを考慮して決定される。インストルメントパネル領域71と非インストルメントパネル領域72との面積が1:9であるとする。この場合、制御部16は、9/10×100%+1/10×50%=95%なる計算式によって、図25の(d)に示すように、長時間露光の第1の露光時間と短時間露光の第2の露光時間との最適な露光時間の割合を95%と決定する。ところが、最適な露光時間の割合を95%と決定すると、インストルメントパネル領域71において白飛びが発生してしまう。 Usually, when a bright region and a dark region exist in one image region, the optimum exposure time ratio is determined in consideration of the area of the bright region and the area of the dark region. It is assumed that the area of the instrument panel area 71 and the non-instrument panel area 72 is 1: 9. In this case, the control unit 16 uses a calculation formula of 9/10 × 100% + 1/10 × 50% = 95% to shorten the first exposure time of the long exposure as shown in FIG. 25 (d). The ratio of the optimum exposure time to the second exposure time of the time exposure is determined to be 95%. However, if the optimum exposure time ratio is determined to be 95%, overexposure will occur in the instrument panel region 71.

そこで、制御部16は、インストルメントパネル領域71における最適な露光時間の割合である50%と、非インストルメントパネル領域72における最適な露光時間の割合である100%とに基づいて、両者の最適な露光時間の割合を決定するのがよい。インストルメントパネル領域71における最適な露光時間の割合を第1の最適露光時間割合、非インストルメントパネル領域72における最適な露光時間の割合を第2の最適露光時間割合とする。制御部16は、インストルメントパネル領域71と非インストルメントパネル領域72とで共通の露光時間の割合である第3の最適露光時間割合を設定する。 Therefore, the control unit 16 optimizes both of them based on 50%, which is the ratio of the optimum exposure time in the instrument panel region 71, and 100%, which is the ratio of the optimum exposure time in the non-instrument panel region 72. It is better to determine the ratio of exposure time. The ratio of the optimum exposure time in the instrument panel region 71 is defined as the first optimum exposure time ratio, and the ratio of the optimum exposure time in the non-instrument panel region 72 is defined as the second optimum exposure time ratio. The control unit 16 sets a third optimum exposure time ratio, which is a ratio of exposure time common to the instrument panel region 71 and the non-instrument panel region 72.

このとき、制御部16は、インストルメントパネル領域71と非インストルメントパネル領域72との面積比を考慮しない。図25の(e)に示すように、制御部16は、一例として、50%と100%との平均値である75%を第3の最適露光時間割合に設定する。インストルメントパネル領域71における露光時間は95%から75%へと短くなるので、白飛びが発生する可能性を低減させることができる。 At this time, the control unit 16 does not consider the area ratio of the instrument panel area 71 and the non-instrument panel area 72. As shown in FIG. 25 (e), the control unit 16 sets, as an example, 75%, which is an average value of 50% and 100%, as the third optimum exposure time ratio. Since the exposure time in the instrument panel region 71 is shortened from 95% to 75%, the possibility of overexposure can be reduced.

ここでは、非インストルメントパネル領域72が暗くインストルメントパネル領域71が明るい場合を例としたが、インストルメントパネル領域71と非インストルメントパネル領域72との明るさの関係によっては、次のようにインストルメントパネル領域71における露光時間の割合の上限値を設定するのがよい。 Here, the case where the non-instrument panel area 72 is dark and the instrument panel area 71 is bright is taken as an example, but depending on the relationship between the brightness of the instrument panel area 71 and the non-instrument panel area 72, it is as follows. It is preferable to set the upper limit of the ratio of the exposure time in the instrument panel area 71.

インストルメントパネル領域71における画像が黒つぶれしないという条件での最短の露光時間割合をT71S、インストルメントパネル領域71における画像が白飛びしないという条件での最長の露光時間割合をT71L、インストルメントパネル領域71における最適な露光時間割合をT71Oとする。非インストルメントパネル領域72における最適な露光時間割合をT72Oとする。制御部16は、画像が黒つぶれするか否かの条件、画像が白飛びするか否かの条件を判定することができる。よって、制御部16は、画像の明るさに応じて、黒つぶれしない最短の露光時間、白飛びしない最長の露光時間、及び最適な露光時間を計算することができるから、それぞれの露光時間割合を決定することができる。 The shortest exposure time ratio under the condition that the image in the instrument panel area 71 is not overexposed is T71S, the longest exposure time ratio under the condition that the image in the instrument panel area 71 is not overexposed is T71L, and the instrument panel area is The optimum exposure time ratio in 71 is T71O. The optimum exposure time ratio in the non-instrument panel region 72 is T72O. The control unit 16 can determine the condition of whether or not the image is underexposed and the condition of whether or not the image is overexposed. Therefore, the control unit 16 can calculate the shortest exposure time that does not cause blackout, the longest exposure time that does not cause overexposure, and the optimum exposure time according to the brightness of the image. Can be decided.

車内が暗く、非インストルメントパネル領域72よりもインストルメントパネル領域71が明るい場合、露光時間割合T71S、T71L、T71O、T72Oは例えば10%、50%、30%、80%のようになる。最長露光時間割合T71Lと最適露光時間割合T72OとがT71L<T72Oを満たすとき、制御部16は、インストルメントパネル領域71における露光時間割合の最大値を最長露光時間割合T71Lとするよう撮像部12を制御するのがよい。 When the interior of the vehicle is dark and the instrument panel area 71 is brighter than the non-instrument panel area 72, the exposure time ratios T71S, T71L, T71O, and T72O are, for example, 10%, 50%, 30%, and 80%. When the maximum exposure time ratio T71L and the optimum exposure time ratio T72O satisfy T71L <T72O, the control unit 16 sets the imaging unit 12 so that the maximum value of the exposure time ratio in the instrument panel region 71 is the maximum exposure time ratio T71L. It is good to control.

車内が太陽光で照らされて明るく、インストルメントパネル領域71よりも非インストルメントパネル領域72が明るい場合、露光時間割合T71S、T71L、T71O、T72Oは例えば60%、80%、70%、20%のようになる。最短露光時間割合T71Sと最適露光時間割合T72OとがT72O<T71Sを満たすとき、制御部16は、インストルメントパネル領域71における露光時間割合の最小値を最短露光時間割合T71Sとするよう撮像部12を制御するのがよい。 When the interior of the vehicle is illuminated by sunlight and the non-instrument panel area 72 is brighter than the instrument panel area 71, the exposure time ratios T71S, T71L, T71O, and T72O are, for example, 60%, 80%, 70%, and 20%. become that way. When the shortest exposure time ratio T71S and the optimum exposure time ratio T72O satisfy T72O <T71S, the control unit 16 sets the imaging unit 12 so that the minimum value of the exposure time ratio in the instrument panel region 71 is the shortest exposure time ratio T71S. It is good to control.

制御部16が撮像部12をこのように制御すれば、インストルメントパネル領域71が白飛びの状態で撮像されることなく、また、非インストルメントパネル領域72は明るい状態で撮像される。よって、第7実施形態の車両用撮像装置100によれば、適切な車内画像を生成することができる。 If the control unit 16 controls the imaging unit 12 in this way, the instrument panel area 71 is not imaged in an overexposed state, and the non-instrument panel area 72 is imaged in a bright state. Therefore, according to the vehicle image pickup device 100 of the seventh embodiment, an appropriate vehicle interior image can be generated.

図2及び図21に示す構成のうち、少なくとも、画像処理部13、画像解析部14、及び制御部16は、車両用撮像装置100に搭載されるコンピュータまたはコンピュータの中央処理装置(CPU)と、CPUに実行させるコンピュータプログラム(画像処理プログラム)で構成することができる。 Of the configurations shown in FIGS. 2 and 21, at least the image processing unit 13, the image analysis unit 14, and the control unit 16 include a computer mounted on the vehicle imaging device 100 or a central processing unit (CPU) of the computer. It can be configured by a computer program (image processing program) to be executed by the CPU.

第1実施形態は、図8及び図9に示す処理をCPUに実行させる画像処理プログラムであってもよい。第2実施形態は、図13示す処理をCPUに実行させる画像処理プログラムであってもよい。第3実施形態は、図15示す処理をCPUに実行させる画像処理プログラムであってもよい。第4実施形態は、図18A及び図18B示す処理をCPUに実行させる画像処理プログラムであってもよい。第5実施形態は、図20A及び図20B示す処理をCPUに実行させる画像処理プログラムであってもよい。第6実施形態は、図22に示す処理をCPUに実行させる画像処理プログラムであってもよい。第7実施形態は、図24に示す処理をCPUに実行させる画像処理プログラムであってもよい。 The first embodiment may be an image processing program that causes the CPU to execute the processes shown in FIGS. 8 and 9. The second embodiment may be an image processing program that causes the CPU to execute the process shown in FIG. The third embodiment may be an image processing program that causes the CPU to execute the process shown in FIG. The fourth embodiment may be an image processing program that causes the CPU to execute the processes shown in FIGS. 18A and 18B. The fifth embodiment may be an image processing program that causes the CPU to execute the processes shown in FIGS. 20A and 20B. The sixth embodiment may be an image processing program that causes the CPU to execute the processing shown in FIG. The seventh embodiment may be an image processing program that causes the CPU to execute the processing shown in FIG. 24.

本発明は以上説明した第1〜第7実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々変更可能である。第1〜第7実施形態は互いに矛盾が生じない範囲で任意に組み合わせが可能である。ハードウェアとソフトウェア(コンピュータプログラム)の使い分けは任意である。 The present invention is not limited to the first to seventh embodiments described above, and various modifications can be made without departing from the gist of the present invention. The first to seventh embodiments can be arbitrarily combined as long as they do not contradict each other. The proper use of hardware and software (computer program) is optional.

11 魚眼レンズ
12 撮像部
13 画像処理部
14 画像解析部(太陽光入射方向判定部,トンネル走行判定部)
15 通信部
16 制御部(領域設定部)
17 記録再生部
18 モニタ
19 バス
20B 後方画像
20F 前方画像
20L 左側方画像
20R 右側方画像
50 トンネル
50in 入口
50out 出口
60 加速度センサ(イベント検出センサ)
131 画像回転部
132 画像抽出部
133 ハイダイナミックレンジ画像合成部
141 動きベクトル検出部
142 前後左右判定部
161 計測部
170 メモリカード
171 リングバッファ
172 イベント記録領域
173 通常記録領域
200,241〜244 車両
202 ステアリングホイール
300 運転者
11 Fisheye lens 12 Imaging unit 13 Image processing unit 14 Image analysis unit (sunlight incident direction determination unit, tunnel travel determination unit)
15 Communication unit 16 Control unit (area setting unit)
17 Recording / playback unit 18 Monitor 19 Bus 20B Rear image 20F Front image 20L Left side image 20R Right side image 50 Tunnel 50in Entrance 50out Exit 60 Accelerometer (event detection sensor)
131 Image rotation unit 132 Image extraction unit 133 High dynamic range image composition unit 141 Motion vector detection unit 142 Front / rear / left / right judgment unit 161 Measurement unit 170 Memory card 171 Ring buffer 172 Event recording area 173 Normal recording area 200, 241-244 Vehicle 202 Steering Wheel 300 driver

Claims (5)

車両内に取り付けられる車両用撮像装置であり、
魚眼レンズを介して光が入射され、第1の露光時間で360度の被写体を撮像した長時間露光画像と、前記第1の露光時間より短い第2の露光時間で360度の被写体を撮像した短時間露光画像を生成する撮像部と、
前記長時間露光画像及び前記短時間露光画像に基づいて、前記車両の前後及び左右を判定して、前記長時間露光画像及び前記短時間露光画像のうちの前方画像領域、後方画像領域、右側方画像領域、及び左側方画像領域の周方向の位置を決定する前後左右判定部と、
前記長時間露光画像及び前記短時間露光画像のうち、前記前方画像領域、前記後方画像領域、前記右側方画像領域、及び前記左側方画像領域の各領域画像を抽出して、前方画像、後方画像、右側方画像、及び左側方画像の各方向画像を生成する画像抽出部と、
前記画像抽出部が、前記長時間露光画像に基づいて生成した前方画像、後方画像、右側方画像、及び左側方画像と、前記画像抽出部が、前記短時間露光画像に基づいて生成した前方画像、後方画像、右側方画像、及び左側方画像とをそれぞれ合成するハイダイナミックレンジ画像合成部と、
前記車両用撮像装置に入射する太陽光の入射方向を判定する太陽光入射方向判定部と、
を備え、
前記ハイダイナミックレンジ画像合成部は、前記前方画像、前記後方画像、前記右側方画像、及び前記左側方画像のうち、前記太陽光入射方向判定部によって判定された太陽光の入射方向に応じて選択された前記長時間露光画像に基づく方向画像の割合を、非選択の前記長時間露光画像に基づく方向画像の割合よりも増加させる
車両用撮像装置。
It is an image pickup device for vehicles that can be installed inside the vehicle.
A long-exposure image in which light is incident through a fisheye lens and a 360-degree subject is imaged in the first exposure time, and a short exposure image in which a 360-degree subject is imaged in a second exposure time shorter than the first exposure time. An imaging unit that generates a time-exposure image and
The front / rear and left / right sides of the vehicle are determined based on the long-exposure image and the short-exposure image, and the front image region, the rear image region, and the right side of the long-exposure image and the short-time exposure image are determined. The front / rear / left / right determination unit that determines the position of the image area and the left side image area in the circumferential direction,
From the long-exposure image and the short-exposure image, each region image of the front image region, the rear image region, the right side image region, and the left side image region is extracted, and the front image and the rear image are extracted. , An image extraction unit that generates images in each direction of the right side image and the left side image,
The front image, the rear image, the right side image, and the left side image generated by the image extraction unit based on the long exposure image, and the front image generated by the image extraction unit based on the short exposure image. , A high dynamic range image compositing unit that synthesizes the rear image, the right side image, and the left side image, respectively.
A sunlight incident direction determining unit that determines the incident direction of sunlight incident on the vehicle imaging device,
With
The high dynamic range image synthesizing unit is selected from the front image, the rear image, the right side image, and the left side image according to the incident direction of sunlight determined by the sunlight incident direction determining unit. A vehicle imaging device that increases the proportion of directional images based on the long-exposure image that has been created from the proportion of directional images based on the unselected long-exposure image.
前記太陽光入射方向判定部は、前記車両用撮像装置が撮像する360度の方向を少なくとも前方向、後方向、右方向、左方向を含む複数の方向に分割して、太陽光の入射方向がいずれの方向であるかを判定し、
前記ハイダイナミックレンジ画像合成部は、
太陽光の入射方向が前方向であるとき、前記長時間露光画像に基づく前記前方画像の割合を増加させ、
太陽光の入射方向が後方向であるとき、前記長時間露光画像に基づく前記後方画像の割合を増加させ、
太陽光の入射方向が右方向であるとき、前記長時間露光画像に基づく前記右側方画像の割合を増加させ、
太陽光の入射方向が左方向であるとき、前記長時間露光画像に基づく前記左側方画像の割合を増加させる
請求項1に記載の車両用撮像装置。
The sunlight incident direction determination unit divides the 360-degree direction imaged by the vehicle imaging device into a plurality of directions including at least the front direction, the rear direction, the right direction, and the left direction, and the sunlight incident direction is determined. Determine which direction you are in
The high dynamic range image compositing unit
When the incident direction of sunlight is the forward direction, the proportion of the front image based on the long-exposure image is increased.
When the incident direction of sunlight is the rear direction, the proportion of the rear image based on the long-exposure image is increased.
When the incident direction of sunlight is to the right, the proportion of the right-hand image based on the long-exposure image is increased.
The vehicle imaging device according to claim 1, which increases the proportion of the left side image based on the long exposure image when the incident direction of sunlight is the left direction.
前記太陽光入射方向判定部は、前記車両用撮像装置が撮像する360度の方向を、前方向、後方向、右方向、左方向に加えて、右前方向、右後方向、左後方向、左前方向を含む複数の方向に分割して、太陽光の入射方向がいずれの方向であるかを判定し、
前記ハイダイナミックレンジ画像合成部は、
太陽光の入射方向が右前方向であるとき、前記長時間露光画像に基づく前記前方画像及び前記右側方画像の割合を増加させ、
太陽光の入射方向が右後方向であるとき、前記長時間露光画像に基づく前記後方画像及び前記右側方画像の割合を増加させ、
太陽光の入射方向が左後方向であるとき、前記長時間露光画像に基づく前記後方画像及び前記左側方画像の割合を増加させ、
太陽光の入射方向が左前方向であるとき、前記長時間露光画像に基づく前記前方画像及び前記左側方画像の割合を増加させる
請求項2に記載の車両用撮像装置。
The sunlight incident direction determination unit adds the 360-degree direction imaged by the vehicle imaging device to the front direction, the rear direction, the right direction, and the left direction, as well as the right front direction, the right rear direction, the left rear direction, and the left front. Divide into multiple directions including the direction to determine which direction the sunlight is incident on,
The high dynamic range image compositing unit
When the incident direction of sunlight is the front right direction, the ratio of the front image and the right side image based on the long exposure image is increased.
When the incident direction of sunlight is the rear right direction, the ratio of the rear image and the right side image based on the long-exposure image is increased.
When the incident direction of sunlight is the rear left direction, the ratio of the rear image and the left image based on the long-exposure image is increased.
The vehicle imaging device according to claim 2, wherein when the incident direction of sunlight is the left front direction, the ratio of the front image and the left side image based on the long-exposure image is increased.
車両内に取り付けられる車両用撮像装置の画像処理方法であり、
魚眼レンズを介して光が入射される撮像部が、第1の露光時間で360度の被写体を撮像した長時間露光画像と、前記第1の露光時間より短い第2の露光時間で360度の被写体を撮像した短時間露光画像を生成し、
前記長時間露光画像及び前記短時間露光画像に基づいて、前記車両の前後及び左右を判定して、前記長時間露光画像及び前記短時間露光画像のうちの前方画像領域、後方画像領域、右側方画像領域、及び左側方画像領域の周方向の位置を決定し、
前記長時間露光画像及び前記短時間露光画像のうち、前記前方画像領域、前記後方画像領域、前記右側方画像領域、及び前記左側方画像領域の各領域画像を抽出して、前方画像、後方画像、右側方画像、及び左側方画像の各方向画像を生成し、
前記長時間露光画像に基づいて生成した前方画像、後方画像、右側方画像、及び左側方画像と、前記短時間露光画像に基づいて生成した前方画像、後方画像、右側方画像、及び左側方画像とをそれぞれ合成してハイダイナミックレンジ合成画像を生成し、
前記車両用撮像装置に入射する太陽光の入射方向を判定し、
前記ハイダイナミックレンジ合成画像を生成するとき、前記前方画像、前記後方画像、前記右側方画像、及び前記左側方画像のうち、判定された太陽光の入射方向に応じて選択された前記長時間露光画像に基づく方向画像の割合を、非選択の前記長時間露光画像に基づく方向画像の割合よりも増加させる
画像処理方法。
This is an image processing method for an image pickup device for vehicles installed in a vehicle.
A long-exposure image in which the image pickup unit in which light is incident through a fisheye lens captures a 360-degree subject in the first exposure time and a 360-degree subject in the second exposure time shorter than the first exposure time. Generates a short-exposure image of the image
The front / rear and left / right sides of the vehicle are determined based on the long-exposure image and the short-time exposure image, and the front image region, the rear image region, and the right side of the long-exposure image and the short-time exposure image are determined. Determine the position of the image area and the left image area in the circumferential direction,
From the long-exposure image and the short-exposure image, each region image of the front image region, the rear image region, the right side image region, and the left side image region is extracted, and the front image and the rear image are extracted. , Right side image, and left side image in each direction,
Front image, rear image, right side image, and left side image generated based on the long exposure image, and front image, rear image, right side image, and left side image generated based on the short time exposure image. And each are combined to generate a high dynamic range composite image,
The direction of incidence of sunlight incident on the vehicle imaging device is determined, and the direction of incidence is determined.
When generating the high dynamic range composite image, the long exposure selected from the front image, the rear image, the right side image, and the left side image according to the incident direction of the determined sunlight. An image processing method that increases the proportion of directional images based on an image more than the proportion of directional images based on the unselected long-exposure image.
車両内に取り付けられる車両用撮像装置に搭載されるコンピュータに、
魚眼レンズを介して光が入射される撮像部によって、第1の露光時間で360度の被写体を撮像した長時間露光画像と、前記第1の露光時間より短い第2の露光時間で360度の被写体を撮像した短時間露光画像を生成するステップと、
前記長時間露光画像及び前記短時間露光画像に基づいて、前記車両の前後及び左右を判定して、前記長時間露光画像及び前記短時間露光画像のうちの前方画像領域、後方画像領域、右側方画像領域、及び左側方画像領域の周方向の位置を決定するステップと、
前記長時間露光画像及び前記短時間露光画像のうち、前記前方画像領域、前記後方画像領域、前記右側方画像領域、及び前記左側方画像領域の各領域画像を抽出して、前方画像、後方画像、右側方画像、及び左側方画像の各方向画像を生成するステップと、
前記長時間露光画像に基づいて生成した前方画像、後方画像、右側方画像、及び左側方画像と、前記短時間露光画像に基づいて生成した前方画像、後方画像、右側方画像、及び左側方画像とをそれぞれ合成してハイダイナミックレンジ合成画像を生成するステップと、
前記車両用撮像装置に入射する太陽光の入射方向を判定するステップと、
前記ハイダイナミックレンジ合成画像を生成するとき、前記前方画像、前記後方画像、前記右側方画像、及び前記左側方画像のうち、判定された太陽光の入射方向に応じて選択された前記長時間露光画像に基づく方向画像の割合を、非選択の前記長時間露光画像に基づく方向画像の割合よりも増加させるステップと、
を実行させる画像処理プログラム。
For computers installed in vehicle imaging devices installed in vehicles,
A long-exposure image in which a 360-degree subject is imaged in the first exposure time by an imaging unit in which light is incident through a fisheye lens, and a 360-degree subject in a second exposure time shorter than the first exposure time. And the step of generating a short-exposure image of the image
The front / rear and left / right sides of the vehicle are determined based on the long-exposure image and the short-time exposure image, and the front image region, the rear image region, and the right side of the long-exposure image and the short-time exposure image are determined. Steps to determine the circumferential position of the image area and the left image area,
From the long-exposure image and the short-exposure image, each region image of the front image region, the rear image region, the right side image region, and the left side image region is extracted, and the front image and the rear image are extracted. , A step to generate a right-side image, and a step to generate a left-side image in each direction,
Front image, rear image, right side image, and left side image generated based on the long exposure image, and front image, rear image, right side image, and left side image generated based on the short time exposure image. And the steps to generate a high dynamic range composite image by synthesizing each
A step of determining the incident direction of sunlight incident on the vehicle imaging device, and
When generating the high dynamic range composite image, the long exposure selected from the front image, the rear image, the right side image, and the left side image according to the incident direction of the determined sunlight. A step of increasing the proportion of directional images based on the image from the proportion of directional images based on the unselected long-exposure image.
An image processing program that executes.
JP2020066899A 2020-04-02 2020-04-02 Vehicle imaging device, image processing method, and image processing program Active JP7476627B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020066899A JP7476627B2 (en) 2020-04-02 2020-04-02 Vehicle imaging device, image processing method, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020066899A JP7476627B2 (en) 2020-04-02 2020-04-02 Vehicle imaging device, image processing method, and image processing program

Publications (2)

Publication Number Publication Date
JP2021164116A true JP2021164116A (en) 2021-10-11
JP7476627B2 JP7476627B2 (en) 2024-05-01

Family

ID=78003805

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020066899A Active JP7476627B2 (en) 2020-04-02 2020-04-02 Vehicle imaging device, image processing method, and image processing program

Country Status (1)

Country Link
JP (1) JP7476627B2 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5257487B2 (en) 2011-05-30 2013-08-07 ソニー株式会社 Imaging apparatus, imaging method, and program
US9800780B2 (en) 2013-05-16 2017-10-24 Sony Corporation Image processing device, image processing method, and program to capture an image using fisheye lens
JP2016054423A (en) 2014-09-04 2016-04-14 キヤノン株式会社 Imaging device, method for controlling the same, and program
WO2018190649A1 (en) 2017-04-12 2018-10-18 Samsung Electronics Co., Ltd. Method and apparatus for generating hdr images
JP7077100B2 (en) 2018-03-28 2022-05-30 キヤノン株式会社 Imaging device and its control method, and program

Also Published As

Publication number Publication date
JP7476627B2 (en) 2024-05-01

Similar Documents

Publication Publication Date Title
US9998675B2 (en) Rearview imaging system for vehicle
JP4812510B2 (en) Vehicle peripheral image generation apparatus and photometric adjustment method for imaging apparatus
US9001210B2 (en) Surveillance camera system
CN105594191B (en) Imaging device, image processing device, and image processing method
US8553081B2 (en) Apparatus and method for displaying an image of vehicle surroundings
JP4792976B2 (en) Imaging device
US20090051515A1 (en) Imaging Apparatus and Drive Recorder System
JP2014089513A (en) Image generation apparatus and image generation program
JP4756316B2 (en) Wide area image generation apparatus, vehicle periphery monitoring apparatus using the same, and wide area image generation method
JP2018064257A (en) Imaging System
JP2011124879A (en) Imaging system for vehicle and in-vehicle imaging apparatus
JP2021164116A (en) Imaging apparatus for vehicle, image processing method, and image processing program
JP2021164115A (en) Imaging apparatus for vehicle, image processing method, and image processing program
JP2021164117A (en) Imaging apparatus for vehicle, image processing method, and image processing program
JP2021164118A (en) Imaging apparatus for vehicle, image processing method, and image processing program
JP2021164114A (en) Imaging apparatus for vehicle, image processing method, and image processing program
JP2021164119A (en) Imaging apparatus for vehicle, image processing method, and image processing program
JP2021163379A (en) Imaging apparatus for vehicle, image processing method, and image processing program
JP2008147777A (en) Monitoring camera system
JP2020010123A (en) On-vehicle photographing apparatus, photographing system and photographing method
WO2016047037A1 (en) Vehicular image-processing apparatus
JP3848023B2 (en) Motion adaptive video sensitivity enhancement device
JP2013172378A (en) Image processing device and vehicle
JP2020088801A (en) Operation support device
JP2014235022A (en) Navigation device and navigation method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230331

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240308

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240319

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240401