JP7501059B2 - Vehicle imaging device, image processing method, and image processing program - Google Patents

Vehicle imaging device, image processing method, and image processing program Download PDF

Info

Publication number
JP7501059B2
JP7501059B2 JP2020066922A JP2020066922A JP7501059B2 JP 7501059 B2 JP7501059 B2 JP 7501059B2 JP 2020066922 A JP2020066922 A JP 2020066922A JP 2020066922 A JP2020066922 A JP 2020066922A JP 7501059 B2 JP7501059 B2 JP 7501059B2
Authority
JP
Japan
Prior art keywords
image
exposure time
vehicle
instrument panel
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020066922A
Other languages
Japanese (ja)
Other versions
JP2021164119A (en
Inventor
聡隆 村田
崇 日昔
優 北條
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2020066922A priority Critical patent/JP7501059B2/en
Publication of JP2021164119A publication Critical patent/JP2021164119A/en
Application granted granted Critical
Publication of JP7501059B2 publication Critical patent/JP7501059B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、魚眼レンズを用いて車両の前後及び左右の360度の被写体を撮像する車両用撮像装置、画像処理方法、及び画像処理プログラムに関する。 The present invention relates to an imaging device for vehicles that uses a fisheye lens to capture a subject in a 360-degree range in front, behind, left and right of the vehicle, an image processing method, and an image processing program.

特許文献1には、魚眼レンズを用いて車両の前後及び左右の360度の被写体を撮像する車両用撮像装置(いわゆるドライブレコーダ)が記載されている。 Patent Document 1 describes a vehicle imaging device (a so-called drive recorder) that uses a fisheye lens to capture images of subjects in a 360-degree range in front, behind, left and right of the vehicle.

特開2018-195348号公報JP 2018-195348 A

上記のような車両用撮像装置は、車両の前方、後方、右側方、及び左側方だけでなく、車内も撮像する。車両用撮像装置が車内を撮像した車内画像はインストルメントパネル付近の画像を含むから、適切な車内画像を生成することが求められる。 The above-mentioned vehicle imaging device captures images of the front, rear, right and left sides of the vehicle, as well as the interior of the vehicle. Since the images captured by the vehicle imaging device include images of the area near the instrument panel, it is necessary to generate an appropriate image of the interior of the vehicle.

本発明は、適切な車内画像を生成することができる車両用撮像装置、画像処理方法、及び画像処理プログラムを提供することを目的とする。 The present invention aims to provide a vehicle imaging device, an image processing method, and an image processing program that can generate appropriate in-vehicle images.

本発明は、車両内に取り付けられる車両用撮像装置であり、魚眼レンズを介して光が入射され、第1の露光時間で360度の被写体を撮像した長時間露光画像と、前記第1の露光時間より短い第2の露光時間で360度の被写体を撮像した短時間露光画像を生成する撮像部と、前記長時間露光画像と前記短時間露光画像とを所定の割合で合成するハイダイナミックレンジ画像合成部と、前記長時間露光画像及び前記短時間露光画像における前記車両の車内画像領域内に、前記車両のインストルメントパネルを含む領域であるインストルメントパネル領域と、前記インストルメントパネル領域以外の領域である非インストルメントパネル領域とを設定する領域設定部と、前記長時間露光画像及び前記短時間露光画像それぞれの最長露光時間に対する、前記インストルメントパネル領域の画像の明るさに応じた最適な露光時間の割合を第1の最適露光時間割合とし、前記長時間露光画像及び前記短時間露光画像それぞれの最長露光時間に対する、非インストルメントパネル領域の画像の明るさに応じた最適な露光時間の割合を第2の最適露光時間割合としたとき、前記インストルメントパネル領域と前記非インストルメントパネル領域との面積の比を考慮することなく、前記第1の最適露光時間割合と前記第2の最適露光時間割合との平均に基づいて、前記インストルメントパネル領域と前記非インストルメントパネル領域とで共通の第3の最適露光時間割合を設定するよう前記撮像部を制御する制御部とを備える車両用撮像装置を提供する。 The present invention relates to an imaging device for vehicles that is mounted inside a vehicle, the imaging device comprising: an imaging section that receives light through a fisheye lens and generates a long exposure image in which a 360-degree subject is imaged with a first exposure time, and a short exposure image in which a 360-degree subject is imaged with a second exposure time that is shorter than the first exposure time; a high dynamic range image synthesis section that synthesizes the long exposure image and the short exposure image at a predetermined ratio; a region setting section that sets an instrument panel region that is a region including the instrument panel of the vehicle and a non-instrument panel region that is a region other than the instrument panel region within an interior image region of the vehicle in the long exposure image and the short exposure image; and a control unit that controls the imaging unit to set a third optimal exposure time ratio common to the instrument panel area and the non-instrument panel area based on an average of the first optimal exposure time ratio and the second optimal exposure time ratio, without taking into consideration an area ratio between the instrument panel area and the non-instrument panel area, where a first optimal exposure time ratio is a ratio of an optimal exposure time corresponding to the brightness of an image of the instrument panel area to the long exposure time of each of the long exposure image and the short exposure image, and a second optimal exposure time ratio is a ratio of an optimal exposure time corresponding to the brightness of an image of a non-instrument panel area to the long exposure time of each of the long exposure image and the short exposure image.

本発明は、車両内に取り付けられる車両用撮像装置の画像処理方法であり、魚眼レンズを介して光が入射される撮像部が、第1の露光時間で360度の被写体を撮像した長時間露光画像と、前記第1の露光時間より短い第2の露光時間で360度の被写体を撮像した短時間露光画像を生成し、前記長時間露光画像と前記短時間露光画像とを所定の割合で合成してハイダイナミックレンジ合成画像を生成し、前記長時間露光画像及び前記短時間露光画像における前記車両の車内画像領域内に、前記車両のインストルメントパネルを含む領域であるインストルメントパネル領域と、前記インストルメントパネル領域以外の領域である非インストルメントパネル領域とを設定し、制御部が、前記長時間露光画像及び前記短時間露光画像それぞれの最長露光時間に対する、前記インストルメントパネル領域の画像の明るさに応じた最適な露光時間の割合を第1の最適露光時間割合とし、前記長時間露光画像及び前記短時間露光画像それぞれの最長露光時間に対する、非インストルメントパネル領域の画像の明るさに応じた最適な露光時間の割合を第2の最適露光時間割合としたとき、前記インストルメントパネル領域と前記非インストルメントパネル領域との面積の比を考慮することなく、前記第1の最適露光時間割合と前記第2の最適露光時間割合との平均に基づいて、前記インストルメントパネル領域と前記非インストルメントパネル領域とで共通の第3の最適露光時間割合を設定するよう前記撮像部を制御する画像処理方法を提供する。 The present invention relates to an image processing method for a vehicle imaging device mounted inside a vehicle, in which an imaging unit to which light is incident via a fisheye lens generates a long exposure image in which a 360-degree subject is imaged with a first exposure time and a short exposure image in which a 360-degree subject is imaged with a second exposure time shorter than the first exposure time, and generates a high dynamic range composite image by combining the long exposure image and the short exposure image at a predetermined ratio, and sets an instrument panel region that is a region including an instrument panel of the vehicle and a non-instrument panel region that is a region other than the instrument panel region within an interior image region of the vehicle in the long exposure image and the short exposure image, and a control unit controls the long exposure image and the short exposure image to be combined with each other. the ratio of the optimal exposure time corresponding to the brightness of the image of the instrument panel area to the longest exposure time of each of the long exposure images and the short exposure image is defined as a first optimal exposure time ratio, and the ratio of the optimal exposure time corresponding to the brightness of the image of the non-instrument panel area to the long exposure times of each of the long exposure image and the short exposure image is defined as a second optimal exposure time ratio, the image processing method controls the imaging unit to set a third optimal exposure time ratio common to the instrument panel area and the non-instrument panel area based on the average of the first optimal exposure time ratio and the second optimal exposure time ratio without taking into account the area ratio between the instrument panel area and the non-instrument panel area.

本発明は、車両内に取り付けられる車両用撮像装置に搭載されるコンピュータに、魚眼レンズを介して光が入射される撮像部によって、第1の露光時間で360度の被写体を撮像した長時間露光画像と、前記第1の露光時間より短い第2の露光時間で360度の被写体を撮像した短時間露光画像を生成するステップと、前記長時間露光画像と前記短時間露光画像とを所定の割合で合成してハイダイナミックレンジ合成画像を生成するステップと、前記長時間露光画像及び前記短時間露光画像における前記車両の車内画像領域内に、前記車両のインストルメントパネルを含む領域であるインストルメントパネル領域と、前記インストルメントパネル領域以外の領域である非インストルメントパネル領域とを設定するステップと、前記長時間露光画像及び前記短時間露光画像それぞれの最長露光時間に対する、前記インストルメントパネル領域の画像の明るさに応じた最適な露光時間の割合を第1の最適露光時間割合とし、前記長時間露光画像及び前記短時間露光画像それぞれの最長露光時間に対する、非インストルメントパネル領域の画像の明るさに応じた最適な露光時間の割合を第2の最適露光時間割合としたとき、前記インストルメントパネル領域と前記非インストルメントパネル領域との面積の比を考慮することなく、前記第1の最適露光時間割合と前記第2の最適露光時間割合との平均に基づいて、前記インストルメントパネル領域と前記非インストルメントパネル領域とで共通の第3の最適露光時間割合を設定するよう前記撮像部を制御するステップとを実行させる画像処理プログラムを提供する。 The present invention provides a computer mounted on a vehicle imaging device that is mounted inside a vehicle, the computer generating a long exposure image in which a 360-degree subject is captured with a first exposure time and a short exposure image in which a 360-degree subject is captured with a second exposure time shorter than the first exposure time, using an imaging section to which light is incident via a fisheye lens; a high dynamic range composite image generated by combining the long exposure image and the short exposure image at a predetermined ratio; setting an instrument panel region that is a region including an instrument panel of the vehicle and a non-instrument panel region that is a region other than the instrument panel region within an interior image region of the vehicle in the long exposure image and the short exposure image; and controlling the imaging unit to set a third optimal exposure time ratio common to the instrument panel area and the non-instrument panel area based on the average of the first optimal exposure time ratio and the second optimal exposure time ratio, without taking into account an area ratio between the instrument panel area and the non-instrument panel area, when a first optimal exposure time ratio is a ratio of an optimal exposure time corresponding to the brightness of an image of the instrument panel area to the longest exposure time of each of the short exposure images and the short exposure image, and a second optimal exposure time ratio is a ratio of an optimal exposure time corresponding to the brightness of an image of a non-instrument panel area to the long exposure time of each of the long exposure image and the short exposure image.

本発明の車両用撮像装置、画像処理方法、及び画像処理プログラムによれば、適切な車内画像を生成することができる。 The vehicle imaging device, image processing method, and image processing program of the present invention can generate appropriate in-vehicle images.

各実施形態の車両用撮像装置が車内に取り付けられた車両の一例を示す斜視図である。1 is a perspective view showing an example of a vehicle in which a vehicle imaging device according to each embodiment is installed inside the vehicle; 各実施形態の車両用撮像装置の具体的な構成例を示すブロック図である。FIG. 2 is a block diagram showing a specific configuration example of the vehicle imaging device according to each embodiment. 各実施形態の車両用撮像装置の撮像部が生成する360度の撮像画像であって、車両の前方を正しく判定した状態を示す概念図である。10 is a conceptual diagram showing a 360-degree captured image generated by an imaging unit of the vehicle imaging device of each embodiment, in which the state in front of the vehicle is correctly determined. FIG. 各実施形態の車両用撮像装置の撮像部が生成する360度の撮像画像であって、車両の前方を誤判定した状態の一例を示す概念図である。10A and 10B are conceptual diagrams illustrating an example of a 360-degree captured image generated by an imaging unit of the vehicle imaging device of each embodiment, in which an area ahead of the vehicle is erroneously determined. 図4に示す車両の前方を誤判定した状態の前方画像の一例を示す図である。5 is a diagram showing an example of a forward image in a state in which a forward direction of the vehicle shown in FIG. 4 is erroneously determined; FIG. 図4に示す車両の前方を誤判定した状態の後方画像の一例を示す図である。5 is a diagram showing an example of a rear image in a state in which a forward direction of the vehicle shown in FIG. 4 is erroneously determined; FIG. 図4に示す車両の前方を誤判定した状態の右側方画像の一例を示す図である。5 is a diagram showing an example of a right side image in a state in which a forward direction of the vehicle shown in FIG. 4 is erroneously determined; FIG. 図4に示す車両の前方を誤判定した状態の左側方画像の一例を示す図である。5 is a diagram showing an example of a left side image in a state in which a forward direction of the vehicle shown in FIG. 4 is erroneously determined; FIG. 図3に示す車両の前方を正しく判定した状態で、前方画像、後方画像、右側方画像、左側方画像において検出される動きベクトルを示す図である。4 is a diagram showing motion vectors detected in a front image, a rear image, a right side image, and a left side image in a state in which the front of the vehicle shown in FIG. 3 is correctly determined. FIG. 図4に示す車両の前方を誤判定した状態で、前方画像、後方画像、右側方画像、左側方画像において検出される動きベクトルを示す図である。5 is a diagram showing motion vectors detected in a front image, a rear image, a right side image, and a left side image in a state in which the front of the vehicle shown in FIG. 4 is erroneously determined. FIG. 第1実施形態で実行される処理を示すフローチャートである。4 is a flowchart showing a process executed in the first embodiment. 第1実施形態で図8に示すフローチャートに続けて実行される処理を示すフローチャートである。9 is a flowchart showing a process executed following the flowchart shown in FIG. 8 in the first embodiment. 前方画像の方向を車両の前方と一致させるよう調整した状態の前方画像の一例を示す図である。FIG. 13 is a diagram showing an example of a front image in a state where the direction of the front image has been adjusted to coincide with the front of the vehicle. 前方画像の方向を車両の前方と一致させるよう調整した状態の後方画像の一例を示す図である。FIG. 13 is a diagram showing an example of a rear image in a state where the direction of the front image has been adjusted to coincide with the front of the vehicle. 前方画像の方向を車両の前方と一致させるよう調整した状態の右側方画像の一例を示す図である。FIG. 13 is a diagram showing an example of a right side image in a state where the direction of the front image has been adjusted to coincide with the front of the vehicle. 前方画像の方向を車両の前方と一致させるよう調整した状態の左側方画像の一例を示す図である。FIG. 13 is a diagram showing an example of a left side image in a state where the direction of the front image has been adjusted to coincide with the front of the vehicle. 第2実施形態の車両用撮像装置において、右側方画像内または左側方画像内の被写体の画像のぶれを示す概念図である。13A and 13B are conceptual diagrams showing blurring of an image of a subject in a right side image or a left side image in a vehicle imaging device of a second embodiment. 第2実施形態の車両用撮像装置において、右側方画像内または左側方画像内の被写体の画像のぶれを補正した状態を示す概念図である。13 is a conceptual diagram showing a state in which blurring of an image of a subject in a right side image or a left side image is corrected in the vehicle imaging device of the second embodiment. FIG. 第2実施形態で実行される処理を示すフローチャートである。10 is a flowchart showing a process executed in a second embodiment. 第3実施形態の車両用撮像装置において、動きの方向が異なる複数の動きベクトルが検出される右側方画像の一例を示す図である。13 is a diagram showing an example of a right side image in which a plurality of motion vectors with different motion directions are detected in the vehicle imaging device of the third embodiment; FIG. 第3実施形態の車両用撮像装置において、単一の動きベクトルが検出される左側方画像の一例を示す図である。13 is a diagram showing an example of a left side image in which a single motion vector is detected in the vehicle imaging device of the third embodiment; FIG. 第3実施形態で実行される処理を示すフローチャートである。13 is a flowchart showing a process executed in the third embodiment. 自車両の前方及び後方に車両が走行し、自車両が走行する車線の右車線及び左車線に車両が走行している状態で、太陽光が白抜き矢印の方向から各車両を照らしている状態を示す概念図である。This is a conceptual diagram showing a state in which vehicles are traveling in front of and behind the vehicle, and in the right and left lanes of the lane in which the vehicle is traveling, with sunlight shining on each vehicle from the direction of the white arrows. 第4実施形態において太陽光の入射方向を8分割した状態を示す図である。FIG. 13 is a diagram showing a state in which the incident direction of sunlight is divided into eight in the fourth embodiment. 第4実施形態で実行される処理を示す部分的なフローチャートである。13 is a partial flowchart showing a process executed in a fourth embodiment. 図18Aに続く、第4実施形態で実行される処理を示す部分的なフローチャートである。18B is a partial flowchart illustrating the processing executed in the fourth embodiment, following FIG. 18A. 車両がトンネルに接近し、トンネルに入ってトンネル内を走行し、トンネルから出た状態を示す概念図である。1 is a conceptual diagram showing a state in which a vehicle approaches a tunnel, enters the tunnel, travels through the tunnel, and then exits the tunnel. 第5実施形態で実行される処理を示す部分的なフローチャートである。13 is a partial flowchart showing a process executed in the fifth embodiment. 図20Aに続く、第5実施形態で実行される処理を示す部分的なフローチャートである。20B is a partial flowchart illustrating the processing executed in the fifth embodiment, following FIG. 20A. 第6実施形態の車両用撮像装置の具体的な構成例を示すブロック図である。FIG. 23 is a block diagram showing a specific configuration example of a vehicle imaging device according to a sixth embodiment. 第6実施形態で実行される処理を示すフローチャートである。13 is a flowchart showing a process executed in the sixth embodiment. 第7実施形態において車内画像領域に設定されるインストルメントパネル領域及び非インストルメントパネル領域を示す概念図である。13 is a conceptual diagram showing an instrument panel area and a non-instrument panel area set in a vehicle interior image area in the seventh embodiment. FIG. 第7実施形態で実行される処理を示すフローチャートである。23 is a flowchart showing a process executed in the seventh embodiment. 長時間露光画像を生成する際の第1の露光時間と短時間露光画像を生成する際の第2の露光時間とを示す概念図である。4 is a conceptual diagram showing a first exposure time when generating a long exposure image and a second exposure time when generating a short exposure image. FIG.

以下、各実施形態の車両用撮像装置、画像処理方法、及び画像処理プログラムについて、添付図面を参照して説明する。 The vehicle imaging device, image processing method, and image processing program of each embodiment will be described below with reference to the attached drawings.

<第1実施形態>
図1において、車両200内のフロントガラス201の上部には、車両用撮像装置100が取り付けられている。車両用撮像装置100はいわゆるドライブレコーダである。車両用撮像装置100の取り付け位置はフロントガラス201に限定されない。車両用撮像装置100は魚眼レンズ11を備え、車内の上方から見た車内を含む車両200の前後及び左右の360度を撮像する。
First Embodiment
1, a vehicle imaging device 100 is attached to an upper portion of a windshield 201 inside a vehicle 200. The vehicle imaging device 100 is a so-called drive recorder. The mounting position of the vehicle imaging device 100 is not limited to the windshield 201. The vehicle imaging device 100 includes a fisheye lens 11, and captures 360-degree images of the vehicle 200 in the front, rear, left and right directions, including the interior of the vehicle as viewed from above.

図2は、車両用撮像装置100の具体的な構成例を示す。車両用撮像装置100は、魚眼レンズ11、撮像部12、画像処理部13、画像解析部14、通信部15、制御部16、記録再生部17、モニタ18を備え、撮像部12~モニタ18はバス19で接続されている。 Figure 2 shows a specific example of the configuration of the vehicle imaging device 100. The vehicle imaging device 100 includes a fisheye lens 11, an imaging unit 12, an image processing unit 13, an image analysis unit 14, a communication unit 15, a control unit 16, a recording and playback unit 17, and a monitor 18, and the imaging unit 12 to the monitor 18 are connected via a bus 19.

画像処理部13は、画像回転部131、画像抽出部132、ハイダイナミックレンジ画像合成部133を備える。以下、ハイダイナミックレンジをHDRと略記する。画像解析部14は、動きベクトル検出部141と前後左右判定部142を備える。制御部16は、計測部161を備える。記録再生部17は、記録媒体(記憶媒体)として着脱自在のメモリカード170を有する。記録媒体はメモリカードに限定されない。 The image processing unit 13 includes an image rotation unit 131, an image extraction unit 132, and a high dynamic range image synthesis unit 133. Hereinafter, high dynamic range will be abbreviated as HDR. The image analysis unit 14 includes a motion vector detection unit 141 and a front/back/left/right determination unit 142. The control unit 16 includes a measurement unit 161. The recording/playback unit 17 has a removable memory card 170 as a recording medium (storage medium). The recording medium is not limited to a memory card.

撮像部12は、CCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)である撮像素子を備える。撮像部12は、魚眼レンズ11を介して入射された被写体からの一点鎖線で示す光によって360度の被写体を撮像した撮像画像(全周画像)を生成する。 The imaging unit 12 has an imaging element that is a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor). The imaging unit 12 generates an image (panoramic image) of a 360-degree subject using light from the subject, indicated by the dashed dotted line, that is incident through the fisheye lens 11.

車両用撮像装置100が60フレーム/秒の撮像画像を生成する場合を例とすると、撮像部12は120フレーム/秒で被写体を撮像する。このとき、撮像部12は、隣接する2フレームのうちの一方を第1の露光時間(長時間)で露光し、他方を第1の時間より短い第2の露光時間(短時間)で露光する。撮像部12は電子シャッタを備え、制御部16による制御によって露光時間を任意に可変することができる。撮像部12は、360度の撮像画像として、長時間露光画像と短時間露光画像とを生成する。 As an example, in the case where the vehicle imaging device 100 generates captured images at 60 frames/second, the imaging unit 12 captures an image of a subject at 120 frames/second. At this time, the imaging unit 12 exposes one of two adjacent frames with a first exposure time (long time) and exposes the other with a second exposure time (short time) that is shorter than the first time. The imaging unit 12 has an electronic shutter, and can arbitrarily vary the exposure time under the control of the control unit 16. The imaging unit 12 generates a long exposure image and a short exposure image as 360-degree captured images.

撮像部12が生成した360度の長時間露光画像及び短時間露光画像は画像処理部13及び画像解析部14に供給される。 The 360-degree long-exposure image and short-exposure image generated by the imaging unit 12 are supplied to the image processing unit 13 and the image analysis unit 14.

図3に概念的に示すように、撮像部12が生成する360度の撮像画像は、撮像素子の矩形状の画素領域のうちの一部の円形の画素領域によって生成される。円形の画素領域によって生成される撮像画像は、車両200の車内の上方から見た車内画像領域と、車内画像領域の周囲の前方画像領域、後方画像領域、右側方画像領域、左側方画像領域とを含む。360度の撮像画像は撮像部12が魚眼レンズ11を介して被写体を撮像した撮像画像であるから、前方画像領域、後方画像領域、右側方画像領域、左側方画像領域における画像は大きく歪んでいる。 As conceptually shown in FIG. 3, the 360-degree captured image generated by the imaging unit 12 is generated by a circular pixel area that is a part of the rectangular pixel area of the imaging element. The captured image generated by the circular pixel area includes an interior image area seen from above inside the vehicle 200, and a front image area, rear image area, right side image area, and left side image area surrounding the interior image area. Because the 360-degree captured image is an image captured by the imaging unit 12 of a subject through the fisheye lens 11, the images in the front image area, rear image area, right side image area, and left side image area are significantly distorted.

図3に示す前方画像領域、後方画像領域、右側方画像領域、左側方画像領域の周方向の位置は単なる一例である。周方向のどの位置を前方画像領域、後方画像領域、右側方画像領域、左側方画像領域とするかは、動きベクトル検出部141によって検出される動きベクトル及び前後左右判定部142による判定に基づいて最終的に決定される。図3に示す前方画像領域は、車両200の前方が正しく判定されて、車両200のフロントガラス201の方向である破線の矩形で示す実際の前方を示す画像であるとする。 The circumferential positions of the forward image area, rear image area, right side image area, and left side image area shown in FIG. 3 are merely an example. Which circumferential positions are to be the forward image area, rear image area, right side image area, and left side image area is ultimately determined based on the motion vector detected by the motion vector detection unit 141 and the determination by the front/rear/left/right determination unit 142. The forward image area shown in FIG. 3 is an image in which the front of the vehicle 200 has been correctly determined, and which shows the actual front, indicated by the dashed rectangle in the direction of the windshield 201 of the vehicle 200.

車両用撮像装置100を最初に起動させたとき、HDR画像合成部133は長時間露光画像と短時間露光画像の360度の撮像画像を合成して、ダイナミックレンジを拡大した60フレーム/秒の合成画像(HDR合成画像)を生成する。HDR画像合成部133は、制御部16による制御に基づき、画像解析部14によって解析された画像の明るさに応じて、長時間露光画像と短時間露光画像とを所定の割合で混合する。但し、第1実施形態においては、HDR画像合成部133は省略されてもよい。 When the vehicle imaging device 100 is first started, the HDR image synthesis unit 133 synthesizes the 360-degree captured images of the long exposure image and the short exposure image to generate a 60 frames per second synthetic image (HDR synthetic image) with an expanded dynamic range. Under the control of the control unit 16, the HDR image synthesis unit 133 mixes the long exposure image and the short exposure image at a predetermined ratio according to the brightness of the image analyzed by the image analysis unit 14. However, in the first embodiment, the HDR image synthesis unit 133 may be omitted.

前後左右判定部142は、制御部16による制御に基づき、HDR画像合成部133によって生成された合成画像に基づいて車両200の前後及び左右を判定して、前方画像領域、後方画像領域、右側方画像領域、左側方画像領域の周方向の位置を仮判定する。前後左右の方向は後述の処理によって修正されることがあるから、ここでは前後左右の方向の仮判定とする。 The front/rear/left/right determination unit 142, under the control of the control unit 16, determines the front/rear and left/right of the vehicle 200 based on the composite image generated by the HDR image synthesis unit 133, and provisionally determines the circumferential positions of the front image area, rear image area, right side image area, and left side image area. The front/rear/left/right directions may be corrected by processing described later, so here, the front/rear/left/right directions are provisionally determined.

前後左右判定部142は、例えば、車両200のステアリングホイール202の画像に基づいて車両200の前方を判定する。ところが、車両用撮像装置100の取り付け位置、取り付け角度、向きによってステアリングホイール202の画像の状態が変化する。取り付け位置とは、車両用撮像装置100がステアリングホイール202のよりも前方に取り付けられているのか、後方に取り付けられているのかということである。取り付け角度とは、車両用撮像装置100の撮像中心が鉛直方向に対してどのような角度であるのかということである。向きとは、車両用撮像装置100を周方向のどのような方向に取り付けたかということである。 The front/rear/left/right determination unit 142 determines the front of the vehicle 200 based on, for example, an image of the steering wheel 202 of the vehicle 200. However, the state of the image of the steering wheel 202 changes depending on the mounting position, mounting angle, and orientation of the vehicle imaging device 100. The mounting position refers to whether the vehicle imaging device 100 is mounted in front of or behind the steering wheel 202. The mounting angle refers to the angle at which the imaging center of the vehicle imaging device 100 is positioned relative to the vertical direction. The orientation refers to the circumferential direction in which the vehicle imaging device 100 is mounted.

前後左右判定部142は、ステアリングホイール202の画像の状態によっては、車両200の前方を誤判定することがある。前後左右判定部142は、車両200のステアリングホイール202以外の画像に基づいて車両200の前方を判定してもよい。この場合も、前後左右判定部142は、車両200の前方を誤判定することがある。 Depending on the state of the image of the steering wheel 202, the front/rear/left/right determination unit 142 may erroneously determine the front of the vehicle 200. The front/rear/left/right determination unit 142 may determine the front of the vehicle 200 based on an image other than the steering wheel 202 of the vehicle 200. In this case, the front/rear/left/right determination unit 142 may also erroneously determine the front of the vehicle 200.

図4に示すように、前後左右判定部142が、車両200の進行方向から左方向に所定の角度だけずれた方向を前方と誤判定したとする。この場合、前後左右判定部142が前方画像領域、後方画像領域、右側方画像領域、左側方画像領域の周方向の位置を決定すると、前方画像領域は、破線の矩形で示す実際の車両200の前方を示す画像とは一致しない。 As shown in FIG. 4, suppose that the front/rear/left/right determination unit 142 erroneously determines that a direction shifted a predetermined angle to the left from the traveling direction of the vehicle 200 is the front. In this case, when the front/rear/left/right determination unit 142 determines the circumferential positions of the front image area, rear image area, right side image area, and left side image area, the front image area does not match the image showing the actual front of the vehicle 200, as indicated by the dashed rectangle.

ここでは、前方画像領域が車両200の進行方向から左方向に所定の角度だけずれた場合を示している。車両用撮像装置100の取り付け位置によっては、車両200の後方を前方と誤判定したり、右側方または左側方を前方と誤判定したりして、車両200の前方とは完全に異なる周方向の位置を前方画像領域と誤って決定する可能性もある。 Here, a case is shown in which the forward image area is shifted a predetermined angle to the left from the traveling direction of the vehicle 200. Depending on the mounting position of the vehicle imaging device 100, it may erroneously determine the rear of the vehicle 200 as the front, or the right or left side as the front, resulting in a circumferential position completely different from the front of the vehicle 200 being erroneously determined as the forward image area.

画像処理部13の画像回転部131は、後述するように、制御部16による制御に基づき、360度の撮像画像を回転することがある。画像抽出部132は、制御部16による制御に基づき、前後左右判定部142が周方向の位置を決定した前方画像領域、後方画像領域、右側方画像領域、左側方画像領域に基づいて各領域画像を抽出する。画像抽出部132は、人が車両200の前方、後方、左側方、右側方を通常見ている状態に近付けるように、抽出した大きく歪んだ前方画像領域、後方画像領域、右側方画像領域、左側方画像領域の各領域画像の魚眼レンズ11による歪を補正する。 As described below, the image rotation unit 131 of the image processing unit 13 may rotate the captured image 360 degrees based on the control of the control unit 16. Based on the control of the control unit 16, the image extraction unit 132 extracts each area image based on the front image area, rear image area, right side image area, and left side image area whose circumferential positions have been determined by the front/rear/left/right determination unit 142. The image extraction unit 132 corrects the distortion caused by the fisheye lens 11 in the extracted area images of the front image area, rear image area, right side image area, and left side image area, which are significantly distorted, so as to bring them closer to the state in which a person normally sees the front, rear, left side, and right side of the vehicle 200.

図5A~図5Dは、画像抽出部132が各領域画像を抽出して歪を補正した状態の前方画像20F、後方画像20B、右側方画像20R、左側方画像20Lの一例を概念的に示している。図5A~図5Dは、前後左右判定部142が車両200の進行方向から左方向に所定の角度だけずれた方向を前方と誤判定して、角度のずれを補正していない状態を示している。 Figures 5A to 5D conceptually show an example of a front image 20F, a rear image 20B, a right side image 20R, and a left side image 20L after the image extraction unit 132 has extracted each area image and corrected the distortion. Figures 5A to 5D show a state in which the front/rear/left/right determination unit 142 has erroneously determined that a direction shifted a certain angle to the left from the traveling direction of the vehicle 200 is the front, and the angle shift has not been corrected.

図5Aに示すように、前方画像20Fは左側のAピラー203AL側にずれている。図5Bに示すように、後方画像20Bは運転者300を含み、車両200の右側にずれている。図5Cに示すように、右側方画像20Rは前方側にずれている。図5Dに示すように、左側方画像20Lは、後方側にずれている。 As shown in FIG. 5A, the forward image 20F is shifted toward the left A-pillar 203AL. As shown in FIG. 5B, the rearward image 20B includes the driver 300 and is shifted to the right side of the vehicle 200. As shown in FIG. 5C, the rightward image 20R is shifted forward. As shown in FIG. 5D, the leftward image 20L is shifted backward.

動きベクトル検出部141は、前方画像領域、後方画像領域、右側方画像領域、左側方画像領域それぞれの動きベクトルを検出する。動きベクトル検出部141は、基本的には短時間露光画像に基づいて動きベクトルを検出する。動きベクトル検出部141は、短時間露光画像に基づいて動きベクトルを検出できないとき、または検出しにくいときに、長時間露光画像に基づいて動きベクトルを検出する。前方画像領域、後方画像領域、右側方画像領域、左側方画像領域の動きベクトルを、それぞれ、MVF、MVB、MVR、MVLと称することとする。 The motion vector detection unit 141 detects motion vectors for the front image area, rear image area, right side image area, and left side image area. The motion vector detection unit 141 basically detects motion vectors based on a short exposure image. When a motion vector cannot be detected based on a short exposure image, or is difficult to detect, the motion vector detection unit 141 detects a motion vector based on a long exposure image. The motion vectors for the front image area, rear image area, right side image area, and left side image area are referred to as MVF, MVB, MVR, and MVL, respectively.

図6は、図3に示すように車両200の前方が正しく判定されて、前方画像20Fが実際の車両200の前方と一致した状態の動きベクトルMVF、MVB、MVR、MVLを示している。図6及び後述する図7においては、右側方画像20R及び左側方画像20Lを90度回転させた状態としている。前方画像20F内の動きベクトルMVFは、発散を開始する一点を消失点Pv1として放射状に発散する。後方画像20B内の動きベクトルMVBは、収束する一点を消失点Pv2として収束する。右側方画像20Rの動きベクトルMVR及び左側方画像20Lの動きベクトルMVLは、前方から後方へと向かう。 Figure 6 shows the motion vectors MVF, MVB, MVR, and MVL when the front of the vehicle 200 is correctly determined as shown in Figure 3 and the front image 20F matches the actual front of the vehicle 200. In Figure 6 and Figure 7 described later, the right side image 20R and the left side image 20L are rotated by 90 degrees. The motion vector MVF in the front image 20F diverges radially from a vanishing point Pv1, which is a point where the divergence begins. The motion vector MVB in the rear image 20B converges from a vanishing point Pv2, which is a point where they converge. The motion vector MVR of the right side image 20R and the motion vector MVL of the left side image 20L are directed from the front to the rear.

前方画像20Fが実際の車両200の前方と一致していれば、前方画像20Fの消失点Pv1は、前方画像20Fの左右方向のほぼ中央Hctrに位置する。 If the forward image 20F coincides with the front of the actual vehicle 200, the vanishing point Pv1 of the forward image 20F will be located at approximately the center Hctr in the left-right direction of the forward image 20F.

図7は、図4に示すように車両200の前方が誤判定されて、前方画像20Fが実際の車両前方よりも左方向に所定の角度だけずれた状態の動きベクトルMVF、MVB、MVR、MVLを示している。前方画像20Fが実際の車両200の前方と一致しておらず、左方向に所定の角度だけずれているので、前方画像20Fの消失点Pv1は、前方画像20Fの左右方向のほぼ中央Hctrよりも右側に位置する。 Figure 7 shows the motion vectors MVF, MVB, MVR, and MVL in a state where the front of the vehicle 200 is misjudged as shown in Figure 4, and the front image 20F is shifted a predetermined angle to the left from the actual front of the vehicle. Because the front image 20F does not match the actual front of the vehicle 200 and is shifted a predetermined angle to the left, the vanishing point Pv1 of the front image 20F is located to the right of approximately the center Hctr in the left-right direction of the front image 20F.

第1実施形態の車両用撮像装置100において、画像回転部131は、前方画像20Fと実際の車両前方とのずれを解消するために、消失点Pv1を中央Hctrに一致させるように、図4に示す360度の撮像画像を右方向に回転させる。すると、図3のように、前方画像領域は破線の矩形で示す実際の車両200の前方と一致した状態となり、前方画像20Fは車両200の前方を示す画像となる。 In the vehicle imaging device 100 of the first embodiment, the image rotation unit 131 rotates the 360-degree captured image shown in FIG. 4 to the right so that the vanishing point Pv1 coincides with the center Hctr in order to eliminate the misalignment between the forward image 20F and the actual area in front of the vehicle. Then, as shown in FIG. 3, the forward image area coincides with the actual area in front of the vehicle 200 shown by the dashed rectangle, and the forward image 20F becomes an image showing the area in front of the vehicle 200.

画像抽出部132は、前方画像20Fと実際の車両前方とのずれが解消された状態で、前方画像領域、後方画像領域、右側方画像領域、左側方画像領域の各領域画像を抽出して、歪を補正した前方画像20F、後方画像20B、右側方画像20R、左側方画像20Lを生成する。 The image extraction unit 132 extracts images of the front image area, rear image area, right side image area, and left side image area with the misalignment between the front image 20F and the actual area in front of the vehicle eliminated, and generates the front image 20F, rear image 20B, right side image 20R, and left side image 20L with the distortion corrected.

前方画像20Fと実際の車両前方とのずれを解消すると、前方画像20F、後方画像20B、右側方画像20R、左側方画像20Lは、車両200の前方が正しく判定された図6と等価の状態となる。 When the misalignment between the forward image 20F and the actual area in front of the vehicle is eliminated, the forward image 20F, rear image 20B, right side image 20R, and left side image 20L are in a state equivalent to that shown in Figure 6, where the area in front of the vehicle 200 is correctly determined.

ここでは、前方画像20Fが車両200の進行方向から左方向に所定の角度だけずれた状態で画像回転部131がずれを解消して、画像抽出部132が各領域画像を抽出した場合を例としている。上記のように、車両200の前方とは完全に異なる周方向の位置を前方画像領域と誤って決定することがある。この場合、誤った前方画像領域に基づいて抽出した前方画像20F内には消失点Pv1は存在しない。前方画像20F内に消失点Pv1は存在しない場合であっても、画像回転部131は、消失点Pv1を前方画像20Fの中央Hctrに一致させるように、360度の撮像画像を回転させればよい。 Here, an example is taken in which the image rotation unit 131 corrects the misalignment when the forward image 20F is misaligned a predetermined angle to the left from the traveling direction of the vehicle 200, and the image extraction unit 132 extracts each area image. As described above, a circumferential position that is completely different from the front of the vehicle 200 may be mistakenly determined as the forward image area. In this case, the vanishing point Pv1 does not exist in the forward image 20F extracted based on the incorrect forward image area. Even if the vanishing point Pv1 does not exist in the forward image 20F, the image rotation unit 131 can simply rotate the captured image 360 degrees so that the vanishing point Pv1 coincides with the center Hctr of the forward image 20F.

以上のようにして、画像回転部131が360度の撮像画像を回転させて前方画像20Fと実際の車両前方とのずれを解消し、画像抽出部132が各領域画像を抽出して歪を補正する。HDR画像合成部133は、長時間露光画像と短時間露光画像の歪が補正された前方画像20F、後方画像20B、右側方画像20R、左側方画像20Lを画像合成する。 In this way, the image rotation unit 131 rotates the captured image 360 degrees to eliminate the misalignment between the forward image 20F and the actual area in front of the vehicle, and the image extraction unit 132 extracts each area image and corrects the distortion. The HDR image synthesis unit 133 synthesizes the forward image 20F, rear image 20B, right side image 20R, and left side image 20L, with the distortions of the long exposure image and short exposure image corrected.

制御部16は、HDR画像合成部133による画像合成後の前方画像20F、後方画像20B、右側方画像20R、左側方画像20Lをメモリカード170に記録するよう制御する。制御部16は、図4に示すような撮像部12が生成する長時間露光画像及び短時間露光画像の360度の撮像画像を長時間露光画像と短時間露光画像に記録するよう制御してもよい。制御部16は、前方画像20F、後方画像20B、右側方画像20R、左側方画像20Lと、360度の撮像画像との双方を記録するよう制御するのがよい。 The control unit 16 controls the recording of the front image 20F, rear image 20B, right side image 20R, and left side image 20L after image synthesis by the HDR image synthesis unit 133 on the memory card 170. The control unit 16 may also control the recording of the 360-degree captured images of the long exposure image and short exposure image generated by the imaging unit 12 as shown in FIG. 4 as the long exposure image and short exposure image. It is preferable that the control unit 16 controls the recording of both the front image 20F, rear image 20B, right side image 20R, left side image 20L, and the 360-degree captured image.

制御部16は、モニタ18に、フレーム内に前方画像20F、後方画像20B、右側方画像20R、左側方画像20Lを配置した4分割画像を表示するよう制御してもよい。制御部16は、モニタ18に、フレーム内に後方画像20B及び右側方画像20Rを配置した2分割画像を表示するよう制御してもよい。制御部16は、モニタ18に、前方画像20F、後方画像20B、右側方画像20R、左側方画像20Lのうちの選択した1つの画像(例えば前方画像20F)のみ表示するよう制御してもよい。 The control unit 16 may control the monitor 18 to display a four-split image in which a front image 20F, a rear image 20B, a right side image 20R, and a left side image 20L are arranged within a frame. The control unit 16 may control the monitor 18 to display a two-split image in which a rear image 20B and a right side image 20R are arranged within a frame. The control unit 16 may control the monitor 18 to display only one selected image (for example, the front image 20F) from the front image 20F, the rear image 20B, the right side image 20R, and the left side image 20L.

通信部15は、制御部16による制御に基づき、車両用撮像装置100が撮像している画像を、または記録再生部17に記録した画像を外部に送信してもよい。通信部15は省略されてもよい。 The communication unit 15 may transmit to the outside the images captured by the vehicle imaging device 100 or the images recorded in the recording and playback unit 17 based on the control by the control unit 16. The communication unit 15 may be omitted.

図8及び図9に示すフローチャートを用いて、画像処理部13、画像解析部14、または制御部16が実行する処理を説明する。図8において、処理が開始されると、前後左右判定部142は、ステップS1にて、撮像画像(HDR画像合成部133より出力された合成画像)に基づいて前後左右の方向を仮判定する。 The process executed by the image processing unit 13, the image analysis unit 14, or the control unit 16 will be described with reference to the flowcharts shown in Figures 8 and 9. In Figure 8, when the process starts, the front/rear/left/right determination unit 142 provisionally determines the front/rear/left/right directions based on the captured image (the composite image output from the HDR image synthesis unit 133) in step S1.

画像解析部14は、ステップS2にて、車両200が移動したか否かを判定する。画像解析部14は、動きベクトル検出部141が動きベクトルを検出したら、車両200が移動したと判定することができる。制御部16が、車両200のCAN(Controller Area Network)から供給される情報に基づいて車両200が移動したか否かを判定してもよい。 In step S2, the image analysis unit 14 determines whether the vehicle 200 has moved. When the motion vector detection unit 141 detects a motion vector, the image analysis unit 14 can determine that the vehicle 200 has moved. The control unit 16 may determine whether the vehicle 200 has moved based on information supplied from a CAN (Controller Area Network) of the vehicle 200.

車両200が移動しなければ(NO)、画像解析部14(または制御部16)はステップS2の処理を繰り返す。車両200が移動すれば(YES)、画像回転部131は、ステップS3にて、発散する動きベクトルの消失点Pv1に基づいて360度の撮像画像を回転させて、前方画像20Fの方向を調整して、処理を一旦終了させる。 If the vehicle 200 is not moving (NO), the image analysis unit 14 (or the control unit 16) repeats the process of step S2. If the vehicle 200 is moving (YES), in step S3, the image rotation unit 131 rotates the captured image 360 degrees based on the vanishing point Pv1 of the diverging motion vector, adjusts the direction of the forward image 20F, and temporarily ends the process.

図9において、処理が開始されると、動きベクトル検出部141は、ステップS11にて、発散する動きベクトルの消失点Pv1と、収束する動きベクトルの消失点Pv2を検出する。計測部161は、ステップS12にて、前方画像20F内に位置する消失点Pv1の発生時間と消失点Pv2の発生時間を測定する。 In FIG. 9, when processing starts, the motion vector detection unit 141 detects the vanishing point Pv1 of the diverging motion vector and the vanishing point Pv2 of the converging motion vector in step S11. The measurement unit 161 measures the occurrence time of the vanishing point Pv1 and the vanishing point Pv2 located in the forward image 20F in step S12.

制御部16は、ステップS13にて、所定時間経過したか否かを判定する。所定時間は例えば10分間である。所定時間経過していなければ(NO)、制御部16はステップS13の処理を繰り返す。所定時間経過していれば(YES)、制御部16は、ステップS14にて、消失点Pv1の発生時間が消失点Pv2の発生時間より長いか否かを判定する。発生時間とは所定時間内での延べ発生時間である。 In step S13, the control unit 16 determines whether or not a predetermined time has elapsed. The predetermined time is, for example, 10 minutes. If the predetermined time has not elapsed (NO), the control unit 16 repeats the process of step S13. If the predetermined time has elapsed (YES), the control unit 16 determines in step S14 whether or not the occurrence time of vanishing point Pv1 is longer than the occurrence time of vanishing point Pv2. The occurrence time is the total occurrence time within the predetermined time.

ステップS14にて消失点Pv1の発生時間が消失点Pv2の発生時間より長ければ(YES)、図8のステップS3にて方向を調整した前方画像20Fは、実際の車両200の前方と一致していると判定される。そこで、制御部16、画像処理部13、及び画像解析部14は、そのまま処理を終了させる。 If it is determined in step S14 that the time when vanishing point Pv1 occurred is longer than the time when vanishing point Pv2 occurred (YES), it is determined that the forward image 20F whose direction has been adjusted in step S3 of FIG. 8 coincides with the actual forward area of the vehicle 200. Therefore, the control unit 16, the image processing unit 13, and the image analysis unit 14 end the process.

この場合、HDR画像合成部133は、ステップS3にて方向を調整した長時間露光画像と短時間露光画像の前方画像20F、後方画像20B、右側方画像20R、左側方画像20Lを画像合成して出力する。 In this case, the HDR image synthesis unit 133 synthesizes the forward image 20F, the rear image 20B, the right side image 20R, and the left side image 20L of the long exposure image and the short exposure image whose directions have been adjusted in step S3, and outputs the synthesized image.

ステップS14にて消失点Pv1の発生時間が消失点Pv2の発生時間より長くなければ(NO)、図8のステップS3にて方向を調整した前方画像20Fは、実際の車両200の前方ではなく、後方であると判定される。これは、図8のステップS2にて車両200が後退して、車両200の後方の画像内に一時的に発生した消失点Pv1に基づいて前方画像20Fの方向を調整したことによる。 If the occurrence time of vanishing point Pv1 is not longer than the occurrence time of vanishing point Pv2 in step S14 (NO), it is determined that the forward image 20F whose direction has been adjusted in step S3 of FIG. 8 is not the front of the actual vehicle 200 but the rear. This is because the vehicle 200 backs up in step S2 of FIG. 8, and the direction of the forward image 20F is adjusted based on vanishing point Pv1 that temporarily occurs in the image behind the vehicle 200.

そこで、ステップS14にて消失点Pv1の発生時間が消失点Pv2の発生時間より長くなければ、前後左右判定部142は、ステップS15にて、前後方向を反転させる。即ち、前後左右判定部142は、前方画像領域と後方画像領域とを反転し、右側方画像領域と左側方画像領域とを反転する。画像回転部131は、ステップS16にて、消失点Pv1に基づいて360度の撮像画像を回転させて、前方画像20Fの方向を調整して、処理を終了させる。 Therefore, if the occurrence time of vanishing point Pv1 is not longer than the occurrence time of vanishing point Pv2 in step S14, the front/rear/left/right determination unit 142 inverts the front/rear direction in step S15. That is, the front/rear/left/right determination unit 142 inverts the front image area and the rear image area, and inverts the right side image area and the left side image area. In step S16, the image rotation unit 131 rotates the captured image 360 degrees based on the vanishing point Pv1, adjusts the direction of the front image 20F, and ends the process.

この場合、HDR画像合成部133は、ステップS15にて前後方向を反転してステップS16にて方向を調整した長時間露光画像と短時間露光画像の前方画像20F、後方画像20B、右側方画像20R、左側方画像20Lを画像合成して出力する。 In this case, the HDR image synthesis unit 133 synthesizes and outputs the front image 20F, rear image 20B, right side image 20R, and left side image 20L of the long exposure image and short exposure image whose front-to-rear direction has been inverted in step S15 and whose direction has been adjusted in step S16.

ステップS16の処理を設けることは必須ではないが、設けることが好ましい。 It is not necessary to include step S16, but it is preferable to include it.

図10A~図10Dは、以上の処理によって、前方画像20Fの方向を車両200の前方と一致させるように調整した状態の、前方画像20F、後方画像20B、右側方画像20R、左側方画像20Lの一例を概念的に示している。図10Aに示すように、前方画像20Fの左側のAピラー203AL側へのずれが解消されている。図10Bに示すように、後方画像20Bの車両200の右側へのずれが解消されている。図10Cに示すように、右側方画像20Rの前方側へのずれが解消されている。図10Dに示すように、左側方画像20Lの後方側へのずれが解消されている。 Figures 10A to 10D conceptually show an example of the front image 20F, rear image 20B, right side image 20R, and left side image 20L in a state where the direction of the front image 20F has been adjusted to match the front of the vehicle 200 by the above processing. As shown in Figure 10A, the deviation of the front image 20F toward the left A-pillar 203AL side has been eliminated. As shown in Figure 10B, the deviation of the rear image 20B toward the right side of the vehicle 200 has been eliminated. As shown in Figure 10C, the deviation of the right side image 20R toward the front side has been eliminated. As shown in Figure 10D, the deviation of the left side image 20L toward the rear side has been eliminated.

第1実施形態において、右側方画像20R及び左側方画像20Lの生成を省略して、前方画像20F及び後方画像20Bのみを生成してもよい。 In the first embodiment, the generation of the right side image 20R and the left side image 20L may be omitted, and only the front image 20F and the rear image 20B may be generated.

以上のように、第1実施形態の車両用撮像装置100は、画像回転部131、画像抽出部132、前後左右判定部142、動きベクトル検出部141、計測部161を備える。動きベクトル検出部141は、撮像部12が360度の被写体を撮像した撮像画像の動きベクトルを検出する。前後左右判定部142は、撮像画像に基づいて、車両200の前後及び左右を判定して、撮像画像のうちの少なくとも前方画像領域及び後方画像領域の周方向の位置を決定する。 As described above, the vehicle imaging device 100 of the first embodiment includes an image rotation unit 131, an image extraction unit 132, a front/rear/left/right determination unit 142, a motion vector detection unit 141, and a measurement unit 161. The motion vector detection unit 141 detects the motion vector of the captured image of a subject captured by the imaging unit 12 through 360 degrees. The front/rear/left/right determination unit 142 determines the front/rear and left/right of the vehicle 200 based on the captured image, and determines the circumferential positions of at least the front image region and the rear image region of the captured image.

画像回転部131は、車両200が移動を開始した直後に動きベクトル検出部141によって検出される動きベクトルのうち、放射状に発散する複数の動きベクトルの消失点Pv1(第1の消失点)に基づいて撮像画像を回転させる。これによって、画像回転部131は、前方画像領域及び後方画像領域の周方向の位置を調整する。 The image rotation unit 131 rotates the captured image based on the vanishing point Pv1 (first vanishing point) of multiple radially diverging motion vectors among those detected by the motion vector detection unit 141 immediately after the vehicle 200 starts moving. In this way, the image rotation unit 131 adjusts the circumferential positions of the forward image area and the rearward image area.

計測部161は、画像回転部131が前方画像領域及び後方画像領域の周方向の位置を調整した状態で、所定時間内に、前方画像領域に発生する消失点Pv1の第1の発生時間を計測する。また、計測部161は、その所定時間内に、前方画像領域に発生する、収束する複数の動きベクトルの消失点Pv2(第2の消失点)の第2の発生時間を計測する。 The measurement unit 161 measures the first occurrence time of a vanishing point Pv1 that occurs in the forward image area within a predetermined time period while the image rotation unit 131 has adjusted the circumferential positions of the forward image area and the rearward image area. The measurement unit 161 also measures the second occurrence time of a vanishing point Pv2 (second vanishing point) of multiple converging motion vectors that occurs in the forward image area within the predetermined time period.

画像回転部131は、計測部161によって、第1の発生時間が第2の発生時間より長く計測されたとき、前方画像領域及び後方画像領域の周方向の位置を維持する。画像回転部131は、計測部161によって、第1の発生時間が第2の発生時間より長く計測されなかったとき、前方画像領域と後方画像領域とを反転するよう撮像画像を回転させる。 The image rotation unit 131 maintains the circumferential positions of the forward image area and the rearward image area when the measurement unit 161 measures that the first occurrence time is longer than the second occurrence time. The image rotation unit 131 rotates the captured image to invert the forward image area and the rearward image area when the measurement unit 161 measures that the first occurrence time is not longer than the second occurrence time.

画像抽出部132は、撮像画像のうち、画像回転部131によって維持された、または反転された、前方画像領域及び後方画像領域の各領域画像を抽出して、前方画像20F及び後方画像20Bを生成する。 The image extraction unit 132 extracts the area images of the front image area and the rear image area that have been maintained or inverted by the image rotation unit 131 from the captured image, and generates the front image 20F and the rear image 20B.

以上のようにして、第1実施形態の車両用撮像装置100によれば、360度の撮像画像から車両の前方画像領域及び後方画像領域を正しく抽出して、前方画像20F及び後方画像20Bを生成することができる。 As described above, the vehicle imaging device 100 of the first embodiment can correctly extract the front image area and rear image area of the vehicle from a 360-degree captured image to generate a front image 20F and a rear image 20B.

画像回転部131は、前方画像領域と後方画像領域とを反転するよう撮像画像を回転した後、新たに前方画像領域とされた領域画像内に発生する消失点Pv1に基づいて撮像画像を回転させて、前方画像領域及び後方画像領域の周方向の位置を調整することが好ましい。 It is preferable that the image rotation unit 131 rotates the captured image to invert the forward image area and the rearward image area, and then rotates the captured image based on a vanishing point Pv1 that occurs within the area image newly designated as the forward image area, thereby adjusting the circumferential positions of the forward image area and the rearward image area.

画像抽出部132は、人が車両200の前方及び後方を見ている状態に近付けるよう、抽出した前方画像領域及び後方画像領域の歪を補正して、前方画像20F及び後方画像20Bを生成することが好ましい。 It is preferable that the image extraction unit 132 corrects distortions in the extracted front image area and rear image area to generate the front image 20F and rear image 20B so as to approximate the state in which a person is looking at the front and rear of the vehicle 200.

前後左右判定部142は、前方画像領域及び後方画像領域に加えて、撮像画像のうちの右側方画像領域及び左側方画像領域の周方向の位置を決定することが好ましい。画像回転部131は、前方画像領域及び後方画像領域に加えて、右側方画像領域及び左側方画像領域の周方向の位置を調整することが好ましい。画像抽出部132は、前方画像領域及び後方画像領域に加えて、撮像画像のうち、右側方画像領域及び左側方画像領域の各領域画像を抽出して、右側方画像20R及び左側方画像20Lを生成することが好ましい。 It is preferable that the front/rear/left/right determination unit 142 determines the circumferential positions of the right side image region and the left side image region of the captured image in addition to the front image region and the rear image region. It is preferable that the image rotation unit 131 adjusts the circumferential positions of the right side image region and the left side image region in addition to the front image region and the rear image region. It is preferable that the image extraction unit 132 extracts each area image of the right side image region and the left side image region of the captured image in addition to the front image region and the rear image region, to generate the right side image 20R and the left side image 20L.

<第2実施形態>
第2実施形態は、車両用撮像装置100が撮像する被写体の画像のぶれをどのように補正すべきかを検討し、画像のぶれを適切に補正することができる車両用撮像装置100を提供する。第2実施形態において、第1実施形態と共通部分の説明を省略する。第2実施形態の車両用撮像装置100の具体的な構成は、図2と同様である。
Second Embodiment
In the second embodiment, a method for correcting blur in an image of a subject captured by the vehicle imaging device 100 is considered, and a vehicle imaging device 100 capable of appropriately correcting blur in the image is provided. In the second embodiment, a description of parts common to the first embodiment will be omitted. The specific configuration of the vehicle imaging device 100 of the second embodiment is the same as that shown in FIG.

図11は、標識等の被写体が車両200の前方にあり、車両200の移動に伴って被写体に近付いて被写体の横を通過し、相対的に被写体が後方に移動していく状態を概念的に示している。標識等の被写体が前方画像20F、右側方画像20R、及び後方画像20Bに同時に現れているのではなく、相対的に位置が変化する被写体を前方画像20F、右側方画像20R、及び後方画像20Bに同時に示している。 Figure 11 conceptually illustrates a state in which a subject such as a sign is in front of the vehicle 200, and as the vehicle 200 moves, it approaches the subject and passes beside the subject, causing the subject to move relatively backward. The subject such as a sign does not appear in the front image 20F, right side image 20R, and rear image 20B simultaneously, but rather the subject, whose position changes relatively, is shown in the front image 20F, right side image 20R, and rear image 20B simultaneously.

前方画像20F及び後方画像20Bにおいては、被写体の時間的な変化が少ないため、物体の長時間露光画像21Lと短時間露光画像21Sとの位置はほとんどずれず、被写体の画像はぶれない。ところが、右側方画像20R及び左側方画像20Lにおいては、車両200の近くに位置する被写体の撮像画像の時間的な変化が大きいため、撮像タイミングのずれに伴って長時間露光画像21Lと短時間露光画像21Sとの位置がずれ、被写体の画像がぶれる。 In the front image 20F and the rear image 20B, there is little change in the subject over time, so there is almost no shift in the position of the long exposure image 21L and the short exposure image 21S of the object, and the image of the subject does not blur. However, in the right side image 20R and the left side image 20L, there is a large change in the captured image of the subject located near the vehicle 200 over time, so the position of the long exposure image 21L and the short exposure image 21S shifts due to a shift in the capture timing, and the image of the subject blurs.

このように、右側方画像20R及び左側方画像20Lにおける被写体の画像は、前方画像20F及び後方画像20Bにおける被写体の画像よりぶれやすい。そこで、第2実施形態においては、次のようにして右側方画像20R及び左側方画像20Lにおける被写体の画像のみ、ぶれを補正する。 As such, the image of the subject in the right side image 20R and the left side image 20L is more likely to blur than the image of the subject in the front image 20F and the rear image 20B. Therefore, in the second embodiment, blur is corrected only for the image of the subject in the right side image 20R and the left side image 20L as follows.

図11に示す例では、HDR画像合成部133は、右側方画像20Rにおいて、動きベクトルに基づいて先に得られている長時間露光画像21Lを短時間露光画像21Sの位置に一致させるようずらした上で、長時間露光画像21Lと短時間露光画像21Sとを合成する。図11では、撮長時間露光を先に短時間露光を後にしている例を示しているが、逆であってもよい。 In the example shown in FIG. 11, the HDR image synthesis unit 133 shifts the previously obtained long exposure image 21L based on the motion vector so that the position of the long exposure image 21S coincides with the position of the short exposure image 21S in the right side image 20R, and then synthesizes the long exposure image 21L and the short exposure image 21S. Although FIG. 11 shows an example in which the long exposure is taken first and the short exposure is taken after, the reverse may also be true.

図12に示すように、HDR画像合成部133による画像のぶれを補正する処理によって、右側方画像20Rにおいて画像のぶれが補正された被写体の画像21が得られる。前方画像20F及び後方画像20Bにおいては、被写体の時間的な変化が少ないため、HDR画像合成部133による画像のぶれを補正する処理を実行しなくても、ぶれていない画像21が得られる。 As shown in FIG. 12, the image blur correction process by the HDR image synthesis unit 133 results in an image 21 of the subject in the right side image 20R in which image blur has been corrected. In the front image 20F and the rear image 20B, there is little change in the subject over time, so an unblurred image 21 can be obtained without performing the image blur correction process by the HDR image synthesis unit 133.

図13に示すフローチャートを用いて、第2実施形態において、画像処理部13または制御部16が実行する処理を説明する。処理が開始されると、画像抽出部132は、ステップS21にて、右側方画像領域及び左側方画像領域を抽出する。ステップS21は、第1実施形態と同様に、前方画像領域、後方画像領域、右側方画像領域、左側方画像領域を抽出する処理であってもよい。 The process executed by the image processing unit 13 or the control unit 16 in the second embodiment will be described using the flowchart shown in FIG. 13. When the process starts, the image extraction unit 132 extracts the right side image area and the left side image area in step S21. Step S21 may be a process of extracting the front image area, the rear image area, the right side image area, and the left side image area, as in the first embodiment.

HDR画像合成部133は、ステップS22にて、右側方画像領域及び左側方画像領域における長時間露光画像と短時間露光画像とを動きベクトルを参照して合成する。これによって、長時間露光画像21Lに基づく右側方画像または左側方画像に含まれている所定の被写体と短時間露光画像21Sに基づく右側方画像及び左側方画像に含まれているその所定の被写体との撮像タイミングのずれに伴う画像のぶれが補正される。 In step S22, the HDR image synthesis unit 133 synthesizes the long exposure image and the short exposure image in the right side image area and the left side image area with reference to the motion vector. This corrects image blurring caused by a difference in the imaging timing between a specific subject included in the right side image or the left side image based on the long exposure image 21L and the specific subject included in the right side image or the left side image based on the short exposure image 21S.

制御部16は、ステップS23にて、車両用撮像装置100の電源がオフされたか否かを判定する。車両用撮像装置100の電源がオフされなければ(NO)、制御部16及び画像処理部13はステップS21~S23の処理を繰り返す。車両用撮像装置100の電源がオフされれば(YES)、制御部16は処理を終了させる。 In step S23, the control unit 16 determines whether the power of the vehicle imaging device 100 has been turned off. If the power of the vehicle imaging device 100 has not been turned off (NO), the control unit 16 and image processing unit 13 repeat the processing of steps S21 to S23. If the power of the vehicle imaging device 100 has been turned off (YES), the control unit 16 ends the processing.

第2実施形態の車両用撮像装置100の構成及び動作は次のとおりである。第2実施形態の車両用撮像装置100における撮像部12は、第1の露光時間で被写体を撮像した長時間露光画像と、第2の露光時間で前記被写体を撮像した短時間露光画像を生成する。第2実施形態の車両用撮像装置100は、画像抽出部132、HDR画像合成部133、動きベクトル検出部141、前後左右判定部142を備える。 The configuration and operation of the vehicle imaging device 100 of the second embodiment are as follows. The imaging unit 12 in the vehicle imaging device 100 of the second embodiment generates a long exposure image in which a subject is imaged with a first exposure time, and a short exposure image in which the subject is imaged with a second exposure time. The vehicle imaging device 100 of the second embodiment includes an image extraction unit 132, an HDR image synthesis unit 133, a motion vector detection unit 141, and a front/rear/left/right determination unit 142.

動きベクトル検出部141は、撮像画像の動きベクトルを検出する。前後左右判定部142は、撮像画像のうちの少なくとも右側方画像領域及び左側方画像領域の周方向の位置を決定する。画像抽出部132は、撮像画像のうち、右側方画像領域及び左側方画像領域の各領域画像を抽出して、右側方画像20R及び左側方画像20Lを生成する。 The motion vector detection unit 141 detects the motion vector of the captured image. The front/rear/left/right determination unit 142 determines the circumferential positions of at least the right side image region and the left side image region of the captured image. The image extraction unit 132 extracts each area image of the right side image region and the left side image region of the captured image to generate a right side image 20R and a left side image 20L.

HDR画像合成部133は、画像抽出部132が長時間露光画像に基づいて生成した右側方画像20R及び左側方画像20Lと短時間露光画像に基づいて生成した右側方画像20R及び左側方画像20Lとをそれぞれ合成する。このとき、HDR画像合成部133は、動きベクトル検出部141が右側方画像領域または左側方画像領域において検出した動きベクトルを参照する。これによって、右側方画像20Rまたは左側方画像20Lはダイナミックレンジが拡大され、かつ、右側方画像20Rまたは左側方画像20Lに含まれている被写体の画像のぶれが補正される。 The HDR image synthesis unit 133 synthesizes the right side image 20R and the left side image 20L generated by the image extraction unit 132 based on the long exposure image with the right side image 20R and the left side image 20L generated based on the short exposure image. At this time, the HDR image synthesis unit 133 refers to the motion vector detected in the right side image area or the left side image area by the motion vector detection unit 141. This expands the dynamic range of the right side image 20R or the left side image 20L, and corrects the blurring of the image of the subject included in the right side image 20R or the left side image 20L.

以上のようにして、第2実施形態の車両用撮像装置100によれば、画像のぶれを適切に補正することができる。 As described above, the vehicle imaging device 100 of the second embodiment can appropriately correct image blur.

前後左右判定部142は、右側方画像領域及び左側方画像領域に加えて、撮像画像のうちの前方画像領域及び後方画像領域の周方向の位置を決定することが好ましい。画像抽出部132は、右側方画像領域及び左側方画像領域に加えて、撮像画像のうち、前方画像領域及び後方画像領域の各領域画像を抽出して、前方画像20F及び後方画像20Bを生成することが好ましい。 It is preferable that the front/rear/left/right determination unit 142 determines the circumferential positions of the front image area and rear image area of the captured image in addition to the right side image area and left side image area. It is preferable that the image extraction unit 132 extracts each area image of the front image area and rear image area of the captured image in addition to the right side image area and left side image area, to generate the front image 20F and the rear image 20B.

HDR画像合成部133は、動きベクトル検出部141が検出した動きベクトルを参照することなく、画像抽出部132が長時間露光画像に基づいて生成した前方画像20F及び後方画像20Bと、短時間露光画像に基づいて生成した前方画像20F及び後方画像20Bとをそれぞれ合成することが好ましい。これによって、前方画像20F及び後方画像20Bはダイナミックレンジが拡大される。なお、第2実施形態においては、画像回転部131は省略されてもよいが、画像回転部131を備えることが好ましい。 It is preferable that the HDR image synthesis unit 133 synthesizes the front image 20F and the rear image 20B generated by the image extraction unit 132 based on the long exposure image and the front image 20F and the rear image 20B generated based on the short exposure image, respectively, without referring to the motion vector detected by the motion vector detection unit 141. This expands the dynamic range of the front image 20F and the rear image 20B. Note that in the second embodiment, the image rotation unit 131 may be omitted, but it is preferable to include the image rotation unit 131.

<第3実施形態>
第3実施形態は、第2実施形態を発展させた実施形態である。第3実施形態は、車両用撮像装置100が生成する画像に含まれている被写体のうち、画像のぶれを補正する対象をどのように選択すべきかを検討し、選択した被写体の画像のぶれを適切に補正することができる車両用撮像装置100を提供する。第3実施形態において、第2実施形態と共通部分の説明を省略する。第3実施形態の車両用撮像装置100の具体的な構成は、図2と同様である。
Third Embodiment
The third embodiment is an embodiment developed from the second embodiment. The third embodiment considers how to select a subject for which image blurring should be corrected from among subjects included in an image generated by the vehicle imaging device 100, and provides a vehicle imaging device 100 that can appropriately correct image blurring of the selected subject. In the third embodiment, a description of parts common to the second embodiment will be omitted. The specific configuration of the vehicle imaging device 100 of the third embodiment is the same as that of FIG. 2.

図14A及び図14Bは、それぞれ右側方画像20R及び左側方画像20Lの一例を示している。図14Aに示すように、右側方画像20Rは、被写体として、ここでは図示されていない自車両である車両200の右隣の車線を走行する車両230と、標識31を含む。車両230は車両200よりも高速で走行しており、相対的に右側方画像20Rの左方向(車両200の前方)へと移動する。標識31は相対的に右側方画像20Rの右方向(車両200の後方)へと移動する。左側方画像20Lは、被写体として標識32を含む。標識32は、相対的に左側方画像20Lの左方向(車両200の後方)へと移動する。 Figures 14A and 14B show examples of the right side image 20R and the left side image 20L, respectively. As shown in Figure 14A, the right side image 20R includes, as subjects, a vehicle 230 traveling in the lane to the right of the vehicle 200, which is the vehicle itself (not shown here), and a sign 31. The vehicle 230 is traveling faster than the vehicle 200, and moves relatively to the left of the right side image 20R (in front of the vehicle 200). The sign 31 moves relatively to the right of the right side image 20R (rear of the vehicle 200). The left side image 20L includes a sign 32 as a subject. The sign 32 moves relatively to the left of the left side image 20L (rear of the vehicle 200).

制御部16には、動きの方向が異なる複数の動きベクトルが検出された場合に、HDR画像合成部133が画像のぶれを優先的に補正する際の補正モードとして、次のいずれかの選択肢が設定されている。動きの方向が異なる複数の動きベクトルとは、互いに逆方向の2つの動きベクトルであってもよい。運転者300等の車両用撮像装置100のユーザが、図示していない操作部によっていずれかの補正モードを選択して、選択された補正モードが制御部16に設定される。 In the control unit 16, one of the following options is set as a correction mode that the HDR image synthesis unit 133 uses to prioritize image blur correction when multiple motion vectors with different movement directions are detected. Multiple motion vectors with different movement directions may be two motion vectors with opposite directions. A user of the vehicle imaging device 100, such as the driver 300, selects one of the correction modes using an operation unit (not shown), and the selected correction mode is set in the control unit 16.

補正モード1は、車両200の後方に移動する被写体のぶれを補正する補正モードである。補正モード2は、車両200の前方に移動する被写体のぶれを補正する補正モードである。補正モード3は、車両200により近い方の被写体のぶれを補正する補正モードである。補正モード4は、右側方画像20Rまたは左側方画像20L内で、車両200の前方に移動する被写体の面積が所定の割合以上であるときに、前方に移動する被写体のぶれを補正する補正モードである。所定の割合は例えば20%である。 Correction mode 1 is a correction mode that corrects the blur of a subject moving backward of the vehicle 200. Correction mode 2 is a correction mode that corrects the blur of a subject moving forward of the vehicle 200. Correction mode 3 is a correction mode that corrects the blur of a subject closer to the vehicle 200. Correction mode 4 is a correction mode that corrects the blur of a subject moving forward when the area of the subject moving forward of the vehicle 200 in the right side image 20R or the left side image 20L is equal to or greater than a predetermined percentage. The predetermined percentage is, for example, 20%.

補正モード3に関して、被写体が静止物体であれば、車両200から遠い被写体ほど低速で相対的に移動し、車両200に近いほど高速で相対的に移動する。制御部16は、動きベクトルに基づいて車両200により近い方の被写体を特定することができる。画像解析部14が画像解析することによって、車両200により近い方の被写体を抽出してもよい。この場合、制御部16は、画像解析部14による画像解析結果に基づいて車両200により近い方の被写体のぶれを補正するよう、HDR画像合成部133を制御すればよい。 Regarding correction mode 3, if the subject is a stationary object, the further the subject is from the vehicle 200, the slower it moves relative to the vehicle 200, and the closer the subject is to the vehicle 200, the faster it moves relative to the vehicle 200. The control unit 16 can identify the subject closer to the vehicle 200 based on the motion vector. The image analysis unit 14 may perform image analysis to extract the subject closer to the vehicle 200. In this case, the control unit 16 may control the HDR image synthesis unit 133 to correct the blur of the subject closer to the vehicle 200 based on the image analysis results by the image analysis unit 14.

制御部16は、右側方画像20Rと左側方画像20Lとで個別に、補正モード1~4のうちのいずれかの補正モードを設定するのがよい。 The control unit 16 may set one of the correction modes 1 to 4 separately for the right side image 20R and the left side image 20L.

図14Aにおいて、補正モード1が設定されていれば、図11及び図12と同様にして、標識31の画像のぶれがHDR画像合成部133によって補正される。補正モード2が設定されていれば、車両230の画像のぶれがHDR画像合成部133によって補正される。補正モード3が設定されていれば、車両230が標識31よりも車両200に近いため、車両230の画像のぶれがHDR画像合成部133によって補正される。 In FIG. 14A, if correction mode 1 is set, the blurring of the image of the sign 31 is corrected by the HDR image synthesis unit 133 in the same manner as in FIG. 11 and FIG. 12. If correction mode 2 is set, the blurring of the image of the vehicle 230 is corrected by the HDR image synthesis unit 133. If correction mode 3 is set, the vehicle 230 is closer to the vehicle 200 than the sign 31, so the blurring of the image of the vehicle 230 is corrected by the HDR image synthesis unit 133.

図14Aにおいて、補正モード4が設定されていれば、相対的に車両200の前方に移動する車両230の画像の面積は右側方画像20R内で20%以上であるため、車両230の画像のぶれがHDR画像合成部133によって補正される。 In FIG. 14A, if correction mode 4 is set, the area of the image of the vehicle 230 moving relatively forward of the vehicle 200 is 20% or more in the right side image 20R, so the blurring of the image of the vehicle 230 is corrected by the HDR image synthesis unit 133.

図14Bにおいては、標識32が左方向へと移動する動きベクトルしか存在しない。よって、制御部16は、補正モードの設定にかかわらず、標識32が移動する動きベクトルを参照して標識32の画像のぶれを補正するよう、HDR画像合成部133を制御する。 In FIG. 14B, there is only a motion vector in which the sign 32 moves to the left. Therefore, regardless of the correction mode setting, the control unit 16 controls the HDR image synthesis unit 133 to correct the blurring of the image of the sign 32 by referring to the motion vector in which the sign 32 moves.

図15に示すフローチャートを用いて、第3実施形態において、画像処理部13または制御部16が実行する処理を説明する。図15においては、処理が開始された後に、互いに逆方向の2つの動きベクトルが存在すると判定された場合を例とする。 The process executed by the image processing unit 13 or the control unit 16 in the third embodiment will be described using the flowchart shown in FIG. 15. In FIG. 15, an example is shown in which it is determined that there are two motion vectors in opposite directions after the process starts.

図15において、画像抽出部132は、ステップS31にて、右側方画像領域及び左側方画像領域を抽出する。ステップS31は、第1実施形態と同様に、前方画像領域、後方画像領域、右側方画像領域、左側方画像領域を抽出する処理であってもよい。制御部16は、ステップS32にて、車両200の後方に移動する被写体のぶれを優先的に補正する補正モード1に設定されているか否かを判定する。補正モード1に設定されていれば(YES)、HDR画像合成部133は、ステップS33にて、後方への動きベクトルを参照して後方に移動する被写体の画像のぶれを補正して、処理をステップS39に移行させる。 In FIG. 15, the image extraction unit 132 extracts a right side image area and a left side image area in step S31. Step S31 may be a process of extracting a front image area, a rear image area, a right side image area, and a left side image area, as in the first embodiment. The control unit 16 determines in step S32 whether or not correction mode 1, which preferentially corrects blur of a subject moving rearward of the vehicle 200, is set. If correction mode 1 is set (YES), the HDR image synthesis unit 133 in step S33 corrects blur of the image of the subject moving rearward by referring to a backward motion vector, and proceeds to step S39.

ステップS32にて補正モード1に設定されていなければ(NO)、制御部16は、ステップS34にて、車両200の前方に移動する被写体のぶれを優先的に補正する補正モード2に設定されているか否かを判定する。補正モード2に設定されていれば(YES)、HDR画像合成部133は、ステップS35にて、前方への動きベクトルを参照して前方に移動する被写体の画像のぶれを補正して、処理をステップS39に移行させる。 If correction mode 1 is not set in step S32 (NO), the control unit 16 determines in step S34 whether correction mode 2, which prioritizes correcting blur of a subject moving forward of the vehicle 200, is set. If correction mode 2 is set (YES), the HDR image synthesis unit 133 in step S35 corrects blur of the image of the subject moving forward by referring to the forward motion vector, and transitions to step S39.

ステップS34にて補正モード2に設定されていなければ(NO)、制御部16は、ステップS36にて、車両200のより近くに位置する被写体のぶれを優先的に補正する補正モード3に設定されているか否かを判定する。補正モード3に設定されていれば(YES)、HDR画像合成部133は、ステップS37にて、より近くに位置している被写体の動きベクトルを参照してより近くに位置している被写体の画像のぶれを補正して、処理をステップS39に移行させる。 If correction mode 2 has not been set in step S34 (NO), the control unit 16 determines in step S36 whether correction mode 3, which preferentially corrects blur of a subject located closer to the vehicle 200, has been set. If correction mode 3 has been set (YES), the HDR image synthesis unit 133 in step S37 corrects blur in the image of the closer subject by referring to the motion vector of the closer subject, and transitions to step S39.

ステップS36にて補正モード3に設定されていなければ(NO)、補正モード4に設定されているということである。制御部16は、ステップS38にて、車両200の前方に移動する被写体の面積が所定の割合以上であるか否かを判定する。車両200の前方に移動する被写体の面積が所定の割合以上でなければ(NO)、HDR画像合成部133は、ステップS33にて、後方への動きベクトルを参照して後方に移動する被写体の画像のぶれを補正して、処理をステップS39に移行させる。 If correction mode 3 has not been set in step S36 (NO), correction mode 4 has been set. In step S38, the control unit 16 determines whether the area of the subject moving in front of the vehicle 200 is equal to or greater than a predetermined ratio. If the area of the subject moving in front of the vehicle 200 is not equal to or greater than the predetermined ratio (NO), in step S33, the HDR image synthesis unit 133 refers to the backward motion vector to correct the blurring of the image of the subject moving backward, and transitions to step S39.

ステップS38にて車両200の前方に移動する被写体の面積が所定の割合以上であれば(YES)、HDR画像合成部133は、ステップS35にて、前方への動きベクトルを参照して前方に移動する被写体の画像のぶれを補正して、処理をステップS39に移行させる。 If in step S38 the area of the subject moving forward of the vehicle 200 is equal to or greater than a predetermined ratio (YES), in step S35 the HDR image synthesis unit 133 corrects the blurring of the image of the subject moving forward by referring to the forward motion vector, and transitions to step S39.

制御部16は、ステップS39にて、車両用撮像装置100の電源がオフされたか否かを判定する。車両用撮像装置100の電源がオフされなければ(NO)、制御部16及び画像処理部13はステップS31~S39の処理を繰り返す。車両用撮像装置100の電源がオフされれば(YES)、制御部16は処理を終了させる。 In step S39, the control unit 16 determines whether the power of the vehicle imaging device 100 has been turned off. If the power of the vehicle imaging device 100 has not been turned off (NO), the control unit 16 and image processing unit 13 repeat the processing of steps S31 to S39. If the power of the vehicle imaging device 100 has been turned off (YES), the control unit 16 ends the processing.

第3実施形態の車両用撮像装置100の構成及び動作は次のとおりである。第3実施形態の車両用撮像装置100における撮像部12は、第1の露光時間で被写体を撮像した長時間露光画像と、第2の露光時間で前記被写体を撮像した短時間露光画像を生成する。第3実施形態の車両用撮像装置100は、画像抽出部132、HDR画像合成部133、2動きベクトル検出部141、前後左右判定部142を備える。 The configuration and operation of the vehicle imaging device 100 of the third embodiment are as follows. The imaging unit 12 in the vehicle imaging device 100 of the third embodiment generates a long exposure image in which a subject is imaged with a first exposure time, and a short exposure image in which the subject is imaged with a second exposure time. The vehicle imaging device 100 of the third embodiment includes an image extraction unit 132, an HDR image synthesis unit 133, a two-motion vector detection unit 141, and a front/rear/left/right determination unit 142.

動きベクトル検出部141は、撮像画像の動きベクトルを検出する。前後左右判定部142は、撮像画像のうちの少なくとも右側方画像領域及び左側方画像領域の周方向の位置を決定する。画像抽出部132は、撮像画像のうち、右側方画像領域及び左側方画像領域の各領域画像を抽出して、右側方画像20R及び左側方画像20Lを生成する。 The motion vector detection unit 141 detects the motion vector of the captured image. The front/rear/left/right determination unit 142 determines the circumferential positions of at least the right side image region and the left side image region of the captured image. The image extraction unit 132 extracts each area image of the right side image region and the left side image region of the captured image to generate a right side image 20R and a left side image 20L.

HDR画像合成部133は、画像抽出部132が長時間露光画像に基づいて生成した右側方画像20R及び左側方画像20Lと短時間露光画像に基づいて生成した右側方画像20R及び左側方画像20Lとをそれぞれ合成する。このとき、HDR画像合成部133は、動きベクトル検出部141が右側方画像領域または左側方画像領域において検出した動きベクトルを参照する。 The HDR image synthesis unit 133 synthesizes the right side image 20R and the left side image 20L generated by the image extraction unit 132 based on the long exposure image with the right side image 20R and the left side image 20L generated based on the short exposure image. At this time, the HDR image synthesis unit 133 refers to the motion vector detected in the right side image area or the left side image area by the motion vector detection unit 141.

動きベクトル検出部141が右側方画像領域または左側方画像領域において互いに異なる複数の動きベクトルを検出することがある。HDR画像合成部133は、右側方画像20Rまたは左側方画像20Lに含まれている、予め設定された補正モードに応じて補正対象の被写体と決定される被写体の画像のぶれを補正するよう、補正対象の被写体の動きベクトルを参照する。 The motion vector detection unit 141 may detect multiple motion vectors that are different from each other in the right side image area or the left side image area. The HDR image synthesis unit 133 refers to the motion vector of the subject to be corrected, which is included in the right side image 20R or the left side image 20L and is determined to be the subject to be corrected according to a preset correction mode.

よって、第3実施形態の車両用撮像装置100によれば、選択した被写体の画像のぶれを適切に補正することができる。 Therefore, according to the third embodiment of the vehicle imaging device 100, blurring of the image of the selected subject can be appropriately corrected.

互いに異なる複数の動きベクトルは、車両2000の後方への第1の動きベクトルと車両200の前方への第2の動きベクトルであることがある。補正モードとして、相対的に車両200の後方に移動する被写体を補正対象の被写体とすることができる。この場合、HDR画像合成部133は、第1の動きベクトルを参照して、長時間露光画像に基づいて生成した右側方画像20Rまたは左側方画像20Lと短時間露光画像に基づいて生成した右側方画像20Rまたは左側方画像20Lとを合成する。 The multiple motion vectors that are different from each other may be a first motion vector toward the rear of the vehicle 2000 and a second motion vector toward the front of the vehicle 200. As a correction mode, a subject moving relatively toward the rear of the vehicle 200 may be set as a subject to be corrected. In this case, the HDR image synthesis unit 133 refers to the first motion vector and synthesizes the right side image 20R or the left side image 20L generated based on the long exposure image with the right side image 20R or the left side image 20L generated based on the short exposure image.

補正モードとして、相対的に車両200の前方に移動する被写体を補正対象の被写体とすることができる。この場合、HDR画像合成部133は、第2の動きベクトルを参照して、長時間露光画像に基づいて生成した右側方画像20Rまたは左側方画像と短時間露光画像に基づいて生成した右側方画像20Rまたは左側方画像20Lとを合成する。 In the correction mode, a subject moving relatively forward of the vehicle 200 can be set as the subject to be corrected. In this case, the HDR image synthesis unit 133 refers to the second motion vector and synthesizes the right side image 20R or the left side image 20L generated based on the long exposure image with the right side image 20R or the left side image 20L generated based on the short exposure image.

右側方画像20R内または左側方画像20L内に複数の被写体が存在するとき、上記の2つの補正モードに加えて、補正モードとして、車両200により近くに位置する被写体を補正対象の被写体としてもよい。HDR画像合成部133は、より近くに位置する被写体が移動する方向である第1または第2の動きベクトルを参照して、長時間露光画像及び短時間露光画像に基づく右側方画像20Rまたは左側方画像20Lを合成する。 When multiple subjects are present in the right side image 20R or the left side image 20L, in addition to the above two correction modes, a correction mode may be used in which a subject located closer to the vehicle 200 is set as the subject to be corrected. The HDR image synthesis unit 133 synthesizes the right side image 20R or the left side image 20L based on the long exposure image and the short exposure image by referring to the first or second motion vector, which is the direction in which the closer subject moves.

右側方画像20R内または左側方画像20L内に、相対的に車両200の後方に移動する第1の被写体と相対的に車両200の前方に移動する第2の被写体とが存在することがある。このとき、上記の2つまたは3つの補正モードに加えて、補正モードとして、右側方画像20Rまたは左側方画像20Lのうちの第2の被写体の面積の割合に応じて補正対象の被写体を決定してもよい。 In the right side image 20R or the left side image 20L, a first subject moving relatively to the rear of the vehicle 200 and a second subject moving relatively to the front of the vehicle 200 may be present. In this case, in addition to the above two or three correction modes, a correction mode may be set in which the subject to be corrected is determined according to the proportion of the area of the second subject in the right side image 20R or the left side image 20L.

HDR画像合成部133は、第2の被写体の面積の割合が右側方画像20Rまたは左側方画像20Lのうちの所定の割合以上でければ、第1の動きベクトルを参照して、長時間露光画像及び短時間露光画像に基づく右側方画像20Rまたは左側方画像20Lを合成する。HDR画像合成部133は、第2の被写体の面積が右側方画像20Rまたは左側方画像20Lのうちの所定の割合以上であれば、第2の動きベクトルを参照して、長時間露光画像及び短時間露光画像に基づく右側方画像20Rまたは左側方画像20Lを合成する。 If the proportion of the area of the second subject is equal to or greater than a predetermined proportion of the right side image 20R or the left side image 20L, the HDR image synthesis unit 133 refers to the first motion vector to synthesize the right side image 20R or the left side image 20L based on the long exposure image and the short exposure image. If the proportion of the area of the second subject is equal to or greater than a predetermined proportion of the right side image 20R or the left side image 20L, the HDR image synthesis unit 133 refers to the second motion vector to synthesize the right side image 20R or the left side image 20L based on the long exposure image and the short exposure image.

<第4実施形態>
第4実施形態は、太陽光の入射方向に応じて適切な前方画像20F、後方画像20B、右側方画像20R、及び左側方画像20Lを得ることができる車両用撮像装置100を提供する。第4実施形態において、第1実施形態と共通部分の説明を省略する。第4実施形態の車両用撮像装置100の具体的な構成は、図2と同様である。
Fourth Embodiment
The fourth embodiment provides a vehicle imaging device 100 that can obtain an appropriate front image 20F, rear image 20B, right side image 20R, and left side image 20L according to the incident direction of sunlight. In the fourth embodiment, a description of the common parts with the first embodiment will be omitted. The specific configuration of the vehicle imaging device 100 of the fourth embodiment is the same as that of FIG. 2.

図16において、自車両である車両200が走行する車線の前方には車両241、後方には車両242が走行している。車両200が走行する車線の右車線には車両243が走行し、左車線には車両244が走行している。太陽光が白抜き矢印の方向から車両200及び241~244を照らすとすると、車両200及び241~244には、ハッチングを付していない明るい部分とハッチングを付した暗い部分とが形成される。このように、太陽光が被写体を照らす際の太陽光の入射方向によって明るい部分と暗い部分とが形成される。 In FIG. 16, vehicle 241 is traveling ahead of vehicle 200, and vehicle 242 is traveling behind it in the lane in which vehicle 200 is traveling. Vehicle 243 is traveling in the right lane of the lane in which vehicle 200 is traveling, and vehicle 244 is traveling in the left lane. If sunlight shines on vehicles 200 and 241 to 244 from the direction of the white arrow, vehicles 200 and 241 to 244 will have bright areas that are not hatched and dark areas that are hatched. In this way, bright and dark areas are formed depending on the direction of incidence of sunlight when it illuminates the subject.

第4実施形態において、車両用撮像装置100は、太陽光の入射方向に応じてHDR画像合成部133における長時間露光画像と短時間露光画像との合成の仕方を異ならせる。 In the fourth embodiment, the vehicle imaging device 100 varies the way the HDR image synthesis unit 133 synthesizes the long exposure image and the short exposure image depending on the incident direction of sunlight.

図17に示すように、制御部16は、一例として、車両用撮像装置100が撮像する360度の方向を45度ずつの8つの方向に分割する。制御部16は、太陽光の入射方向が8つの方向のうちのいずれの方向であるかに応じて、長時間露光画像と短時間露光画像との合成の仕方を異ならせるようHDR画像合成部133を制御する。8つの方向を、前、右前、右、右後、後、左後、左、左前の各方向とする。なお、画像解析部14が撮像画像を解析することによって太陽光の入射方向を判定することができる。画像解析部14は、太陽光の入射方向を判定する太陽光入射方向判定部として機能する。 As shown in FIG. 17, as an example, the control unit 16 divides the 360-degree direction captured by the vehicle imaging device 100 into eight directions of 45 degrees each. The control unit 16 controls the HDR image synthesis unit 133 to vary the way in which the long exposure image and the short exposure image are synthesized depending on which of the eight directions the sunlight is incident in. The eight directions are front, right front, right, right rear, rear, left rear, and left front. The image analysis unit 14 can determine the direction in which sunlight is incident by analyzing the captured image. The image analysis unit 14 functions as a sunlight incident direction determination unit that determines the direction in which sunlight is incident.

図18A及び図18Bに示すフローチャートを用いて、第4実施形態において、画像処理部13、画像解析部14、または制御部16が実行する処理を説明する。図18Aにおいて、処理が開始されると、画像解析部14は、ステップS401にて、太陽光の入射方向を判定する。制御部16は、ステップS402にて、太陽光の入射方向が画像解析部14によって前方向と判定されたか否かを判定する。 The process executed by the image processing unit 13, image analysis unit 14, or control unit 16 in the fourth embodiment will be described using the flowcharts shown in Figures 18A and 18B. In Figure 18A, when the process starts, the image analysis unit 14 determines the incident direction of sunlight in step S401. The control unit 16 determines in step S402 whether the incident direction of sunlight has been determined to be the forward direction by the image analysis unit 14.

ステップS402にて太陽光の入射方向が前方向と判定されれば(YES)、制御部16は、ステップS403にて、前方画像20Fにおける長時間露光画像の割合を、後方画像20B、右側方画像20R、及び左側方画像20Lにおける長時間露光画像の割合よりも増加させるようHDR画像合成部133を制御する。これは、車両200の前方に位置する車両241の後方が影となり、車両用撮像装置100が車両241の後方を撮像するからである。制御部16は、ステップS403に続けて処理をステップS418に移行させる。 If it is determined in step S402 that the direction of incidence of sunlight is forward (YES), then in step S403, the control unit 16 controls the HDR image synthesis unit 133 to increase the proportion of long exposure images in the forward image 20F compared to the proportion of long exposure images in the rear image 20B, the right side image 20R, and the left side image 20L. This is because the rear of the vehicle 241 located in front of the vehicle 200 is in shadow, and the vehicle imaging device 100 images the rear of the vehicle 241. Following step S403, the control unit 16 transitions the process to step S418.

一例として、後方画像20B、右側方画像20R、及び左側方画像20Lにおける長時間露光画像と短時間露光画像との比が4:6であるとき、制御部16は、ステップS403にて、前方画像20Fにおける長時間露光画像と短時間露光画像との比を9:1とするようHDR画像合成部133を制御する。 As an example, when the ratio between the long exposure image and the short exposure image in the rear image 20B, the right side image 20R, and the left side image 20L is 4:6, in step S403, the control unit 16 controls the HDR image synthesis unit 133 to set the ratio between the long exposure image and the short exposure image in the front image 20F to 9:1.

ステップS402にて太陽光の入射方向が前方向と判定されなければ(NO)、制御部16は、ステップS404にて、太陽光の入射方向が右前方向と判定されたか否かを判定する。太陽光の入射方向が右前方向と判定されれば(YES)、制御部16は、ステップS405にて、前方画像20F及び右側方画像20Rにおける長時間露光画像の割合を、後方画像20B及び左側方画像20Lにおける長時間露光画像の割合よりも増加させるようHDR画像合成部133を制御する。制御部16は、ステップS405に続けて処理をステップS418に移行させる。 If the incident direction of the sunlight is not determined to be the forward direction in step S402 (NO), the control unit 16 determines in step S404 whether the incident direction of the sunlight is determined to be the right front direction. If the incident direction of the sunlight is determined to be the right front direction (YES), the control unit 16 controls the HDR image synthesis unit 133 in step S405 to increase the proportion of long exposure images in the forward image 20F and the right side image 20R compared to the proportion of long exposure images in the rear image 20B and the left side image 20L. Following step S405, the control unit 16 transitions the process to step S418.

一例として、後方画像20B及び左側方画像20Lにおける長時間露光画像と短時間露光画像との比が4:6であるとき、制御部16は、前方画像20F及び右側方画像20Rにおける長時間露光画像と短時間露光画像との比を9:1とするようHDR画像合成部133を制御する。 As an example, when the ratio between the long exposure image and the short exposure image in the rear image 20B and the left side image 20L is 4:6, the control unit 16 controls the HDR image synthesis unit 133 to set the ratio between the long exposure image and the short exposure image in the front image 20F and the right side image 20R to 9:1.

ステップS404にて太陽光の入射方向が右前方向と判定されなければ(NO)、制御部16は、ステップS406にて、太陽光の入射方向が右方向と判定されたか否かを判定する。太陽光の入射方向が右方向と判定されれば(YES)、制御部16は、ステップS407にて、前方画像20Fにおける長時間露光画像の割合を、後方画像20B、右側方画像20R、及び左側方画像20Lにおける長時間露光画像の割合よりも増加させるようHDR画像合成部133を制御する。長時間露光画像の割合の増加のさせ方はステップS405と同様である。制御部16は、ステップS407に続けて処理をステップS418に移行させる。 If the incident direction of the sunlight is not determined to be the right front direction in step S404 (NO), the control unit 16 determines in step S406 whether the incident direction of the sunlight is determined to be the right direction. If the incident direction of the sunlight is determined to be the right direction (YES), the control unit 16 controls the HDR image synthesis unit 133 in step S407 to increase the proportion of long exposure images in the front image 20F compared to the proportion of long exposure images in the rear image 20B, the right side image 20R, and the left side image 20L. The method of increasing the proportion of long exposure images is the same as in step S405. Following step S407, the control unit 16 transitions the process to step S418.

ステップS406にて太陽光の入射方向が右方向と判定されなければ(NO)、制御部16は、ステップS408にて、太陽光の入射方向が右後方向と判定されたか否かを判定する。太陽光の入射方向が右後方向と判定されれば(YES)、制御部16は、ステップS409にて、後方画像20B及び右側方画像20Rにおける長時間露光画像の割合を、前方画像20F及び左側方画像20Lにおける長時間露光画像の割合よりも増加させるようHDR画像合成部133を制御する。長時間露光画像の割合の増加のさせ方はステップS405と同様である。制御部16は、ステップS409に続けて処理をステップS418に移行させる。 If the incident direction of the sunlight is not determined to be the right direction in step S406 (NO), the control unit 16 determines in step S408 whether the incident direction of the sunlight is determined to be the right rear direction. If the incident direction of the sunlight is determined to be the right rear direction (YES), the control unit 16 controls the HDR image synthesis unit 133 in step S409 to increase the proportion of long exposure images in the rear image 20B and the right side image 20R compared to the proportion of long exposure images in the front image 20F and the left side image 20L. The method of increasing the proportion of long exposure images is the same as in step S405. Following step S409, the control unit 16 transitions the process to step S418.

ステップS408にて太陽光の入射方向が右後方向と判定されなければ(NO)、制御部16は、図18BのステップS410にて、太陽光の入射方向が後方向と判定されたか否かを判定する。太陽光の入射方向が後方向と判定されれば(YES)、制御部16は、ステップS411にて、後方画像20Bにおける長時間露光画像の割合を、前方画像20F、右側方画像20R、及び左側方画像20Lにおける長時間露光画像の割合よりも増加させるようHDR画像合成部133を制御する。長時間露光画像の割合の増加のさせ方はステップS405と同様である。制御部16は、ステップS411に続けて処理をステップS418に移行させる。 If the incident direction of the sunlight is not determined to be the right rear direction in step S408 (NO), the control unit 16 determines in step S410 of FIG. 18B whether the incident direction of the sunlight is determined to be the rear direction. If the incident direction of the sunlight is determined to be the rear direction (YES), the control unit 16 controls the HDR image synthesis unit 133 in step S411 to increase the proportion of long exposure images in the rear image 20B compared to the proportion of long exposure images in the front image 20F, the right side image 20R, and the left side image 20L. The method of increasing the proportion of long exposure images is the same as in step S405. Following step S411, the control unit 16 transitions the process to step S418.

ステップS410にて太陽光の入射方向が後方向と判定されなければ(NO)、制御部16は、ステップS412にて、太陽光の入射方向が左後方向と判定されたか否かを判定する。太陽光の入射方向が左後方向と判定されれば(YES)、制御部16は、ステップS413にて、後方画像20B及び左側方画像20Lにおける長時間露光画像の割合を、前方画像20F及び右側方画像20Rにおける長時間露光画像の割合よりも増加させるようHDR画像合成部133を制御する。長時間露光画像の割合の増加のさせ方はステップS405と同様である。制御部16は、ステップS413に続けて処理をステップS418に移行させる。 If the incident direction of the sunlight is not determined to be the rear direction in step S410 (NO), the control unit 16 determines in step S412 whether the incident direction of the sunlight is determined to be the left rear direction. If the incident direction of the sunlight is determined to be the left rear direction (YES), the control unit 16 controls the HDR image synthesis unit 133 in step S413 to increase the proportion of long exposure images in the rear image 20B and the left side image 20L compared to the proportion of long exposure images in the front image 20F and the right side image 20R. The method of increasing the proportion of long exposure images is the same as in step S405. Following step S413, the control unit 16 transitions the process to step S418.

ステップS412にて太陽光の入射方向が左後方向と判定されなければ(NO)、制御部16は、ステップS414にて、太陽光の入射方向が左方向と判定されたか否かを判定する。太陽光の入射方向が左方向と判定されれば(YES)、制御部16は、ステップS415にて、左側方画像20Lにおける長時間露光画像の割合を、前方画像20F、後方画像20B、及び右側方画像20Rにおける長時間露光画像の割合よりも増加させるようHDR画像合成部133を制御する。長時間露光画像の割合の増加のさせ方はステップS405と同様である。制御部16は、ステップS415に続けて処理をステップS418に移行させる。 If the incident direction of the sunlight is not determined to be the left rear direction in step S412 (NO), the control unit 16 determines in step S414 whether the incident direction of the sunlight is determined to be the left direction. If the incident direction of the sunlight is determined to be the left direction (YES), the control unit 16 controls the HDR image synthesis unit 133 in step S415 to increase the proportion of long exposure images in the left side image 20L compared to the proportion of long exposure images in the front image 20F, the rear image 20B, and the right side image 20R. The method of increasing the proportion of long exposure images is the same as in step S405. Following step S415, the control unit 16 transitions the process to step S418.

ステップS414にて太陽光の入射方向が左方向と判定されなければ(NO)、制御部16は、ステップS416にて、太陽光の入射方向が左前方向と判定されたか否かを判定する。太陽光の入射方向が左前方向と判定されれば(YES)、制御部16は、ステップS417にて、前方画像20F及び左側方画像20Lにおける長時間露光画像の割合を、後方画像20B及び右側方画像20Rにおける長時間露光画像の割合よりも増加させるようHDR画像合成部133を制御する。長時間露光画像の割合の増加のさせ方はステップS405と同様である。制御部16は、ステップS417に続けて処理をステップS418に移行させる。 If the incident direction of the sunlight is not determined to be the left direction in step S414 (NO), the control unit 16 determines in step S416 whether the incident direction of the sunlight is determined to be the left front direction. If the incident direction of the sunlight is determined to be the left front direction (YES), the control unit 16 controls the HDR image synthesis unit 133 in step S417 to increase the proportion of long exposure images in the forward image 20F and the left side image 20L compared to the proportion of long exposure images in the rear image 20B and the right side image 20R. The method of increasing the proportion of long exposure images is the same as in step S405. Following step S417, the control unit 16 transitions the process to step S418.

ステップS416にて太陽光の入射方向が左前方向と判定されなければ(NO)、制御部16は処理をステップS418に移行させる。 If the incident direction of sunlight is not determined to be the left front direction in step S416 (NO), the control unit 16 transitions the process to step S418.

制御部16は、ステップS418にて、車両用撮像装置100の電源がオフされたか否かを判定する。車両用撮像装置100の電源がオフされなければ(NO)、画像処理部13、画像解析部14、または制御部16はステップS401~S418の処理を繰り返す。車両用撮像装置100の電源がオフされれば(YES)、制御部16は処理を終了させる。 In step S418, the control unit 16 determines whether the power of the vehicle imaging device 100 has been turned off. If the power of the vehicle imaging device 100 has not been turned off (NO), the image processing unit 13, image analysis unit 14, or control unit 16 repeats the processing of steps S401 to S418. If the power of the vehicle imaging device 100 has been turned off (YES), the control unit 16 ends the processing.

第4実施形態の車両用撮像装置100の構成及び動作は次のとおりである。第4実施形態の車両用撮像装置100における撮像部12は、第1の露光時間で被写体を撮像した長時間露光画像と、第2の露光時間で前記被写体を撮像した短時間露光画像を生成する。第4実施形態の車両用撮像装置100は、太陽光入射方向判定部(画像解析部14)、画像抽出部132、HDR画像合成部133、前後左右判定部142を備える。 The configuration and operation of the vehicle imaging device 100 of the fourth embodiment are as follows. The imaging unit 12 in the vehicle imaging device 100 of the fourth embodiment generates a long exposure image in which a subject is imaged with a first exposure time, and a short exposure image in which the subject is imaged with a second exposure time. The vehicle imaging device 100 of the fourth embodiment includes a sunlight incidence direction determination unit (image analysis unit 14), an image extraction unit 132, an HDR image synthesis unit 133, and a front/rear/left/right determination unit 142.

前後左右判定部142は、撮像画像のうちの前方画像領域、後方画像領域、右側方画像領域、及び左側方画像領域の周方向の位置を決定する。画像抽出部132は、撮像画像のうち、前方画像領域、後方画像領域、右側方画像領域、及び左側方画像領域の各領域画像を抽出して、前方画像20F、後方画像20B、右側方画像20R、及び左側方画像20Lの各方向画像を生成する。 The front/rear/left/right determination unit 142 determines the circumferential positions of the front image area, rear image area, right side image area, and left side image area of the captured image. The image extraction unit 132 extracts each area image of the front image area, rear image area, right side image area, and left side image area of the captured image to generate each directional image of the front image 20F, rear image 20B, right side image 20R, and left side image 20L.

HDR画像合成部133は、長時間露光画像に基づいて生成した前方画像20F、後方画像20B、右側方画像20R、及び左側方画像20Lと、短時間露光画像に基づいて生成した前方画像20F、後方画像20B、右側方画像20R、及び左側方画像20Lとをそれぞれ合成する。 The HDR image synthesis unit 133 synthesizes the front image 20F, rear image 20B, right side image 20R, and left side image 20L generated based on the long exposure image with the front image 20F, rear image 20B, right side image 20R, and left side image 20L generated based on the short exposure image.

HDR画像合成部133は、前方画像20F、後方画像20B、右側方画像20R、及び左側方画像20Lのうち、太陽光入射方向判定部によって判定された太陽光の入射方向に応じて選択された長時間露光画像に基づく方向画像の割合を、非選択の長時間露光画像に基づく方向画像の割合よりも増加させる。 The HDR image synthesis unit 133 increases the proportion of directional images based on long exposure images selected according to the sunlight incidence direction determined by the sunlight incidence direction determination unit, among the front image 20F, rear image 20B, right side image 20R, and left side image 20L, compared to the proportion of directional images based on non-selected long exposure images.

第4実施形態の車両用撮像装置100によれば、太陽光の入射方向に応じて適切な前方画像20F、後方画像20B、右側方画像20R、及び左側方画像20Lを得ることができる。 The vehicle imaging device 100 of the fourth embodiment can obtain an appropriate front image 20F, rear image 20B, right side image 20R, and left side image 20L according to the incident direction of sunlight.

太陽光入射方向判定部は、車両用撮像装置100が撮像する360度の方向を少なくとも前方向、後方向、右方向、左方向を含む複数の方向に分割して、太陽光の入射方向がいずれの方向であるかを判定すればよい。 The sunlight incident direction determination unit divides the 360-degree direction captured by the vehicle imaging device 100 into multiple directions including at least the forward, backward, right, and left directions, and determines which direction the sunlight is incident in.

HDR画像合成部133は、太陽光の入射方向が前方向であるとき、長時間露光画像に基づく前方画像の割合を増加させ、太陽光の入射方向が後方向であるとき、長時間露光画像に基づく後方画像の割合を増加させるのがよい。HDR画像合成部133は、太陽光の入射方向が右方向であるとき、長時間露光画像に基づく右側方画像の割合を増加させ、太陽光の入射方向が左方向であるとき、長時間露光画像に基づく左側方画像の割合を増加させるのがよい。 The HDR image synthesis unit 133 preferably increases the proportion of the front image based on the long exposure image when the sunlight is incident in the forward direction, and increases the proportion of the rear image based on the long exposure image when the sunlight is incident in the backward direction. The HDR image synthesis unit 133 preferably increases the proportion of the right side image based on the long exposure image when the sunlight is incident in the right direction, and increases the proportion of the left side image based on the long exposure image when the sunlight is incident in the left direction.

太陽光入射方向判定部は、車両用撮像装置100が撮像する360度の方向を、前方向、後方向、右方向、左方向に加えて、右前方向、右後方向、左後方向、左前方向を含む複数の方向に分割して、太陽光の入射方向がいずれの方向であるかを判定することが好ましい。 It is preferable that the sunlight incident direction determination unit divides the 360-degree direction captured by the vehicle imaging device 100 into multiple directions including the right front direction, right rear direction, left rear direction, and left front direction in addition to the forward direction, rear direction, right direction, and left direction, and determines which direction the sunlight is incident in.

HDR画像合成部133は、太陽光の入射方向が右前方向であるとき、長時間露光画像に基づく前方画像及び右側方画像の割合を増加させ、太陽光の入射方向が右後方向であるとき、長時間露光画像に基づく後方画像及び右側方画像の割合を増加させるのがよい。HDR画像合成部133は、太陽光の入射方向が左後方向であるとき、長時間露光画像に基づく後方画像及び左側方画像の割合を増加させ、太陽光の入射方向が左前方向であるとき、長時間露光画像に基づく前方画像及び左側方画像の割合を増加させるのがよい。 The HDR image synthesis unit 133 preferably increases the proportion of the front image and the right side image based on the long exposure image when the incident direction of the sunlight is the right front direction, and increases the proportion of the rear image and the right side image based on the long exposure image when the incident direction of the sunlight is the right rear direction. The HDR image synthesis unit 133 preferably increases the proportion of the rear image and the left side image based on the long exposure image when the incident direction of the sunlight is the left rear direction, and increases the proportion of the front image and the left side image based on the long exposure image when the incident direction of the sunlight is the left front direction.

<第5実施形態>
第5実施形態は、車両200が走行している際に、トンネルに入る前からトンネル内を走行してトンネルから出た後までの車両200位置に応じて、適切な前方画像20F、後方画像20B、右側方画像20R、及び左側方画像20Lを得ることができる車両用撮像装置100を提供する。第5実施形態において、第1実施形態と共通部分の説明を省略する。第5実施形態の車両用撮像装置100の具体的な構成は、図2と同様である。
Fifth Embodiment
The fifth embodiment provides a vehicle imaging device 100 that can obtain an appropriate front image 20F, rear image 20B, right side image 20R, and left side image 20L according to the position of the vehicle 200 from before entering a tunnel to after exiting the tunnel while the vehicle 200 is traveling. In the fifth embodiment, a description of the parts common to the first embodiment will be omitted. The specific configuration of the vehicle imaging device 100 of the fifth embodiment is the same as that of FIG. 2.

図19において、道路を走行している車両200はトンネル50に接近して、領域R51を走行する。このとき、前方画像20Fに含まれているトンネル50の内部の画像が所定の割合以上となる。トンネル50の内部の画像が明瞭に視認できるように、制御部16は、HDR画像合成部133が前方画像20Fにおける長時間露光画像と短時間露光画像とを合成する際の長時間露光画像の割合を大きくするようHDR画像合成部133を制御するのがよい。 In FIG. 19, vehicle 200 traveling on a road approaches tunnel 50 and travels through area R51. At this time, the image of the interior of tunnel 50 included in forward image 20F is equal to or greater than a predetermined ratio. In order to make the image of the interior of tunnel 50 clearly visible, control unit 16 preferably controls HDR image synthesis unit 133 to increase the ratio of long exposure image when HDR image synthesis unit 133 synthesizes a long exposure image and a short exposure image in forward image 20F.

一例として、車両200が領域R51に到達する前で撮像画像にトンネル50の内部の画像が含まれていない状態で、長時間露光画像と短時間露光画像との比が4:6であるとき、制御部16は、前方画像20Fにおける長時間露光画像と短時間露光画像との比を8:2とする。 As an example, before the vehicle 200 reaches the region R51, when the captured image does not include an image of the interior of the tunnel 50, and the ratio of the long exposure image to the short exposure image is 4:6, the control unit 16 sets the ratio of the long exposure image to the short exposure image in the forward image 20F to 8:2.

車両200はさらにトンネル50の入口50inに近付き、車両200の一部がトンネル50内に侵入する領域R52に到達する。このとき、制御部16は、右側方画像20R及び左側方画像20Lにおける長時間露光画像と短時間露光画像とを合成する際の長時間露光画像の割合を大きくするようHDR画像合成部133を制御するのがよい。 The vehicle 200 further approaches the entrance 50in of the tunnel 50 and reaches the region R52 where part of the vehicle 200 enters the tunnel 50. At this time, the control unit 16 preferably controls the HDR image synthesis unit 133 to increase the proportion of long exposure images when synthesizing the long exposure images and short exposure images in the right side image 20R and the left side image 20L.

一例として、車両200が領域R51を走行しているときに右側方画像20R及び左側方画像20Lにおける長時間露光画像と短時間露光画像との比が4:6であるとき、制御部16は、右側方画像20R及び左側方画像20Lにおける長時間露光画像と短時間露光画像との比を8:2とする。 As an example, when the vehicle 200 is traveling in the region R51 and the ratio between the long exposure image and the short exposure image in the right side image 20R and the left side image 20L is 4:6, the control unit 16 sets the ratio between the long exposure image and the short exposure image in the right side image 20R and the left side image 20L to 8:2.

車両200はさらにトンネル50内を走行し、領域R53に到達する。このとき、後方画像20Bに含まれているトンネル50の入口50in側のトンネル50以外の画像が所定の割合以下となる。制御部16は、後方画像20Bにおける長時間露光画像と短時間露光画像とを合成する際の長時間露光画像の割合を大きくするようHDR画像合成部133を制御するのがよい。 The vehicle 200 continues traveling through the tunnel 50 and reaches the region R53. At this time, the image of the tunnel 50 on the entrance 50in side of the tunnel 50 included in the rear image 20B is below a predetermined ratio. The control unit 16 preferably controls the HDR image synthesis unit 133 to increase the ratio of the long exposure image when synthesizing the long exposure image and the short exposure image in the rear image 20B.

一例として、車両200が領域R51及びR52を走行しているときに後方画像20Bにおける長時間露光画像と短時間露光画像との比が4:6であるとき、制御部16は、後方画像20Bにおける長時間露光画像と短時間露光画像との比を8:2とする。 As an example, when the vehicle 200 is traveling through areas R51 and R52 and the ratio of the long exposure image to the short exposure image in the rear image 20B is 4:6, the control unit 16 sets the ratio of the long exposure image to the short exposure image in the rear image 20B to 8:2.

車両200はさらにトンネル50内を走行し、トンネル50の出口50outに近付いた領域R54に到達する。このとき、前方画像20Fに含まれているトンネル50の出口50out側のトンネル50以外の画像が所定の割合以上となる。トンネル50の外部の画像が明瞭に視認できるように、制御部16は、前方画像20Fにおける長時間露光画像と短時間露光画像とを合成する際の長時間露光画像の割合を小さくするようHDR画像合成部133を制御するのがよい。 The vehicle 200 continues traveling through the tunnel 50 and reaches an area R54 approaching the exit 50out of the tunnel 50. At this time, the image of the tunnel 50 on the exit 50out side of the tunnel 50 included in the forward image 20F is equal to or greater than a predetermined ratio. In order to make the image of the outside of the tunnel 50 clearly visible, the control unit 16 preferably controls the HDR image synthesis unit 133 to reduce the ratio of the long exposure image when synthesizing the long exposure image and the short exposure image in the forward image 20F.

一例として、車両200が領域R54に到達する直前まで前方画像20Fにおける長時間露光画像と短時間露光画像との比が8:2であるので、領域R54に到達したら長時間露光画像と短時間露光画像との比を4:6とする。 As an example, the ratio of long exposure images to short exposure images in the forward image 20F is 8:2 until just before the vehicle 200 reaches region R54, so when region R54 is reached, the ratio of long exposure images to short exposure images is changed to 4:6.

車両200はさらにトンネル50内を走行し、車両200の一部がトンネル50の出口50outに出る領域R55に到達する。このとき、制御部16は、右側方画像20R及び左側方画像20Lにおける長時間露光画像と短時間露光画像とを合成する際の長時間露光画像の割合を小さくするようHDR画像合成部133を制御するのがよい。 The vehicle 200 continues traveling through the tunnel 50, and reaches a region R55 where part of the vehicle 200 exits the tunnel 50 at the exit 50out. At this time, the control unit 16 controls the HDR image synthesis unit 133 to reduce the proportion of long exposure images when synthesizing the long exposure images and short exposure images in the right side image 20R and the left side image 20L.

一例として、車両200が領域R55に到達する直前まで右側方画像20R及び左側方画像20Lにおける長時間露光画像と短時間露光画像との比が8:2であるので、領域R55に到達したら長時間露光画像と短時間露光画像との比を4:6とする。 As an example, the ratio of long exposure images to short exposure images in the right side image 20R and the left side image 20L is 8:2 until just before the vehicle 200 reaches region R55, so when region R55 is reached, the ratio of long exposure images to short exposure images is changed to 4:6.

車両200が完全にトンネル50の外に出て領域R56に到達すると、後方画像20Bに含まれているトンネル50の内部の画像が所定の割合以下となる。制御部16は、HDR画像合成部133が後方画像20Bにおける長時間露光画像と短時間露光画像とを合成する際の長時間露光画像の割合を小さくするようHDR画像合成部133を制御するのがよい。 When the vehicle 200 completely exits the tunnel 50 and reaches the region R56, the image of the inside of the tunnel 50 included in the rear image 20B becomes equal to or smaller than a predetermined ratio. The control unit 16 preferably controls the HDR image synthesis unit 133 to reduce the ratio of the long exposure image when the HDR image synthesis unit 133 synthesizes the long exposure image and the short exposure image in the rear image 20B.

一例として、車両200が領域R56に到達する直前まで後方画像20Bにおける長時間露光画像と短時間露光画像との比が8:2であるので、領域R56に到達したら長時間露光画像と短時間露光画像との比を4:6とする。 As an example, the ratio of long exposure images to short exposure images in rear image 20B is 8:2 until just before vehicle 200 reaches region R56, so once region R56 is reached, the ratio of long exposure images to short exposure images becomes 4:6.

車両200が図19に示す領域R51~R56のどこを走行しているかは、画像解析部14が撮像画像に基づいて判定することができる。画像解析部14は、トンネル走行判定部として機能する。 The image analysis unit 14 can determine whether the vehicle 200 is traveling in the areas R51 to R56 shown in FIG. 19 based on the captured image. The image analysis unit 14 functions as a tunnel travel determination unit.

車両用撮像装置100がGPS(Global Positioning System)等の全地球航法衛星システム(Global Navigation Satellite System: GNSS)用の衛星からの電波を受信するGNSS受信部と地図情報を備える場合には、制御部16が、GNSS受信部が受信したGNSS信号と地図情報に基づいて車両200のトンネル50内外の位置を検出してもよい。この場合、制御部16がトンネル走行判定部として機能する。 When the vehicle imaging device 100 includes a GNSS receiver that receives radio waves from satellites for a Global Navigation Satellite System (GNSS), such as the Global Positioning System (GPS), and map information, the control unit 16 may detect the position of the vehicle 200 inside or outside the tunnel 50 based on the GNSS signal and map information received by the GNSS receiver. In this case, the control unit 16 functions as a tunnel driving determination unit.

図20A及び図20Bに示すフローチャートを用いて、第5実施形態において、画像処理部13、トンネル走行判定部(画像解析部14)、または制御部16が実行する処理を説明する。図20Aにおいて、処理が開始されると、トンネル走行判定部は、ステップS501にて、車両200の前方にトンネルを認識して、トンネル50の内部の画像が所定の割合以上となったか否かを判定する。 The process executed by the image processing unit 13, the tunnel driving determination unit (image analysis unit 14), or the control unit 16 in the fifth embodiment will be described using the flowcharts shown in Figures 20A and 20B. In Figure 20A, when the process starts, the tunnel driving determination unit recognizes a tunnel ahead of the vehicle 200 in step S501 and determines whether the image of the inside of the tunnel 50 has reached a predetermined ratio or more.

ステップS501にてトンネル50の内部の画像が所定の割合以上となったと判定されれば(YES)、制御部16は、ステップS502にて、前方画像20Fにおける長時間露光画像の割合を増加させるようHDR画像合成部133を制御して、処理をステップS513に移行させる。ステップS501にてトンネル50の内部の画像が所定の割合以上となったと判定されなければ(NO)、トンネル走行判定部は、ステップS503にて、車両200がトンネル50に侵入しているか否かを判定する。 If it is determined in step S501 that the image of the inside of the tunnel 50 is greater than or equal to a predetermined ratio (YES), the control unit 16 controls the HDR image synthesis unit 133 to increase the ratio of long exposure images in the forward image 20F in step S502, and transitions the process to step S513. If it is not determined in step S501 that the image of the inside of the tunnel 50 is greater than or equal to a predetermined ratio (NO), the tunnel driving determination unit determines in step S503 whether the vehicle 200 is entering the tunnel 50.

ステップS503にて車両200がトンネル50に侵入したと判定されれば(YES)、制御部16は、ステップS504にて、右側方画像20R及び左側方画像20Lにおける長時間露光画像の割合を増加させるようHDR画像合成部133を制御して、処理をステップS513に移行させる。ステップS503にて車両200がトンネル50に侵入したと判定されなければ(NO)、トンネル走行判定部は、ステップS505にて、後方画像20Bに含まれているトンネル50の入口50in側のトンネル50以外の画像が所定の割合以下であるか否かを判定する。 If it is determined in step S503 that the vehicle 200 has entered the tunnel 50 (YES), the control unit 16 controls the HDR image synthesis unit 133 to increase the proportion of long exposure images in the right side image 20R and the left side image 20L in step S504, and transitions the process to step S513. If it is not determined in step S503 that the vehicle 200 has entered the tunnel 50 (NO), the tunnel driving determination unit determines in step S505 whether the image other than the tunnel 50 on the entrance 50in side of the tunnel 50 included in the rear image 20B is equal to or less than a predetermined proportion.

ステップS505にてトンネル50の入口50in側のトンネル50以外の画像が所定の割合以下であると判定されれば(YES)、制御部16は、ステップS506にて、後方画像20Bにおける長時間露光画像の割合を増加させるようHDR画像合成部133を制御して、処理をステップS513に移行させる。ステップS505にてトンネル50の入口50in側のトンネル50以外の画像が所定の割合以下であると判定されなければ(NO)、トンネル走行判定部は、図20BのステップS507にて、前方画像20Fに含まれているトンネル50の出口50out側のトンネル50以外の画像が所定の割合以上であるか否かを判定する。 If it is determined in step S505 that the image other than the tunnel 50 on the entrance 50in side of the tunnel 50 is equal to or less than a predetermined ratio (YES), the control unit 16 controls the HDR image synthesis unit 133 to increase the ratio of long exposure images in the rear image 20B in step S506, and moves the process to step S513. If it is not determined in step S505 that the image other than the tunnel 50 on the entrance 50in side of the tunnel 50 is equal to or less than a predetermined ratio (NO), the tunnel driving determination unit determines in step S507 of FIG. 20B whether the image other than the tunnel 50 on the exit 50out side of the tunnel 50 included in the forward image 20F is equal to or more than a predetermined ratio.

ステップS507にてトンネル50の出口50out側のトンネル50以外の画像が所定の割合以上であると判定されれば(YES)、制御部16は、ステップS508にて、前方画像20Fにおける長時間露光画像の割合を減少させるようHDR画像合成部133を制御して、処理をステップS513に移行させる。ステップS507にてトンネル50の出口50out側のトンネル50以外の画像が所定の割合以上であると判定されなければ(NO)、トンネル走行判定部は、ステップS509にて、車両200の一部がトンネル50の外へと移動したか否かを判定する。 If it is determined in step S507 that the image other than the tunnel 50 on the exit 50out side of the tunnel 50 is equal to or greater than a predetermined ratio (YES), the control unit 16 controls the HDR image synthesis unit 133 to reduce the ratio of long exposure images in the forward image 20F in step S508, and transitions the process to step S513. If it is not determined in step S507 that the image other than the tunnel 50 on the exit 50out side of the tunnel 50 is equal to or greater than a predetermined ratio (NO), the tunnel driving determination unit determines in step S509 whether or not a part of the vehicle 200 has moved outside the tunnel 50.

ステップS509にて車両200の一部がトンネル50の外へと移動したと判定されれば(YES)、制御部16は、ステップS510にて、右側方画像20R及び左側方画像20Lにおける長時間露光画像の割合を減少させるようHDR画像合成部133を制御して、処理をステップS513に移行させる。ステップS509にて車両200の一部がトンネル50の外へと移動したと判定されなければ(NO)、トンネル走行判定部は、ステップS511にて、車両200がトンネル50の外へと移動して、後方画像20Bに含まれているトンネル50の内部の画像が所定の割合以下であるか否かを判定する。 If it is determined in step S509 that a part of the vehicle 200 has moved outside the tunnel 50 (YES), the control unit 16 controls the HDR image synthesis unit 133 to reduce the proportion of long exposure images in the right side image 20R and the left side image 20L in step S510, and transitions the process to step S513. If it is not determined in step S509 that a part of the vehicle 200 has moved outside the tunnel 50 (NO), the tunnel driving determination unit determines in step S511 whether the vehicle 200 has moved outside the tunnel 50 and the image of the inside of the tunnel 50 included in the rear image 20B is below a predetermined proportion.

ステップS511にてトンネル50の内部の画像が所定の割合以下であると判定されれば(YES)、制御部16は、ステップS512にて、後方画像20Bにおける長時間露光画像の割合を減少させるようHDR画像合成部133を制御して、処理をステップS513に移行させる。ステップS511にてトンネル50の内部の画像が所定の割合以下であると判定されなければ(NO)、制御部16は処理をステップS513に移行させる。 If it is determined in step S511 that the image of the interior of the tunnel 50 is equal to or less than the predetermined ratio (YES), then in step S512 the control unit 16 controls the HDR image synthesis unit 133 to reduce the ratio of the long exposure image in the rear image 20B, and transitions the process to step S513. If it is not determined in step S511 that the image of the interior of the tunnel 50 is equal to or less than the predetermined ratio (NO), then the control unit 16 transitions the process to step S513.

制御部16は、ステップS513にて、車両用撮像装置100の電源がオフされたか否かを判定する。車両用撮像装置100の電源がオフされなければ(NO)、画像処理部13、トンネル走行判定部、または制御部16はステップS501~S513の処理を繰り返す。車両用撮像装置100の電源がオフされれば(YES)、制御部16は処理を終了させる。 In step S513, the control unit 16 determines whether the power of the vehicle imaging device 100 has been turned off. If the power of the vehicle imaging device 100 has not been turned off (NO), the image processing unit 13, tunnel driving determination unit, or control unit 16 repeats the processing of steps S501 to S513. If the power of the vehicle imaging device 100 has been turned off (YES), the control unit 16 ends the processing.

第5実施形態の車両用撮像装置100の構成及び動作は次のとおりである。第5実施形態の車両用撮像装置100における撮像部12は、第1の露光時間で被写体を撮像した長時間露光画像と、第2の露光時間で前記被写体を撮像した短時間露光画像を生成する。第5実施形態の車両用撮像装置100は、トンネル走行判定部(画像解析部14)、画像抽出部132、HDR画像合成部133、前後左右判定部142を備える。 The configuration and operation of the vehicle imaging device 100 of the fifth embodiment are as follows. The imaging unit 12 in the vehicle imaging device 100 of the fifth embodiment generates a long exposure image in which a subject is imaged with a first exposure time, and a short exposure image in which the subject is imaged with a second exposure time. The vehicle imaging device 100 of the fifth embodiment includes a tunnel driving determination unit (image analysis unit 14), an image extraction unit 132, an HDR image synthesis unit 133, and a front/rear/left/right determination unit 142.

前後左右判定部142は、撮像画像のうちの前方画像領域、後方画像領域、右側方画像領域、及び左側方画像領域の周方向の位置を決定する。画像抽出部132は、撮像画像のうち、前方画像領域、後方画像領域、右側方画像領域、及び左側方画像領域の各領域画像を抽出して、前方画像20F、後方画像20B、右側方画像20R、及び左側方画像20Lの各方向画像を生成する。 The front/rear/left/right determination unit 142 determines the circumferential positions of the front image area, rear image area, right side image area, and left side image area of the captured image. The image extraction unit 132 extracts each area image of the front image area, rear image area, right side image area, and left side image area of the captured image to generate each directional image of the front image 20F, rear image 20B, right side image 20R, and left side image 20L.

HDR画像合成部133は、長時間露光画像に基づいて生成した前方画像20F、後方画像20B、右側方画像20R、及び左側方画像20Lと、短時間露光画像に基づいて生成した前方画像20F、後方画像20B、右側方画像20R、及び左側方画像20Lとをそれぞれ合成する。 The HDR image synthesis unit 133 synthesizes the front image 20F, rear image 20B, right side image 20R, and left side image 20L generated based on the long exposure image with the front image 20F, rear image 20B, right side image 20R, and left side image 20L generated based on the short exposure image.

トンネル走行判定部は、走行している車両200がトンネル50に接近し、トンネル50に入ってトンネル50内を走行し、トンネル50から出た状態を判定する。 The tunnel driving determination unit determines the state when the traveling vehicle 200 approaches the tunnel 50, enters the tunnel 50, drives through the tunnel 50, and exits the tunnel 50.

HDR画像合成部133は、前方画像20F、後方画像20B、右側方画像20R、及び左側方画像20Lのうちの選択された方向画像の長時間露光画像に基づく方向画像の割合または短時間露光画像に基づく方向画像の割合を調整する。HDR画像合成部133は、トンネル走行判定部による判定に基づいて、車両200がトンネル50に入る前からトンネル50内を走行してトンネル50から出た後までの車両200の位置に応じて割合を調整する。 The HDR image synthesis unit 133 adjusts the proportion of directional images based on long-exposure images or the proportion of directional images based on short-exposure images of the selected directional images from the forward image 20F, the rearward image 20B, the right side image 20R, and the left side image 20L. The HDR image synthesis unit 133 adjusts the proportion according to the position of the vehicle 200 from before the vehicle 200 enters the tunnel 50 to after the vehicle 200 leaves the tunnel 50, traveling through the tunnel 50, based on the determination by the tunnel driving determination unit.

具体的には、HDR画像合成部133は車両200の位置に応じて次のように割合を調整するのがよい。 Specifically, the HDR image synthesis unit 133 should adjust the ratio according to the position of the vehicle 200 as follows:

トンネル走行判定部が、車両200がトンネル50に接近して、トンネル50の内部の画像が前方画像20Fのうちの所定の割合以上となったと判定したとき、HDR画像合成部133は、長時間露光画像に基づく前方画像20Fの割合を増加させるのがよい。 When the tunnel driving determination unit determines that the vehicle 200 is approaching the tunnel 50 and the image of the interior of the tunnel 50 accounts for a predetermined proportion or more of the forward image 20F, the HDR image synthesis unit 133 increases the proportion of the forward image 20F based on the long exposure image.

トンネル走行判定部が、車両200がトンネル50に侵入したと判定したとき、HDR画像合成部133は、長時間露光画像に基づく右側方画像20R及び左側方画像20Lの割合を増加させるのがよい。 When the tunnel driving determination unit determines that the vehicle 200 has entered the tunnel 50, the HDR image synthesis unit 133 should increase the proportion of the right side image 20R and the left side image 20L based on the long exposure image.

トンネル走行判定部が、車両200がトンネル50に侵入した後にトンネル50の入口50in側のトンネル50以外の画像が後方画像20Bのうちの所定の割合以下になったと判定したとき、HDR画像合成部133は、長時間露光画像に基づく後方画像20Bの割合を増加させるのがよい。 When the tunnel driving determination unit determines that the image of the tunnel 50 on the entrance 50in side of the tunnel 50 other than the tunnel 50 falls below a predetermined percentage of the rear image 20B after the vehicle 200 has entered the tunnel 50, the HDR image synthesis unit 133 may increase the percentage of the rear image 20B based on the long exposure image.

トンネル走行判定部が、車両200がトンネル50の出口50outに接近して、出口50out側のトンネル50以外の画像が前方画像20Fのうちの所定の割合以上になったと判定したとき、HDR画像合成部133は、長時間露光画像に基づく前方画像20Fの割合を減少させるのがよい。即ち、上記のように車両200がトンネル50に接近した時点で増加させた長時間露光画像に基づく前方画像20Fの割合を元の割合に戻す。 When the tunnel driving determination unit determines that the vehicle 200 is approaching the exit 50out of the tunnel 50 and the image other than the tunnel 50 on the exit 50out side is equal to or greater than a predetermined percentage of the forward image 20F, the HDR image synthesis unit 133 may reduce the percentage of the forward image 20F based on the long exposure image. In other words, the percentage of the forward image 20F based on the long exposure image, which was increased when the vehicle 200 approached the tunnel 50 as described above, is returned to the original percentage.

トンネル走行判定部が、車両200がトンネル50の外に出たと判定したとき、HDR画像合成部133は、長時間露光画像に基づく右側方画像20R及び左側方画像20Lの割合を減少させるのがよい。即ち、上記のように車両200がトンネル50に侵入した時点で増加させた長時間露光画像に基づく右側方画像20R及び左側方画像20Lの割合を元の割合に戻す。 When the tunnel driving determination unit determines that the vehicle 200 has exited the tunnel 50, the HDR image synthesis unit 133 preferably reduces the proportion of the right side image 20R and the left side image 20L based on the long exposure image. In other words, the proportion of the right side image 20R and the left side image 20L based on the long exposure image, which was increased when the vehicle 200 entered the tunnel 50 as described above, is returned to the original proportion.

トンネル走行判定部が、車両200がトンネル50の外に出て、トンネル50の内部の画像が後方画像20Bのうちの所定の割合以下になったと判定したとき、HDR画像合成部133は、長時間露光画像に基づく後方画像20Bの割合を減少させるのがよい。即ち、トンネル50の入口50in側のトンネル50以外の画像が後方画像20Bのうちの所定の割合以下になった時点で増加させた長時間露光画像に基づく後方画像20Bの割合を元の割合に戻す。 When the tunnel driving determination unit determines that the vehicle 200 has left the tunnel 50 and the image of the inside of the tunnel 50 has fallen below a predetermined percentage of the rear image 20B, the HDR image synthesis unit 133 preferably reduces the percentage of the rear image 20B based on the long exposure image. In other words, when the image other than the tunnel 50 on the entrance 50in side of the tunnel 50 falls below a predetermined percentage of the rear image 20B, the increased percentage of the rear image 20B based on the long exposure image is returned to the original percentage.

以上のようにして、第5実施形態の車両用撮像装置100によれば、車両200がトンネル50に入る前からトンネル50から出た後までの車両200位置に応じて、適切な前方画像20F、後方画像20B、右側方画像20R、及び左側方画像20Lを得ることができる。 As described above, the vehicle imaging device 100 of the fifth embodiment can obtain an appropriate front image 20F, rear image 20B, right side image 20R, and left side image 20L according to the position of the vehicle 200 from before the vehicle 200 enters the tunnel 50 until after the vehicle 200 exits the tunnel 50.

<第6実施形態>
第6実施形態は、車両200に事故等のイベントが発生したときにぶれの少ない撮像画像を保存することができる車両用撮像装置100を提供する。第6実施形態において、第1実施形態と共通部分の説明を省略する。
Sixth Embodiment
The sixth embodiment provides a vehicle imaging device 100 that can store a captured image with less blur when an event such as an accident occurs in the vehicle 200. In the sixth embodiment, a description of parts common to the first embodiment will be omitted.

図21に示すように、第6実施形態の車両用撮像装置100は、バス19に接続された加速度センサ60を備える。加速度センサ60は、車両200にイベントが発生したか否かを判定するイベント検出センサの一例である。記録再生部17は、メモリカード170とリングバッファ171とを有する。リングバッファ171は車両用撮像装置100が備える非着脱自在の本体メモリである。メモリカード170には、イベント記録領域172と通常記録領域173とが設けられている。イベント記録領域172自動的にはデータが上書きされない記録領域である。 As shown in FIG. 21, the vehicle imaging device 100 of the sixth embodiment includes an acceleration sensor 60 connected to the bus 19. The acceleration sensor 60 is an example of an event detection sensor that determines whether an event has occurred in the vehicle 200. The recording and reproducing unit 17 has a memory card 170 and a ring buffer 171. The ring buffer 171 is a non-removable main body memory provided in the vehicle imaging device 100. The memory card 170 is provided with an event recording area 172 and a normal recording area 173. The event recording area 172 is a recording area in which data is not automatically overwritten.

イベント記録領域172及び通常記録領域173はメモリカード170に設けられることに限定されない。イベント記録領域172が本体メモリに設けられてもよい。通常記録領域173が本体メモリに設けられてもよい。イベント記録領域172及び通常記録領域173が本体メモリに設けられてもよい。 The event recording area 172 and the normal recording area 173 are not limited to being provided in the memory card 170. The event recording area 172 may be provided in the main memory. The normal recording area 173 may be provided in the main memory. The event recording area 172 and the normal recording area 173 may be provided in the main memory.

リングバッファ171は、長時間露光画像と短時間露光画像の360度の撮像画像の撮像画像データを所定時間分だけ記録する容量を有し、撮像画像データはリングバッファ171に循環的に記憶される。即ち、リングバッファ171の全ての容量に撮像画像データが記憶されたら、最も古い撮像画像データが最新の撮像画像データへと書き換えられ、撮像画像データを更新する動作が繰り返される。 The ring buffer 171 has a capacity to record captured image data of 360-degree captured images, including long exposure images and short exposure images, for a predetermined period of time, and the captured image data is stored in a circular manner in the ring buffer 171. In other words, when captured image data has been stored in the entire capacity of the ring buffer 171, the oldest captured image data is overwritten with the latest captured image data, and the operation of updating the captured image data is repeated.

HDR画像合成部133によって画像合成された前方画像20F、後方画像20B、右側方画像20R、及び左側方画像20Lは、リングバッファ171に一時的に記録されることなく通常記録領域173に記録される。 The front image 20F, rear image 20B, right side image 20R, and left side image 20L synthesized by the HDR image synthesis unit 133 are recorded in the normal recording area 173 without being temporarily recorded in the ring buffer 171.

図22に示すフローチャートを用いて、第6実施形態において制御部16が実行する処理を説明する。処理が開始されると、制御部16は、ステップS61にて、撮像画像データを所定時間分だけリングバッファ171に記憶させる。上記のように、撮像画像データとは、長時間露光画像と短時間露光画像の360度の撮像画像の撮像画像データである。 The process executed by the control unit 16 in the sixth embodiment will be described using the flowchart shown in FIG. 22. When the process starts, the control unit 16 stores captured image data for a predetermined period of time in the ring buffer 171 in step S61. As described above, the captured image data is captured image data of 360-degree captured images of a long exposure image and a short exposure image.

制御部16は、ステップS62にて、加速度センサ60が検出した加速度の変化に基づいて、イベントが発生したか否かを判定する。制御部16は、加速度が急増したり急減したりした場合にイベントが発生したと判定する。 In step S62, the control unit 16 determines whether an event has occurred based on the change in acceleration detected by the acceleration sensor 60. The control unit 16 determines that an event has occurred when the acceleration suddenly increases or decreases.

ステップS62にてイベントが発生したと判定されなければ(NO)、制御部16はステップS61及びS62の処理を繰り返す。ステップS62にてイベントが発生したと判定されれば(YES)、制御部16は処理をステップS63に移行させる。制御部16は、ステップS63にて、リングバッファ171に記憶されている撮像画像データをイベント記録領域172にコピーして、処理を終了させる。 If it is not determined that an event has occurred in step S62 (NO), the control unit 16 repeats the processes of steps S61 and S62. If it is determined that an event has occurred in step S62 (YES), the control unit 16 transitions the process to step S63. In step S63, the control unit 16 copies the captured image data stored in the ring buffer 171 to the event recording area 172, and ends the process.

イベント発生時に、画像のぶれがなく通常記録領域173に記録されていることが望まれる被写体がぶれた状態で記録されてしまうことがある。具体的には、一例として次のような場合に画像のぶれが大きい状態で通常記録領域173に記録されてしまう。 When an event occurs, a subject that is desired to be recorded in normal recording area 173 without image blur may end up being recorded in a blurred state. Specifically, as an example, the following case may result in a significantly blurred image being recorded in normal recording area 173.

図14Aにおいて、右側方画像20Rのうちの車両230の面積が20%未満であったとする。この場合、右側方画像20Rにおいて相対的に後方に移動する標識31の画像のぶれがHDR画像合成部133によって補正される。この状態で、車両200と車両230との間で事故が発生すると、車両230の画像のぶれはHDR画像合成部133によって補正されないため、画像のぶれが大きい状態で通常記録領域173に記録される。 In FIG. 14A, assume that the area of the vehicle 230 in the right side image 20R is less than 20%. In this case, the image blur of the sign 31 moving relatively backward in the right side image 20R is corrected by the HDR image synthesis unit 133. In this state, if an accident occurs between the vehicle 200 and the vehicle 230, the image blur of the vehicle 230 is not corrected by the HDR image synthesis unit 133, and the image is recorded in the normal recording area 173 with a large blur.

そこで、イベント発生時には、HDR画像合成部133による長時間露光画像と短時間露光画像との合成画像を通常記録領域173に保存するだけでは不十分である。イベント発生時には、HDR画像合成部133で画像合成される前の長時間露光画像と短時間露光画像の360度の撮像画像の撮像画像データをイベント記録領域172にコピーして保存することが好ましい。第6実施形態によれば、車両200に事故等のイベントが発生したときにぶれの少ない撮像画像を保存することができる。 Therefore, when an event occurs, it is insufficient to simply store the composite image of the long exposure image and the short exposure image by the HDR image synthesis unit 133 in the normal recording area 173. When an event occurs, it is preferable to copy and store the captured image data of the 360-degree captured image of the long exposure image and the short exposure image before the image synthesis by the HDR image synthesis unit 133 in the event recording area 172. According to the sixth embodiment, it is possible to store a captured image with less blur when an event such as an accident occurs in the vehicle 200.

第6実施形態の車両用撮像装置100において、HDR画像合成部133によって画像合成された各方向画像の画像データもリングバッファ171に記憶して、イベント発生時にイベント記録領域172にコピーして保存するようにしてもよい。また、第6実施形態の車両用撮像装置100において、HDR画像合成部133によって画像合成された各方向画像をリングバッファ171または通常記録領域173に記録しないように構成してもよい。 In the vehicle imaging device 100 of the sixth embodiment, the image data of each directional image synthesized by the HDR image synthesis unit 133 may also be stored in the ring buffer 171, and copied and saved in the event recording area 172 when an event occurs. Also, in the vehicle imaging device 100 of the sixth embodiment, the image data of each directional image synthesized by the HDR image synthesis unit 133 may be configured not to be recorded in the ring buffer 171 or the normal recording area 173.

以上のように、第6実施形態の車両用撮像装置100において、撮像部12は長時間露光画像と短時間露光画像とを生成する。第6実施形態の車両用撮像装置100は、画像抽出部132とHDR画像合成部133とを備える。画像抽出部132は、長時間露光画像に及び短時間露光画像に基づいて、前方画像、後方画像、右側方画像、及び左側方画像を生成する。HDR画像合成部133は、長時間露光画像に及び短時間露光画像に基づく前方画像20F、後方画像20B、右側方画像20R、及び左側方画像20Lを合成する。 As described above, in the vehicle imaging device 100 of the sixth embodiment, the imaging unit 12 generates a long exposure image and a short exposure image. The vehicle imaging device 100 of the sixth embodiment includes an image extraction unit 132 and an HDR image synthesis unit 133. The image extraction unit 132 generates a front image, a rear image, a right side image, and a left side image based on the long exposure image and the short exposure image. The HDR image synthesis unit 133 synthesizes a front image 20F, a rear image 20B, a right side image 20R, and a left side image 20L based on the long exposure image and the short exposure image.

また、第6実施形態の車両用撮像装置100は、リングバッファ171とイベント検出センサ(加速度センサ60)とを備える。リングバッファ171は、長時間露光画像及び短時間露光画像を循環的に記憶する。イベント検出センサは、車両200にイベントが発生したか否かを判定する。制御部16は、イベント検出センサによって車両200にイベントが発生したと判定されたとき、リングバッファ171に記憶されている長時間露光画像及び短時間露光画像をイベント記録領域172にコピーして保存するよう制御する。 The vehicle imaging device 100 of the sixth embodiment also includes a ring buffer 171 and an event detection sensor (acceleration sensor 60). The ring buffer 171 cyclically stores long exposure images and short exposure images. The event detection sensor determines whether an event has occurred in the vehicle 200. When the event detection sensor determines that an event has occurred in the vehicle 200, the control unit 16 controls the long exposure images and short exposure images stored in the ring buffer 171 to be copied and saved in the event recording area 172.

第6実施形態の車両用撮像装置100によれば、車両200に事故等のイベントが発生したときにぶれの少ない撮像画像を保存することができる。 The vehicle imaging device 100 of the sixth embodiment can store captured images with minimal blur when an event such as an accident occurs in the vehicle 200.

<第7実施形態>
第7実施形態は、適切な車内画像を生成することができる車両用撮像装置100を提供する。図23は、図8及び図9に示す処理によって前方画像20Fの方向を車両200の前方に正しく調整した状態で、撮像部12が生成する360度の撮像画像を示している。車内画像領域には、計器類を有するインストルメントパネルが含まれている。インストルメントパネル付近の画像が車内画像領域の中で重要である。そこで、第7実施形態の車両用撮像装置100は、図24に示す処理を実行させる。
Seventh Embodiment
The seventh embodiment provides a vehicle imaging device 100 capable of generating an appropriate vehicle interior image. Fig. 23 shows a 360-degree captured image generated by the imaging unit 12 in a state in which the direction of the forward image 20F is correctly adjusted to the front of the vehicle 200 by the processes shown in Figs. 8 and 9. The vehicle interior image area includes an instrument panel having meters. An image near the instrument panel is important in the vehicle interior image area. Therefore, the vehicle imaging device 100 of the seventh embodiment executes the process shown in Fig. 24.

制御部16は、ステップS71にて、車両用撮像装置100(車両200)の前後方向が決定済みで、前方画像20F及び後方画像20Bの方向が調整済みであるか否かを判定する。前後方向が決定済みと判定されなければ(NO)、制御部16は、第1実施形態の図8及び図9に示す処理が完了するまで、ステップS71の処理を繰り返す。 In step S71, the control unit 16 determines whether the forward/rearward direction of the vehicle imaging device 100 (vehicle 200) has been determined and the directions of the front image 20F and the rear image 20B have been adjusted. If it is not determined that the forward/rearward direction has been determined (NO), the control unit 16 repeats the process of step S71 until the process shown in Figures 8 and 9 of the first embodiment is completed.

ステップS71にて前後方向が決定済みと判定されれば(YES)、制御部16は、ステップS72にて、図23に示すように、車内画像領域の前方にインストルメントパネル領域71を設定する。制御部16は、車内画像領域のうちの前方の所定の領域をインストルメントパネル領域71と設定することができる。画像解析部14が画像解析によってインストルメントパネルを検出して、制御部16が画像解析部14による検出結果に基づいてインストルメントパネル領域71と設定してもよい。 If it is determined in step S71 that the forward/rearward direction has been determined (YES), then in step S72, the control unit 16 sets an instrument panel area 71 in front of the interior image area, as shown in FIG. 23. The control unit 16 can set a predetermined area in the front of the interior image area as the instrument panel area 71. The image analysis unit 14 may detect the instrument panel by image analysis, and the control unit 16 may set the instrument panel area 71 based on the detection result by the image analysis unit 14.

制御部16は、長時間露光画像及び短時間露光画像における車内画像領域内に、インストルメントパネル領域71と、インストルメントパネル領域71以外の領域である非インストルメントパネル領域72とを設定する領域設定部として機能する。 The control unit 16 functions as a region setting unit that sets an instrument panel region 71 and a non-instrument panel region 72, which is the region other than the instrument panel region 71, within the vehicle interior image region in the long exposure image and the short exposure image.

制御部16は、ステップS73にて、インストルメントパネル領域71が明瞭に撮像されるように車内画像を最適化する。具体的には、制御部16は、インストルメントパネル領域71内のLED等で表示された高輝度の画像が白飛びの状態で撮像されないよう、長時間露光画像と短時間露光画像を生成する際の露光時間を最適化するよう撮像部12を制御する。 In step S73, the control unit 16 optimizes the in-vehicle image so that the instrument panel area 71 is clearly captured. Specifically, the control unit 16 controls the imaging unit 12 to optimize the exposure time when generating the long exposure image and the short exposure image so that a high-brightness image displayed by an LED or the like in the instrument panel area 71 is not captured in a blown-out state.

長時間露光画像を生成する際の第1の露光時間と、短時間露光画像を生成する際の第2の露光時間とは次のように設定される。第1及び第2の露光時間には最長時間と最短時間とがあり、第1及び第2の露光時間は画像の明るさに応じて決まる最長時間と最短時間との間の時間に設定される。 The first exposure time when generating a long exposure image and the second exposure time when generating a short exposure image are set as follows. The first and second exposure times have a longest time and a shortest time, and the first and second exposure times are set to a time between the longest time and the shortest time, which is determined according to the brightness of the image.

図25の(a)に示すように、長時間露光の第1の露光時間と短時間露光の第2の露光時間との比が例えば10:1であるとする。車両200の車内が暗く、非インストルメントパネル領域72における最適な露光時間の割合が図25の(b)に示すように最長時間の100%であるとする。インストルメントパネル領域71は非インストルメントパネル領域72よりも明るく、インストルメントパネル領域71における最適な露光時間の割合が図25の(c)に示すように最長時間の50%であるとする。 As shown in FIG. 25(a), the ratio of the first exposure time for long exposure to the second exposure time for short exposure is, for example, 10:1. As shown in FIG. 25(b), the interior of the vehicle 200 is dark, and the optimal exposure time ratio in the non-instrument panel area 72 is 100% of the maximum time. As shown in FIG. 25(c), the instrument panel area 71 is brighter than the non-instrument panel area 72, and the optimal exposure time ratio in the instrument panel area 71 is 50% of the maximum time.

通常、1つの画像領域内に明るい領域と暗い領域とが存在する場合、最適な露光時間の割合は明るい領域の面積と暗い領域の面積とを考慮して決定される。インストルメントパネル領域71と非インストルメントパネル領域72との面積が1:9であるとする。この場合、制御部16は、9/10×100%+1/10×50%=95%なる計算式によって、図25の(d)に示すように、長時間露光の第1の露光時間と短時間露光の第2の露光時間との最適な露光時間の割合を95%と決定する。ところが、最適な露光時間の割合を95%と決定すると、インストルメントパネル領域71において白飛びが発生してしまう。 Normally, when a single image area contains bright and dark areas, the optimal exposure time ratio is determined taking into account the areas of the bright and dark areas. Assume that the area of the instrument panel area 71 and the non-instrument panel area 72 is 1:9. In this case, the control unit 16 determines the optimal exposure time ratio between the first exposure time for long exposure and the second exposure time for short exposure to be 95%, as shown in FIG. 25(d), using the formula 9/10×100%+1/10×50%=95%. However, if the optimal exposure time ratio is determined to be 95%, whiteout occurs in the instrument panel area 71.

そこで、制御部16は、インストルメントパネル領域71における最適な露光時間の割合である50%と、非インストルメントパネル領域72における最適な露光時間の割合である100%とに基づいて、両者の最適な露光時間の割合を決定するのがよい。インストルメントパネル領域71における最適な露光時間の割合を第1の最適露光時間割合、非インストルメントパネル領域72における最適な露光時間の割合を第2の最適露光時間割合とする。制御部16は、インストルメントパネル領域71と非インストルメントパネル領域72とで共通の露光時間の割合である第3の最適露光時間割合を設定する。 Therefore, it is preferable for the control unit 16 to determine the optimal exposure time ratio for both the instrument panel area 71 and the non-instrument panel area 72 based on the optimal exposure time ratio of 50% and the optimal exposure time ratio of 100%. The optimal exposure time ratio for the instrument panel area 71 is set as the first optimal exposure time ratio, and the optimal exposure time ratio for the non-instrument panel area 72 is set as the second optimal exposure time ratio. The control unit 16 sets a third optimal exposure time ratio, which is a ratio of exposure time common to the instrument panel area 71 and the non-instrument panel area 72.

このとき、制御部16は、インストルメントパネル領域71と非インストルメントパネル領域72との面積比を考慮しない。図25の(e)に示すように、制御部16は、一例として、50%と100%との平均値である75%を第3の最適露光時間割合に設定する。インストルメントパネル領域71における露光時間は95%から75%へと短くなるので、白飛びが発生する可能性を低減させることができる。 At this time, the control unit 16 does not take into account the area ratio between the instrument panel area 71 and the non-instrument panel area 72. As shown in FIG. 25(e), the control unit 16 sets the third optimal exposure time ratio to 75%, which is the average value of 50% and 100%, as an example. Since the exposure time in the instrument panel area 71 is shortened from 95% to 75%, the possibility of whiteout occurring can be reduced.

ここでは、非インストルメントパネル領域72が暗くインストルメントパネル領域71が明るい場合を例としたが、インストルメントパネル領域71と非インストルメントパネル領域72との明るさの関係によっては、次のようにインストルメントパネル領域71における露光時間の割合の上限値を設定するのがよい。 Here, we have taken the example of a case where the non-instrument panel area 72 is dark and the instrument panel area 71 is bright, but depending on the relationship in brightness between the instrument panel area 71 and the non-instrument panel area 72, it is advisable to set the upper limit of the proportion of exposure time in the instrument panel area 71 as follows.

インストルメントパネル領域71における画像が黒つぶれしないという条件での最短の露光時間割合をT71S、インストルメントパネル領域71における画像が白飛びしないという条件での最長の露光時間割合をT71L、インストルメントパネル領域71における最適な露光時間割合をT71Oとする。非インストルメントパネル領域72における最適な露光時間割合をT72Oとする。制御部16は、画像が黒つぶれするか否かの条件、画像が白飛びするか否かの条件を判定することができる。よって、制御部16は、画像の明るさに応じて、黒つぶれしない最短の露光時間、白飛びしない最長の露光時間、及び最適な露光時間を計算することができるから、それぞれの露光時間割合を決定することができる。 The shortest exposure time ratio under the condition that the image in the instrument panel area 71 does not become crushed black is T71S, the longest exposure time ratio under the condition that the image in the instrument panel area 71 does not become blown out white is T71L, and the optimal exposure time ratio in the instrument panel area 71 is T71O. The optimal exposure time ratio in the non-instrument panel area 72 is T72O. The control unit 16 can determine the conditions for whether or not the image will become crushed black and the conditions for whether or not the image will become blown out white. Thus, the control unit 16 can calculate the shortest exposure time that will not become crushed black, the longest exposure time that will not become blown out white, and the optimal exposure time according to the brightness of the image, and can therefore determine the respective exposure time ratios.

車内が暗く、非インストルメントパネル領域72よりもインストルメントパネル領域71が明るい場合、露光時間割合T71S、T71L、T71O、T72Oは例えば10%、50%、30%、80%のようになる。最長露光時間割合T71Lと最適露光時間割合T72OとがT71L<T72Oを満たすとき、制御部16は、インストルメントパネル領域71における露光時間割合の最大値を最長露光時間割合T71Lとするよう撮像部12を制御するのがよい。 When the interior of the vehicle is dark and the instrument panel area 71 is brighter than the non-instrument panel area 72, the exposure time ratios T71S, T71L, T71O, and T72O are, for example, 10%, 50%, 30%, and 80%. When the longest exposure time ratio T71L and the optimal exposure time ratio T72O satisfy T71L<T72O, the control unit 16 preferably controls the imaging unit 12 so that the maximum value of the exposure time ratio in the instrument panel area 71 is the longest exposure time ratio T71L.

車内が太陽光で照らされて明るく、インストルメントパネル領域71よりも非インストルメントパネル領域72が明るい場合、露光時間割合T71S、T71L、T71O、T72Oは例えば60%、80%、70%、20%のようになる。最短露光時間割合T71Sと最適露光時間割合T72OとがT72O<T71Sを満たすとき、制御部16は、インストルメントパネル領域71における露光時間割合の最小値を最短露光時間割合T71Sとするよう撮像部12を制御するのがよい。 When the interior of the vehicle is brightly lit by sunlight and the non-instrument panel area 72 is brighter than the instrument panel area 71, the exposure time ratios T71S, T71L, T71O, and T72O are, for example, 60%, 80%, 70%, and 20%. When the shortest exposure time ratio T71S and the optimal exposure time ratio T72O satisfy T72O<T71S, the control unit 16 preferably controls the imaging unit 12 to set the minimum value of the exposure time ratios in the instrument panel area 71 to the shortest exposure time ratio T71S.

制御部16が撮像部12をこのように制御すれば、インストルメントパネル領域71が白飛びの状態で撮像されることなく、また、非インストルメントパネル領域72は明るい状態で撮像される。よって、第7実施形態の車両用撮像装置100によれば、適切な車内画像を生成することができる。 When the control unit 16 controls the imaging unit 12 in this manner, the instrument panel area 71 is not captured in a blown-out state, and the non-instrument panel area 72 is captured in a bright state. Therefore, the vehicle imaging device 100 of the seventh embodiment can generate an appropriate in-vehicle image.

図2及び図21に示す構成のうち、少なくとも、画像処理部13、画像解析部14、及び制御部16は、車両用撮像装置100に搭載されるコンピュータまたはコンピュータの中央処理装置(CPU)と、CPUに実行させるコンピュータプログラム(画像処理プログラム)で構成することができる。 Of the configurations shown in Figures 2 and 21, at least the image processing unit 13, image analysis unit 14, and control unit 16 can be configured by a computer or a central processing unit (CPU) of a computer mounted on the vehicle imaging device 100, and a computer program (image processing program) executed by the CPU.

第1実施形態は、図8及び図9に示す処理をCPUに実行させる画像処理プログラムであってもよい。第2実施形態は、図13示す処理をCPUに実行させる画像処理プログラムであってもよい。第3実施形態は、図15示す処理をCPUに実行させる画像処理プログラムであってもよい。第4実施形態は、図18A及び図18B示す処理をCPUに実行させる画像処理プログラムであってもよい。第5実施形態は、図20A及び図20B示す処理をCPUに実行させる画像処理プログラムであってもよい。第6実施形態は、図22に示す処理をCPUに実行させる画像処理プログラムであってもよい。第7実施形態は、図24に示す処理をCPUに実行させる画像処理プログラムであってもよい。 The first embodiment may be an image processing program that causes a CPU to execute the processes shown in Figures 8 and 9. The second embodiment may be an image processing program that causes a CPU to execute the processes shown in Figure 13. The third embodiment may be an image processing program that causes a CPU to execute the processes shown in Figure 15. The fourth embodiment may be an image processing program that causes a CPU to execute the processes shown in Figures 18A and 18B. The fifth embodiment may be an image processing program that causes a CPU to execute the processes shown in Figures 20A and 20B. The sixth embodiment may be an image processing program that causes a CPU to execute the processes shown in Figure 22. The seventh embodiment may be an image processing program that causes a CPU to execute the processes shown in Figure 24.

本発明は以上説明した第1~第7実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々変更可能である。第1~第7実施形態は互いに矛盾が生じない範囲で任意に組み合わせが可能である。ハードウェアとソフトウェア(コンピュータプログラム)の使い分けは任意である。 The present invention is not limited to the first to seventh embodiments described above, and various modifications are possible without departing from the gist of the present invention. The first to seventh embodiments can be combined in any manner as long as no contradictions arise. The use of hardware and software (computer programs) is arbitrary.

11 魚眼レンズ
12 撮像部
13 画像処理部
14 画像解析部(太陽光入射方向判定部,トンネル走行判定部)
15 通信部
16 制御部(領域設定部)
17 記録再生部
18 モニタ
19 バス
20B 後方画像
20F 前方画像
20L 左側方画像
20R 右側方画像
50 トンネル
50in 入口
50out 出口
60 加速度センサ(イベント検出センサ)
131 画像回転部
132 画像抽出部
133 ハイダイナミックレンジ画像合成部
141 動きベクトル検出部
142 前後左右判定部
161 計測部
170 メモリカード
171 リングバッファ
172 イベント記録領域
173 通常記録領域
200,241~244 車両
202 ステアリングホイール
300 運転者
11 Fisheye lens 12 Imaging unit 13 Image processing unit 14 Image analysis unit (sunlight incident direction determination unit, tunnel driving determination unit)
15 Communication unit 16 Control unit (area setting unit)
17 Recording and reproducing unit 18 Monitor 19 Bus 20B Rear image 20F Front image 20L Left side image 20R Right side image 50 Tunnel 50in Entrance 50out Exit 60 Acceleration sensor (event detection sensor)
131 Image rotation unit 132 Image extraction unit 133 High dynamic range image synthesis unit 141 Motion vector detection unit 142 Front/rear/left/right determination unit 161 Measurement unit 170 Memory card 171 Ring buffer 172 Event recording area 173 Normal recording area 200, 241 to 244 Vehicle 202 Steering wheel 300 Driver

Claims (5)

車両内に取り付けられる車両用撮像装置であり、
魚眼レンズを介して光が入射され、第1の露光時間で360度の被写体を撮像した長時間露光画像と、前記第1の露光時間より短い第2の露光時間で360度の被写体を撮像した短時間露光画像を生成する撮像部と、
前記長時間露光画像と前記短時間露光画像とを所定の割合で合成するハイダイナミックレンジ画像合成部と、
前記長時間露光画像及び前記短時間露光画像における前記車両の車内画像領域内に、前記車両のインストルメントパネルを含む領域であるインストルメントパネル領域と、前記インストルメントパネル領域以外の領域である非インストルメントパネル領域とを設定する領域設定部と、
前記長時間露光画像及び前記短時間露光画像それぞれの最長露光時間に対する、前記インストルメントパネル領域の画像の明るさに応じた最適な露光時間の割合を第1の最適露光時間割合とし、前記長時間露光画像及び前記短時間露光画像それぞれの最長露光時間に対する、非インストルメントパネル領域の画像の明るさに応じた最適な露光時間の割合を第2の最適露光時間割合としたとき、前記インストルメントパネル領域と前記非インストルメントパネル領域との面積の比を考慮することなく、前記第1の最適露光時間割合と前記第2の最適露光時間割合との平均に基づいて、前記インストルメントパネル領域と前記非インストルメントパネル領域とで共通の第3の最適露光時間割合を設定するよう前記撮像部を制御する制御部と、
を備える車両用撮像装置。
An imaging device for a vehicle that is mounted inside a vehicle,
an imaging unit that receives light via a fisheye lens and generates a long exposure image by capturing an image of a 360-degree subject with a first exposure time, and a short exposure image by capturing an image of a 360-degree subject with a second exposure time that is shorter than the first exposure time;
a high dynamic range image synthesis unit that synthesizes the long exposure image and the short exposure image at a predetermined ratio;
a region setting unit that sets an instrument panel region, which is a region including an instrument panel of the vehicle, and a non-instrument panel region, which is a region other than the instrument panel region, within an interior image region of the vehicle in the long exposure image and the short exposure image;
a control unit that controls the imaging unit to set a third optimal exposure time ratio common to the instrument panel area and the non-instrument panel area based on an average of the first optimal exposure time ratio and the second optimal exposure time ratio, without taking into consideration an area ratio between the instrument panel area and the non-instrument panel area, when a first optimal exposure time ratio is a ratio of an optimal exposure time corresponding to a brightness of an image of the instrument panel area to a long exposure time of each of the long exposure image and the short exposure image, and a second optimal exposure time ratio is a ratio of an optimal exposure time corresponding to a brightness of an image of a non-instrument panel area to a long exposure time of each of the long exposure image and the short exposure image;
An imaging device for a vehicle comprising:
前記制御部は、
画像が白飛びするか否かの条件を判定し、
前記第1の最適露光時間割合より前記第2の最適露光時間割合が大きく、前記インストルメントパネル領域において画像が白飛びしないという条件での最長露光時間割合より、前記第2の最適露光時間割合及び第3の最適露光時間割合が大きいとき、前記インストルメントパネル領域における露光時間割合の最大値を前記最長露光時間割合に設定するよう前記撮像部を制御する
請求項1に記載の車両用撮像装置。
The control unit is
Determine whether the image will have whiteout or not,
2. The vehicle imaging device according to claim 1, wherein when the second optimum exposure time ratio is greater than the first optimum exposure time ratio, and when the second optimum exposure time ratio and the third optimum exposure time ratio are greater than a longest exposure time ratio under a condition that an image in the instrument panel area is not blown out, the imaging unit is controlled to set a maximum value of the exposure time ratio in the instrument panel area to the longest exposure time ratio.
前記制御部は、
画像が黒つぶれするか否かの条件を判定し、
前記第1の最適露光時間割合より前記第2の最適露光時間割合が小さく、前記第2の最適露光時間割合及び第3の最適露光時間割合より、前記インストルメントパネル領域において画像が黒つぶれしないという条件での最短露光時間割合が大きいとき、前記インストルメントパネル領域における露光時間割合の最値を前記最短露光時間割合に設定するよう前記撮像部を制御する
請求項1または2に記載の車両用撮像装置。
The control unit is
Determine the conditions for whether or not the image will be blacked out,
3. The vehicle imaging device according to claim 1, wherein when the second optimal exposure time ratio is smaller than the first optimal exposure time ratio and a minimum exposure time ratio under a condition that an image in the instrument panel area is not crushed black is greater than the second optimal exposure time ratio and the third optimal exposure time ratio, the imaging unit is controlled to set a minimum value of the exposure time ratio in the instrument panel area to the minimum exposure time ratio.
車両内に取り付けられる車両用撮像装置の画像処理方法であり、
魚眼レンズを介して光が入射される撮像部が、第1の露光時間で360度の被写体を撮像した長時間露光画像と、前記第1の露光時間より短い第2の露光時間で360度の被写体を撮像した短時間露光画像を生成し、
前記長時間露光画像と前記短時間露光画像とを所定の割合で合成してハイダイナミックレンジ合成画像を生成し、
前記長時間露光画像及び前記短時間露光画像における前記車両の車内画像領域内に、前記車両のインストルメントパネルを含む領域であるインストルメントパネル領域と、前記インストルメントパネル領域以外の領域である非インストルメントパネル領域とを設定し、
制御部が、前記長時間露光画像及び前記短時間露光画像それぞれの最長露光時間に対する、前記インストルメントパネル領域の画像の明るさに応じた最適な露光時間の割合を第1の最適露光時間割合とし、前記長時間露光画像及び前記短時間露光画像それぞれの最長露光時間に対する、非インストルメントパネル領域の画像の明るさに応じた最適な露光時間の割合を第2の最適露光時間割合としたとき、前記インストルメントパネル領域と前記非インストルメントパネル領域との面積の比を考慮することなく、前記第1の最適露光時間割合と前記第2の最適露光時間割合との平均に基づいて、前記インストルメントパネル領域と前記非インストルメントパネル領域とで共通の第3の最適露光時間割合を設定するよう前記撮像部を制御する
画像処理方法。
An image processing method for a vehicle imaging device installed in a vehicle, comprising:
an imaging section to which light is incident via a fisheye lens generates a long exposure image by capturing an image of a 360-degree subject with a first exposure time and a short exposure image by capturing an image of a 360-degree subject with a second exposure time shorter than the first exposure time;
generating a high dynamic range composite image by combining the long exposure image and the short exposure image at a predetermined ratio;
an instrument panel region that is a region including an instrument panel of the vehicle and a non-instrument panel region that is a region other than the instrument panel region are set within an interior image region of the vehicle in the long exposure image and the short exposure image;
an image processing method in which a control unit sets a first optimal exposure time ratio that is a ratio of an optimal exposure time corresponding to the brightness of an image of the instrument panel area to the longest exposure times of each of the long exposure image and the short exposure image, and a second optimal exposure time ratio that is a ratio of an optimal exposure time corresponding to the brightness of an image of a non-instrument panel area to the longest exposure times of each of the long exposure image and the short exposure image, and controls the imaging unit to set a third optimal exposure time ratio common to the instrument panel area and the non-instrument panel area based on an average of the first optimal exposure time ratio and the second optimal exposure time ratio, without taking into account an area ratio between the instrument panel area and the non-instrument panel area.
車両内に取り付けられる車両用撮像装置に搭載されるコンピュータに、
魚眼レンズを介して光が入射される撮像部によって、第1の露光時間で360度の被写体を撮像した長時間露光画像と、前記第1の露光時間より短い第2の露光時間で360度の被写体を撮像した短時間露光画像を生成するステップと、
前記長時間露光画像と前記短時間露光画像とを所定の割合で合成してハイダイナミックレンジ合成画像を生成するステップと、
前記長時間露光画像及び前記短時間露光画像における前記車両の車内画像領域内に、前記車両のインストルメントパネルを含む領域であるインストルメントパネル領域と、前記インストルメントパネル領域以外の領域である非インストルメントパネル領域とを設定するステップと、
前記長時間露光画像及び前記短時間露光画像それぞれの最長露光時間に対する、前記インストルメントパネル領域の画像の明るさに応じた最適な露光時間の割合を第1の最適露光時間割合とし、前記長時間露光画像及び前記短時間露光画像それぞれの最長露光時間に対する、非インストルメントパネル領域の画像の明るさに応じた最適な露光時間の割合を第2の最適露光時間割合としたとき、前記インストルメントパネル領域と前記非インストルメントパネル領域との面積の比を考慮することなく、前記第1の最適露光時間割合と前記第2の最適露光時間割合との平均に基づいて、前記インストルメントパネル領域と前記非インストルメントパネル領域とで共通の第3の最適露光時間割合を設定するよう前記撮像部を制御するステップと、
を実行させる画像処理プログラム。
A computer mounted in a vehicle imaging device installed in a vehicle,
generating a long exposure image by capturing an image of a 360-degree subject with a first exposure time and a short exposure image by capturing an image of a 360-degree subject with a second exposure time shorter than the first exposure time, using an imaging unit to which light is incident via a fisheye lens;
A step of generating a high dynamic range composite image by combining the long exposure image and the short exposure image at a predetermined ratio;
setting an instrument panel region that is a region including an instrument panel of the vehicle and a non-instrument panel region that is a region other than the instrument panel region within an interior image region of the vehicle in the long exposure image and the short exposure image;
a step of controlling the imaging unit to set a third optimal exposure time ratio common to the instrument panel area and the non-instrument panel area based on an average of the first optimal exposure time ratio and the second optimal exposure time ratio, without taking into consideration an area ratio between the instrument panel area and the non-instrument panel area, when a first optimal exposure time ratio is a ratio of an optimal exposure time corresponding to a brightness of an image of the instrument panel area to a long exposure time of each of the long exposure time image and the short exposure time image, and a second optimal exposure time ratio is a ratio of an optimal exposure time corresponding to a brightness of an image of a non-instrument panel area to a long exposure time of each of the long exposure time image and the short exposure time image;
An image processing program that executes the above.
JP2020066922A 2020-04-02 Vehicle imaging device, image processing method, and image processing program Active JP7501059B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020066922A JP7501059B2 (en) 2020-04-02 Vehicle imaging device, image processing method, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020066922A JP7501059B2 (en) 2020-04-02 Vehicle imaging device, image processing method, and image processing program

Publications (2)

Publication Number Publication Date
JP2021164119A JP2021164119A (en) 2021-10-11
JP7501059B2 true JP7501059B2 (en) 2024-06-18

Family

ID=

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013084124A (en) 2011-10-11 2013-05-09 Panasonic Corp Imaging system, imaging device, and image processing method
JP2013157904A (en) 2012-01-31 2013-08-15 Canon Inc Imaging device, method for controlling the same, program and recording medium
JP2018077569A (en) 2016-11-07 2018-05-17 株式会社デンソー Image processing apparatus

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013084124A (en) 2011-10-11 2013-05-09 Panasonic Corp Imaging system, imaging device, and image processing method
JP2013157904A (en) 2012-01-31 2013-08-15 Canon Inc Imaging device, method for controlling the same, program and recording medium
JP2018077569A (en) 2016-11-07 2018-05-17 株式会社デンソー Image processing apparatus

Similar Documents

Publication Publication Date Title
US9001210B2 (en) Surveillance camera system
JP4812510B2 (en) Vehicle peripheral image generation apparatus and photometric adjustment method for imaging apparatus
JP5437855B2 (en) Obstacle detection device, obstacle detection system including the same, and obstacle detection method
CN100593341C (en) Photographing apparatus
US20090051515A1 (en) Imaging Apparatus and Drive Recorder System
JP2014089513A (en) Image generation apparatus and image generation program
JP2008060650A (en) On-vehicle imaging apparatus and its imaging method
KR20150130717A (en) Event detection system of blackbox for vehicle and method for event detection
JP2004135074A (en) Image pickup device
JP2006252269A (en) Wide area image generator, vehicle periphery monitoring device and wide area image generation method
JP2011124879A (en) Imaging system for vehicle and in-vehicle imaging apparatus
JP7501059B2 (en) Vehicle imaging device, image processing method, and image processing program
JP7476628B2 (en) Vehicle imaging device, image processing method, and image processing program
JP7494536B2 (en) Vehicle imaging device, image processing method, and image processing program
JP7472610B2 (en) Vehicle imaging device, image processing method, and image processing program
JP7476627B2 (en) Vehicle imaging device, image processing method, and image processing program
JP7468086B2 (en) Vehicle imaging device, image processing method, and image processing program
JP2007221199A (en) On-vehicle camera display device and image processing unit
US20230098424A1 (en) Image processing system, mobile object, image processing method, and storage medium
JP2020010123A (en) On-vehicle photographing apparatus, photographing system and photographing method
JP2021164119A (en) Imaging apparatus for vehicle, image processing method, and image processing program
JP2021164114A (en) Imaging apparatus for vehicle, image processing method, and image processing program
JP2008230561A (en) Photographing control device and photometry area adjustment method
JP3848023B2 (en) Motion adaptive video sensitivity enhancement device
KR101501678B1 (en) Image Picturing Apparatus for Vehicle using Controlling Exposure and Method thereof