JP2008306546A - Vehicle-periphery monitoring system - Google Patents

Vehicle-periphery monitoring system Download PDF

Info

Publication number
JP2008306546A
JP2008306546A JP2007152684A JP2007152684A JP2008306546A JP 2008306546 A JP2008306546 A JP 2008306546A JP 2007152684 A JP2007152684 A JP 2007152684A JP 2007152684 A JP2007152684 A JP 2007152684A JP 2008306546 A JP2008306546 A JP 2008306546A
Authority
JP
Japan
Prior art keywords
image
vehicle
periphery monitoring
range
vehicle periphery
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007152684A
Other languages
Japanese (ja)
Other versions
JP4927647B2 (en
Inventor
Haruo Ito
治男 伊藤
Maki Mizuta
真樹 水田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alpine Electronics Inc
Original Assignee
Alpine Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alpine Electronics Inc filed Critical Alpine Electronics Inc
Priority to JP2007152684A priority Critical patent/JP4927647B2/en
Publication of JP2008306546A publication Critical patent/JP2008306546A/en
Application granted granted Critical
Publication of JP4927647B2 publication Critical patent/JP4927647B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a vehicle-periphery monitoring system, capable of enhancing the viewability and reliability of a vehicle periphery monitoring image in a dark place, and thereby supporting safe and smooth drive operation in dark places. <P>SOLUTION: This monitoring system is provided with an identifying image display processor 31 for displaying, on the vehicle periphery monitoring image, an identifying image for identifying an effective irradiation part which is a part formed by using a photographed image of an effective irradiation range in the vehicle periphery monitoring image, after making the intensities by lighting devices 28, 29, 30 in a state of predetermined threshold or higher, when the system's own vehicle travels in a dark place, and acquiring the effective irradiation range which is a range being irradiated effectively with the lights of the lighting devices 28, 29, 30. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、車両周辺監視装置に係り、特に、自車両の周辺における所定の監視範囲を監視する車両周辺監視画像を表示することによって、安全かつ円滑な運転操作を支援するのに好適な車載用ナビゲーション装置に関する。   The present invention relates to a vehicle periphery monitoring device, and more particularly to an on-vehicle device suitable for supporting a safe and smooth driving operation by displaying a vehicle periphery monitoring image for monitoring a predetermined monitoring range around the host vehicle. The present invention relates to a navigation device.

従来から、自動車には、自車両の周辺における所定の監視範囲を監視するための車両周辺監視画像を車内のディスプレイに表示することによって、他車両等の障害物との衝突を回避するための安全かつ円滑な運転操作を支援する車両周辺監視装置が搭載されていた。   Conventionally, an automobile has a safety for avoiding a collision with an obstacle such as another vehicle by displaying a vehicle periphery monitoring image for monitoring a predetermined monitoring range around the host vehicle on a display inside the vehicle. In addition, a vehicle periphery monitoring device that supports smooth driving operation was installed.

このような車両周辺監視装置は、自車両の所定の取り付け位置に取り付けられた車載カメラによって、自車両の周辺の所定の撮影領域を撮影し、撮影映像を用いて、例えば、自車両およびその周辺を自車両の上方から見下ろした俯瞰画像や、自車両の前側方を監視するためのサイドビュー画像等の各種の車両周辺監視画像を生成してディスプレイに表示するようになっていた。   Such a vehicle periphery monitoring device uses a vehicle-mounted camera attached to a predetermined mounting position of the host vehicle to capture a predetermined shooting area around the host vehicle, and uses the captured video, for example, the host vehicle and its surroundings. Various vehicle periphery monitoring images such as a bird's-eye view looking down from above the vehicle and a side view image for monitoring the front side of the vehicle are generated and displayed on the display.

なお、このような車両周辺監視画像の生成に用いられる車載カメラとしては、魚眼レンズ等の広角レンズを備えた車載カメラが用いられていたため、撮影領域は、車載カメラの光軸を中心とした画角190°程度の非常に広い領域となっていた。このため、車載カメラの撮影映像のうちのすべての部分が車両周辺監視画像の生成に用いられるのではなく、撮影領域のうちの予め設定された監視範囲(例えば、路面)の撮影映像のみを切り出して、カメラの撮像面上に定義された座標系の映像からディスプレイ上に定義された座標系の画像へと座標変換することによって、車両周辺監視画像を生成するようになっていた。   As an in-vehicle camera used for generating such a vehicle periphery monitoring image, an in-vehicle camera having a wide-angle lens such as a fisheye lens has been used. Therefore, the imaging region has an angle of view around the optical axis of the in-vehicle camera. It was a very wide area of about 190 °. For this reason, not all parts of the captured image of the in-vehicle camera are used for generating the vehicle periphery monitoring image, but only the captured image of a preset monitoring range (for example, road surface) in the imaging region is cut out. Thus, the vehicle periphery monitoring image is generated by performing coordinate conversion from the image of the coordinate system defined on the imaging surface of the camera to the image of the coordinate system defined on the display.

この種の車両周辺監視装置では、夜間の路上等の暗所において、自車両の前方の監視範囲に対しては、自車両の前照灯から照射された可視光によって前方の監視範囲の明るさの確保を図るとともに、自車両の後方の監視範囲に対しては、自車両の後尾灯または後退時の後退灯から照射された可視光によって後方の監視範囲の明るさの確保を図るようになっていた。   In this type of vehicle periphery monitoring device, in a dark place such as on the road at night, the brightness of the monitoring range in front of the own vehicle is monitored by visible light emitted from the headlight of the own vehicle. As for the monitoring range behind the host vehicle, the brightness of the rear monitoring range is ensured by the visible light emitted from the tail lamp of the host vehicle or the reverse lamp when the host vehicle is moving backward. It was.

一方、自車両の側方の監視範囲については、保安基準等によって暗所においても可視光の照射に制約があり、自車両の側部(例えば、ドアミラー)に近赤外光等の可視領域外の光を照射するLED等の補助照明装置を取り付け、この補助照明装置の光を照射するようになっていた。なお、このような補助照明装置の光を用いた暗所における自車両側方の撮影を行う車載カメラは、昼間の路上等の明所における車両周辺監視画像の表示にも対応することが求められていたため、暗所における撮影時には、撮像素子すなわちセンサ(CCD等)の感度を、明所における撮影の際の可視光帯域から、補助照明装置の光の波長帯域(例えば、近赤外帯域)に変更することが行われていた。   On the other hand, regarding the monitoring range on the side of the vehicle, there are restrictions on the irradiation of visible light even in the dark due to safety standards, etc., and the side part of the vehicle (for example, door mirror) is outside the visible region such as near infrared light An auxiliary illumination device such as an LED that irradiates the light is attached, and the auxiliary illumination device is irradiated with the light. Note that an in-vehicle camera that captures the side of the vehicle in a dark place using the light of such an auxiliary lighting device is also required to support the display of a vehicle periphery monitoring image in a bright place such as on the road during the daytime. Therefore, at the time of shooting in a dark place, the sensitivity of the image sensor, that is, the sensor (CCD or the like) is changed from the visible light band at the time of shooting in a bright place to the wavelength band of light of the auxiliary illumination device (for example, the near infrared band) Changes were made.

特開2005−271836号公報JP 2005-271836 A

しかるに、前述した前照灯、後尾灯、後退灯および補助照明装置といった照明装置は、監視範囲における全範囲にわたって光を照射することは、保安基準、コストおよび消費電力等の観点から困難であり、設計上予め定められた監視範囲の中の一部の範囲に限定して光を照射することを余儀なくされていた。   However, it is difficult from the viewpoint of safety standards, cost, power consumption, etc., to illuminate the entire lighting range of the lighting device such as the headlight, the taillight, the reverse light and the auxiliary lighting device described above, It was forced to irradiate light limited to a part of the monitoring range predetermined by design.

これにより、車両周辺監視画像中には、監視範囲のうちの照明装置の光が有効に照射されている範囲の撮影映像を用いて生成された部位と、監視範囲のうちの照明装置の光が有効に照射されていない範囲の撮影映像を用いて生成された部位とが混在していた。   Thereby, in the vehicle periphery monitoring image, the part generated using the captured video in the range in which the light of the illumination device in the monitoring range is effectively irradiated, and the light of the illumination device in the monitoring range. A portion generated using a captured image in a range not effectively irradiated was mixed.

ここで、照明装置の輝度は、この照明装置に対する照明装置の光が照射される位置の変化にともなって連続的に変化するため、車両周辺監視画像を見た場合に、必ずしも、監視範囲における照明装置の光が有効に照射されている範囲の撮影映像を用いて生成された部位を、そうでない部位と明確に識別することができるとは限らなかった。   Here, since the luminance of the lighting device continuously changes as the position of the lighting device with respect to the lighting device changes, the illumination in the monitoring range is not always necessary when the vehicle periphery monitoring image is viewed. It is not always possible to clearly distinguish a part generated using a captured image in a range where the light of the apparatus is effectively irradiated from a part that is not.

そのうえ、夜間の路面(特に、白線の引かれていないもの)のような本来暗色の被写体は、照明装置の光が有効に照射された場合であっても、車両周辺監視画像として得られるのはやはり暗色の画像でしかなかったため、車両周辺監視画像の中から、監視範囲における照明装置の光が有効に照射されている範囲の撮影映像を用いて生成された部位を識別することは一層困難となっていた。   In addition, dark objects such as road surfaces at night (especially those with no white lines) can be obtained as vehicle periphery monitoring images even when the illumination device is effectively illuminated. Since it was only a dark color image, it is more difficult to identify a site generated using a captured image in a range where the light of the illumination device in the monitoring range is effectively irradiated from the vehicle periphery monitoring image. It was.

例えば、図10は、自車両の左前部に取り付けられた左フロントカメラ、自車両の右前部に取り付けられた右フロントカメラ、自車両の左側部に取り付けられた左サイドカメラ、自車両の右側部に取り付けられた右サイドカメラおよび自車両の後部に取り付けられたバックカメラの計5台の車載カメラによって撮影された夜間の路上における自車両の周辺の撮影映像に基づいて生成された監視用画面1を示したものである。   For example, FIG. 10 shows a left front camera attached to the left front portion of the own vehicle, a right front camera attached to the right front portion of the own vehicle, a left side camera attached to the left side portion of the own vehicle, and a right side portion of the own vehicle. A monitoring screen 1 generated on the basis of images taken around the vehicle on the road at night taken by a total of five in-vehicle cameras, a right side camera attached to the vehicle and a back camera attached to the rear of the vehicle. Is shown.

この監視用画面1は、車両周辺監視画像としての前述した俯瞰画像2と、車両周辺監視画像としての自車両の左前方を監視するための左サイドビュー画像3と、背景画像4とによって形成されている。   The monitoring screen 1 is formed by the above-described bird's-eye view image 2 as a vehicle periphery monitoring image, a left side view image 3 for monitoring the left front of the host vehicle as a vehicle periphery monitoring image, and a background image 4. ing.

図10に示すように、俯瞰画像2は、自車両の左前方を監視する左前方監視画像5aを有しており、この左前方監視画像5aは、左フロントカメラによる撮影映像に基づいて生成されるようになっている。また、俯瞰画像2は、左前方監視画像5aに対して図10の右方において隣接する位置に、自車両の右前方を監視する右前方監視画像5bを有しており、この右前方監視画像5bは、右フロントカメラによる撮影映像に基づいて生成されるようになっている。さらに、俯瞰画像2は、左前方監視画像5aに対して図10の下方において隣接する位置に、左側方監視画像5cを有しており、この左側方監視画像5cは、左サイドカメラによる撮影映像に基づいて生成されるようになっている。さらにまた、俯瞰画像2は、右前方監視画像5bに対して図10の下方において隣接する位置に、右側方監視画像5dを有しており、この右側方監視画像5dは、右サイドカメラによる撮影映像に基づいて生成されるようになっている。また、俯瞰画像2は、左側方監視画像5cおよび右側方監視画像5dに対して図10の下方において隣接する位置に、自車両の後方を監視するための後方監視画像5eを有しており、この後方監視画像5aは、バックカメラによる撮影映像に基づいて生成されるようになっている。さらに、俯瞰画像2は、各監視画像5a,5b,5c,5d,5eに四方から囲まれる位置に、自車両を示すイラスト画像6を有しており、このイラスト画像6は、撮影映像とは別個に生成されるようになっている。   As shown in FIG. 10, the bird's-eye view image 2 has a left front monitoring image 5a for monitoring the left front of the host vehicle. The left front monitoring image 5a is generated based on a video image taken by the left front camera. It has become so. The bird's-eye view image 2 has a right front monitoring image 5b for monitoring the right front of the host vehicle at a position adjacent to the left front monitoring image 5a on the right side in FIG. 10, and this right front monitoring image. 5b is generated based on a video image taken by the right front camera. Furthermore, the bird's-eye view image 2 has a left side monitoring image 5c at a position adjacent to the left front monitoring image 5a in the lower part of FIG. 10, and the left side monitoring image 5c is a video image taken by the left side camera. It is generated based on. Furthermore, the bird's-eye view image 2 has a right side monitoring image 5d at a position adjacent to the right front monitoring image 5b in the lower part of FIG. 10, and this right side monitoring image 5d is captured by the right side camera. It is generated based on the video. The overhead image 2 has a rear monitoring image 5e for monitoring the rear of the host vehicle at a position adjacent to the left side monitoring image 5c and the right side monitoring image 5d in the lower part of FIG. The rear monitoring image 5a is generated based on a video image taken by the back camera. Furthermore, the bird's-eye view image 2 has an illustration image 6 showing the own vehicle at positions surrounded by the monitoring images 5a, 5b, 5c, 5d, and 5e from four directions. It is generated separately.

一方、左サイドビュー画像3は、左サイドカメラによる撮影映像に基づいて生成されるようになっている。なお、図10に示すように、左サイドビュー画像3には、自車両の左側部を映り込ませた映り込み画像3aが含まれている。   On the other hand, the left side view image 3 is generated based on a video image taken by the left side camera. As shown in FIG. 10, the left side view image 3 includes a reflected image 3a in which the left side portion of the host vehicle is reflected.

そして、図10に示すように、俯瞰画像2には、監視範囲(図10における路面)における監視範囲から見た前照灯の輝度が所定の閾値以上の状態として前照灯の光が有効に照射される範囲(以下、前照灯有効照射範囲と称する)の撮影映像を用いて生成された部位(以下、前照灯有効照射部位7と称する)が含まれている。しかし、この前照灯有効照射部位7は、暗色の撮影映像(路面)に基づいて生成されたものであるため、たとえ前照灯の光が有効に照射されているものであっても俯瞰画像2における他の部位との識別が困難であった。   Then, as shown in FIG. 10, in the overhead image 2, the headlamp light is effective when the luminance of the headlamp viewed from the monitoring range in the monitoring range (the road surface in FIG. 10) is equal to or higher than a predetermined threshold. A part (hereinafter referred to as a headlamp effective irradiation part 7) generated using a captured image of a range to be irradiated (hereinafter referred to as a headlamp effective irradiation area) is included. However, since the headlamp effective irradiation portion 7 is generated based on a dark-colored captured image (road surface), even if the headlamp light is effectively irradiated, the overhead view image 2 was difficult to distinguish from other parts.

また、俯瞰画像2には、監視範囲(路面)における監視範囲から見た後尾灯の輝度が所定の閾値以上の状態として後尾灯の光が有効に照射される範囲(以下、後尾灯有効照射範囲と称する)の撮影映像を用いて生成された部位(以下、後尾灯有効照射部位8と称する)が含まれている。しかし、この後尾灯有効照射部位8も、暗色の撮影映像(路面)に基づいて生成されたものであるため、たとえ後尾灯の光が有効に照射されているものであっても識別が困難であった。   In addition, the overhead image 2 includes a range in which the tail lamp light is effectively irradiated in a state where the luminance of the tail lamp viewed from the monitoring range in the monitoring range (road surface) is equal to or higher than a predetermined threshold (hereinafter, the tail lamp effective irradiation range) A portion (hereinafter, referred to as a taillight effective irradiation portion 8) generated using a captured video of the above-described portion is included. However, since the rear lamp effective irradiation portion 8 is also generated based on a dark-colored captured image (road surface), it is difficult to identify even if the tail lamp light is effectively irradiated. there were.

さらに、俯瞰画像2には、監視範囲(路面)における監視範囲から見た補助照明装置の輝度が所定の閾値以上の状態として補助照明装置の光が有効に照射される範囲(以下、補助照明有効照射範囲と称する)の撮影映像を用いて生成された部位(以下、補助照明有効照射部位9と称する)が含まれている。しかし、この補助照明有効照射部位9も、暗色の撮影映像(路面)に基づいて生成されたものであるため識別が困難であった。   Further, the overhead image 2 has a range in which the light of the auxiliary lighting device is effectively irradiated with the luminance of the auxiliary lighting device viewed from the monitoring range in the monitoring range (road surface) being equal to or higher than a predetermined threshold (hereinafter referred to as auxiliary lighting effective). A portion (hereinafter referred to as an auxiliary illumination effective irradiation portion 9) generated using a captured image of the irradiation range) is included. However, since the auxiliary illumination effective irradiation site 9 is also generated based on a dark-colored captured image (road surface), it is difficult to identify.

なお、図示はしないが、自車両の後退時には、俯瞰画像2には、監視範囲(路面)における監視範囲から見た後退灯の輝度が所定の閾値以上の状態として後退灯の光が有効に照射される範囲(以下、後退灯有効照射範囲と称する)の撮影映像を用いて生成された部位(以下、後退灯有効照射部位と称する)が含まれることになる。   Although not shown, when the host vehicle is moving backward, the overhead view image 2 is effectively irradiated with the light of the backward light when the brightness of the backward light viewed from the monitoring range in the monitoring range (road surface) is equal to or higher than a predetermined threshold. A region (hereinafter, referred to as a reverse light effective irradiation region) generated using a captured image of a range (hereinafter referred to as a reverse light effective irradiation region) is included.

一方、左サイドビュー画像3にも、俯瞰画像2と同様に、補助照明有効照射範囲の撮影映像を用いて生成された部位(以下、補助照明有効照射部位10と称する)が含まれているが、この補助照明有効照射部位10も、暗色の撮影映像(路面)に基づいて生成されたものであるため識別が困難であった。   On the other hand, the left side view image 3 also includes a part (hereinafter referred to as an auxiliary illumination effective irradiation part 10) generated using a captured image of the auxiliary illumination effective irradiation range, as in the overhead view image 2. Since the auxiliary illumination effective irradiation region 10 is also generated based on a dark-colored captured image (road surface), it is difficult to identify.

したがって、従来は、暗所における車両周辺監視画像のうちのどの部位が監視範囲の状況、例えば、障害物の有無を正確に反映しているのかを判別することができず、暗所における車両周辺監視画像の信頼性が低いといった問題が発生していた。   Therefore, conventionally, it is not possible to determine which part of the vehicle periphery monitoring image in the dark place accurately reflects the situation of the monitoring range, for example, the presence or absence of an obstacle, and the vehicle periphery in the dark place There has been a problem that the reliability of the surveillance image is low.

そこで、本発明は、このような問題点に鑑みなされたものであり、暗所における車両周辺監視画像の視認性および信頼性を向上させることができ、ひいては、暗所における安全かつ円滑な運転操作を支援することができる車両周辺監視装置を提供することを目的とするものである。   Therefore, the present invention has been made in view of such a problem, and can improve the visibility and reliability of a vehicle periphery monitoring image in a dark place. As a result, a safe and smooth driving operation in a dark place is achieved. An object of the present invention is to provide a vehicle periphery monitoring device that can support the vehicle.

前述した目的を達成するため、本発明に係る車両周辺監視装置は、自車両の周辺における所定の撮影領域を撮影する撮影装置と、この撮影装置によって撮影された撮影映像を用いて、自車両の周辺における所定の監視範囲を監視する画像である車両周辺監視画像を生成し、生成された車両周辺監視画像を表示部に表示する車両周辺監視画像表示処理装置と、前記監視範囲に対して光を照射する照明装置と、前記自車両の暗所の走行の際に、前記監視範囲における前記照明装置の輝度が所定の閾値輝度以上の状態として前記照明装置の光が有効に照射される範囲である有効照射範囲を把握したうえで、前記車両周辺監視画像上に、前記車両周辺監視画像における前記有効照射範囲の撮影映像を用いて生成された部位である有効照射部位を識別するための識別画像を表示する識別画像表示処理装置とを備えたことを特徴としている。   In order to achieve the above-described object, a vehicle periphery monitoring device according to the present invention uses a photographing device for photographing a predetermined photographing region around the own vehicle and a photographed image photographed by the photographing device. A vehicle periphery monitoring image display processing device for generating a vehicle periphery monitoring image, which is an image for monitoring a predetermined monitoring range in the periphery, and displaying the generated vehicle periphery monitoring image on a display unit, and light for the monitoring range The illumination device that irradiates and the range in which the light of the illumination device is effectively irradiated when the brightness of the illumination device in the monitoring range is equal to or higher than a predetermined threshold luminance when traveling in the dark place of the host vehicle After the effective irradiation range is grasped, an effective irradiation site that is a site generated by using a video image of the effective irradiation range in the vehicle periphery monitoring image is identified on the vehicle periphery monitoring image. Is characterized in that an identification image display processing apparatus for displaying an identification image for.

また、本発明に係る他の車両周辺監視装置は、前記識別画像表示処理装置が、前記識別画像として、前記車両周辺監視画像における前記有効照射部位とこれ以外の部位との境界を示す境界線の画像を表示するように形成されていることを特徴としている。   Further, in another vehicle periphery monitoring device according to the present invention, the identification image display processing device has a boundary line indicating a boundary between the effective irradiation region and the other region in the vehicle periphery monitoring image as the identification image. It is characterized by being formed so as to display an image.

さらに、本発明に係る他の車両周辺監視装置は、前記車両周辺監視画像に、前記自車両の少なくとも一部を示す自車両画像が含まれており、前記識別画像表示処理装置が、前記識別画像として、前記境界線の画像とともに前記車両周辺監視画像における前記有効照射部位および前記自車両画像以外の部位を視認不能にするためのマスク画像を表示するように形成されていることを特徴としている。   Furthermore, in another vehicle periphery monitoring device according to the present invention, the vehicle periphery monitoring image includes a host vehicle image indicating at least a part of the host vehicle, and the identification image display processing device includes the identification image. And a mask image for making the portion other than the effective irradiation portion and the vehicle image in the vehicle periphery monitoring image invisible together with the boundary line image.

さらにまた、本発明に係る他の車両周辺監視装置は、自車両の周辺における所定の撮影領域を撮影する撮影装置と、この撮影装置によって撮影された撮影映像を用いて、自車両の周辺における所定の監視範囲を監視する画像である車両周辺監視画像を生成し、生成された車両周辺監視画像を表示部に表示する車両周辺監視画像表示処理装置と、前記監視範囲に対して光を照射する照明装置と、前記自車両の周辺の明るさを検出する明るさ検出装置と、前記自車両の暗所の走行の際に、前記監視範囲における前記照明装置の輝度が所定の閾値輝度以上の状態として前記照明装置の光が有効に照射される範囲である有効照射範囲を把握したうえで、前記明るさ検出装置によって検出された前記自車両の周辺の明るさが所定の閾値明るさ未満となる場合には、前記車両周辺監視画像上に、前記車両周辺監視画像における前記有効照射範囲の撮影映像を用いて生成された部位である有効照射部位を識別するための第1の識別画像を表示し、前記明るさ検出装置によって検出された前記自車両の周辺の明るさが前記閾値明るさ以上となる場合には、前記車両周辺監視画像上に、前記有効照射部位とその周辺部位とが加え合わされた部位である複合部位を識別するための第2の識別画像を表示する識別画像表示処理装置とを備えたことを特徴としている。   Furthermore, another vehicle periphery monitoring device according to the present invention uses a photographing device for photographing a predetermined photographing region in the vicinity of the own vehicle and a photographing image photographed by the photographing device. A vehicle periphery monitoring image display processing device that generates a vehicle periphery monitoring image that is an image for monitoring the monitoring range of the vehicle and displays the generated vehicle periphery monitoring image on a display unit, and illumination that irradiates light to the monitoring range A brightness detecting device that detects brightness around the host vehicle, and the brightness of the lighting device in the monitoring range is greater than or equal to a predetermined threshold brightness when traveling in a dark place of the host vehicle. After grasping an effective irradiation range that is an effective irradiation range of the light from the lighting device, the brightness around the host vehicle detected by the brightness detection device is less than a predetermined threshold brightness. In this case, a first identification image for identifying an effective irradiation part that is a part generated by using a captured image of the effective irradiation range in the vehicle periphery monitoring image is displayed on the vehicle periphery monitoring image. When the brightness around the host vehicle detected by the brightness detection device is equal to or greater than the threshold brightness, the effective irradiation site and the surrounding site are added to the vehicle periphery monitoring image. And an identification image display processing device for displaying a second identification image for identifying a complex part that is a part.

また、本発明に係る他の車両周辺監視装置は、前記識別画像表示処理装置が、前記第1の識別画像として、前記車両周辺監視画像における前記有効照射部位とこれ以外の部位との境界を示す第1の境界線の画像を表示し、前記第2の識別画像として、前記車両周辺監視画像における前記複合部位とこれ以外の部位との境界を示す第2の境界線の画像を表示するように形成されていることを特徴としている。   Further, in the other vehicle periphery monitoring device according to the present invention, the identification image display processing device shows a boundary between the effective irradiation region and the other region in the vehicle periphery monitoring image as the first identification image. An image of a first boundary line is displayed, and an image of a second boundary line indicating a boundary between the complex part and the other part in the vehicle periphery monitoring image is displayed as the second identification image. It is characterized by being formed.

さらに、本発明に係る他の車両周辺監視装置は、前記車両周辺監視画像に、前記自車両の少なくとも一部を示す自車両画像が含まれており、前記識別画像表示処理装置が、前記第1の識別画像として、前記第1の境界線の画像とともに前記車両周辺監視画像における前記有効照射部位および前記自車両画像以外の部位を視認不能にするための第1のマスク画像を表示するように形成され、前記第2の識別画像として、前記第2の境界線の画像とともに前記車両周辺監視画像における前記複合部位および前記自車両画像以外の部位を視認不能にするための第2のマスク画像を表示するように形成されていることを特徴としている。   Furthermore, in another vehicle periphery monitoring device according to the present invention, the vehicle periphery monitoring image includes a host vehicle image indicating at least a part of the host vehicle, and the identification image display processing device includes the first image display processing device. As the identification image, a first mask image for making the portion other than the effective irradiation portion and the vehicle image in the vehicle periphery monitoring image invisible is displayed together with the image of the first boundary line. As the second identification image, a second mask image for making the portion other than the composite portion and the vehicle image in the vehicle periphery monitoring image invisible is displayed together with the image of the second boundary line. It is characterized by being formed.

さらにまた、本発明に係る他の車両周辺監視装置は、前記明るさ検出装置が、照度計とされていることを特徴としている。   Furthermore, another vehicle periphery monitoring device according to the present invention is characterized in that the brightness detection device is an illuminance meter.

また、本発明に係る他の車両周辺監視装置は、前記撮影装置が、前記撮影領域に対する測光を行い、この測光の結果に基づいて露出を決定し、決定された露出の下で前記撮影領域の撮影を行うように形成され、前記明るさ検出装置が、前記撮影装置による前記測光の結果を用いて前記自車両の周辺の明るさを検出するように形成されていることを特徴としている。   In the other vehicle periphery monitoring device according to the present invention, the imaging device performs photometry on the imaging area, determines an exposure based on a result of the photometry, and determines the exposure area based on the determined exposure. The brightness detection device is formed so as to perform photographing, and is configured to detect the brightness of the periphery of the host vehicle using a result of the photometry by the photographing device.

さらに、本発明に係る他の車両周辺監視装置は、前記識別画像表示処置装置が、前記閾値明るさに対する前記明るさ検出装置によって検出された前記自車両の周辺の明るさの超過量の増加にしたがって、前記周辺部位を漸次または段階的に大きくとるように形成されていることを特徴としている。   Furthermore, in another vehicle periphery monitoring device according to the present invention, the identification image display treatment device increases an excess amount of brightness around the vehicle detected by the brightness detection device with respect to the threshold brightness. Therefore, the peripheral portion is formed so as to be gradually or stepwisely increased.

さらにまた、本発明に係る他の車両周辺監視装置は、車両周辺監視装置の設計に応じて一義的に設定された前記有効照射範囲の情報が記憶された有効照射範囲記憶装置を備え、前記識別画像表示処理装置が、前記有効照射範囲記憶装置に記憶された情報を取得することによって、前記有効照射範囲を把握するように形成されていることを特徴としている。   Furthermore, another vehicle periphery monitoring device according to the present invention includes an effective irradiation range storage device in which information on the effective irradiation range uniquely set according to the design of the vehicle periphery monitoring device is stored, and the identification The image display processing device is configured to obtain the effective irradiation range by acquiring information stored in the effective irradiation range storage device.

また、本発明に係る他の車両周辺監視装置は、前記閾値輝度が、前記自車両の走行速度の増加にともなって漸次または段階的に増加する値とされ、前記有効照射範囲が、前記自車両の走行速度の増加にともなう前記閾値輝度の増加にともなって漸次または段階的に縮小する範囲とされていることを特徴としている。   In another vehicle periphery monitoring apparatus according to the present invention, the threshold luminance is a value that gradually or stepwise increases with an increase in the traveling speed of the host vehicle, and the effective irradiation range is the host vehicle. It is characterized in that the range is reduced gradually or stepwise as the threshold luminance increases as the travel speed increases.

さらに、本発明に係る他の車両周辺監視装置は、前記識別画像表示処理装置が、前記照明装置が点灯していることに基づいて前記自車両が暗所を走行していることを認識するように形成されていることを特徴としている。   Furthermore, in the other vehicle periphery monitoring device according to the present invention, the identification image display processing device recognizes that the host vehicle is traveling in a dark place based on the lighting device being lit. It is characterized by being formed.

さらにまた、本発明に係る他の車両周辺監視装置は、前記車両周辺監視画像が、前記自車両およびその周辺を前記自車両の上方から見下ろした俯瞰画像を含むことを特徴としている。   Furthermore, another vehicle periphery monitoring device according to the present invention is characterized in that the vehicle periphery monitoring image includes an overhead view image in which the host vehicle and the periphery thereof are looked down from above the host vehicle.

また、本発明に係る他の車両周辺監視装置は、前記車両周辺監視画像が、前記自車両の前側方を監視する画像であるサイドビュー画像を含むことを特徴としている。   Another vehicle periphery monitoring device according to the present invention is characterized in that the vehicle periphery monitoring image includes a side view image that is an image for monitoring the front side of the host vehicle.

本発明に係る車両周辺監視装置によれば、車両周辺監視画像上に有効照射部位を識別するための識別画像を表示することができるので、暗所における車両周辺監視画像の視認性および信頼性を向上させることができ、ひいては、暗所における安全かつ円滑な運転操作を支援することができる。   According to the vehicle periphery monitoring apparatus according to the present invention, an identification image for identifying an effective irradiation site can be displayed on the vehicle periphery monitoring image, so that the visibility and reliability of the vehicle periphery monitoring image in a dark place can be improved. Thus, safe and smooth driving operation in a dark place can be supported.

また、本発明に係る他の車両周辺監視装置によれば、識別画像として、車両周辺監視画像における有効照射部位とこれ以外の部位との境界を示す境界線の画像を表示することができるので、簡易な画像でありながら、有効照射部位を確実に識別させることができ、暗所における車両周辺監視画像の視認性および信頼性を確実に向上させることができる。   In addition, according to another vehicle periphery monitoring device according to the present invention, as an identification image, it is possible to display an image of a boundary line indicating a boundary between the effective irradiation region and the other region in the vehicle periphery monitoring image. Although it is a simple image, an effective irradiation site can be reliably identified, and the visibility and reliability of a vehicle periphery monitoring image in a dark place can be reliably improved.

さらに、本発明に係る他の車両周辺監視装置によれば、車両周辺監視画像における有効照射部位および自車両画像以外の部位を視認不能にすることができるので、有効照射部位をさらに明確に識別することができ、暗所における車両周辺監視画像の重要な部分の視認性をさらに向上させることができるとともに、信頼性をさらに高めることができる。   Furthermore, according to another vehicle periphery monitoring apparatus according to the present invention, it is possible to make the effective irradiation region in the vehicle periphery monitoring image and a region other than the own vehicle image invisible, so that the effective irradiation region is further clearly identified. It is possible to further improve the visibility of an important part of the vehicle periphery monitoring image in a dark place and to further improve the reliability.

さらにまた、本発明に係る他の車両周辺監視装置によれば、車両周辺監視画像上に有効照射部位を識別するための第1の識別画像または複合部位を識別するための第2の識別画像を表示することができるので、暗所における車両周辺監視画像の視認性および信頼性を向上させることができ、ひいては、暗所における安全かつ円滑な運転操作を支援することができる。   Furthermore, according to another vehicle periphery monitoring apparatus according to the present invention, a first identification image for identifying an effective irradiation region or a second identification image for identifying a composite region is displayed on the vehicle periphery monitoring image. Since it can be displayed, the visibility and reliability of the vehicle periphery monitoring image in the dark place can be improved, and as a result, a safe and smooth driving operation in the dark place can be supported.

また、本発明に係る他の車両周辺監視装置によれば、第1の識別画像として第1の境界線の画像を表示し、第2の識別画像として第2の境界線の画像を表示することができるので、簡易な画像でありながら、有効照射部位または複合部位を確実に識別することができ、暗所における車両周辺監視画像の視認性および信頼性を確実に向上させることができる。   According to another vehicle periphery monitoring apparatus according to the present invention, the first boundary image is displayed as the first identification image, and the second boundary image is displayed as the second identification image. Therefore, although it is a simple image, an effective irradiation part or a composite part can be reliably identified, and the visibility and reliability of a vehicle periphery monitoring image in a dark place can be reliably improved.

さらに、本発明に係る他の車両周辺監視装置によれば、第1の境界線の画像の表示の際における有効照射部位および自車両画像以外の部位および第2の境界線の画像の表示の際における複合部位および自車両画像以外の部位を視認不能にすることができるので、有効照射部位または複合部位をさらに明確に識別することができ、暗所における車両周辺監視画像の視認性および信頼性をさらに向上させることができる。   Furthermore, according to the other vehicle periphery monitoring apparatus according to the present invention, when displaying the image of the first boundary line, the effective irradiation region, the region other than the own vehicle image, and the second boundary line image are displayed. Since the parts other than the composite part and the vehicle image in the vehicle can be made invisible, the effective irradiation part or the composite part can be more clearly identified, and the visibility and reliability of the vehicle periphery monitoring image in the dark place can be improved. Further improvement can be achieved.

さらにまた、本発明に係る他の車両周辺監視装置によれば、自車両の周辺の明るさを、照度計によって簡便かつ確実に検出することができるので、暗所における車両周辺監視画像の視認性および信頼性をさらに簡便かつ確実に向上させることができる。   Furthermore, according to another vehicle periphery monitoring device according to the present invention, the brightness around the host vehicle can be easily and reliably detected by the illuminance meter, so that the visibility of the vehicle periphery monitoring image in the dark place is visible. In addition, the reliability can be improved more easily and reliably.

また、本発明に係る他の車両周辺監視装置によれば、自車両の周辺の明るさを、撮影装置による撮影領域に対する測光の結果を用いて検出することができるため、既存の機能を有効に利用することができ、コストを削減することができる。   In addition, according to another vehicle periphery monitoring device according to the present invention, the brightness around the own vehicle can be detected using the result of photometry on the imaging region by the imaging device, so that the existing function is effectively used. It can be used and the cost can be reduced.

さらに、本発明に係る他の車両周辺監視装置によれば、自車両の周辺の明るさの増加にともなって周辺部位を拡大することができるので、第2の識別画像をさらに拡大することができ、より安全かつ円滑な運転を支援することができる。   Furthermore, according to the other vehicle periphery monitoring apparatus according to the present invention, the peripheral part can be enlarged as the brightness of the periphery of the host vehicle increases, so that the second identification image can be further enlarged. , Can support safer and smoother driving.

さらにまた、本発明に係る他の車両周辺監視装置によれば、設計に応じて予め設定された有効照射範囲に基づいて有効照射部位を画一的に定めることによって識別画像の表示処理を簡素化することができるので、識別画像のすみやかな表示を実現することができるとともに、コストを削減することができる。   Furthermore, according to another vehicle periphery monitoring device according to the present invention, the identification image display process is simplified by uniformly determining the effective irradiation region based on the effective irradiation range preset according to the design. Therefore, a prompt display of the identification image can be realized and the cost can be reduced.

また、本発明に係る他の車両周辺監視装置によれば、自車両の走行速度の増加にともなって識別画像を縮小することができるので、安全性をさらに高めることができる。   Moreover, according to the other vehicle periphery monitoring apparatus according to the present invention, the identification image can be reduced with an increase in the traveling speed of the host vehicle, and thus the safety can be further improved.

さらに、本発明に係る他の車両周辺監視装置によれば、照明装置が点灯していることに基づいて、自車両が暗所を走行していると認識して識別画像の表示の処理を行うようにすることができるので、制御を簡素化することができる。   Furthermore, according to the other vehicle periphery monitoring device according to the present invention, based on the fact that the lighting device is lit, the vehicle recognizes that the host vehicle is traveling in a dark place and performs processing for displaying an identification image. Therefore, the control can be simplified.

さらにまた、本発明に係る他の車両周辺監視装置によれば、俯瞰画像上に有効照射部位または複合部位を識別するための識別画像を表示することができるので、暗所における俯瞰画像の視認性および信頼性を向上させることができ、ひいては、暗所における安全かつ円滑な運転操作を支援することができる。   Furthermore, according to another vehicle periphery monitoring apparatus according to the present invention, an identification image for identifying an effective irradiation site or a composite site can be displayed on the overhead view image, so that the overhead image visibility in a dark place is visible. In addition, the reliability can be improved, and as a result, a safe and smooth driving operation in a dark place can be supported.

さらにまた、本発明に係る他の車両周辺監視装置によれば、サイドビュー画像上に有効照射部位または複合部位を識別するための識別画像を表示することができるので、暗所におけるサイドビュー画像の視認性および信頼性を向上させることができ、ひいては、暗所における安全かつ円滑な運転操作を支援することができる。   Furthermore, according to another vehicle periphery monitoring device according to the present invention, an identification image for identifying an effective irradiation site or a composite site can be displayed on the side view image, so that the side view image in the dark place can be displayed. Visibility and reliability can be improved, and as a result, safe and smooth driving operation in a dark place can be supported.

(第1実施形態)
以下、本発明に係る車両周辺監視装置の第1実施形態について、図1乃至図5を参照して説明する。
(First embodiment)
Hereinafter, a first embodiment of a vehicle periphery monitoring device according to the present invention will be described with reference to FIGS. 1 to 5.

なお、従来と基本的構成が同一もしくはこれに類する箇所については、同一の符号を用いて説明する。   Note that portions having the same or similar basic configuration as those in the related art will be described using the same reference numerals.

図1に示すように、本実施形態における車両周辺監視装置11は、撮影装置としての5台の車載カメラ12,13,14,15,16を有しており、これらの車載カメラ12,13,14,15,16は、いずれも、魚眼レンズ等の広角レンズを備えた広角カメラとされているとともに、CCDやCMOS等の固体撮像素子を備えたデジタルカメラとされている。   As shown in FIG. 1, the vehicle periphery monitoring apparatus 11 in this embodiment has five in-vehicle cameras 12, 13, 14, 15, and 16 as photographing devices, and these in-vehicle cameras 12, 13, 14, 15, and 16 are all wide-angle cameras including a wide-angle lens such as a fish-eye lens, and digital cameras including a solid-state imaging device such as a CCD or a CMOS.

また、これらの車載カメラ12,13,14,15,16のうちの1台は、自車両の左前部(例えば、左前照灯の近傍)に取付けられた左フロントカメラ12とされており、この左フロントカメラ12は、自車両の周辺における自車両の左前方を中心とした撮影領域を撮影するようになっている。他の4台の車載カメラ13,14,15,16のうちの1台は、自車両の右前部(例えば、右前照灯の近傍)に取付けられた右フロントカメラ13とされており、この右フロントカメラ13は、自車両の周辺における自車両の右前方を中心とした撮影領域を撮影するようになっている。他の3台の車載カメラ14,15,16のうちの1台は、自車両の左側部(例えば、左ドアミラー)に取り付けられた左サイドカメラ14とされており、この左サイドカメラ14は、自車両の左側方を中心とした撮影領域を撮影するようになっている。他の2台の車載カメラ15,16のうちの1台は、自車両の右側部(例えば、右ドアミラー)に取り付けられた右サイドカメラ15とされており、この右サイドカメラ15は、自車両の右側方を中心とした撮影領域を撮影するようになっている。残りの1台の車載カメラ16は、自車両の後部(例えば、リアライセンスガーニッシュ部)に取り付けられたバックカメラ16とされており、このバックカメラ16は、自車両の後方を中心とした撮影領域を撮影するようになっている。   One of these in-vehicle cameras 12, 13, 14, 15, 16 is a left front camera 12 attached to the left front portion of the vehicle (for example, near the left headlight). The left front camera 12 captures an imaging region around the left front of the host vehicle around the host vehicle. One of the other four in-vehicle cameras 13, 14, 15, 16 is a right front camera 13 attached to the right front portion of the vehicle (for example, near the right headlight). The front camera 13 captures a photographing area around the right front of the host vehicle around the host vehicle. One of the other three in-vehicle cameras 14, 15, 16 is a left side camera 14 attached to the left side of the host vehicle (for example, the left door mirror). A shooting area centered on the left side of the host vehicle is shot. One of the other two in-vehicle cameras 15 and 16 is a right side camera 15 attached to a right side portion (for example, a right door mirror) of the host vehicle, and the right side camera 15 is a host vehicle. The shooting area is centered on the right side of. The remaining one in-vehicle camera 16 is a back camera 16 attached to the rear portion (for example, a rear license garnish portion) of the host vehicle, and the back camera 16 has a photographing region centered on the rear of the host vehicle. Is supposed to shoot.

さらに、各車載カメラ12,13,14,15,16は、レンズを通して固体撮像素子のセンサ面に入射した光の光量に基づいて、それぞれの撮影領域に対する測光を行うようになっている。そして、各車載カメラ12,13,14,15,16は、測光の結果に基づいて露出を自動的に決定し、決定された露出の下で、撮影領域の撮影を行うようになっている。   Further, each of the in-vehicle cameras 12, 13, 14, 15, 16 performs photometry on each imaging region based on the amount of light incident on the sensor surface of the solid-state imaging device through the lens. Each of the in-vehicle cameras 12, 13, 14, 15, and 16 automatically determines the exposure based on the photometric result, and performs shooting of the shooting area under the determined exposure.

各車載カメラ12,13,14,15,16には、カメラ映像取得部18が接続されており、このカメラ映像取得部18は、各車載カメラ12,13,14,15,16から、撮影領域の撮影映像を取得するようになっている。   A camera video acquisition unit 18 is connected to each of the vehicle-mounted cameras 12, 13, 14, 15, 16, and the camera video acquisition unit 18 is connected to each of the vehicle-mounted cameras 12, 13, 14, 15, 16 from the shooting region. It is supposed to get the shooting video.

カメラ映像取得部18には、車両周辺監視画像表示処理装置としての監視用画面表示処理部19が接続されており、この監視用画面表示処理部19には、カメラ映像取得部18から、各車載カメラ12,13,14,15,16による撮影領域の撮影映像が入力されるようになっている。   A monitoring screen display processing unit 19 as a vehicle periphery monitoring image display processing device is connected to the camera image acquisition unit 18, and each in-vehicle state is connected to the monitoring screen display processing unit 19 from the camera image acquisition unit 18. Shooting images of the shooting areas by the cameras 12, 13, 14, 15, 16 are input.

監視用画面表示処理部19には、マッピングテーブル記憶部20が接続されており、このマッピングテーブル記憶部20には、例えば、図2に示すようなマッピングテーブル21が記憶されている。   A mapping table storage unit 20 is connected to the monitoring screen display processing unit 19, and a mapping table 21 as shown in FIG. 2 is stored in the mapping table storage unit 20, for example.

このマッピングテーブル21には、車載カメラ12,13,14,15,16による撮影映像と、図10に示したものと同様の監視用画面1に含まれる車両周辺監視画像2との対応関係が記述されている。   This mapping table 21 describes the correspondence between the video captured by the in-vehicle cameras 12, 13, 14, 15, 16 and the vehicle periphery monitoring image 2 included in the monitoring screen 1 similar to that shown in FIG. Has been.

具体的には、図2に示すように、マッピングテーブル21には、撮像面すなわち固体撮像素子のセンサ面上に定義された座標系(以下、撮像面座標系と称する)における座標点(Xc,Yc)(i、j:自然数)に位置する車載カメラ12,13,14,15,16による撮影映像における1つの画素を、後述するディスプレイ23上に定義された座標系における座標点(Xt,Yt)(m、n:自然数)に表示される俯瞰画像2における1つの画素の生成に用いる旨が記述されている。 Specifically, as shown in FIG. 2, the mapping table 21 includes coordinate points (Xc i ) in a coordinate system (hereinafter referred to as an imaging plane coordinate system) defined on the imaging plane, that is, the sensor plane of the solid-state imaging device. , Yc j ) (i, j: natural number), one pixel in the captured image by the in-vehicle cameras 12, 13, 14, 15, 16 is represented by a coordinate point (Xt) in a coordinate system defined on the display 23 described later. m , Yt n ) (m, n: natural number) is described to be used for generating one pixel in the overhead image 2 displayed.

ここで、マッピングテーブル21には、撮像面座標系のすべての座標点すなわち撮影領域のすべて(全視野角)に対応する座標点が記述されているわけではなく、車載カメラ12,13,14,15,16ごとに固有の監視範囲(例えば、路面)に相当する座標点のみが記述されている。これにより、車載カメラ12,13,14,15,16による撮影領域の撮影映像のうち、実際に車両周辺監視画像の生成に用いられるのは、監視範囲の撮影映像のみとなり、空等の不要な物体が撮影された監視範囲以外の撮影映像については捨てられることになる。   Here, in the mapping table 21, not all the coordinate points of the imaging plane coordinate system, that is, the coordinate points corresponding to all of the imaging region (all viewing angles) are described, but the in-vehicle cameras 12, 13, 14, Only coordinate points corresponding to a unique monitoring range (for example, a road surface) are described for each of 15 and 16. As a result, among the captured images in the imaging region by the in-vehicle cameras 12, 13, 14, 15, and 16, only the captured image in the monitoring range is actually used for generating the vehicle periphery monitoring image, and the sky and the like are unnecessary. The captured video outside the monitoring range where the object is captured is discarded.

なお、マッピングテーブル21には、1台の車載カメラ12,13,14,15,16による撮影映像における2つ以上の画素を、監視用画面1における1つの画素の生成に用いる旨が記述されていてもよい(例えば、特許文献1段落0041、0044等参照)。また、マッピングテーブル21は、車載カメラ12,13,14,15,16がレンズとして広角レンズを用いることによる撮影映像の歪みを補正することを考慮した座標変換をともなうものであってもよい。   Note that the mapping table 21 describes that two or more pixels in a video image taken by one on-vehicle camera 12, 13, 14, 15, 16 are used to generate one pixel on the monitoring screen 1. (For example, refer to Patent Document 1, paragraphs 0041 and 0044). Further, the mapping table 21 may be accompanied by coordinate conversion in consideration of correcting the distortion of the captured video caused by the in-vehicle cameras 12, 13, 14, 15, 16 using a wide-angle lens as a lens.

監視用画面表示処理部19は、マッピングテーブル21を用いることによって、左フロントカメラ12による撮影映像を前述した左前方監視画像5aに、右フロントカメラ13による撮影映像を前述した右前方監視画像5bに、左サイドカメラ14による撮影映像を前述した左側方監視画像5cに、右サイドカメラ15による撮影映像を前述した右側方監視画像5dに、バックカメラ16による撮影映像を前述した後方監視画像5eに、それぞれ変換するようになっている。   The monitoring screen display processing unit 19 uses the mapping table 21 so that the video captured by the left front camera 12 is displayed on the left front monitoring image 5a and the video captured by the right front camera 13 is displayed on the right front monitoring image 5b. The video captured by the left side camera 14 is displayed on the left side monitoring image 5c, the video captured by the right side camera 15 is displayed on the right side monitoring image 5d, and the video captured by the back camera 16 is displayed on the rear monitoring image 5e. Each is to be converted.

そして、監視用画面表示処理部19は、各監視画像5a,5b,5c,5d,5eと自車両のイラスト画像6とを合成することによって、俯瞰画像2を生成するようになっている。   The monitoring screen display processing unit 19 generates the bird's-eye view image 2 by synthesizing the monitoring images 5a, 5b, 5c, 5d, and 5e with the illustration image 6 of the host vehicle.

また、監視用画面表示処理部19は、左サイドカメラ14による撮影映像に対してトリミング等の処理を行うことによって、左サイドビュー画像3を生成するようになっている。   In addition, the monitoring screen display processing unit 19 generates the left side view image 3 by performing processing such as trimming on the video image taken by the left side camera 14.

そして、監視用画面表示処理部19は、このようにして生成された俯瞰画像2および左サイドビュー画像3を、背景画像4と合成することによって、監視用画面1を生成するようになっている。   Then, the monitoring screen display processing unit 19 generates the monitoring screen 1 by synthesizing the overhead image 2 and the left side view image 3 generated in this way with the background image 4. .

監視用画面表示処理部19には、ディスプレイ23が接続されており、このディスプレイ23には、監視用画面表示処理部19によって、監視用画面1が表示されるようになっている。   A display 23 is connected to the monitoring screen display processing unit 19, and the monitoring screen 1 is displayed on the display 23 by the monitoring screen display processing unit 19.

車両周辺監視装置11は、入力操作部24を有しており、ユーザは、この入力操作部24を用いることによって、監視用画面1の表示のための指示を入力することができるようになっている。   The vehicle periphery monitoring apparatus 11 includes an input operation unit 24, and the user can input an instruction for displaying the monitoring screen 1 by using the input operation unit 24. Yes.

監視用画面表示処理部19には、車両情報取得部25が接続されており、この車両情報取得部25は、車両側から、走行速度(車速)やギア位置等の自車両についての車両情報を取得するようになっている。   A vehicle information acquisition unit 25 is connected to the monitoring screen display processing unit 19, and this vehicle information acquisition unit 25 receives vehicle information about the host vehicle such as a traveling speed (vehicle speed) and a gear position from the vehicle side. To get.

監視用画面表示処理部19は、車両情報取得部25から入手した自車両の走行速度が所定速度以下の場合に監視用画面1を生成するようにしてもよい。   The monitoring screen display processing unit 19 may generate the monitoring screen 1 when the traveling speed of the host vehicle obtained from the vehicle information acquisition unit 25 is equal to or lower than a predetermined speed.

そして、本実施形態において、車両情報取得部25には、照明装置として、自車両の左前方および右前方の監視範囲に対して光(可視光)を照射する前照灯28、自車両の後方の監視範囲に対して光(可視光)を照射する後尾灯29および自車両の左側方の監視範囲に対して光(例えば、近赤外光)を照射する補助照明装置30がそれぞれ接続されている。車両情報取得部25は、車両情報として、これらの照明装置28,29,30の点灯の有無を示す点灯情報を取得するようになっている。   In the present embodiment, the vehicle information acquisition unit 25 has a headlamp 28 that irradiates light (visible light) to the left front and front right monitoring ranges of the host vehicle as a lighting device, and the rear of the host vehicle. Are connected to the rear lamp 29 for irradiating light (visible light) to the monitoring range and the auxiliary lighting device 30 for irradiating light (for example, near infrared light) to the monitoring range on the left side of the host vehicle. Yes. The vehicle information acquisition part 25 acquires the lighting information which shows the presence or absence of lighting of these illuminating devices 28, 29, and 30 as vehicle information.

また、本実施形態において、監視用画面表示処理部19、ディスプレイ23および車両情報取得部25には、識別画像表示処理装置としての識別画像表示処理部31が接続されている。   In the present embodiment, an identification image display processing unit 31 as an identification image display processing device is connected to the monitoring screen display processing unit 19, the display 23, and the vehicle information acquisition unit 25.

識別画像表示処理部31は、車両情報取得部25から照明装置28,29,30の点灯情報を取得し、取得された点灯情報が照明装置28,29,30が点灯していることを示すものであることに基づいて、自車両が夜間の路上等の暗所を走行中であると認識するようになっている。   The identification image display processing unit 31 acquires lighting information of the lighting devices 28, 29, and 30 from the vehicle information acquisition unit 25, and the acquired lighting information indicates that the lighting devices 28, 29, and 30 are turned on. On the basis of the fact that the vehicle is traveling, it is recognized that the vehicle is traveling in a dark place such as on the road at night.

識別画像表示処理部31には、有効照射範囲記憶装置としての有効照射範囲記憶部33が接続されており、この有効照射範囲記憶部33には、監視範囲における監視範囲から見た照明装置の輝度が所定の閾値輝度以上の状態として照明装置の光が有効に照射される範囲である有効照射範囲の情報が記憶されている。   The identification image display processing unit 31 is connected to an effective irradiation range storage unit 33 as an effective irradiation range storage device. The effective irradiation range storage unit 33 includes the luminance of the illumination device as viewed from the monitoring range in the monitoring range. Is stored as information on an effective irradiation range, which is a range in which the light of the illumination device is effectively irradiated in a state where is equal to or higher than a predetermined threshold luminance.

なお、この有効照射範囲の情報は、図3に示すように、照明装置28,29,30の種類に応じた有効照射範囲の類型および有効照射範囲が属する監視範囲の方向(換言すれば、車載カメラ12,13,14,15,16の種類)ごとに区分けされたテーブル34形式の情報であってもよい。   As shown in FIG. 3, the effective irradiation range information includes the types of the effective irradiation ranges according to the types of the illumination devices 28, 29, and 30 and the direction of the monitoring range to which the effective irradiation ranges belong (in other words, in-vehicle The information may be in the form of a table 34 divided for each type of camera 12, 13, 14, 15, 16).

ここで、図3のテーブル34には、前照灯有効照射範囲の情報として、左フロントカメラ12の撮像面座標系における所定の座標点(画素)の集合(撮像面座標点群A)を示す情報と、右フロントカメラ13の撮像面座標系における所定の座標点(画素)の集合(撮像面座標点群C)を示す情報とが記述されている。また、テーブル34には、後尾灯照射範囲の情報として、バックカメラ16の撮像面座標系における所定の座標点(画素)の集合(撮像面座標点群E)を示す情報が記述されている。さらに、テーブル34には、補助照明照射範囲の情報として、左フロントカメラ12の撮像面座標系における所定の座標点(画素)の集合(撮像面座標点群B)を示す情報と、左サイドカメラ14の撮像面座標系における所定の座標点(画素)の集合(撮像面座標点群D)を示す情報とが記述されている。   Here, the table 34 in FIG. 3 shows a set of predetermined coordinate points (pixels) in the imaging plane coordinate system of the left front camera 12 (imaging plane coordinate point group A) as information on the effective irradiation range of the headlamp. Information and information indicating a set of predetermined coordinate points (pixels) (imaging plane coordinate point group C) in the imaging plane coordinate system of the right front camera 13 are described. In addition, information indicating a set of predetermined coordinate points (pixels) in the imaging plane coordinate system of the back camera 16 (imaging plane coordinate point group E) is described in the table 34 as information on the rear lamp irradiation range. Further, the table 34 includes information indicating a set of predetermined coordinate points (pixels) (imaging plane coordinate point group B) in the imaging plane coordinate system of the left front camera 12 as information on the auxiliary illumination irradiation range, and the left side camera. Information indicating a set of predetermined coordinate points (pixels) (imaging plane coordinate point group D) in 14 imaging plane coordinate systems is described.

また、テーブル34内における「無し」と記述された欄は、この欄に対応する有効照射範囲が存在しないことを示している。例えば、前照灯有効照射範囲と後方(バックカメラ)とに対応する欄には、「無し」が記述されているが、これは、自車両の後方の監視範囲内には前照灯有効照射範囲が存在しないことを示している。   Further, the column described as “none” in the table 34 indicates that there is no effective irradiation range corresponding to this column. For example, “None” is described in the column corresponding to the headlamp effective irradiation range and the rear (back camera). This is because the headlamp effective irradiation is within the monitoring range behind the host vehicle. Indicates that the range does not exist.

なお、前述した有効照射範囲の定義からも分かるように、有効照射範囲は、照明装置28,29,30の所定の閾値輝度に対応したものであるため、テーブル34内の有効照射範囲の情報は、所定の閾値輝度を基準としているが、この閾値輝度は、照明装置28,29,30ごとに異なるものであってもよい。   As can be seen from the definition of the effective irradiation range described above, the effective irradiation range corresponds to the predetermined threshold luminance of the lighting devices 28, 29, and 30, and therefore the information on the effective irradiation range in the table 34 is as follows. Although the predetermined threshold luminance is used as a reference, the threshold luminance may be different for each of the lighting devices 28, 29, and 30.

このような有効照射範囲は、照明装置28,29,30および車載カメラ12,13,14,15,16の位置、姿勢および寸法等の車両周辺監視装置11の設計に応じて一義的に設定されたものとされている。   Such an effective irradiation range is uniquely set according to the design of the vehicle periphery monitoring device 11 such as the positions, postures, and dimensions of the lighting devices 28, 29, and 30 and the in-vehicle cameras 12, 13, 14, 15, and 16. It is said that

図1に戻って、識別画像表示処理部31は、有効照射範囲取得部36を有しており、識別画像表示処理部31は、自車両が暗所を走行中であることを認識した場合には、この有効照射範囲取得部36によって有効照射範囲記憶部33に記憶された有効照射範囲の情報を取得することにより、有効照射範囲を把握するようになっている。   Returning to FIG. 1, the identification image display processing unit 31 has an effective irradiation range acquisition unit 36, and the identification image display processing unit 31 recognizes that the host vehicle is traveling in a dark place. The effective irradiation range is obtained by acquiring information on the effective irradiation range stored in the effective irradiation range storage unit 33 by the effective irradiation range acquisition unit 36.

そして、識別画像表示処理部31は、把握された有効照射範囲に基づいて、監視用画面1における各車両周辺監視画像2,3の中から、車両周辺監視画像における有効照射範囲の撮影映像を用いて生成された部位である有効照射部位を抽出するようになっている。   And the identification image display process part 31 uses the imaging | photography image | video of the effective irradiation range in a vehicle periphery monitoring image from each vehicle periphery monitoring image 2 and 3 in the monitoring screen 1 based on the grasped effective irradiation range. The effective irradiation site, which is the site generated in this way, is extracted.

具体的には、識別画像表示処理部31は、俯瞰画像2の中から、図10に示したものと同様に、前照灯有効照射範囲の撮影映像を用いて生成された前照灯有効照射部位7と、後尾灯有効照射範囲の撮影映像を用いて生成された後尾灯有効照射部位8と、補助照明有効照射範囲の撮影映像を用いて生成された補助照明有効照射部位9とを抽出するようになっている。   Specifically, the identification image display processing unit 31 performs the headlamp effective irradiation generated from the overhead image 2 using the captured image of the headlamp effective irradiation range, as shown in FIG. The part 7, the tail lamp effective irradiation part 8 generated using the captured image of the tail lamp effective irradiation range, and the auxiliary illumination effective irradiation part 9 generated using the image of the auxiliary illumination effective irradiation range are extracted. It is like that.

また、識別画像表示処理部31は、左サイドビュー画像3の中から、図10に示したものと同様に、補助照明有効照射範囲の撮影映像を用いて生成された補助照明有効照射部位10を抽出するようになっている。   Further, the identification image display processing unit 31 displays the auxiliary illumination effective irradiation part 10 generated from the left side view image 3 using the captured image of the auxiliary illumination effective irradiation range, as shown in FIG. It comes to extract.

そして、識別画像表示処理部31は、抽出結果に基づいて、前照灯有効照射部位7を識別するための識別画像として、図4に示すように、前照灯有効照射部位7とそれ以外の部位との境界を示す破線の境界線の画像(以下、前照灯有効照射部位境界線画像37と称する)を生成し、生成された前照灯有効照射部位境界線画像37を、俯瞰画像2上に重畳表示するようになっている。   And as shown in FIG. 4, the identification image display process part 31 is the identification image for identifying the headlamp effective irradiation site | part 7 based on an extraction result, as shown in FIG. An image of a broken line indicating a boundary with a part (hereinafter referred to as a headlamp effective irradiation part boundary line image 37) is generated, and the generated headlamp effective irradiation part boundary line image 37 is obtained as an overhead image 2 It is designed to be superimposed on the top.

また、識別画像表示処理部31は、後尾灯有効照射部位8を識別するための識別画像として、図4に示すように、後尾灯有効照射部位8とそれ以外の部位との境界を示す破線の境界線の画像(以下、後尾灯有効照射部位境界線画像38と称する)を生成し、生成された後尾灯有効照射部位境界線画像38を、俯瞰画像2上に重畳表示するようになっている。   Further, as shown in FIG. 4, the identification image display processing unit 31 uses a broken line indicating the boundary between the taillight effective irradiation site 8 and other sites as an identification image for identifying the taillight effective irradiation site 8. An image of a boundary line (hereinafter referred to as a tail lamp effective irradiation region boundary line image 38) is generated, and the generated tail lamp effective irradiation region boundary line image 38 is superimposed and displayed on the overhead image 2. .

さらに、識別画像表示処理部31は、俯瞰画像2における補助照明有効照射部位9を識別するための識別画像として、図4に示すように、補助照明有効照射部位9とそれ以外の部位との境界を示す破線の境界線の画像(以下、第1補助照明有効照射部位境界線画像39と称する)を生成し、生成された第1補助照明有効照射部位境界線画像39を、俯瞰画像2上に重畳表示するようになっている。   Furthermore, as shown in FIG. 4, the identification image display processing unit 31 uses the boundary between the auxiliary illumination effective irradiation part 9 and other parts as an identification image for identifying the auxiliary illumination effective irradiation part 9 in the overhead image 2. Is generated (hereinafter referred to as a first auxiliary illumination effective irradiation region boundary image 39), and the generated first auxiliary illumination effective irradiation region boundary image 39 is displayed on the overhead image 2. Superimposed display.

さらにまた、識別画像表示処理部31は、左サイドビュー画像3における補助照明有効照射部位10を識別するための識別画像として、図4に示すように、補助照明有効照射部位10とそれ以外の部位との境界を示す破線の境界線の画像(以下、第2補助照明有効照射部位境界線画像40と称する)を生成し、生成された第2補助照明有効照射部位境界線画像40を、左サイドビュー画像3上に重畳表示するようになっている。   Furthermore, as shown in FIG. 4, the identification image display processing unit 31 uses the auxiliary illumination effective irradiation part 10 and other parts as identification images for identifying the auxiliary illumination effective irradiation part 10 in the left side view image 3. A boundary line image of a broken line indicating the boundary between the first auxiliary illumination effective irradiation region boundary line image 40 and the generated second auxiliary illumination effective irradiation region boundary line image 40 is generated on the left side. The image is superimposed on the view image 3.

なお、前述したように、自車両の後退時には、俯瞰画像2には、後退灯有効照射部位が含まれることになるが、その場合には、前述した他の有効照射部位7,8,9,10を識別するための境界線の画像37,38,39,40の表示に用いられる方法と同様の方法によって、後退灯有効照射部位を識別するための境界線の画像を、他の境界線の画像37,38,39,40と併せて表示すればよい。なお、図1においては、後退灯は省略されている。   As described above, when the host vehicle is moving backward, the overhead view image 2 includes the reverse light effective irradiation region. In this case, the other effective irradiation regions 7, 8, 9, In the same manner as the method used to display the boundary images 37, 38, 39, and 40 for identifying 10, the boundary image for identifying the back-light effective irradiation site is displayed on the other boundary lines. What is necessary is just to display together with the image 37,38,39,40. In FIG. 1, the backward light is omitted.

次に、本実施形態の主たる作用について説明する。   Next, the main operation of this embodiment will be described.

本実施形態においては、夜間の路上等の暗所において、ユーザが、照明装置28,29,30を点灯させた状態として入力操作部24を用いて監視用画面1の表示の指示を入力すると、監視用画面表示処理部19によって、車載カメラ12,13,14,15,16による撮影映像がカメラ映像取得部18を介して取得されるとともに、マッピングテーブル記憶部20に記憶されたマッピングテーブル21が読み出される。   In the present embodiment, when a user inputs an instruction to display the monitoring screen 1 using the input operation unit 24 in a dark place such as a night road, the lighting devices 28, 29, and 30 are turned on. The monitoring screen display processing unit 19 acquires the captured video by the in-vehicle cameras 12, 13, 14, 15, and 16 via the camera video acquisition unit 18, and the mapping table 21 stored in the mapping table storage unit 20. Read out.

そして、監視用画面表示処理部19により、マッピングテーブル21と、車載カメラ12,13,14,15,16による撮影映像とに基づいて、俯瞰画像2が生成され、また、左サイドカメラ14による撮影映像に対するトリミング情報等に基づいて、左サイドビュー画像3が生成される。   Then, the monitoring screen display processing unit 19 generates a bird's-eye view image 2 based on the mapping table 21 and the video images taken by the in-vehicle cameras 12, 13, 14, 15, and 16, and is shot by the left side camera 14. The left side view image 3 is generated based on the trimming information for the video.

さらに、監視用画面表示処理部19により、俯瞰画像2および左サイドビュー画像3が背景画像4と合成されることによって監視用画面1が生成され、生成された監視用画面1がディスプレイ23に表示される。   Further, the monitoring screen display processing unit 19 generates the monitoring screen 1 by combining the overhead image 2 and the left side view image 3 with the background image 4, and the generated monitoring screen 1 is displayed on the display 23. Is done.

また、このとき、識別画像表示処理部31により、車両情報取得部25から点灯情報が取得され、取得された点灯情報が、照明装置28,29,30が点灯していることを示すものであることに基づいて、自車両が暗所を走行中であると認識される。   At this time, lighting information is acquired from the vehicle information acquisition unit 25 by the identification image display processing unit 31, and the acquired lighting information indicates that the lighting devices 28, 29, and 30 are turned on. Based on this, it is recognized that the host vehicle is traveling in a dark place.

そして、識別画像表示処理部31によって自車両が暗所を走行中であることが認識された後に、識別画像表示処理部31により、有効照射範囲記憶部33に記憶された有効照射範囲の情報が有効照射範囲取得部36を介して取得されることによって、有効照射範囲が把握される。   Then, after the identification image display processing unit 31 recognizes that the host vehicle is traveling in a dark place, the identification image display processing unit 31 stores the information on the effective irradiation range stored in the effective irradiation range storage unit 33. The effective irradiation range is grasped by being acquired through the effective irradiation range acquisition unit 36.

次いで、識別画像表示処理部31により、有効照射範囲取得部33によって取得された有効照射範囲の情報に基づいて、俯瞰画像2の中から、前照灯有効照射部位7、後尾灯有効照射部位8および補助照明有効照射部位9を抽出するとともに、左サイドビュー画像3の中から、補助照明有効照射部位10を抽出する。   Next, based on the information on the effective irradiation range acquired by the effective irradiation range acquisition unit 33 by the identification image display processing unit 31, the headlamp effective irradiation region 7 and the rear lamp effective irradiation region 8 are selected from the overhead image 2. The auxiliary illumination effective irradiation site 9 is extracted, and the auxiliary illumination effective irradiation site 10 is extracted from the left side view image 3.

次いで、識別画像表示処理部31により、抽出結果に基づいて、前照灯有効照射部位境界線画像37、後尾灯有効照射部位境界線画像38および第1補助照明有効照射部位境界線画像39を生成して俯瞰画像2上に重畳表示するとともに、第2補助照明有効照射部位境界線画像40を生成して左サイドビュー画像3上に重畳表示する。   Next, the identification image display processing unit 31 generates a headlamp effective irradiation region boundary line image 37, a rear lamp effective irradiation region boundary line image 38, and a first auxiliary illumination effective irradiation region boundary line image 39 based on the extraction result. As a result, the second auxiliary illumination effective irradiation region boundary line image 40 is generated and superimposed on the left side view image 3 while being superimposed on the overhead image 2.

このような境界線画像37,38,39,40が表示されることにより、ユーザは、俯瞰画像2および左サイドビュー画像3におけるどの部位が監視範囲の状況を正確に反映しているのかを簡便に判別することができる。   By displaying such boundary line images 37, 38, 39, and 40, the user can easily determine which part in the overhead view image 2 and the left side view image 3 accurately reflects the situation of the monitoring range. Can be determined.

なお、本実施形態の変形例として、有効照射範囲を規定する前述した閾値輝度を、自車両の走行速度の増加にともなって漸次または段階的に増加する値とし、有効照射範囲として、自車両の走行速度の増加にともなう閾値輝度の増加にともなって漸次または段階的に縮小する範囲を用いるようにしてもよい。   As a modification of the present embodiment, the above-described threshold luminance that defines the effective irradiation range is a value that increases gradually or stepwise as the traveling speed of the host vehicle increases. You may make it use the range which reduces gradually or in steps as the threshold brightness | luminance increases with the increase in driving speed.

このような変形例は、最も簡単な例として、例えば、次の2つのテーブルを用いることによって実現することができる。すなわち、まず、1つ目のテーブルとしては、前述したテーブル34を、このテーブル34内の有効照射範囲を規定するための閾値輝度が、所定の走行速度範囲(例えば、0km/h超過かつ15km/h未満といった一定の広がりを持つ走行速度範囲)と対応関係を有した状態として用意しておく。次に、2つ目のテーブルとしては、前記1つ目のテーブル34と同形式の別のテーブル(以下、別テーブルと称する)として、当該別テーブル内の有効照射範囲を規定するための閾値輝度が前記1つ目のテーブル34よりも高いものを用意しておく。このとき、別テーブル内の有効照射範囲を規定するための閾値輝度は、前記1つ目のテーブル34における閾値輝度に対応する走行速度範囲よりも速い走行速度範囲(例えば、15km/h以上かつ30km/h以下)と対応関係を有するようにしておく。   Such a modification can be realized by using, for example, the following two tables as the simplest example. That is, first, as the first table, the above-described table 34 has a threshold brightness for defining an effective irradiation range in the table 34, and a predetermined traveling speed range (for example, more than 0 km / h and 15 km / h). A traveling speed range having a certain spread of less than h) is prepared as a state having a corresponding relationship. Next, as the second table, as another table of the same format as the first table 34 (hereinafter referred to as another table), threshold brightness for defining an effective irradiation range in the other table. Is prepared higher than the first table 34. At this time, the threshold brightness for defining the effective irradiation range in the separate table is faster than the travel speed range corresponding to the threshold brightness in the first table 34 (for example, 15 km / h or more and 30 km). / H or less).

ここで、前記別テーブル(2つ目のテーブル)内の有効照射範囲の情報は、前記1つ目のテーブル34側よりも有効照射範囲を規定するための閾値輝度が高いことにより、前記1つ目のテーブル34側の有効照射範囲よりも面積が縮小された有効照射範囲を示す情報とすることができる。   Here, the information on the effective irradiation range in the separate table (second table) is that the threshold luminance for defining the effective irradiation range is higher than that on the first table 34 side, so It can be information indicating an effective irradiation range whose area is smaller than the effective irradiation range on the eye table 34 side.

例えば、1つ目のテーブル34における前照灯有効照射範囲を、図3に示したように、左フロントカメラ12の撮像面座標点群Aとした場合に、前記別テーブル(2つ目のテーブル)における前照灯有効照射範囲は、図示はしないが、左フロントカメラ12の撮像面座標点群Aよりも面積が縮小された撮像面座標点群A’となる。   For example, when the effective irradiation range of the headlamp in the first table 34 is the imaging surface coordinate point group A of the left front camera 12, as shown in FIG. The headlamp effective irradiation range in () is an imaging plane coordinate point group A ′ whose area is smaller than that of the imaging plane coordinate point group A of the left front camera 12, although not shown.

そして、自車両が、前記1つ目のテーブル34側に対応する走行速度範囲内の走行速度(低速側)で走行している場合には、前記1つ目のテーブル34側の有効照射範囲を用いて境界線画像37,38,39,40を生成し、一方、自車両が、前記別テーブル側に対応する走行速度範囲内の走行速度(高速側)で走行している場合には、別テーブル側の有効照射範囲を用いて境界線画像を生成すればよい。   When the host vehicle is traveling at a traveling speed (low speed side) within the traveling speed range corresponding to the first table 34 side, the effective irradiation range on the first table 34 side is set. The boundary line images 37, 38, 39, and 40 are used to generate a boundary line image 37, 38, 39, and 40. A boundary image may be generated using the effective irradiation range on the table side.

このようにすれば、自車両の走行速度の増加にともなって境界線画像の範囲すなわち境界線画像によって識別される範囲を縮小することができるので、安全性をさらに高めることができる。   In this way, the range of the boundary line image, that is, the range identified by the boundary line image can be reduced with an increase in the traveling speed of the host vehicle, so that safety can be further enhanced.

また、本実施形態の変形例として、図5に示すように、識別画像表示処理部31が、俯瞰画像2上に、識別画像として、境界線画像37,38,39とともに俯瞰画像2における有効照射部位7,8,9およびイラスト画像6(自車両画像)以外の部位を視認不能にするためのマスク画像45を表示し、また、左サイドビュー画像3上に、識別画像として、境界線画像40とともに左サイドビュー画像3における有効照射部位10および映り込み画像3a(自車両画像)以外の部位を視認不能にするためのマスク画像46を表示するようにしてもよい。   As a modification of the present embodiment, as shown in FIG. 5, the identification image display processing unit 31 performs effective irradiation on the overhead image 2 together with the boundary line images 37, 38, and 39 as the identification image on the overhead image 2. A mask image 45 for making parts other than the parts 7, 8, 9 and the illustration image 6 (own vehicle image) invisible is displayed, and a boundary line image 40 as an identification image is displayed on the left side view image 3. At the same time, a mask image 46 may be displayed for making the portions other than the effective irradiation portion 10 and the reflected image 3a (own vehicle image) in the left side view image 3 invisible.

このようにすれば、有効照射部位7,8,9,10をさらに明確に識別することができる。   In this way, the effective irradiation sites 7, 8, 9, and 10 can be more clearly identified.

なお、図5においては、説明の便宜上、マスク画像45,46が白抜きになっているが、実際には、黒色等の暗色にすることが暗所における使用の観点から好ましい。   In FIG. 5, for convenience of explanation, the mask images 45 and 46 are outlined, but actually, it is preferable to use a dark color such as black from the viewpoint of use in a dark place.

(第2実施形態)
次に、本発明に係る車両周辺監視装置の第2実施形態について、図6乃至図8を参照して説明する。
(Second Embodiment)
Next, a second embodiment of the vehicle periphery monitoring device according to the present invention will be described with reference to FIGS.

なお、第1実施形態と基本的構成が同一もしくはこれに類する箇所については、同一の符号を用いて説明する。   Note that portions having the same or similar basic configuration as the first embodiment will be described using the same reference numerals.

図6に示すように、本実施形態における車両周辺監視装置48は、第1実施形態と同様の構成に加え、車載カメラ12,13,14,15,16と識別画像表示処理部31との間に、明るさ検出装置としての明るさ検出部49を有している。   As shown in FIG. 6, the vehicle periphery monitoring device 48 according to the present embodiment has a configuration similar to that of the first embodiment, and is provided between the in-vehicle cameras 12, 13, 14, 15, and 16 and the identification image display processing unit 31. In addition, a brightness detection unit 49 as a brightness detection device is provided.

この明るさ検出部49は、各車載カメラ12,13,14,15,16の測光の結果を取得し、取得された測光の結果を用いることによって、自車両の周辺の明るさを検出するようになっている。なお、この明るさ検出部49によって検出される自車両の周辺の明るさは、各車載カメラ12,13,14,15,16の撮影領域の明るさの平均値であってもよい。また、明るさ検出部49によって検出される明るさの単位としては、例えば、照度〔lx〕を用いることができる。   The brightness detection unit 49 acquires the photometric result of each of the in-vehicle cameras 12, 13, 14, 15, 16 and uses the acquired photometric result to detect the brightness around the host vehicle. It has become. In addition, the brightness around the host vehicle detected by the brightness detection unit 49 may be an average value of the brightness of the shooting areas of the in-vehicle cameras 12, 13, 14, 15, and 16. As a unit of brightness detected by the brightness detection unit 49, for example, illuminance [lx] can be used.

さらに、本実施形態において、識別画像表示処理部31には、周辺範囲記憶部50が接続されており、この周辺範囲記憶部50には、監視範囲における有効照射範囲の周辺の範囲(以下、周辺範囲と称する)の情報が記憶されている。   Further, in the present embodiment, a peripheral range storage unit 50 is connected to the identification image display processing unit 31, and the peripheral range storage unit 50 includes a range around the effective irradiation range in the monitoring range (hereinafter referred to as the peripheral range). Information) is stored.

この周辺範囲の情報は、図7に示すように、有効照射範囲の種類に応じた周辺範囲の類型および周辺範囲が属する監視範囲の方向(換言すれば、車載カメラ12,13,14,15,16の種類)ごとに区分けされたテーブル52形式の情報であってもよい。なお、このテーブル52は、有効照射範囲の情報として図3に示したテーブル34を用いる場合に併用されるものと考えればよい。   As shown in FIG. 7, the peripheral range information includes the type of the peripheral range corresponding to the type of the effective irradiation range and the direction of the monitoring range to which the peripheral range belongs (in other words, the in-vehicle cameras 12, 13, 14, 15, The information may be in the form of a table 52 divided into 16 types). This table 52 may be considered to be used together when the table 34 shown in FIG. 3 is used as information on the effective irradiation range.

ここで、図7のテーブル52には、前照灯有効照射範囲についての周辺範囲の情報として、左フロントカメラ12の撮像面座標系における所定の座標点(画素)の集合(撮像面座標点群a)を示す情報と、右フロントカメラ13の撮像面座標系における所定の座標点(画素)の集合(撮像面座標点群c)を示す情報とが記述されている。また、テーブル52には、後尾灯照射範囲についての周辺範囲の情報として、バックカメラ16の撮像面座標系における所定の座標点(画素)の集合(撮像面座標点群e)を示す情報が記述されている。さらに、テーブル52には、補助照明照射範囲についての周辺範囲の情報として、左フロントカメラ12の撮像面座標系における所定の座標点(画素)の集合(撮像面座標点群b)を示す情報と、左サイドカメラ14の撮像面座標系における所定の座標点(画素)の集合(撮像面座標点群d)を示す情報とが記述されている。   Here, the table 52 in FIG. 7 includes a set of predetermined coordinate points (pixels) in the imaging plane coordinate system of the left front camera 12 (imaging plane coordinate point group) as information on the peripheral range of the headlamp effective irradiation range. Information indicating a) and information indicating a set of predetermined coordinate points (pixels) (imaging plane coordinate point group c) in the imaging plane coordinate system of the right front camera 13 are described. Further, in the table 52, information indicating a set of predetermined coordinate points (pixels) (imaging plane coordinate point group e) in the imaging plane coordinate system of the back camera 16 is described as peripheral range information about the rear lamp irradiation range. Has been. Further, the table 52 includes information indicating a set of predetermined coordinate points (pixels) in the imaging plane coordinate system of the left front camera 12 (imaging plane coordinate point group b) as peripheral range information about the auxiliary illumination irradiation range. And information indicating a set of predetermined coordinate points (pixels) (imaging plane coordinate point group d) in the imaging plane coordinate system of the left side camera 14 is described.

また、テーブル52内における「無し」と記述された欄は、この欄に対応する周辺範囲が存在しないことを示している。例えば、前照灯有効照射範囲と後方(バックカメラ)とに対応する欄には、「無し」が記述されているが、これは、自車両の後方の監視範囲内に前照灯有効照射範囲についての周辺範囲が存在しないことを示している。   Further, the column described as “none” in the table 52 indicates that there is no peripheral range corresponding to this column. For example, “None” is described in the column corresponding to the headlamp effective irradiation range and the rear (back camera), which is within the monitoring range behind the host vehicle. It shows that there is no surrounding range for.

このような周辺範囲は、照明装置28,29,30および車載カメラ12,13,14,15,16の位置、姿勢および寸法および有効照射範囲の設定範囲等の車両周辺監視装置48の設計に応じて予め設定されたものとされている。   Such a peripheral range depends on the design of the vehicle periphery monitoring device 48 such as the positions, postures and dimensions of the lighting devices 28, 29, 30 and the in-vehicle cameras 12, 13, 14, 15, 16 and the setting range of the effective irradiation range. Are set in advance.

図6に戻って、識別画像表示処理部31は、周辺範囲取得部53を有しており、識別画像表示処理部31は、明るさ検出部49によって検出された自車両の周辺の明るさが所定の閾値明るさ以上となっている場合には、周辺範囲記憶部50に記憶された周辺範囲の情報を、周辺範囲取得部53によって取得するようになっている。   Returning to FIG. 6, the identification image display processing unit 31 includes a peripheral range acquisition unit 53, and the identification image display processing unit 31 has the brightness of the periphery of the host vehicle detected by the brightness detection unit 49. When the brightness is equal to or higher than the predetermined threshold brightness, the peripheral range information stored in the peripheral range storage unit 50 is acquired by the peripheral range acquisition unit 53.

また、識別画像表示処理部31は、複合範囲算出部54を有しており、この複合範囲算出部54は、有効照射範囲取得部33によって取得された有効照射範囲の情報と、周辺範囲取得部53によって取得された周辺範囲の情報とを加算することによって、複合範囲を算出するようになっている。   The identification image display processing unit 31 includes a composite range calculation unit 54. The composite range calculation unit 54 includes information on the effective irradiation range acquired by the effective irradiation range acquisition unit 33 and a peripheral range acquisition unit. The composite range is calculated by adding the peripheral range information acquired by 53.

そして、識別画像表示処理部31は、このような複合範囲を算出した場合には、監視用画面表示処理部19から取得された監視用画面1の中から、複合部位として、車両周辺監視画像における複合範囲の撮影映像を用いて生成された部位を抽出するようになっている。   When the identification image display processing unit 31 calculates such a composite range, the identification image display processing unit 31 in the vehicle periphery monitoring image as a composite part from the monitoring screen 1 acquired from the monitoring screen display processing unit 19. A part generated using a captured image of the composite range is extracted.

この複合部位は、第1実施形態において説明した有効照射部位と、その周辺部位とを加え合わせてなる部位とされており、この有効照射部位のうちの周辺部位は、車両周辺監視画像における周辺範囲の撮影映像を用いて生成された部位に相当する。   The composite part is a part formed by adding the effective irradiation part described in the first embodiment and its peripheral part, and the peripheral part of the effective irradiation part is a peripheral range in the vehicle periphery monitoring image. This corresponds to the part generated using the captured video.

より具体的には、識別画像表示処理部31は、複合部位として、次のような各複合部位を抽出するようになっている。すなわち、識別画像表示処理部31は、俯瞰画像2の中から、前照灯有効照射範囲およびその周辺範囲からなる複合範囲(以下、前照灯側複合範囲と称する)の撮影映像を用いて生成された複合部位(以下、前照灯側複合部位と称する)を抽出するようになっている。また、識別画像表示処理部31は、俯瞰画像2の中から、後尾灯有効照射範囲およびその周辺範囲からなる複合範囲(以下、後尾灯側複合範囲と称する)の撮影映像を用いて生成された複合部位(以下、後尾灯側複合部位と称する)を抽出するようになっている。さらに、識別画像表示処理部31は、俯瞰画像2の中から、補助照明有効照射範囲およびその周辺範囲からなる複合範囲(以下、補助照明側複合範囲と称する)の撮影映像を用いて生成された複合部位(以下、補助照明側第1複合部位と称する)を抽出するようになっている。さらにまた、識別画像表示処理部31は、左サイドビュー画像3の中から、補助照明有効照射範囲およびその周辺範囲からなる複合範囲(以下、補助照明側複合範囲と称する)の撮影映像を用いて生成された複合部位(以下、補助照明側第2複合部位と称する)を抽出するようになっている。   More specifically, the identification image display processing unit 31 extracts each of the following composite parts as composite parts. That is, the identification image display processing unit 31 generates from the bird's-eye view image 2 using a captured video of a composite range (hereinafter referred to as a headlamp-side composite range) including the headlamp effective irradiation range and its peripheral range. The combined part (hereinafter referred to as the headlamp side composite part) is extracted. In addition, the identification image display processing unit 31 is generated from the overhead image 2 using a captured image of a composite range (hereinafter referred to as a rear lamp side composite range) including the rear lamp effective irradiation range and its peripheral range. A composite part (hereinafter referred to as a rear light side composite part) is extracted. Furthermore, the identification image display processing unit 31 is generated from the overhead image 2 using a captured image of a composite range including the auxiliary illumination effective irradiation range and its peripheral range (hereinafter referred to as the auxiliary illumination side composite range). A complex part (hereinafter, referred to as an auxiliary illumination side first complex part) is extracted. Furthermore, the identification image display processing unit 31 uses a captured image of a composite range (hereinafter referred to as an auxiliary illumination side composite range) including the auxiliary illumination effective irradiation range and its peripheral range from the left side view image 3. The generated composite part (hereinafter referred to as auxiliary illumination side second composite part) is extracted.

そして、識別画像表示処理部31は、抽出結果に基づいて、複合部位を識別するための識別画像(第2の識別画像)として、複合部位とそれ以外の部位との境界を示す境界線の画像を生成し、生成された境界線の画像を、車両周辺監視画像上に重畳表示するようになっている。   And the identification image display process part 31 is an image of the boundary line which shows the boundary of a composite region and another site | part as an identification image (2nd identification image) for identifying a composite region based on an extraction result. Is generated, and the generated boundary image is superimposed and displayed on the vehicle periphery monitoring image.

より具体的には、識別画像表示処理部31は、図8に示すように、前照灯側複合部位57を識別するための境界線の画像として、前照灯側複合部位57とそれ以外の部位との境界を示す破線の境界線の画像(以下、前照灯側複合部位境界線画像62と称する)を生成し、生成された前照灯側複合部位境界線画像62を、俯瞰画像2上に重畳表示するようになっている。   More specifically, as shown in FIG. 8, the identification image display processing unit 31 uses the headlamp-side composite part 57 and the other parts as an image of the boundary line for identifying the headlamp-side composite part 57. An image of a boundary line of a broken line indicating a boundary with a part (hereinafter referred to as a headlamp-side composite part boundary line image 62) is generated, and the generated headlamp-side composite part boundary line image 62 is represented as an overhead image 2 It is designed to be superimposed on the top.

また、識別画像表示処理部31は、図8に示すように、後尾灯側複合部位58を識別するための境界線の画像として、後尾灯側複合部位58とそれ以外の部位との境界を示す破線の境界線の画像(以下、後尾灯側複合部位境界線画像63と称する)を生成し、生成された後尾灯側複合部位境界線画像63を、俯瞰画像2上に重畳表示するようになっている。   Further, as shown in FIG. 8, the identification image display processing unit 31 shows the boundary between the rear light side composite part 58 and other parts as an image of the boundary line for identifying the rear light side composite part 58. A broken border image (hereinafter referred to as a tail lamp-side composite part border line image 63) is generated, and the tail lamp-side composite part border line image 63 generated is superimposed on the overhead image 2. ing.

さらに、識別画像表示処理部31は、図8に示すように、補助照明側第1複合部位59を識別するための境界線の画像として、補助照明側第1複合部位59とそれ以外の部位との境界を示す破線の境界線の画像(以下、補助照明側第1複合部位境界線画像64と称する)を生成し、生成された補助照明側第1複合部位境界線画像64を、俯瞰画像2上に重畳表示するようになっている。   Furthermore, as shown in FIG. 8, the identification image display processing unit 31 uses the auxiliary illumination side first composite part 59 and other parts as an image of the boundary line for identifying the auxiliary illumination side first composite part 59. An image of a boundary line of a broken line indicating the boundary (hereinafter referred to as an auxiliary illumination side first composite part boundary line image 64) is generated, and the generated auxiliary illumination side first composite part boundary line image 64 is referred to as an overhead image 2. It is designed to be superimposed on the top.

さらにまた、識別画像表示処理部31は、図8に示すように、補助照明側第2複合部位60を識別するための境界線の画像として、補助照明側第2複合部位60とそれ以外の部位との境界を示す破線の境界線の画像(以下、補助照明側第2複合部位境界線画像65と称する)を生成し、生成された補助照明側第2複合部位境界線画像65を、左サイドビュー画像3上に重畳表示するようになっている。   Furthermore, as shown in FIG. 8, the identification image display processing unit 31 uses the auxiliary illumination side second composite part 60 and other parts as an image of the boundary line for identifying the auxiliary illumination side second composite part 60. A boundary line image of a broken line indicating the boundary between the first and second composite part boundary line images 65 (hereinafter referred to as auxiliary illumination side second composite part boundary line image 65) is generated. The image is superimposed on the view image 3.

一方、識別画像表示処理部31は、明るさ検出部49によって検出される自車両の周辺の明るさが閾値明るさ未満となる場合には、複合範囲の算出は行わず、第1実施形態(図4)と同様に有効照射部位を抽出し、抽出された有効照射部位を識別するための識別画像(第1の識別画像)として、抽出された有効照射部位についての境界線画像37,38,39,40を生成して表示するようになっている。   On the other hand, the identification image display processing unit 31 does not calculate the composite range when the brightness around the host vehicle detected by the brightness detection unit 49 is less than the threshold brightness, and the first embodiment ( As in the case of FIG. 4), an effective irradiation site is extracted, and boundary image 37, 38, extracted for the effective irradiation site is extracted as an identification image (first identification image) for identifying the extracted effective irradiation site. 39 and 40 are generated and displayed.

また、本実施形態においても、自車両の後退時には、俯瞰画像2中に、後退灯有効照射部位(図示せず)が含まれることになるが、その場合には、前述した各複合部位57,58,59,60を識別するための境界線の画像62,63,64,65の表示に用いられる方法と同様の方法によって、後退灯有効照射部位とその周辺部位とが加え合わされた後退灯側複合部位を識別するための境界線の画像を、他の境界線の画像62,63,64,65と併せて表示すればよい。   Also in this embodiment, when the host vehicle is moving backward, the overhead view image 2 includes a reverse light effective irradiation site (not shown). The reverse lamp side in which the reverse lamp effective irradiation part and its peripheral part are added together by the same method as that used for displaying the border images 62, 63, 64, 65 for identifying 58, 59, 60 The boundary line image for identifying the complex part may be displayed together with the other boundary line images 62, 63, 64, 65.

次に、本実施形態に特有の作用について説明する。   Next, operations unique to the present embodiment will be described.

本実施形態においては、夜間の路上等の暗所において、ユーザが、照明装置28,29,30を点灯させた状態として入力操作部24を用いて監視用画面1の表示の指示を入力すると、監視用画面表示処理部19により、車載カメラ12,13,14,15,16の撮影映像がカメラ映像取得部18を介して取得されるとともに、マッピングテーブル記憶部20に記憶されたマッピングテーブル21が読み出される。   In the present embodiment, when a user inputs an instruction to display the monitoring screen 1 using the input operation unit 24 in a dark place such as a night road, the lighting devices 28, 29, and 30 are turned on. The monitoring screen display processing unit 19 acquires the captured images of the in-vehicle cameras 12, 13, 14, 15, and 16 through the camera image acquisition unit 18, and the mapping table 21 stored in the mapping table storage unit 20. Read out.

このとき、明るさ検出部49により、車載カメラ12,13,14,15,16の測光の結果に基づいて、自車両の周辺の明るさが検出される。   At this time, the brightness detection unit 49 detects the brightness around the host vehicle based on the photometric results of the in-vehicle cameras 12, 13, 14, 15, and 16.

次いで、監視用画面表示処理部19により、マッピングテーブル21と、車載カメラ12,13,14,15,16による撮影映像とに基づいて、俯瞰画像2が生成され、また、左サイドカメラ14による撮影映像に対するトリミング処理等により、左サイドビュー画像3が生成される。   Next, the overhead screen image 2 is generated by the monitoring screen display processing unit 19 based on the mapping table 21 and the video images taken by the in-vehicle cameras 12, 13, 14, 15, and 16, and is shot by the left side camera 14 The left side view image 3 is generated by trimming the video.

さらに、監視用画面表示処理部19により、生成された俯瞰画像2および左サイドビュー画像3が背景画像4と合成されることによって監視用画面1が生成され、生成された監視用画面1がディスプレイ23に表示される。   Furthermore, the monitoring screen display processing unit 19 generates the monitoring screen 1 by synthesizing the generated overhead image 2 and the left side view image 3 with the background image 4, and the generated monitoring screen 1 is displayed. 23.

また、このとき、識別画像表示処理部31により、車両情報取得部25から点灯情報が取得され、取得された点灯情報が、照明装置28,29,30が点灯していることを示すものであることに基づいて、自車両が暗所を走行中であると認識される。   At this time, lighting information is acquired from the vehicle information acquisition unit 25 by the identification image display processing unit 31, and the acquired lighting information indicates that the lighting devices 28, 29, and 30 are turned on. Based on this, it is recognized that the host vehicle is traveling in a dark place.

そして、識別画像表示処理部31によって自車両が暗所を走行中であることが認識された後に、識別画像表示処理部31により、有効照射範囲記憶部33に記憶された有効照射範囲の情報が有効照射範囲取得部36を介して取得されることによって、有効照射範囲が把握される。   Then, after the identification image display processing unit 31 recognizes that the host vehicle is traveling in a dark place, the identification image display processing unit 31 stores the information on the effective irradiation range stored in the effective irradiation range storage unit 33. The effective irradiation range is grasped by being acquired through the effective irradiation range acquisition unit 36.

さらに、このとき、識別画像表示処理部31の周辺範囲取得部53により、明るさ検出部49によって検出された自車両の周辺の明るさが所定の閾値明るさ以上となっていることにともなって、周辺範囲記憶部50に記憶されている周辺範囲の情報が取得される。   Further, at this time, the peripheral brightness of the subject vehicle detected by the brightness detection unit 49 by the peripheral range acquisition unit 53 of the identification image display processing unit 31 is equal to or higher than a predetermined threshold brightness. The information on the peripheral range stored in the peripheral range storage unit 50 is acquired.

次いで、識別画像表示処理部31の複合範囲算出部54により、有効照射範囲の情報と周辺範囲の情報とが加算された複合範囲として、前照灯側複合範囲、後尾灯側複合範囲および補助照明側複合範囲がそれぞれ算出される。   Next, the composite range calculation unit 54 of the identification image display processing unit 31 adds the information of the effective irradiation range and the information of the peripheral range as the composite range, and the headlamp side composite range, the rear lamp side composite range, and the auxiliary illumination Each side composite range is calculated.

次いで、識別画像表示処理部31により、複合範囲算出部54によって算出された複合範囲に基づいて、俯瞰画像2の中から、前照灯側複合部位57、後尾灯側複合部位58および補助照明側第1複合部位59を抽出するとともに、左サイドビュー画像3の中から、補助照明側第2複合部位60を抽出する。   Next, based on the composite range calculated by the composite range calculation unit 54 by the identification image display processing unit 31, the headlight side composite part 57, the rear lamp side composite part 58, and the auxiliary illumination side are selected from the overhead image 2. The first composite part 59 is extracted, and the auxiliary illumination side second composite part 60 is extracted from the left side view image 3.

次いで、図8に示すように、識別画像表示処理部31により、抽出結果に基づいて、前照灯側複合部位境界線画像62、後尾灯側複合部位境界線画像63および補助照明側第1複合部位境界線画像64を生成して俯瞰画像2上に重畳表示するとともに、補助照明側第2複合部位境界線画像65を生成して左サイドビュー画像3上に重畳表示する。   Next, as shown in FIG. 8, the identification image display processing unit 31 performs the headlamp-side composite part boundary image 62, the rear lamp-side composite part boundary image 63, and the auxiliary illumination side first composite based on the extraction result. A part boundary line image 64 is generated and superimposed on the overhead image 2, and an auxiliary illumination side second composite part boundary line image 65 is generated and superimposed on the left side view image 3.

このような境界線画像62,63,64,65が表示されることにより、ユーザは、俯瞰画像2および左サイドビュー画像3におけるどの部位が監視範囲の状況を正確に反映しているのかを簡便に判別することができる。また、実際の自車両の周辺の明るさに応じて境界線画像によって識別される範囲を第1実施形態よりも拡大することができるので、監視範囲の状況をさらに明確に判別することができる。   By displaying such boundary line images 62, 63, 64, and 65, the user can easily determine which part in the overhead view image 2 and the left side view image 3 accurately reflects the status of the monitoring range. Can be determined. Moreover, since the range identified by the boundary line image can be expanded as compared with the first embodiment in accordance with the brightness around the actual host vehicle, the status of the monitoring range can be more clearly determined.

なお、本実施形態の変形例として、識別画像表示処理部31が、閾値明るさに対する明るさ検出部49によって検出された明るさの超過量の増加にしたがって、複合部位における周辺部位を漸次または段階的に大きくとるようにしてもよい。   As a modification of the present embodiment, the identification image display processing unit 31 gradually or gradually determines the peripheral parts in the composite part according to the increase of the excess amount of brightness detected by the brightness detection part 49 with respect to the threshold brightness. You may make it take large.

このような変形例は、前述した周辺範囲記憶部50に、閾値明るさに対する明るさ検出部49によって検出された明るさの超過量の増加にしたがって大きくなるような周辺範囲を記憶させることによって実現することができる。   Such a modification is realized by storing the peripheral range that increases as the excess amount of brightness detected by the brightness detection unit 49 with respect to the threshold brightness increases in the peripheral range storage unit 50 described above. can do.

より具体的には、最も簡単な例としては、次の2つのテーブルを用いればよい。すなわち、まず、1つ目のテーブルとしては、前述したテーブル52を、このテーブル52内の周辺範囲(図7参照)が、明るさ検出部49によって検出される明るさのうちの所定の明るさの範囲と対応関係を有した状態として用意しておく。ただし、この1つ目のテーブル52内の周辺範囲に対応する前記明るさの範囲は、前記閾値明るさを下限値とした所定の明るさの範囲とする。   More specifically, as the simplest example, the following two tables may be used. That is, as the first table, the above-described table 52 is the predetermined brightness of the brightness detected by the brightness detection unit 49 in the peripheral range (see FIG. 7) in the table 52. It is prepared as a state having a correspondence relationship with the range. However, the brightness range corresponding to the peripheral range in the first table 52 is a predetermined brightness range in which the threshold brightness is a lower limit value.

次に、2つ目のテーブルとしては、前記1つ目のテーブル52と同形式の別のテーブル(以下、別テーブルと称する)として、図7に示した周辺範囲を包含するような当該周辺範囲よりも面積が拡大された周辺範囲の情報が記述されたテーブルを用意しておく。このとき、前記別テーブル内の周辺範囲が、明るさ検出部49によって検出される明るさのうちの所定の明るさの範囲と対応関係を有するようにしておく。ただし、この別テーブル内の周辺範囲に対応する明るさの範囲は、前記1つ目のテーブル52内の周辺範囲に対応する明るさの範囲における上限値よりもわずか(例えば、1〔lx〕分)に大きな所定の明るさを下限値とした所定の明るさの範囲とする。   Next, as the second table, as another table of the same format as the first table 52 (hereinafter referred to as another table), the peripheral range including the peripheral range shown in FIG. In addition, a table is prepared in which information on the peripheral range in which the area is expanded is described. At this time, the peripheral range in the separate table has a correspondence relationship with a predetermined brightness range of the brightness detected by the brightness detection unit 49. However, the brightness range corresponding to the peripheral range in the separate table is slightly smaller than the upper limit value in the brightness range corresponding to the peripheral range in the first table 52 (for example, 1 [lx] minutes). ) Is set to a predetermined brightness range in which the predetermined brightness is a lower limit.

そして、明るさ検出部49によって検出された明るさが、前記閾値明るさ以上であって、前記1つ目のテーブル52内の周辺範囲と対応関係を有する明るさの範囲内のものであれば、前記1つ目のテーブル52の周辺範囲を用いて複合範囲の算出、複合部位の抽出および境界線画像の表示を行う。   If the brightness detected by the brightness detection unit 49 is equal to or greater than the threshold brightness and is within the brightness range corresponding to the peripheral range in the first table 52, The composite range is calculated, the composite part is extracted, and the boundary line image is displayed using the peripheral range of the first table 52.

一方、明るさ検出部49によって検出された明るさが、前記閾値明るさ以上であって、前記別テーブル内の周辺範囲と対応関係を有する明るさの範囲内のものであれば、前記別テーブルの周辺範囲を用いて複合範囲の算出、複合部位の抽出および境界線画像の表示を行えばよい。   On the other hand, if the brightness detected by the brightness detection unit 49 is not less than the threshold brightness and is within a brightness range corresponding to the peripheral range in the separate table, the separate table is used. The composite range may be calculated, the composite part may be extracted, and the boundary line image may be displayed using the peripheral range.

このようにすれば、自車両の周辺の明るさの増加にともなって境界線画像の範囲を拡大することができるので、安全性をさらに高めることができる。   In this way, the range of the boundary line image can be expanded as the brightness around the host vehicle increases, so that safety can be further enhanced.

また、本実施形態の変形例として、識別画像表示処理部31が、図9に示すように、識別画像(第2の識別画像)として、境界線画像62,63,64,65とともに、車両周辺監視画像2,3における複合部位57,58,59,60および自車両画像3a,6以外の部位を視認不能にするためのマスク画像67,68を生成して表示するようにしてもよい。   Further, as a modification of the present embodiment, the identification image display processing unit 31 includes a boundary image 62, 63, 64, 65 as an identification image (second identification image) as shown in FIG. Mask images 67 and 68 for making the parts other than the composite parts 57, 58, 59 and 60 and the own vehicle images 3a and 6 in the monitoring images 2 and 3 invisible can be generated and displayed.

このようにすれば、複合部位57,58,59,60をさらに明確に識別することができる。   In this way, the composite parts 57, 58, 59, 60 can be more clearly identified.

さらに、明るさ検出部49は、自車両の周辺の明るさを、前述したような1つの検出結果(明るさ)として検出するものに限る必要はなく、例えば、各車載カメラ12,13,14,15,16の撮影領域ごとに個別の明るさを検出するものであってもよい。   Furthermore, the brightness detection unit 49 need not be limited to detecting the brightness around the host vehicle as one detection result (brightness) as described above. For example, the in-vehicle cameras 12, 13, 14 , 15, 16 may be used to detect individual brightness for each of the imaging regions.

そして、このように、撮影領域ごとに個別の明るさを検出する場合には、識別画像表示処理部31は、撮影領域ごとの明るさの検出結果の中に、明るさが所定の閾値明るさ以上となっているような撮影領域がある場合には、当該撮影領域内に属する有効照射範囲についての周辺範囲の情報を、周辺範囲記憶部50から取得するようにすればよい。   When the individual brightness is detected for each photographing area as described above, the identification image display processing unit 31 determines that the brightness is a predetermined threshold brightness among the brightness detection results for each photographing area. When there is an imaging region as described above, information about the peripheral range for the effective irradiation range belonging to the imaging region may be acquired from the peripheral range storage unit 50.

このとき、1つの有効照射範囲が2つ以上の車載カメラ12,13,14,15,16の撮影領域内に属することがあるが、このような場合には、いずれか1つでも、撮影領域の明るさの検出結果が閾値明るさ以上となるのであれば、この有効照射範囲の周辺範囲の情報が取得されるようにすればよい。   At this time, one effective irradiation range may belong to the imaging region of two or more on-vehicle cameras 12, 13, 14, 15, and 16. In such a case, any one of the imaging regions may be an imaging region. If the brightness detection result is equal to or greater than the threshold brightness, information on the peripheral range of the effective irradiation range may be acquired.

そして、周辺範囲の情報が取得された有効照射範囲については、複合範囲の算出およびこれに続く複合部位の抽出を行ったうえで、複合部位を識別するための識別画像(第2の識別画像)を表示するようにし、一方、周辺範囲の情報が取得されなかった有効照射範囲については、有効照射範囲を識別するための識別画像(第1の識別画像)を表示するようにすればよい。   And about the effective irradiation range from which the information of the peripheral range was acquired, after calculating the composite range and extracting the composite part subsequent thereto, an identification image (second identification image) for identifying the composite part On the other hand, an identification image (first identification image) for identifying the effective irradiation range may be displayed for the effective irradiation range for which the peripheral range information is not acquired.

以上述べたように、本発明によれば、車両周辺監視画像2,3上に有効照射部位7,8,9,10または複合部位57,58,59,60を識別するための境界線画像37,38,39,40,62,63,64,65を表示することができるので、暗所における車両周辺監視画像2,3の視認性および信頼性を向上させることができ、ひいては、暗所における安全かつ円滑な運転操作を支援することができる。   As described above, according to the present invention, the boundary line image 37 for identifying the effective irradiation parts 7, 8, 9, 10 or the composite parts 57, 58, 59, 60 on the vehicle periphery monitoring images 2, 3. , 38, 39, 40, 62, 63, 64, 65 can be displayed, so that the visibility and reliability of the vehicle periphery monitoring images 2 and 3 in the dark place can be improved. Safe and smooth driving operation can be supported.

なお、本発明は、前述した実施の形態に限定されるものではなく、必要に応じて種々の変更が可能である。   In addition, this invention is not limited to embodiment mentioned above, A various change is possible as needed.

例えば、車両周辺監視画像2,3は、撮像面座標系からディスプレイ座標系への座標変換を行うことができる方法であれば、マッピングテーブル以外の方法によって生成してもよい。   For example, the vehicle periphery monitoring images 2 and 3 may be generated by a method other than the mapping table as long as the method can perform coordinate conversion from the imaging plane coordinate system to the display coordinate system.

また、明るさ検出装置として、自車両の周辺の照度を検出する外付けの照度計を用いるようにしてもよい。   Moreover, you may make it use the external illuminometer which detects the illumination intensity around the own vehicle as a brightness detection apparatus.

本発明に係る車両周辺監視装置の第1実施形態を示すブロック図The block diagram which shows 1st Embodiment of the vehicle periphery monitoring apparatus which concerns on this invention. 本発明に係る車両周辺監視装置の第1実施形態において、マッピングテーブルを示す模式図The schematic diagram which shows a mapping table in 1st Embodiment of the vehicle periphery monitoring apparatus which concerns on this invention. 本発明に係る車両周辺監視装置の第1実施形態において、有効照射範囲の情報が記述されたテーブルを示す図The figure which shows the table in which information of the effective irradiation range was described in 1st Embodiment of the vehicle periphery monitoring apparatus which concerns on this invention. 本発明に係る車両周辺監視装置の第1実施形態において、識別画像としての境界線画像の表示状態を示す図The figure which shows the display state of the boundary line image as an identification image in 1st Embodiment of the vehicle periphery monitoring apparatus which concerns on this invention. 本発明に係る車両周辺監視装置の第1実施形態において、変形例としての境界線画像およびマスク画像の表示状態を示す図The figure which shows the display state of the boundary line image and mask image as a modification in 1st Embodiment of the vehicle periphery monitoring apparatus which concerns on this invention. 本発明に係る車両周辺監視装置の第2実施形態を示すブロック図The block diagram which shows 2nd Embodiment of the vehicle periphery monitoring apparatus which concerns on this invention. 本発明に係る車両周辺監視装置の第2実施形態において、周辺範囲の情報が記述されたテーブルを示す図The figure which shows the table in which the information of the periphery range was described in 2nd Embodiment of the vehicle periphery monitoring apparatus which concerns on this invention. 本発明に係る車両周辺監視装置の第2実施形態において、第2の識別画像としての境界線画像の表示状態を示す図The figure which shows the display state of the boundary line image as a 2nd identification image in 2nd Embodiment of the vehicle periphery monitoring apparatus which concerns on this invention. 本発明に係る車両周辺監視装置の第2実施形態において、変形例としての境界線画像およびマスク画像の表示状態を示す図The figure which shows the display state of the boundary line image and mask image as a modification in 2nd Embodiment of the vehicle periphery monitoring apparatus which concerns on this invention. 従来の車両周辺監視画像の表示状態を示す図The figure which shows the display state of the conventional vehicle periphery monitoring image

符号の説明Explanation of symbols

11 車両周辺監視装置
12 左フロントカメラ
13 右フロントカメラ
14 左サイドカメラ
15 右サイドカメラ
16 バックカメラ
19 監視用画面表示処理部
28 前照灯
29 後尾灯
30 補助照明装置
31 識別画像表示処理部
DESCRIPTION OF SYMBOLS 11 Vehicle periphery monitoring apparatus 12 Left front camera 13 Right front camera 14 Left side camera 15 Right side camera 16 Back camera 19 Monitoring screen display process part 28 Headlamp 29 Rear lamp 30 Auxiliary illumination apparatus 31 Identification image display process part

Claims (14)

自車両の周辺における所定の撮影領域を撮影する撮影装置と、
この撮影装置によって撮影された撮影映像を用いて、自車両の周辺における所定の監視範囲を監視する画像である車両周辺監視画像を生成し、生成された車両周辺監視画像を表示部に表示する車両周辺監視画像表示処理装置と、
前記監視範囲に対して光を照射する照明装置と、
前記自車両の暗所の走行の際に、前記監視範囲における前記照明装置の輝度が所定の閾値輝度以上の状態として前記照明装置の光が有効に照射される範囲である有効照射範囲を把握したうえで、前記車両周辺監視画像上に、前記車両周辺監視画像における前記有効照射範囲の撮影映像を用いて生成された部位である有効照射部位を識別するための識別画像を表示する識別画像表示処理装置と
を備えたことを特徴とする車両周辺監視装置。
A photographing device for photographing a predetermined photographing region around the own vehicle;
A vehicle that generates a vehicle periphery monitoring image, which is an image for monitoring a predetermined monitoring range around the host vehicle, using a captured image captured by the imaging device, and displays the generated vehicle periphery monitoring image on a display unit A peripheral monitoring image display processing device;
An illumination device that emits light to the monitoring range;
When traveling in a dark place of the host vehicle, the effective irradiation range, which is a range in which the light of the lighting device is effectively irradiated as the luminance of the lighting device in the monitoring range is equal to or higher than a predetermined threshold luminance, is grasped. In addition, on the vehicle periphery monitoring image, an identification image display process for displaying an identification image for identifying an effective irradiation part that is a part generated using a captured image of the effective irradiation range in the vehicle periphery monitoring image And a vehicle periphery monitoring device.
前記識別画像表示処理装置が、前記識別画像として、前記車両周辺監視画像における前記有効照射部位とこれ以外の部位との境界を示す境界線の画像を表示するように形成されていること
を特徴とする請求項1に記載の車両周辺監視装置。
The identification image display processing device is configured to display an image of a boundary line indicating a boundary between the effective irradiation site and the other site in the vehicle periphery monitoring image as the identification image. The vehicle periphery monitoring device according to claim 1.
前記車両周辺監視画像に、前記自車両の少なくとも一部を示す自車両画像が含まれており、
前記識別画像表示処理装置が、前記識別画像として、前記境界線の画像とともに前記車両周辺監視画像における前記有効照射部位および前記自車両画像以外の部位を視認不能にするためのマスク画像を表示するように形成されていること
を特徴とする請求項2に記載の車両周辺監視装置。
The vehicle periphery monitoring image includes a host vehicle image indicating at least a part of the host vehicle,
The identification image display processing device displays, as the identification image, a mask image for making the portion other than the effective irradiation portion and the vehicle image in the vehicle periphery monitoring image invisible together with the boundary line image. The vehicle periphery monitoring device according to claim 2, wherein the vehicle periphery monitoring device is formed as follows.
自車両の周辺における所定の撮影領域を撮影する撮影装置と、
この撮影装置によって撮影された撮影映像を用いて、自車両の周辺における所定の監視範囲を監視する画像である車両周辺監視画像を生成し、生成された車両周辺監視画像を表示部に表示する車両周辺監視画像表示処理装置と、
前記監視範囲に対して光を照射する照明装置と、
前記自車両の周辺の明るさを検出する明るさ検出装置と、
前記自車両の暗所の走行の際に、前記監視範囲における前記照明装置の輝度が所定の閾値輝度以上の状態として前記照明装置の光が有効に照射される範囲である有効照射範囲を把握したうえで、前記明るさ検出装置によって検出された前記自車両の周辺の明るさが所定の閾値明るさ未満となる場合には、前記車両周辺監視画像上に、前記車両周辺監視画像における前記有効照射範囲の撮影映像を用いて生成された部位である有効照射部位を識別するための第1の識別画像を表示し、前記明るさ検出装置によって検出された前記自車両の周辺の明るさが前記閾値明るさ以上となる場合には、前記車両周辺監視画像上に、前記有効照射部位とその周辺部位とが加え合わされた部位である複合部位を識別するための第2の識別画像を表示する識別画像表示処理装置と
を備えたことを特徴とする車両周辺監視装置。
A photographing device for photographing a predetermined photographing region around the own vehicle;
A vehicle that generates a vehicle periphery monitoring image, which is an image for monitoring a predetermined monitoring range around the host vehicle, using a captured image captured by the imaging device, and displays the generated vehicle periphery monitoring image on a display unit A peripheral monitoring image display processing device;
An illumination device that emits light to the monitoring range;
A brightness detection device for detecting brightness around the vehicle;
When traveling in a dark place of the host vehicle, the effective irradiation range, which is a range in which the light of the lighting device is effectively irradiated as the luminance of the lighting device in the monitoring range is equal to or higher than a predetermined threshold luminance, is grasped. In addition, when the brightness around the vehicle detected by the brightness detection device is less than a predetermined threshold brightness, the effective irradiation in the vehicle periphery monitoring image is displayed on the vehicle periphery monitoring image. A first identification image for identifying an effective irradiation site that is a site generated using a captured video of a range is displayed, and brightness around the vehicle detected by the brightness detection device is the threshold value. An identification image for displaying a second identification image for identifying a composite part that is a part obtained by adding the effective irradiation part and the peripheral part on the vehicle periphery monitoring image when the brightness is equal to or higher than the brightness Vehicle periphery monitoring apparatus characterized by comprising a display processor.
前記識別画像表示処理装置が、前記第1の識別画像として、前記車両周辺監視画像における前記有効照射部位とこれ以外の部位との境界を示す第1の境界線の画像を表示し、前記第2の識別画像として、前記車両周辺監視画像における前記複合部位とこれ以外の部位との境界を示す第2の境界線の画像を表示するように形成されていること
を特徴とする請求項4に記載の車両周辺監視装置。
The identification image display processing device displays, as the first identification image, an image of a first boundary line indicating a boundary between the effective irradiation site and the other site in the vehicle periphery monitoring image, and the second image The image of the 2nd boundary line which shows the boundary of the said composite part and other site | part in the said vehicle periphery monitoring image as an identification image of this is formed so that it may be displayed. Vehicle periphery monitoring device.
前記車両周辺監視画像に、前記自車両の少なくとも一部を示す自車両画像が含まれており、
前記識別画像表示処理装置が、前記第1の識別画像として、前記第1の境界線の画像とともに前記車両周辺監視画像における前記有効照射部位および前記自車両画像以外の部位を視認不能にするための第1のマスク画像を表示するように形成され、前記第2の識別画像として、前記第2の境界線の画像とともに前記車両周辺監視画像における前記複合部位および前記自車両画像以外の部位を視認不能にするための第2のマスク画像を表示するように形成されていること
を特徴とする請求項5に記載の車両周辺監視装置。
The vehicle periphery monitoring image includes a host vehicle image indicating at least a part of the host vehicle,
The identification image display processing device is configured to make the first identification image invisible in the vehicle periphery monitoring image other than the effective irradiation region and the vehicle image as the first boundary image. The first mask image is formed so as to be displayed, and the second identification image cannot be seen with the second boundary line image and the complex part and the vehicle image other than the host vehicle image in the vehicle periphery monitoring image. The vehicle periphery monitoring device according to claim 5, wherein the vehicle periphery monitoring device is formed so as to display a second mask image to be used.
前記明るさ検出装置が、照度計とされていること
を特徴とする請求項4乃至請求項6のいずれか1項に記載の車両周辺監視装置。
The vehicle periphery monitoring device according to any one of claims 4 to 6, wherein the brightness detection device is an illuminance meter.
前記撮影装置が、前記撮影領域に対する測光を行い、この測光の結果に基づいて露出を決定し、決定された露出の下で前記撮影領域の撮影を行うように形成され、
前記明るさ検出装置が、前記撮影装置による前記測光の結果を用いて前記自車両の周辺の明るさを検出するように形成されていること
を特徴とする請求項4乃至請求項6のいずれか1項に記載の車両周辺監視装置。
The photographing device performs photometry on the photographing region, determines an exposure based on a result of the photometry, and is configured to photograph the photographing region under the determined exposure.
7. The brightness detection device is configured to detect the brightness of the surroundings of the host vehicle using a result of the photometry performed by the photographing device. 8. The vehicle periphery monitoring device according to claim 1.
前記識別画像表示処置装置が、前記閾値明るさに対する前記明るさ検出装置によって検出された前記自車両の周辺の明るさの超過量の増加にしたがって、前記周辺部位を漸次または段階的に大きくとるように形成されていること
を特徴とする請求項4乃至請求項8のいずれか1項に記載の車両周辺監視装置。
The identification image display treatment device gradually or gradually increases the peripheral portion in accordance with an increase in the amount of excess brightness around the host vehicle detected by the brightness detection device with respect to the threshold brightness. The vehicle periphery monitoring device according to claim 4, wherein the vehicle periphery monitoring device is formed as follows.
車両周辺監視装置の設計に応じて一義的に設定された前記有効照射範囲の情報が記憶された有効照射範囲記憶装置を備え、
前記識別画像表示処理装置が、前記有効照射範囲記憶装置に記憶された情報を取得することによって、前記有効照射範囲を把握するように形成されていること
を特徴とする請求項1乃至請求項9のいずれか1項に記載の車両周辺監視装置。
An effective irradiation range storage device in which information of the effective irradiation range uniquely set according to the design of the vehicle periphery monitoring device is stored;
10. The identification image display processing device is formed so as to grasp the effective irradiation range by acquiring information stored in the effective irradiation range storage device. The vehicle periphery monitoring device according to any one of the above.
前記閾値輝度が、前記自車両の走行速度の増加にともなって漸次または段階的に増加する値とされ、
前記有効照射範囲が、前記自車両の走行速度の増加にともなう前記閾値輝度の増加にともなって漸次または段階的に縮小する範囲とされていること
を特徴とする請求項1乃至請求項10のいずれか1項に記載の車両周辺監視装置。
The threshold brightness is a value that gradually or stepwise increases as the traveling speed of the host vehicle increases.
11. The effective irradiation range is a range that gradually or gradually decreases as the threshold luminance increases as the traveling speed of the host vehicle increases. The vehicle periphery monitoring device according to claim 1.
前記識別画像表示処理装置が、前記照明装置が点灯していることに基づいて前記自車両が暗所を走行していることを認識するように形成されていること
を特徴とする請求項1乃至請求項11のいずれか1項に記載の車両周辺監視装置。
The identification image display processing device is formed so as to recognize that the host vehicle is traveling in a dark place based on the lighting device being turned on. The vehicle periphery monitoring apparatus according to claim 11.
前記車両周辺監視画像が、前記自車両およびその周辺を前記自車両の上方から見下ろした俯瞰画像を含むこと
を特徴とする請求項1乃至請求項12のいずれか1項に記載の車両周辺監視装置。
The vehicle periphery monitoring device according to any one of claims 1 to 12, wherein the vehicle periphery monitoring image includes an overhead image obtained by looking down the host vehicle and the periphery thereof from above the host vehicle. .
前記車両周辺監視画像が、前記自車両の前側方を監視する画像であるサイドビュー画像を含むこと
を特徴とする請求項1乃至請求項13のいずれか1項に記載の車両周辺監視装置。
The vehicle periphery monitoring device according to any one of claims 1 to 13, wherein the vehicle periphery monitoring image includes a side view image that is an image for monitoring a front side of the host vehicle.
JP2007152684A 2007-06-08 2007-06-08 Vehicle periphery monitoring device Active JP4927647B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007152684A JP4927647B2 (en) 2007-06-08 2007-06-08 Vehicle periphery monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007152684A JP4927647B2 (en) 2007-06-08 2007-06-08 Vehicle periphery monitoring device

Publications (2)

Publication Number Publication Date
JP2008306546A true JP2008306546A (en) 2008-12-18
JP4927647B2 JP4927647B2 (en) 2012-05-09

Family

ID=40234852

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007152684A Active JP4927647B2 (en) 2007-06-08 2007-06-08 Vehicle periphery monitoring device

Country Status (1)

Country Link
JP (1) JP4927647B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011035729A (en) * 2009-08-03 2011-02-17 Alpine Electronics Inc Apparatus and method for displaying vehicle-surrounding image
CN102205811A (en) * 2010-03-31 2011-10-05 富士通天株式会社 Image generation apparatus, image displaying system and image generation method
JP2011205376A (en) * 2010-03-25 2011-10-13 Fujitsu Ten Ltd On-board lighting apparatus, image processor, image display system and lighting method
US8780202B2 (en) 2010-03-25 2014-07-15 Fujitsu Ten Limited Image generation apparatus
JP2015065579A (en) * 2013-09-25 2015-04-09 株式会社富士通ゼネラル Picture data conversion device and operation support device, navigation device, and camera device
US9834132B2 (en) 2011-09-28 2017-12-05 Toyota Jidosha Kabushiki Kaisha Vehicle equipped with means for illuminating/watching a side area thereof
KR20200026547A (en) * 2018-09-03 2020-03-11 현대자동차주식회사 Vehicle and control method for the same
WO2023085066A1 (en) * 2021-11-11 2023-05-19 パナソニックIpマネジメント株式会社 Light source unit and vehicle
JP7400102B2 (en) 2019-12-09 2023-12-18 ツェットカーヴェー グループ ゲーエムベーハー System for monitoring the surroundings of a car

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11146389A (en) * 1997-11-04 1999-05-28 Nissan Motor Co Ltd Display
JP2004254044A (en) * 2003-02-19 2004-09-09 Denso Corp Driving supporting method, display system and notification system
JP2006350670A (en) * 2005-06-15 2006-12-28 Denso Corp Night driving visibility support system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11146389A (en) * 1997-11-04 1999-05-28 Nissan Motor Co Ltd Display
JP2004254044A (en) * 2003-02-19 2004-09-09 Denso Corp Driving supporting method, display system and notification system
JP2006350670A (en) * 2005-06-15 2006-12-28 Denso Corp Night driving visibility support system

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011035729A (en) * 2009-08-03 2011-02-17 Alpine Electronics Inc Apparatus and method for displaying vehicle-surrounding image
JP2011205376A (en) * 2010-03-25 2011-10-13 Fujitsu Ten Ltd On-board lighting apparatus, image processor, image display system and lighting method
US8780202B2 (en) 2010-03-25 2014-07-15 Fujitsu Ten Limited Image generation apparatus
CN102205811A (en) * 2010-03-31 2011-10-05 富士通天株式会社 Image generation apparatus, image displaying system and image generation method
US8749632B2 (en) 2010-03-31 2014-06-10 Fujitsu Ten Limited Image generation apparatus
US9834132B2 (en) 2011-09-28 2017-12-05 Toyota Jidosha Kabushiki Kaisha Vehicle equipped with means for illuminating/watching a side area thereof
JP2015065579A (en) * 2013-09-25 2015-04-09 株式会社富士通ゼネラル Picture data conversion device and operation support device, navigation device, and camera device
KR20200026547A (en) * 2018-09-03 2020-03-11 현대자동차주식회사 Vehicle and control method for the same
KR102632092B1 (en) 2018-09-03 2024-02-02 현대자동차주식회사 Vehicle and control method for the same
JP7400102B2 (en) 2019-12-09 2023-12-18 ツェットカーヴェー グループ ゲーエムベーハー System for monitoring the surroundings of a car
WO2023085066A1 (en) * 2021-11-11 2023-05-19 パナソニックIpマネジメント株式会社 Light source unit and vehicle

Also Published As

Publication number Publication date
JP4927647B2 (en) 2012-05-09

Similar Documents

Publication Publication Date Title
JP4927647B2 (en) Vehicle periphery monitoring device
JP5680573B2 (en) Vehicle driving environment recognition device
JP5437855B2 (en) Obstacle detection device, obstacle detection system including the same, and obstacle detection method
JP5629521B2 (en) Obstacle detection system and method, obstacle detection device
JP2007142624A (en) Vehicle mounted imaging apparatus
CN110087946B (en) Lighting system for vehicle and vehicle
JP2005350010A (en) Stereoscopic vehicle exterior monitoring device
JP2010223685A (en) Imaging apparatus for vehicle
JP2010264872A (en) On-vehicle lighting system, image processing device, and image display system
JP2009071789A (en) Vehicle periphery monitoring system
JP2014127924A (en) Night vision device
JP2012027773A (en) Pseudo grayscale image generation device and program
JP4731177B2 (en) Infrared imaging display device and infrared imaging display method for vehicle
JP5712821B2 (en) Shooting display control system
JP2007015660A (en) Infrared image imaging device
JP2006311216A (en) Monitoring system for periphery of vehicle
JP2005178576A (en) Vehicle periphery monitoring device
JP2016076912A (en) Photographic image display device, photographic image display method and photographic image display program
JP6322723B2 (en) Imaging apparatus and vehicle
JP2002308014A (en) Periphery visual recognizing device for vehicle
JP7295645B2 (en) Vehicle road sign recognition support device
JP2008193504A (en) Night vision device
JP4376050B2 (en) Vehicle periphery monitoring device
JP2013009041A (en) Vehicle photographing display control system
CN104702832A (en) Imaging method and device for security prevention monitoring shooting of automobile

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100427

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110704

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120207

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120209

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150217

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4927647

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150